Einheit ohne Fundament: Eine Studie zum Reduktionsproblem in der Physik 9783110329513, 9783110329360

Mit dem Begriff der Theoriennachbarschaft und einer darauf aufbauenden neuen Definition von Reduktion ermöglicht diese A

177 37 1MB

German Pages 305 [309] Year 2009

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Einheit ohne Fundament: Eine Studie zum Reduktionsproblem in der Physik
 9783110329513, 9783110329360

Table of contents :
Das Reduktionsproblem
1.1 Die Fragestellung
1.2 Positionen zum Reduktionsproblem
1.3 Theorien der Reduktion
Die Reduktion physikalischer Theorien
2.1 Das Reduktionsproblem in der Physik
2.2 Der begriffliche Aspekt
2.3 Der mathematische Aspekt
2.4 Reduktion und Theoriennachbarschaft
2.5 Zusammenfassung und Vorbereitung der Fallbeispiele
Newtonsche Gravitationstheorie undAllgemeine Relativitätstheorie
3.1 Die Gesetze der Allgemeinen Relativitätstheorie
3.2 Ist die Newtonsche Gravitationstheorie als Grenzfall in der Allgemeinen Relativitätstheorie enthalten?
3.3 Die linearisierte Allgemeine Relativitätstheorie und die Post-Newtonsche Näherung
3.4 Erklärungen mit den Einsteinschen Feldgleichungen
3.5 Erklärungsgrenzen der Allgemeinen Relativitätstheorie
3.6 Ausblick und Zusammenfassung
Newtonsche Mechanik und Quantenmechanik
4.1 Die Gesetze der Quantenmechanik
4.2 Ist die Newtonsche Mechanik als Grenzfall in der Quantenmechanik enthalten?
4.3 Erklärungen mit der Quantenmechanik
4.4 Erklärungsgrenzen der Quantenmechanik
4.5 Ausblick und Zusammenfassung
Thermodynamik und statistische Mechanik
5.1 Statistische Thermodynamik
5.2 Ist die Thermodynamik als Grenzfall in der statistischen Mechanik enthalten?
5.3 Erklärungsgrenzen der statistischen Mechanik
5.4 Das Problem der makroskopischen Irreversibilität
5.5 Das Gibbssche Paradoxon
5.6 Zusammenfassung
Schlussbemerkungen
6.1 Zusammenfassung
6.2 Einheit der Physik, Theorie von Allem und pluralistische Ontologie
Literaturverzeichnis

Citation preview

Rico Gutschmidt Einheit ohne Fundament Eine Studie zum Reduktionsproblem in der Physik

EPISTEMISCHE STUDIEN Schriften zur Erkenntnis- und Wissenschaftstheorie Herausgegeben von / Edited by Michael Esfeld • Stephan Hartmann • Albert Newen Band 16 / Volume 16

Rico Gutschmidt

Einheit ohne Fundament Eine Studie zum Reduktionsproblem in der Physik

Bibliographic information published by Die Deutsche Bibliothek Die Deutsche Bibliothek lists this publication in the Deutsche Nationalbibliographie; detailed bibliographic data is available in the Internet at http://dnb.ddb.de

Dissertation Universität Bonn North and South America by Transaction Books Rutgers University Piscataway, NJ 08854-8042 [email protected] United Kingdom, Ire, Iceland, Turkey, Malta, Portugal by Gazelle Books Services Limited White Cross Mills Hightown LANCASTER, LA1 4XS [email protected]

Livraison pour la France et la Belgique: Librairie Philosophique J.Vrin 6, place de la Sorbonne ; F-75005 PARIS Tel. +33 (0)1 43 54 03 47 ; Fax +33 (0)1 43 54 48 18 www.vrin.fr

2009 ontos verlag P.O. Box 15 41, D-63133 Heusenstamm www.ontosverlag.com ISBN 978-3-86838-056-9 2009 No part of this book may be reproduced, stored in retrieval systems or transmitted in any form or by any means, electronic, mechanical, photocopying, microfilming, recording or otherwise without written permission from the Publisher, with the exception of any material supplied specifically for the purpose of being entered and executed on a computer system, for exclusive use of the purchaser of the work Printed on acid-free paper ISO-Norm 970-6 FSC-certified (Forest Stewardship Council) This hardcover binding meets the International Library standard Printed in Germany by buch bücher dd ag

„[...] die Natur weiß ganz allein, was sie will, was sie gewollt hat.“ Goethe, Maximen und Reflexionen

Vorwort

Diese Arbeit untersucht die Möglichkeiten und Grenzen eliminativer Reduktionen in der Physik, die Frage also, ob es physikalische Theorien gibt, die auf andere zurückgeführt werden können und damit zur Beschreibung der Welt nicht mehr benötigt werden. Dabei wird ein besonderer Akzent auf der Frage nach der prinzipiellen Möglichkeit solcher Reduktionen liegen: Es kann schließlich sein, dass eine bestimmte Theorie aus praktischen Gründen nach wie vor verwendet wird, obwohl sie im Prinzip eliminativ auf eine andere reduziert ist. Zunächst wird allerdings geklärt, was genau unter eliminativer Reduktion zu verstehen ist. Im Anschluss an das einführende erste Kapitel zeigt die Untersuchung im zweiten Kapitel, dass es sich dabei nicht um eine direkte Beziehung zwischen Theorien handeln kann, in der die Gesetze einer Theorie mit Hilfe von Grenzübergängen aus den Gesetzen einer anderen Theorie abgeleitet werden: Solche Beziehungen allein machen eine Theorie noch nicht überflüssig und können höchstens zeigen, dass zwei Theorien in einem bestimmten Sinn benachbart zueinander sind. Dieses Vergleichsverhältnis zwischen Theorien wird im zweiten Kapitel als Theoriennachbarschaft genau definiert. Eine eliminative Reduktion einer physikalischen Theorie auf eine andere liegt dagegen nur dann vor, wenn nicht nur Nachbarschaftsbedingungen erfüllt sind, sondern man auch in einem indirekten Anteil der Reduktion mit der reduzierenden Theorie alle Phänomene erklären kann, die von der zu reduzierenden Theorie erklärt werden. Im zweiten Kapitel wird schließlich ein Reduktionskonzept aus einer Mischung aus direkter und indirekter Reduktion definiert, so dass eine reduzierte Theorie eliminativ reduziert und mithin überflüssig ist. Unter Zugrundelegung dieser Definitionen werden dann in den Kapiteln 3, 4 und 5 drei Fallbeispiele untersucht, wobei sich zeigen wird, dass moderne physikalische Theorien zwar oft benachbart zueinander sind, aber meist nicht eliminativ aufeinander reduzierbar: Solche Reduktionen gibt es nur in historischen Fällen und für einzelne Phänomenerklärungen. Als Beispiel seien hier die Verhältnisse zwischen den verschiedenen Theorien der Gravitation herausgegriffen: Während das Galileische Fallgesetz und die Keplerschen Gesetze auf das Newtonsche Gravitationsgesetz und die Newtonsche Beschreibung der Planetenbahnen auf die Schwarzschildlösung der Allgemeinen Relativitätstheorie reduzierbar sind, ist die Newtonsche Gravitationstheorie als Ganze zu der ART lediglich benachbart. Dies und Entsprechendes in den anderen in dieser Arbeit diskutierten Beispielen (das Verhältnis zwischen Newtonscher Mechanik und Quantenmechanik und das zwischen Thermodynamik und statistischer Mechanik) gilt nun nicht nur aus pragmatischen Gründen, wie etwa rechentechnischer Beschränktheit,

sondern es werden Gründe selbst gegen die prinzipielle Möglichkeit solcher Reduktionen angegeben. Die Unmöglichkeit eliminativer Reduktionen lässt sich zwar nicht endgültig beweisen, aber die Beweislast in dieser Frage wird der reduktionistischen Position überantwortet, die zu zeigen hat, wie angesichts der hier angegebenen Argumente solche Reduktionen dennoch möglich sein sollen. Laut dieses Ergebnisses gibt es in der Physik viele eigenständige Theorien, die bei der Erklärung konkreter Phänomene fruchtbar zusammenarbeiten können, aber meist nicht eliminativ aufeinander und erst recht nicht sämtlich auf eine fundamentale Theorie von Allem reduzierbar sind. Dies lässt sich plausibilisieren mit der Vorstellung verschiedener Beschreibungsebenen. So könnte man zum Beispiel sagen, dass zur Beschreibung grober Phänomene auch grobe Theorien benötigt werden und feinere Theorien in diesem Bereich Zusammenhänge übersehen bzw. sogar übersehen müssen. Dass dieses Ergebnis nun trotz allem nicht gegen eine Einheit der Physik sprechen muss, wird im abschließenden sechsten Kapitel kurz ausgeführt: Die besagte Nachbarschaftsrelation ist in der Lage, in gewissem Sinne Einheit zu stiften, und zeigt insbesondere, dass die Inkommensurabilitätsthese Feyerabends zu weit geht. Die verschiedenen physikalischen Theorien sind zwar eigenständig und in den meisten Fällen nicht eliminativ aufeinander reduzierbar, stehen aber gleichwohl nicht isoliert nebeneinander, sondern können trotz widersprechender Aussagen über die Welt benachbart zueinander sein. Insgesamt zeigt diese Arbeit, dass die meisten physikalischen Theorien lediglich untereinander benachbart sind und es nur wenige Beispiele echter, eliminativer Reduktionen gibt, wobei durch die Nachbarschaft dennoch eine einheitliche Physik gewährleistet bleibt. Für eine vollständige Beschreibung der Welt werden viele verschiedene und jeweils eigenständige Theorien benötigt, die zwar benachbart, aber nicht durch Reduktion auf fundamentale Theorien überflüssig sind, auch nicht im Prinzip. Ich bedanke mich bei Andreas Bartels für die hervorragende Betreuung der Arbeit, bei Cord Friebe und Holger Lyre für anregende Diskussionen und wertvolle Hinweise, bei Stefanie Kiermaier, Konstantin Ziegler und Stefan Heidl für das Korrekturlesen des Manuskripts und bei der Deutschen Forschungsgemeinschaft für die zweijährige Finanzierung dieses Projekts. Dresden, im September 2009 Rico Gutschmidt

Inhaltsverzeichnis 1

Das Reduktionsproblem 1.1 Die Fragestellung . . . . . . . . . . . . . . . . . . . . . . . 1.2 Positionen zum Reduktionsproblem . . . . . . . . . . . . . 1.3 Theorien der Reduktion . . . . . . . . . . . . . . . . . . . .

2

Die Reduktion physikalischer Theorien 2.1 Das Reduktionsproblem in der Physik . . . . . . . . 2.2 Der begriffliche Aspekt . . . . . . . . . . . . . . . . 2.3 Der mathematische Aspekt . . . . . . . . . . . . . . 2.4 Reduktion und Theoriennachbarschaft . . . . . . . . 2.5 Zusammenfassung und Vorbereitung der Fallbeispiele

3

Newtonsche Gravitationstheorie und Allgemeine Relativitätstheorie 121 3.1 Die Gesetze der Allgemeinen Relativitätstheorie . . . . . . . 122 3.2 Ist die Newtonsche Gravitationstheorie als Grenzfall in der Allgemeinen Relativitätstheorie enthalten? . . . . . . . . . . 126 3.3 Die linearisierte Allgemeine Relativitätstheorie und die Post-Newtonsche Näherung . . . . . . . . . . . . . . . . . . 138 3.4 Erklärungen mit den Einsteinschen Feldgleichungen . . . . . 145 3.5 Erklärungsgrenzen der Allgemeinen Relativitätstheorie . . . 150 3.6 Ausblick und Zusammenfassung . . . . . . . . . . . . . . . 162

4

Newtonsche Mechanik und Quantenmechanik 4.1 Die Gesetze der Quantenmechanik . . . . . . . . . . . . . . 4.2 Ist die Newtonsche Mechanik als Grenzfall in der Quantenmechanik enthalten? . . . . . . . . . . . . . . . . . . . . . 4.3 Erklärungen mit der Quantenmechanik . . . . . . . . . . . . 4.4 Erklärungsgrenzen der Quantenmechanik . . . . . . . . . . 4.5 Ausblick und Zusammenfassung . . . . . . . . . . . . . . .

5

. . . . .

. . . . .

. . . . .

. . . . .

7 7 11 22 41 41 52 66 85 106

167 170 180 192 201 217

Thermodynamik und statistische Mechanik 225 5.1 Statistische Thermodynamik . . . . . . . . . . . . . . . . . 228

5.2 5.3 5.4 5.5 5.6

Ist die Thermodynamik als Grenzfall in der statistischen Mechanik enthalten? . . . . . . . . . . . . . . . . . . . . . . . Erklärungsgrenzen der statistischen Mechanik . . . . . . . . Das Problem der makroskopischen Irreversibilität . . . . . . Das Gibbssche Paradoxon . . . . . . . . . . . . . . . . . . Zusammenfassung . . . . . . . . . . . . . . . . . . . . . .

234 251 263 273 281

6 Schlussbemerkungen 283 6.1 Zusammenfassung . . . . . . . . . . . . . . . . . . . . . . 283 6.2 Einheit der Physik, Theorie von Allem und pluralistische Ontologie . . . . . . . . . . . . . . . . . . . . . . . . . . . 286 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . 295

Kapitel 1 Das Reduktionsproblem 1.1 Die Fragestellung

Innerhalb der Naturwissenschaften gibt es viele verschiedene Zugänge zu und Theorien über die Natur, und die als Reduktionsproblem bezeichnete Frage lautet, ob und wie diese Zugänge bzw. Theorien miteinander zusammenhängen. Gehen sie ineinander über und gibt es vielleicht sogar eine Theorie von Allem, die sämtliche naturwissenschaftliche Theorien in einem bestimmten Sinn enthält? Oder sind sie wenig oder gar nicht miteinander vereinbar und bilden autonome Einzelwissenschaften? In Anlehnung an Oppenheim/Putnam 1958 kann man etwas genauer sagen, dass die verschiedenen naturwissenschaftlichen Zugänge zur Welt verschiedenen Beschreibungsebenen entsprechen. Die Physik beschäftigt sich mit den grundlegenden Gesetzen unbelebter Materie, die Chemie mit komplexen Verbindungen solcher Materieteilchen, die Biologie mit lebendigen Organismen, die Psychologie mit dem Bewusstsein höherer Lebewesen und schließlich die Soziologie mit dem Aufeinandertreffen vieler einzelner Lebewesen mit Bewusstsein. Aber selbst innerhalb der Physik, um die es in dieser Arbeit ausschließlich gehen wird, gibt es verschiedene Gebiete und Theorien, die verschiedenen Ebenen entsprechen: die Elementarteilchenphysik, Quantenfeldtheorie und Quantenmechanik, die klassische Newtonsche Mechanik, Spezielle und Allgemeine Relativitätstheorie, aber auch Gebiete wie die Thermodynamik, geometrische Optik, Strömungslehre oder Elektrodynamik. Dabei hat jede Theorie, innerhalb der Physik und auch allgemein, ihre eigene Art und Methodik, an die Welt heranzugehen, ihr eigenes Vokabular zur Beschreibung der Welt und eigene Annahmen über die Welt, was Sklar 2003 wie folgt auf den Punkt bringt: „The ,special sciences‘, even the very general special sciences as chemistry, biology, or the real physics of the macroscopic world, each have their own explanatory structures, invoking their own explanatory general principles or laws, to account for the phenomena within their

8

domain“ (a.a.O., S.427). In der Wissenschaftsgeschichte hat sich nun ein reduktionistisches Vorgehen insofern als heuristische Maxime bewährt, als man neue Erkenntnisse über eine Beschreibungsebene dadurch gewinnen kann, dass bei Erklärungen bestimmter Phänomene eine andere Beschreibungsebene mit ihren Theorien hinzugezogen wird. Die Theorie der chemischen Bindungen etwa hat erheblich von der quantenmechanischen Beschreibung der Elementarteilchen profitiert und die phänomenologische Thermodynamik von der statistischen Mechanik, in der mit statistischen Methoden die Moleküle beschrieben werden, aus denen Gasmengen zusammengesetzt sind. Aber auch das Verwenden verschiedener Theorien innerhalb derselben Beschreibungsebene kann als reduktionistisches Vorgehen befruchtend wirken, wenn etwa Lichtstrahlen der geometrischen Optik als elektromagnetische Wellen aufgefasst werden oder die Gravitationskraft der Newtonschen Theorie mit der Raumkrümmung der Allgemeinen Relativitätstheorie in Verbindung gebracht wird. Die Untersuchung der Teile eines zu erklärenden Phänomens wie auch dessen Beschreibung aus der Perspektive einer anderen Theorie kann also als reduktionistisches Vorgehen produktiv sein. Allerdings gibt es in der Wissenschaftsgeschichte ebenso Beispiele für das Scheitern solcher reduktionistischer Ansätze. Dazu zählt insbesondere die auf dem antiken Atomismus beruhende und schließlich aus dem 17. Jahrhundert stammende Newton-Laplacesche Auffassung, alle Physik sei auf die Mechanik der Atome zurückführbar, eine Auffassung, die bis zu ihrem Ende das physikalische Weltbild geprägt hat. Während es im Fall der Wärmelehre als (mehr oder weniger, vgl. Kapitel 5) gelungen gilt, sie mechanisch zu rekonstruieren, zeigte sich in der zweiten Hälfte des 19. Jahrhunderts, dass dies etwa für die Optik und schließlich für elektromagnetische Phänomene nicht möglich ist. Der Versuch, letztere mit Ätherhypothesen an die Mechanik anzuschließen, scheiterte bekanntlich und es hat sich für die Elektrodynamik mit den Gleichungen Maxwells eine eigenständige, von der Mechanik unabhängige Theorie etabliert. Auch die Gravitation wurde und wird mit Theorien erklärt, die nicht von mechanischen Wechselwirkungen ausgehen. Angesichts dieser Befunde soll nun die obige Frage, inwiefern die zunächst als eigenständig charakterisierten verschiedenen Theorien miteinander zusammenhängen, wieder aufgenommen werden: Einerseits gibt es offenbar fruchtbares Zusammenarbeiten verschiedener Theorien, andererseits Fälle weitgehender Eigenständigkeit, und die Frage, mit der sich die vorliegende Arbeit befasst, lautet, ob zur Beschreibung der Welt tatsächlich viele verschiedene Theorien notwendig sind. Es steht nämlich die Möglichkeit im Raum, dass es sich nur um scheinbare Eigenständigkeiten handelt und die prima facie verschiedenen Theorien aufeinander und am Ende vielleicht

9

sogar alle auf eine fundamentale Theorie reduziert, das heißt zurückgeführt werden können. Es wird natürlich zu klären sein, in welchem Sinne das genau gemeint sein kann, aber die Fragestellung der vorliegenden Arbeit ist, ob es zunächst eigenständig erscheinende Theorien gibt, die durch die Reduktion auf eine andere Theorie streng genommen überflüssig sind. Dabei kann sich etwa herausstellen, dass diese Überflüssigkeit nur im Prinzip gilt, da die reduzierende Theorie zwar prinzipiell die Rolle der reduzierten übernehmen kann, letztere aber aus pragmatischen Gründen für ihre Beschreibungsebene besser geeignet ist und daher eine gewisse Existenzberechtigung behält. Die Position des eliminativen Reduktionismus jedenfalls, nach der eine reduzierte Theorie im Prinzip überflüssig ist, ist der Gegenstand dieser Arbeit. Solche eliminativen Reduktionen können dabei natürlich auch in den Fällen möglich sein, in denen sie bisher nicht gelungen sind, was für das angeführte historische Beispiel des mechanistischen Programms etwa Hoyningen-Huene 2007 hervorhebt: „So setzte sich in der Physik die Überzeugung von der Irreduzibilität von Gravitationsphänomenen und von elektrischen Phänomenen auf mechanische Phänomene dadurch durch, dass Theorien eingeführt wurden, die jene Phänomene auf der Grundlage nicht-mechanisch angesetzter Wechselwirkungen hervorragend erklären konnten. Das Motiv für die Einführung solcher Theorien war das Scheitern aller vorangegangenen Versuche, mechanische Erklärungen für jene Phänomene zu finden – was die Unmöglichkeit solcher reduktiven Erklärungen aber natürlich nicht beweist.“ (a.a.O., S.190)

Gleichwohl sollen in dieser Arbeit die Verhältnisse zwischen physikalischen Theorien untersucht werden, wie sie sich zur Zeit darstellen – und dabei wird sich zeigen, dass in der Tat Fälle echter eliminativer Reduktionen innerhalb der Physik nach dem derzeitigen Stand der Dinge selten sind. Natürlich lässt sich die Möglichkeit solcher Reduktionen weiterhin behaupten und deren Unmöglichkeit nicht beweisen, es werden aber Argumente vorgebracht, die in vielen Fällen gegen diese Möglichkeit sprechen. Da nun oft von Vertretern einer antireduktionistischen These über solche Argumente hinaus der Nachweis der Unmöglichkeitsbehauptung erwartet wird, gilt diese Position als schwierig: Die reduktionistische Gegenposition kann schließlich immer optimistisch auf zukünftige Entwicklungen verweisen, die nur im Moment nicht vorliegende Reduktionen eines Tages werden leisten können. Daher sieht sich etwa Hoyningen-Huene 1992 zu der Forderung veranlasst, eine eigene Theorie antireduktionistischer Argumente zu entwickeln. Allerdings ist ein eliminativer Reduktionismus, der behauptet, bestimmte Theorien seien überflüssig, sobald es einmal Reduktionen auf eine grundlegendere Theorie gibt, eine mindestens ebenso

10

schwierige Behauptung, eine Existenzbehauptung nämlich, die geeignete fundamentale Theorien und entsprechende reduktive Erklärungen fordert, und dies angesichts der offenbaren Tatsache, dass es viele verschiedene Beschreibungsebenen gibt und ein Zusammenhang zwischen den Theorien dieser Ebenen alles andere als selbstverständlich ist. Die Wissenschaft arbeitet in verschiedenen Ebenen, die zunächst nicht viel miteinander gemein haben, weshalb der Reduktionist Zusammenhänge konstruiert, die die Wissenschaft nicht nahelegt, und weshalb die Behauptung, man könne im Prinzip alle Theorien sogar auf eine fundamentale Theorie zurückführen, abwegig erscheint. In Sklar 2003 heißt es dazu: „The world initially appears to us diverse in content and in the regularity of its phenomena. It is a bold and striking claim that some one scientific scheme of concepts and laws is universal in its application“ (S.431). Daher ist eine reduktionistische Auffassung zunächst viel wunderlicher als die Gegenposition: Der Reduktionist behauptet etwas gegen den offenbaren Anschein, während der Antireduktionist versucht, die Erfahrungstatsache der unterschiedlichen Beschreibungsebenen zu begründen. Und wenn man auch in der stark mathematisierten Physik aufgrund eben dieser Mathematisierung leicht zu reduktionistischen Gedanken verführt wird, gilt dennoch, dass zum Beispiel die Quantenmechanik etwas anderes ist als die Newtonsche Mechanik, Zusammenhänge nicht offensichtlich sind und Versuche, solche in obigem reduktionistischen Sinn zu gewinnen, bisher erfolglos waren (vgl. für diesen Fall Kapitel 4). Die Behauptung der Möglichkeit einer solchen Reduktion mit Verweis auf die Zukunft bleibt natürlich bestehen, aber angesichts der Argumente, die im Laufe der Arbeit vorgebracht werden, trägt die reduktionistische Position die Beweislast: Solange nämlich nicht klar ist, wie genau eine solche Reduktion aussehen soll, und sogar Gründe gegen deren Möglichkeit vorgebracht werden, ist die Existenzbehauptung weniger plausibel als die Unmöglichkeitsbehauptung. In diesem Zusammenhang ist auch zu bedenken, dass reduktionistische Vorstellungen keineswegs empirische Wurzeln haben: Wenn auch nichtempirische Annahmen, gerade Forderungen nach Vereinfachung und Vereinheitlichung, in der Wissenschaftsgeschichte, besonders im 20. Jahrhundert, oft sehr fruchtbar waren, ja wenn solches Einheitsstreben auch als heuristisches Prinzip oft zu besseren, stärkeren Theorien führt, können derartige Forderungen nichtsdestotrotz nur durch bisherige Erfolge begründet werden – dass die Natur ausgerechnet mit wenigen einfachen Theorien zu beschreiben ist (wie zum Beispiel mit den geradezu schönen Gleichungen der Allgemeinen Relativitätstheorie), ist eine ziemlich starke Annahme. Diese wird offenbar auch aus einem Glauben an eine einheitliche Welt, an einen Zusammenhang aller Dinge gespeist, der eine starke menschliche Intuition zu sein scheint und wohl gerade daher rührt, dass eine solche

11

Einheit nicht offensichtlich ist. Ein solches Bedürfnis nach Ordnung in einer kontingenten Welt kommt zum Beispiel in folgendem Zitat von Max Planck zum Ausdruck: „Welches ist nun der Sinn dieser wissenschaftlichen Arbeit? Er liegt kurz gesagt in der Aufgabe, in die bunte Fülle der uns durch die verschiedenen Gebiete der Sinnenwelt übermittelten Erlebnisse Ordnung und Gesetzlichkeit hineinzubringen – eine Aufgabe, die sich bei näherer Betrachtung als völlig übereinstimmend erweist mit derjenigen Aufgabe, die wir in unserem Leben von frühester Jugend auf gewohnheitsmäßig tagtäglich üben, um uns in unserer Umgebung zurechtzufinden, und an der die Menschen von jeher gearbeitet haben, seitdem sie überhaupt zu denken anfingen, schon um sich im Kampf ums Dasein zu behaupten.“ (aus einem Vortrag von 1941, wiedergegeben in Planck 1975, S.366)

Dieses Ordnungsbedürfnis scheint bei reduktionistischen Vorstellungen im Hintergrund immer präsent zu sein, da diese, von bisherigen Erfolgen abgesehen, jedenfalls keine empirische Begründung haben – es gab schließlich auch die angeführten Fehlschläge. Zunächst spricht also angesichts der vielen verschiedenen Beschreibungsebenen und entsprechenden Theorien nicht viel dafür, die Welt der Naturwissenschaft mit wenigen oder nur einer Theorie erfassen zu können – und nicht zuletzt wird es auch innerhalb einer nichtreduktiven Physik, wie man die antireduktionistische Position der vorliegenden Arbeit nennen könnte, mit dem Konzept der Theoriennachbarschaft eine Art Einheit geben, ähnlich der, die von Reduktionen gestiftet würde, und die ebenfalls das angesprochene Ordnungsbedürfnis befriedigen kann. 1.2 Positionen zum Reduktionsproblem

Auch wenn erst im zweiten Kapitel geklärt wird, mit welchem Konzept von Theorienreduktion eliminative Reduktionen etabliert werden können, seien an dieser Stelle gängige Vorstellungen davon aufgeführt, was solche Reduktionen leisten können sollen. Und während sich der Rest der Arbeit auf physikalische Theorien beschränkt, sei hier auch ein Blick über die Physik hinaus gestattet, der nach der Diskussion des Reduktionsproblems innerhalb der Physik dann im Abschlusskapitel wieder aufgegriffen wird. So ist es nun etwa vorstellbar, dass sämtliche naturwissenschaftliche Theorien im Sinne eines eliminativen Reduktionismus im Prinzip auf Theorien der Elementarteilchenphysik zurückgeführt werden können, wobei die dafür notwendigen Reduktionen nicht explizit ausgeführt sein müssen, wenn dies aus pragmatischen, also etwa rechnerischen Gründen nicht möglich ist. Dennoch könnte sich die Möglichkeit solcher Reduktionen zeigen lassen,

12

so dass einzelne Theorien zwar als praktikables Handwerkszeug weiterhin benötigt werden, aber dennoch im Prinzip überflüssig sind. Dabei ist es sogar denkbar, eine solche reduktionistische Position über die Naturwissenschaften hinaus zu vertreten und also zu behaupten, man könne eines Tages wirklich alles, was sich über die Welt wissen lässt, also etwa auch Forschungsergebnisse der Wissenschaftsgeschichte, aus elementaren Theorien der Physik ableiten. Es soll hier schließlich nicht bezweifelt werden, dass alles im Rahmen physikalischer Gesetze stattfindet, und so könnte es möglich sein, dass sich, analog zu der mechanistischen Vorstellung des Laplaceschen Dämons, auch alles aus physikalischen Gesetzen ableiten lässt. Auf derartige Spekulationen soll hier allerdings nicht weiter eingegangen werden, da auch mit der Einschränkung auf die Naturwissenschaft eine solche reduktionistische Vorstellung herausfordernd genug ist – nicht nur, wenn man die Psychologie hinzuzählt, auch Fächer wie zum Beispiel Paläobotanik werden sich schwerlich mit Methoden der Quantenmechanik behandeln lassen. Insbesondere fällt es nicht leicht, sich vorzustellen, wie Naturwissenschaft, die sich mit Lebewesen beschäftigt, von elementarphysikalischen Theorien erfasst werden soll. Schrödingers Vorstoß in eine solche Richtung in seinem Buch Was ist Leben? (1946) muss sich damit bescheiden, spontane Mutationen bei Vererbungsvorgängen auf spontane Quantensprünge zurückführen und die Langlebigkeit der beteiligten Gene mit einer quantenmechanischen Molekültheorie erklären zu können. Und auch wenn er sich optimistisch gibt und eine diesbezügliche reduktionistische Vorstellung vertritt – „Wenn die heutige Physik und Chemie diese Vorgänge [Vorgänge „innerhalb [...] eines lebenden Organismus“] offenbar nicht zu erklären vermögen, so ist das durchaus kein Grund, die Möglichkeit ihrer Erklärung durch die Wissenschaft zu bezweifeln“ (zitiert aus Schrödinger 1951, S. 10) –, muss er doch einräumen: „Aus einer so allgemeinen Darstellung einer Struktur, wie sie oben vorgetragen worden ist [über Mutationen und Quantensprünge], kann keine Detailauskunft über das Funktionieren des Vererbungsvorganges hervorgehen. Das ist offensichtlich“ (a.a.O., S.96).1 Zunächst sei aber die reduktionistische Position, nach der alle naturwissenschaftlichen Theorien in der Elementarteilchenphysik enthalten sind, unabhängig von dem konkreten Fall der Biologie kurz allgemein diskutiert. So war eingangs nicht umsonst von verschiedenen Beschreibungsebenen die Rede und es ist nicht ohne weiteres einzusehen, wie eine Theorie, die sich mit Elementarteilchen befasst, Aussagen über Phänomene höherer 1

Neben Schrödinger befassten sich mit Bohr 1933 und Delbrück 1949 noch weitere theoretische Physiker mit der Biologie, die allerdings eher deren Eigenständigkeit herausarbeiteten.

13

Ebenen machen kann. Dieser Einwand geht über bloße Komplexitätsfragen hinaus: Objekte höherer Ebenen sind natürlich aus Elementarteilchen zusammengesetzt und so lässt sich behaupten, dass es nur eine Frage von Rechnerkapazitäten ist, auch makroskopische Objekte mit mikroskopischen Theorien zu beschreiben. Aber es treten in höheren Beschreibungsebenen gewissermaßen „grobe“ Eigenschaften auf, die von den „feinen“ Theorien der Elementarteilchenebene möglicherweise nicht erfasst werden können. Dies veranschaulicht Sklar 1993 an dem Beispiel des Stuhls als das eines makroskopischen Objekts, dessen funktionale Eigenschaften als Möbelstück von elementaren Theorien trivialerweise nicht erfasst werden: „A standard example of a trivial sort is frequently given by referring to the way we sort objects into household goods. Surely a chair is nothing but a complex array of the micro-components of the world described by physics. But any hope of defining ,chair‘ in the standard fundamental vocabulary of physics founders on the complex, vague nature of that concept, a concept that takes its meaning from the place furniture plays in the complicated world of everyday life.“ (a.a.O., S.342)

Wenn es also um Erklärungen typischer Phänomene in höheren Beschreibungsebenen geht, kann es Beschränkungen des reduktionistischen Ansatzes dadurch geben, dass die Konzepte der dafür geeigneten makroskopischen Theorien in den mikroskopischen Theorien nicht vorkommen. Dieser Punkt wird im Laufe der Arbeit immer an den Stellen auftreten, an denen die prinzipielle Möglichkeit reduktionistischer Erklärungen mit numerischen Methoden diskutiert wird: Es wird sich zeigen, dass zur Deutung numerischer Ergebnisse oft Wissen von zu reduzierenden Theorien benötigt wird, wie es sich zum Beispiel in dem Wissen um die funktionale Rolle des Stuhls2 zeigt, und das bei aller Kenntnis seiner mikroskopischen Bestandteile aus mikroskopischen Theorien allein nicht gewonnen werden kann. Es scheint also nicht ohne Grund für jede Beschreibungsebene jeweils geeignete Theorien zu geben und insbesondere scheinen die Theorien der elementaren Ebene kaum Aussagen über höhere Ebenen machen zu können: „In fact, the more the elementary particle physicists tell us about the nature of the fundamental laws, the less relevance they seem to have to the very real problems of the rest of science, much less to those of society“ (Anderson 1972, S.393). Dieser allgemeine Punkt der mangelnden Relevanz fundamentaler Beschreibungsebenen für höhere Ebenen wird gleich bei der 2 Nicht

verstanden als Einzelexemplar (token), sondern als eine Klasse bestimmter Möbelstücke (type). Das Konzept der funktionalen Reduktion, nach dem solche funktionale Rollen von reduzierenden Theorien beschrieben werden, wird am Ende von Abschnitt 1.3 kurz besprochen.

14

Diskussion des Reduktionsproblems innerhalb der Physik noch einmal besprochen, zunächst sei aber das Beispiel der Biologie wieder aufgenommen. Auch in diesem Beispiel ist es natürlich so, dass Organismen letztlich aus elementaren Bestandteilen bestehen, weshalb sich behaupten lässt, man könne im Prinzip biologische Vorgänge mit Elementarteilchentheorien erklären – auch wenn dabei auf numerische Verfahren und erst zukünftige große Rechnerkapazitäten verwiesen werden muss. In diese Richtung äußert sich etwa Weinberg 1993: „[...] no one doubts that with a large enough computer we could in principle explain all the properties of DNA by solving the equations of quantum mechanics for electrons and the nuclei of a few common elements“ (a.a.O., S.24). Gegen diese zunächst denkbare Möglichkeit spricht aber andererseits, was Schrödinger mit der Unfähigkeit des physikalischen Ansatzes, Detailauskünfte über den Vererbungsvorgang zu liefern, meinte: Bei Erklärungen biologischer Vorgänge werden wesentlich Konzepte verwendet, die es in der Quantenmechanik nicht gibt. Dazu führt Sklar 1993 im Anschluss an sein Beispiel des Stuhls weiter aus: „A much more interesting case might be that of evolutionary biology. Notions like that of genotype, phenotype, species, fitness, environmental stress, natural selection, and so on, form the fundamental vocabulary of this theory. The theory has its own explanatory principles that function well to offer us a coherent account of such phenomena as species diversification, extinction, modification, and so on. Any simple hope of defining these terms in terms of the concepts of fundamental physics seems out of question.“ (a.a.O, S.342)

Überhaupt beruhen Erklärungen der Biologie weniger auf Gesetzen, wie sie bei physikalischen Erklärungen verwendet werden, sondern beschreiben etwa das komplexe Zusammenspiel vieler Teile innerhalb eines größeren Mechanismus, wie zum Beispiel des Herzschlags, und müssen im Rahmen der Evolutionsbiologie auch kontingente historische Tatsachen berücksichtigen. Wenn daher allein schon die Biologie nicht auf Elementarteilchenphysik zurückführbar zu sein scheint, gilt dies um so mehr für Theorien noch höherer Beschreibungsebenen: „Surely there are more levels of organization between human ethology and DNA than there are between DNA and quantum electrodynamics, and each level can require a whole new conceptual structure“ (Anderson 1972, S.396). Aber selbst schon in einer Beschreibungsebene darunter, innerhalb der Chemie nämlich, werden Konzepte verwendet, die es in der Elementarteilchenphysik nicht gibt. Zwar wird die Diskretheit des Periodensystems der Chemie durch die Quantentheorie des Atoms erklärt und überhaupt profitiert die Chemie erheblich von der Quantenmechanik, aber ihre typischen Konzepte können von letzterer nicht ersetzt werden: „Andererseits ist es nicht möglich, den Begriff der Gestalt einer Molekel

15

lediglich aus ersten Prinzipien der Quantenmechanik herzuleiten“ (Primas 1985, S.113). Kurzum, während die hier diskutierte reduktionistische Vorstellung der Zurückführbarkeit aller naturwissenschaftlichen Theorien auf solche der Physik zunächst denkbar erscheint und es nicht von der Hand zu weisen ist, dass elementarphysikalische Gesetze in gewissem Sinne für höhere Systeme gelten, löst sich diese Vorstellung, die ja über die bloße Geltung der Gesetze hinaus den Anspruch auf Erklärungen durch diese erhebt, bei näherem Hinsehen von allein auf, und selbst die prinzipielle Möglichkeit solcher Reduktionen muss aufgrund der in Theorien höherer Beschreibungsebenen verwendeten Konzepte, die in der Elementarteilchenphysik nicht vorkommen, bezweifelt werden. Vertreten wurde und wird eine solche Position freilich dennoch, wobei aber üblicherweise nicht gefordert wird, dass die Theorien höherer Beschreibungsebenen direkt auf solche der Elementarteilchenphysik reduziert werden können, sondern dass Reduktionen hintereinander ausführbar sind, womit die Reduktionsbeziehung also transitiv wäre und dann im Prinzip, wenn auch nicht direkt, alle naturwissenschaftlichen Theorien auf elementare Theorien zurückgeführt werden könnten. Natürlich gelten die angeführten Einwände auch für solche kleinschrittigen Reduktionen – nichtsdestotrotz handelt es sich wieder um eine zunächst denkbare Vorstellung, deren exemplarische Formulierung in Oppenheim/Putnam 1958 hier zitiert sei: „It is not absurd to suppose that psychological laws may eventually be explained in terms of individual neurons in the brain; that the behavior of individual cells – including neurons – may eventually be explained in terms of their biochemical constitution; and that the behavior of molecules – including the macro-molecules that make up living cells – may eventually be explained in terms of atomic physics. If this is achieved, then psychological laws will have, in principle, been reduced to laws of atomic physics, although it would nevertheless be hopelessly impractical to try to derive the behavior of a single human being directly from his constitution in terms of elementary particles.“ (a.a.O., S.7)

Diese Sätze wurden in einer Zeit formuliert, in der zahlreiche reduktionistische Erfolge der Naturwissenschaften, wie etwa die Entdeckung der DNA-Struktur, in dieser Hinsicht optimistisch stimmten, und es sei insbesondere herausgehoben, dass zwar die praktische Unmöglichkeit elementarteilchenphysikalisch betriebener Psychologie eingeräumt, deren prinzipielle Möglichkeit aber in den Raum gestellt wird. Diese Position wird erst zum Abschluss dieser Arbeit diskutiert, wobei dann über die schon besprochenen Einwände hinaus untersucht wird, inwiefern sich die bis dahin erhaltenen Ergebnisse über das Reduktionsproblem innerhalb der Physik auf sie übertragen lassen. Zunächst sei hier aber auch

16

dieses speziellere Thema – das gerade auch im Hinblick auf die prinzipielle Fragestellung untersucht werden wird – einleitend in den Blick genommen. Die letztgenannte Fassung der reduktionistischen Position, die auf der Verkettung von Reduktionen beruht, beinhaltet nämlich etliche Teilaspekte. Unter anderem enthält sie die Frage der Philosophie des Geistes,3 ob nämlich Bewusstsein auf biologische Prozesse reduzierbar ist bzw. ob Bewusstseinstheorien der Psychologie auf neurobiologische Theorien zurückgeführt werden können. Allerdings sei die Leib-Seele-Debatte mit ihrer verwickelten Diskussion hier nur erwähnt – zwar wird auch in dieser der Reduktionsbegriff verwendet, sie kann aber im Rahmen der vorliegenden Arbeit bei weitem nicht angemessen behandelt werden. Weitere Teilaspekte sind nun etwa Fragen der Vereinheitlichung innerhalb der Biologie, zum Beispiel Versuche, Biologie als molekulare Biologie zu betreiben und die klassische Mendelsche Vererbungslehre auf molekulare Genetik zurückzuführen, oder die schon angesprochene Frage, ob die Chemie auf Physik reduzierbar ist. Während aber diese Teilaspekte bis zum Schlusskapitel der Arbeit auf sich beruhen mögen, soll hier nun das Problem vorgestellt werden, von dem diese Arbeit im Folgenden ausschließlich handeln wird, die Ansicht einer Einheit der Physik in dem Sinne nämlich, dass alle physikalischen Theorien auf Theorien einer elementaren Ebene zurückführbar und dadurch im Sinne eines eliminativen Reduktionismus, wenn auch nur im Prinzip, überflüssig sind. Dabei wird neben dieser globalen Position zu untersuchen sein, ob es innerhalb der Physik überhaupt eliminative Reduktionen gibt, wobei insbesondere zu bedenken ist, dass es nicht nur Reduktionen zwischen verschiedenen Beschreibungsebenen geben kann, sondern auch innerhalb einer Beschreibungsebene. Als prominenter Vertreter der Einheit der Physik sei zunächst Carl Friedrich von Weizsäcker genannt, der allerdings eine solche Einheit nicht mit der Vorstellung eines eliminativen Reduktionismus, sondern außerphysikalisch und an Kant anlehnend mit den Bedingungen unserer Erkenntnis selbst begründet (vgl. Weizsäcker 1985). In der vorliegenden Arbeit ist dagegen eher die Vorstellung gemeint, dass die Quantentheorie eines Tages mit der Allgemeinen Relativitätstheorie vereinigt werden kann, und damit als eine Theorie von Allem die ganze Physik enthielte. Dies braucht natürlich auch wieder nur im Prinzip zu gelten und einzelne Theorien können für ihre jeweilige Ebene als angemessenes Handwerkszeug dennoch benötigt werden 3 Sofern

man die Psychologie zu den Naturwissenschaften zählt, was übrigens auch bei der in Abschnitt 1.1 erwähnten Soziologie fraglich ist: Wenn auch ihr Begründer Auguste Comte sie explizit als Naturwissenschaft verstand und sie sich teilweise entsprechender Methoden bedient, geht sie mit ihrer Untersuchung menschlicher Gesellschaft doch über den Rahmen der klassischen Naturwissenschaften hinaus.

17

– sie wären prinzipiell aber überflüssig. Weiterhin kann sich eine solche globale Behauptung wiederum auf die Verkettung von Reduktionen stützen, so dass Theorien etwa über Raumakustik nicht direkt mit Elementarteilchenphysik in Verbindung gebracht werden müssen. Ein dezidierter Verfechter einer solchen Einheit der Physik durch verkettete Reduktionen, durch die Theorien im Prinzip überflüssig werden, ist Erhard Scheibe, dessen diesbezügliche Arbeiten in dieser Untersuchung oft herangezogen werden. In der Einleitung zu Scheibe 1997, einem Buch, das sich im Untertitel als ein „Beitrag zur Einheit der Physik“ versteht, wird explizit als „Leitidee“ formuliert, „[...], dass eine physikalische Theorie durch Reduktion im Prinzip entbehrlich oder überflüssig oder redundant gemacht wird durch eben die Theorie, auf die sie reduziert wird“ (a.a.O., S.4). Während im weiteren Verlauf der Arbeit eher das Verhältnis zwischen einzelnen physikalischen Theorien im Mittelpunkt stehen wird, seien im Rahmen dieser Einleitung noch einige Worte zu der globalen Position einer Einheit der Physik durch verkettete, eliminative Reduktionen auf Elementarteilchenphysik verloren. Dazu ist zu sagen, dass es in der Physik derzeit zwar danach aussieht, als sei eine Theorie von Allem (Theory of Everything, TOE), die eine ebenfalls erst noch zu findende große vereinheitlichte Theorie (Grand Unified Theory, GUT) der starken und schwachen Wechselwirkung und der elektromagnetischen Kraft mit der Allgemeinen Relativitätstheorie verbindet, in Reichweite,4 dass es sie aber noch nicht gibt und dass es selbst, wenn sie gefunden ist, angesichts der historisch immer wieder aufgetretenen Umwälzungen in der Physik fraglich bleibt, ob es sich um eine endgültige, letzte Theorie handeln wird. Damit einhergehend kann sich eine Reduktion auf Theorien einer untersten Ebene auch nicht sicher sein, dass es eine solche unterste Ebene überhaupt gibt. Und schließlich zeigt sich in der Quantenfeldtheorie schon jetzt, dass man auf der Elementarteilchenebene von Teilchen gar nicht mehr sprechen kann: Der klassische Substanzbegriff wird überhaupt in Frage gestellt und unter anderem versucht, die Ontologie der Elementarteilchen als Prozesse zu verstehen. Kurzum, es ist gar nicht ausgemacht, auf welche grundlegende Theorie reduziert werden soll, und es ist außerdem nicht klar, wie etwa die klassische Physik makroskopischer Objekte auf eine Theorie reduziert werden kann, die von Prozessen handelt. Abgesehen davon stellt sich auch innerhalb der Physik die oben schon allgemein angesprochene Frage, inwiefern Theorien einer fundamentalen Ebene für Theorien höherer Beschreibungsebenen relevant sein können. 4 So

malt etwa Steven Weinberg, der in der Tat einen großen Beitrag zur Theorie der Vereinigung schwacher und elektromagnetischer Wechselwirkung leistete, in Weinberg 1993 die final theory optimistisch aus. Als Kandidaten für die Theorie von Allem gelten die verschiedenen Ansätze der Stringtheorie.

18

Dazu gibt Steven Weinberg einige Hinweise innerhalb einer Diskussion mit Ernst Mayr, die sich an dem Rechtfertigungsproblem der Investition von vier Milliarden Dollar in einen Teilchenbeschleuniger entzündete, und die in Mayr/Weinberg 1988 dokumentiert ist. Mayr ist Biologe, hält eine solche Investition in die Elementarteilchenphysik für nicht gerechtfertigt und begründet dies mit der Autonomie seiner Wissenschaft der „middle world“ (zwischen der mikroskopischen Welt und der kosmologischen der Astrophysik, a.a.O., S.475): „It is my contention that advances in our understanding of the microworld of subatomic particles are not going to make any explanatory contributions to our understanding of the middle world. [...] But it is the middle world that poses all the problems man will have to solve if he is to survive.“ (ebd.). Weinberg dagegen beruft sich zunächst auf die schon besprochene Vorstellung, Reduktionen seien transitiv, womit durch Verkettungen von Reduktionen Wissen über die fundamentale Ebene relevant für höhere Ebenen sein kann: „[...] I am taking for granted a kind of transitivity“ (ebd.). Interessanter sind aber seine weiteren Hinweise. So macht er zunächst an einem Beispiel der Reduktion innerhalb einer Beschreibungsebene klar, welche Fortschritte die Perspektive einer anderen Theorie mit sich bringen kann. Die Allgemeine Relativitätstheorie scheint zwar im Vergleich zur Newtonschen Gravitationstheorie keine großen Erklärungsvorsprünge zu liefern: „In a narrow sense, general relativity contributed very little to our understanding of the Solar System or the tides. We already knew enough to calculate planetary orbits with great precision, and general relativity did not help us with the major puzzles still outstanding (long-term stability, tidal dissipation), only with one tiny anomaly in the orbit of Mercury“ (a.a.O., S.475f., diese Punkte werden im dritten Kapitel noch ausführlich diskutiert). Zwei Punkte zeigen aber dennoch die Bedeutung dieser neuen Gravitationstheorie. Zum Ersten liefert sie ein besseres Verständnis der Gravitation, indem sie die Newtonsche Theorie in einem neuen Licht erscheinen lässt: „Nevertheless, the development of general relativity was important, at least in part, because it explained the theories of Newton that had earlier explained so much else“ (S.476, auch dies wird im dritten Kapitel besprochen). Und zum Zweiten macht die Allgemeine Relativitätstheorie Vorhersagen, die der Newtonschen Theorie fremd sind: „Of course, general relativity is important also because it predicts new phenomena, such as black holes and gravitational lenses. This is our historical experience: a theory that provides a more satisfying explanation of what we already knew is likely also to predict things of which we had not yet dreamed“ (ebd.). Diese beiden Vorzüge bringt er schließlich gegen Mayr ins Feld, wenn es um mögliche wissenschaftliche Fortschritte mit Hilfe des besagten Teilchenbeschleunigers in der Entwicklung der Elementarteilchenphysik geht: Wenn

19

innerhalb einer Beschreibungsebene neue Theorien ältere voranbringen, gilt dies nicht minder für das Verhältnis von Theorien tieferer zu solchen höherer Beschreibungsebenen. Dazu erinnert Weinberg zunächst an das Beispiel der Quantenmechanik – „[...] after all, everyone knows that the discovery of the electron and the atomic nucleus and the quantum mechanical description of their interaction made an enormous contribution to our understanding of matter at the scale of ordinary life“ (ebd.)5 –, um dann die Möglichkeit ähnlicher Fortschritte mit Hilfe einer neuen Theorie der Elementarteilchen zu plausibilisieren: „It may be that such a theory would not make life any easier for the fluid dynamicist or the evolutionary biologist, just as general relativity did not help very much in the actual work of celestial mechanics and planetary physics. Yet I think it fair to say that, like general relativity, the sort of theory that we are aiming at in particle physics would, if only by explaining our previous theories, contribute fundamentally to our understanding of the ,middle world‘. And if history is any guide, it would predict exciting new phenomena as well.“ (ebd.)

Theorien fundamentaler Beschreibungsebenen sind also insofern für diejenigen höherer Ebenen relevant, als sie zum einen zu deren Verständnis beitragen und zum anderen neue Phänomene vorhersagen können, die auch in höheren Ebenen eine Rolle spielen. Aus der Perspektive des Problems des eliminativen Reduktionismus wiederum ist dies nun allerdings nicht viel, der Blick richtet sich dann vor allem auf die Einschränkungen, die Weinberg einräumt. Zu dem Nachweis der Behauptung, bestimmte Theorien seien überflüssig, tragen ein besseres Verständnis dieser Theorien und die Vorhersage neuer Phänomene nicht viel bei und Weinberg macht im Gegenteil darauf aufmerksam, dass „celestial mechanics and planetary physics“ von der Allgemeinen Relativitätstheorie und der „fluid dynamicist or the evolutionary biologist“ von der Teilchenphysik nicht viel zu erwarten haben.6 5 Außerdem

ist etwa mit der Lasertechnologie eine reine Anwendung der Quantenmechanik inzwischen fest im Alltag der „middle world“ verwurzelt: Man denke nur an CD-Player oder Laserscanner an der Supermarktkasse. 6 Der unter dem Namen Superconducting Super Collider (SSC) geplante Teilchenbeschleuniger übrigens, dessen Bau Weinberg rechtfertigte, wurde schließlich nicht gebaut (obwohl bereits für zwei Milliarden Dollar mit dem Bau von entsprechenden Tunneln im Süden von Texas begonnen wurde) – allerdings eher aus politischen Gründen (unter anderem Ende des Kalten Kriegs) und wegen Anstieg des Kostenplans auf über 12 Milliarden Dollar. Am Europäischen Kernforschungszentrum CERN bei Genf ging dagegen im September 2008 mit dem Large Hadron Collider (LHC) der leistungsstärkste Teilchenbeschleuniger der Welt an den Start, dessen Kosten sich auf über drei Milliarden Euro belaufen haben.

20

Er weist also darauf hin, dass, wie oben schon allgemein gesehen, auch innerhalb der Physik Theorien fundamentaler Ebenen in höheren Ebenen nicht ohne weiteres anwendbar sind. Wie sich weiterhin im Laufe der Arbeit zeigen wird, verwendet die Physik zur Erklärung von Phänomenen in der Tat typischerweise verschiedene Theorien und schenkt der Frage, ob einzelne davon im Prinzip überflüssig sind, keine große Beachtung – gerade dies spricht sich in den einschränkenden Bemerkungen Weinbergs aus: Selbst ein Teilchenphysiker, der die enormen finanziellen Ansprüche seines Spezialgebiets rechtfertigt, räumt ohne Umstände ein, dass die Teilchenphysik zu den meisten anderen physikalischen Disziplinen kaum etwas beizusteuern hat. Auch innerhalb der Physik gilt also, was in Abschnitt 1.1 allgemein festgehalten wurde: Die Welt wird in vielen Beschreibungsebenen mit jeweils angemessenen Theorien beschrieben. Dazu kommt, dass in Vorlesungen und Lehrbüchern der Physik nach wie vor geometrische Optik, phänomenologische Thermodynamik, Maxwellsche Elektrodynamik und klassische Mechanik behandelt werden und ein Kuhnscher Paradigmenwechsel zu den modernen Theorien des 20. Jahrhunderts nicht stattgefunden hat: Konzepte wie Wärme, Temperatur und Lichtstrahlen werden weiterhin verwendet und niemand lebt und denkt außerhalb der Physik in Begriffen der Relativitätstheorie oder der Quantenmechanik. Dennoch will sich diese Arbeit der Herausforderung des trotz allem denkbaren eliminativen Reduktionismus stellen. Und in dieser Hinsicht zeigte zunächst der Exkurs zu der Mayr-Weinberg-Debatte die beschränkte Anwendbarkeit fundamentaler Theorien auf Phänomene höherer Beschreibungsebenen. Etwas allgemeiner bringt dies Anderson 1972 auf den Punkt. Demnach ist zwar ein reduktionistisches Vorgehen insofern möglich, als man zu immer fundamentaleren Ebenen vorstoßen kann, was aber nicht die Möglichkeit einschließt, von diesen fundamentalen Ebenen aus wiederum die Phänomene der höheren zu erklären: „The main fallacy in this kind of thinking is that the reductionist hypothesis does by no means imply a ,constructionist‘ one: The ability to reduce everything to simple fundamental laws does not imply the ability to start from those laws and reconstruct the universe“ (a.a.O., S.393). Diese pauschale Feststellung wird nun in den Untersuchungen der vorliegenden Arbeit etwas differenzierter betrachtet: Es ist natürlich trivial, dass man mit fundamentalen Gesetzen allein nicht viel anfangen kann. Bei Erklärungen ist selbstverständlich das Explanandum bekannt,7 das etwa ein Phänomen einer höheren Beschreibungsebene sein kann und sich durchaus zu fundamentalen Gesetzen in Beziehung setzen lässt. Wenn aber die prin7 Weshalb

es irreführend ist, von einer „konstruktionistischen“ Hypothese zu sprechen: Konstruiert werden müssen die Phänomene mit fundamentalen Theorien nicht.

21

zipielle Überflüssigkeit bestimmter Theorien gezeigt werden soll, müssen diese entweder selbst erklärt werden, oder dürfen eben in solche Erklärungen von Phänomenen nicht einfließen. Damit wird diese Fragestellung aber zu einer Angelegenheit des konkreten Einzelfalls und als solche auch im weiteren Verlauf dieser Arbeit behandelt: Es wird in jedem Einzelfall zu klären sein, inwiefern Theorien höherer Beschreibungsebenen mit fundamentalen Theorien erklärt werden können bzw. ob man Phänomene höherer Beschreibungsebenen mit fundamentalen Theorien ohne Zuhilfenahme zu reduzierender Theorien höherer Beschreibungsebenen erklären kann.8 Auch Sklar 1999 weist jedenfalls darauf hin, dass man sich selbst bei Beschränkung auf die Physik vor pauschalen Aussagen zur Reduzierbarkeit zu hüten hat, und dass stattdessen eine sorgfältige Einzelfallprüfung notwendig ist: „But even within physics itself, the more we probe into intertheoretical relations the harder we find it to characterize them in all but the most general terms if we want analyses of these relations that will hold across numerous important cases. Instead we find that the individual cases each present a complex of subtle details and that it is in these details that much of the most interesting results lie in trying to understand just how one theory is related to the other.“ (a.a.O., S.188)

Pauschale Antworten zum Reduktionsproblem gibt es nicht und auch in dieser Arbeit werden in den Kapiteln 3, 4 und 5 drei konkrete Fallbeispiele ausführlich in dieser Hinsicht untersucht. Dazu wird nun zunächst im zweiten Kapitel Klarheit darüber geschaffen, was für ein Reduktionsbegriff zugrunde gelegt werden muss, damit sich sagen lässt, dass eine reduzierte physikalische Theorie im Sinne des eliminativen Reduktionismus, wenn auch nur im Prinzip, überflüssig ist. In den darauf folgenden drei Kapiteln wird dann jeweils ein Fallbeispiel daraufhin untersucht, wobei diese Betrachtungen gegen die hier präsentierten Reduktionsvorstellungen zeigen werden, dass in den meisten Fällen die Theorien der speziellen Beschreibungsebenen einen eigenständigen Status haben, wobei auch Argumente dafür angegeben werden, dass dies nicht nur aus pragmatischen Gründen, sondern sogar prinzipiell gilt: Eine endgültige Entscheidung kann, wie in Abschnitt 1.1 schon besprochen, in dieser Sache zwar nicht getroffen werden, aber die Beweislast wird immerhin an die reduktionistische Position weitergereicht. Die Sichtweise auf die Physik, die damit nahegelegt wird, besagt nun, dass ein vollständiges Bild der Welt nicht von einer einzigen fundamentalen Theorie geliefert werden kann, sondern dass im Gegenteil viele verschiedene 8 Diese

Unterscheidung zwischen direkter Reduktion (Erklärung von Theorien) und indirekter Reduktion (Erklärung von Phänomenen) wird in Abschnitt 1.3 ausführlich erläutert.

22

Zugänge und Theorien notwendig sind. Dies führt zwar nicht unbedingt zu der Vorstellung einer dappled world, die in Cartwright 1999 vertreten wird,9 aber es handelt sich gewissermaßen um dappled theories: Für die vollständige Beschreibung der Welt werden viele verschiedene Theorien benötigt. Allerdings stehen diese wiederum nicht gänzlich isoliert nebeneinander – es gibt auch bei dieser Position im Rahmen des schon genannten Konzepts der Nachbarschaft gewisse Zusammenhänge zwischen den Theorien. Aber es wird gezeigt, dass die aufgeführten Vorstellungen von den Möglichkeiten, Theorien zu reduzieren, zu optimistisch sind. Die Konsequenzen dieser Position für die Frage nach der Einheit der Wissenschaft werden unter Berücksichtigung der Ergebnisse dieser Arbeit abschließend im sechsten Kapitel diskutiert. Nun macht es der hohe Grad der Mathematisierung in der Physik zwar scheinbar leicht, Reduktionsbehauptungen aufzustellen (anders als zum Beispiel beim Leib-Seele-Problem, bei dem die Schwierigkeiten offensichtlicher sind), aber aus dem gleichen Grund kann man gerade in der Physik gut verfolgen, was genau bei Reduktionen vor sich geht. Und wenn diese Untersuchungen in der Physik natürlich nicht direkt auf das hier besprochene globale Problem übertragbar sind, soll dennoch im abschließenden Kapitel abgeschätzt werden, inwieweit die Argumente aus der Physik auf dieses anwendbar sind. Zunächst geht es aber darum, Klarheit über den Reduktionsbegriff zu schaffen. 1.3 Theorien der Reduktion

Das genaue Verhältnis zwischen verschiedenen wissenschaftlichen Theorien auszuloten, ist Fragestellung des Reduktionsproblems: Angesichts des in Abschnitt 1.1 beschriebenen und in vielen Fällen erfolgreichen reduktionistischen Vorgehens versuchen Theorien der Reduktion zu klären, wie genau das Verhältnis zwischen Theorien beschaffen ist, die sich gegenseitig unterstützen können. Dagegen stellen die Positionen des Reduktionismus Behauptungen darüber auf, welche Theorien aufeinander reduzierbar sind. Was es für eine konkrete Theorie bedeutet, auf eine andere reduzierbar zu sein, hängt wiederum davon ab, in welchem Sinne eine Reduktion möglich ist. So unterscheidet etwa Hoyningen-Huene 2007 einerseits zwischen eliminativer und retentiver Reduktion und andererseits zwischen tatsächlich durchführbaren, im Prinzip möglichen und heuristischen Reduktionen (vgl. 9 Demnach

entsprechen den verschiedenen Theorien der (epistemischen) Beschreibung auch verschiedene (ontologische) Abschnitte der Welt, die man sich also „gestückelt“, dappled vorzustellen hat.

23

a.a.O, S.186): Während eine eliminativ reduzierte Theorie durch diese Reduktion entbehrlich geworden ist, spielt eine retentiv reduzierte weiterhin eine Rolle in der Wissenschaft. Der Unterschied zwischen tatsächlich durchführbar und prinzipiell möglich wurde in Abschnitt 1.1 schon diskutiert, und mit dem Konzept der heuristischen Reduktion ist gemeint, dass es trotz prinzipiell nicht durchführbarer Reduktion einer Theorie auf eine andere fruchtbar sein kann, eine reduktionistische Forschungsstrategie zu verfolgen, wofür a.a.O. als Beispiel angeführt wird, dass Max Delbrück zwar die Biologie für prinzipiell nicht auf die Physik zurückführbar hielt, aber dennoch für das Aufspüren spezifisch biologischer Gesetzmäßigkeiten ein reduktionistisches Vorgehen verfolgte (vgl. S.187). Der vorliegenden Arbeit geht es nun um die Fragestellung, inwiefern es innerhalb der Physik im Prinzip mögliche eliminative Reduktionen gibt, und um eine reduktionistische Position, die für eine so reduzierte Theorie behauptet, diese sei im Prinzip überflüssig und würde nur aus praktischen Gründen noch verwendet werden. Daher sollen Bedingungen für das Vorliegen einer Reduktion erarbeitet werden, so dass bei deren Erfülltsein solche Behauptungen gerechtfertigt sind und wofür es auch Beispiele gibt – zu starke Forderungen sind leicht unerfüllbar, womit es dann gar keine solche Fälle geben würde. Von diesen „echten“ Reduktionen wird dann ein Theorienverhältnis abgegrenzt, das bei Hoyningen-Huene tatsächlich durchführbare retentive Reduktion hieße, hier aber Theoriennachbarschaft genannt werden soll, da das Vorliegen dieser Relation keine eliminativreduktionistischen Positionen stützt und die Bezeichnung als Reduktion mithin irreführend sein kann: Der Name „Reduktion“ soll der genannten im Prinzip möglichen eliminativen Reduktion vorbehalten bleiben. In dieser Sprechweise wird dann die Untersuchung der Fallbeispiele in den Kapiteln 3, 4 und 5 zeigen, dass es zwar historische Fälle „echter“ Reduktionen gibt (die dann sogar tatsächlich durchführbare statt nur im Prinzip mögliche eliminative Reduktionen bilden), die Theorien der modernen Physik aber eher benachbart zueinander sind (wobei es sich zum Teil wiederum nur um im Prinzip durchführbare retentive Reduktionen handelt, die auch unter das Konzept der Theoriennachbarschaft fallen sollen). Die genauen Bedingungen für diese Reduktionskonzepte für physikalische Theorien werden erst im zweiten Kapitel erarbeitet, hier sei zunächst ein kurzer Überblick über diejenigen Theorien der Reduktion gegeben, die für physikalische Theorien relevant sind. Dazu seien zwei kurze Begriffsklärungen vorangestellt. So sind zum Ersten für die an einem Reduktionsverhältnis beteiligten Theorien die Bezeichnungen höhere und tiefere, gröbere und feinere Theorie oder etwa Ziel- und Basistheorie gebräuchlich, und Ernest Nagel, einer der Hauptprotagonisten der Reduktionsdebatte, verwendet secondary und primary theory. Da es aber neben Reduktionen zwischen

24

Beschreibungsebenen (interlevel reduction – mit dem Spezialfall der mereologischen Reduktion eines Ganzen auf die Eigenschaften seiner Teile als sogenannte Mikroreduktion) auch solche innerhalb einer Beschreibungsebene gibt (intralevel reduction), soll in dieser Arbeit immer neutral von zu reduzierender bzw. reduzierter und reduzierender Theorie die Rede sein. Auf die zweite notwendige Begriffsklärung macht Nickles 1973 aufmerksam: In den Wissenschaften wird die Reduktionsrelation nämlich oft gerade andersherum bezeichnet als in der Wissenschaftstheorie – reduzierend und reduziert wird vertauscht. Dies geht auf eine etymologische Besonderheit des Wortes „reduzieren“ zurück: Bedeutet es ursprünglich „zurückführen“ (von lat. reducere), wird es heute auch im Sinne von „verringern, vermindern“ gebraucht. An diese zweite Bedeutung denkt man in der Physik, wenn es dort heißt, dass sich zum Beispiel die relativistische Mechanik im Grenzfall kleiner Geschwindigkeiten auf die klassische Mechanik reduziert, also gewissermaßen „einschränkt“. Diese Arbeit hält sich aber an die Tradition der philosophischen Reduktionsdebatte und damit an die ebenso gebräuchliche lateinische Bedeutung des Wortes. Daher soll in diesem Fall davon die Rede sein, dass die klassische Mechanik auf die relativistische reduziert wird (so es sich denn um eine Reduktion handelt). Damit seien nun die Theorien der Reduktion besprochen. Wie schon in Abschnitt 1.1 angesprochen, gibt es reduktionistische Vorstellungen seit dem Atomismus der Antike, wobei die mechanistische Philosophie des 17. Jahrhunderts, die sich, motiviert durch die Erfolge der Newtonschen Physik, auf diesen Atomismus stützt, schon eine konkrete Theorie darüber liefert, wie Reduktionsbehauptungen erfüllt werden könnten: Durch mechanistische Erklärungen von Phänomenen höherer Beschreibungsebenen, die davon ausgehen, dass die entsprechenden Objekte aus Atomen zusammengesetzt sind. Denkbar ist damit sogar die globale Reduktionsbehauptung des Laplaceschen Dämons, der alle Vorgänge der Welt aus dem Wissen über Ort und Impuls ihrer Elementarteilchen vorhersagen könnte. Diese mechanistische Vorstellung fand zwar schon im 19. Jahrhundert ihr Ende, reduktionistische Vorstellungen spielten aber dennoch in der weiteren Entwicklung der Physik eine bedeutende Rolle. Während die Rückführung der Thermodynamik auf die statistische Mechanik noch unter das mechanistische Programm fällt, geht etwa die der physikalischen Optik auf die elektromagnetische Theorie darüber hinaus. Beide Probleme wurden im 19. Jahrhundert bearbeitet und wichtige Namen in diesem Zusammenhang sind etwa Boltzmann und Maxwell, wobei sich letzterer, vor allem bekannt für seine Entwicklung des Elektromagnetismus, ebenso wie ersterer mit der Thermodynamik der Gase beschäftigt hat. Und auch im 20. Jahrhundert spielten reduktionistische Vorstellungen eine große Rolle, etwa in der Ansicht, die klassischen Theorien sollten in den modernen als Grenzfall enthalten sein – eine Bedingung, deren

25

Erfülltsein der jeweils neuen Theorie immer zusätzliche Glaubwürdigkeit verliehen hat. Und nicht zuletzt wird die in Abschnitt 1.2 erwähnte Suche nach einer Theorie von Allem in jüngster Zeit ebenso von der Vorstellung angetrieben, dass diese Theorie alle Physik enthalten würde.10 Zu Beginn des 20. Jahrhunderts begann man nun innerhalb der Wissenschaftstheorie, die wichtige Rolle von Reduktionen für die Entwicklung der Wissenschaft wahrzunehmen. Die erste gründliche Untersuchung des Reduktionsbegriffs lieferte schließlich Ernest Nagel 1949, laut dem im Wesentlichen eine Theorie auf eine andere reduziert wird, wenn sich ihre Gesetze aus denen der reduzierenden Theorie logisch ableiten lassen. Mit der ein Jahr vorher, nämlich von Hempel/Oppenheim 1948 entwickelten Theorie des deduktiv-nomologischen Schemas der wissenschaftlichen Erklärung, nach dem ein Explanandum aus Gesetzen und entsprechenden Randbedingungen logisch abgeleitet und dadurch erklärt wird (vgl. Abschnitt 2.5), lässt sich auch einfach sagen, dass die reduzierende Theorie die reduzierte erklärt. In den Worten von Nagel 1961: „Reduction, in the sense in which the word is here employed, is the explanation of a theory or a set of experimental laws established in one area of inquiry, by a theory usually though not invariably formulated for some other domain“ (S.338). Es sei dabei an dieser Stelle schon erwähnt, dass Nagel die für die logische Ableitbarkeit notwendigen semantischen Verbindungen zwischen dem Vokabular verschiedener Theorien behandelt und diese in Form von Bikonditionalen, den später sogenannten Brückengesetzen, als zusätzliche Forderungen bzw. Postulate einführt – das Problem der Sprache bei Reduktionen wird in Abschnitt 2.2 noch ausführlich behandelt. Nagels Reduktionsbegriff jedenfalls, besonders in der Fassung von Nagel 1961, wurde zu der Referenztheorie der Theorienreduktion und wird im ganzen zweiten Kapitel präsent sein. Zwei Punkte verdienen es noch, hervorgehoben zu werden. Zum Ersten ist eine in Nagels Sinn reduzierte Theorie tatsächlich überflüssig: Eine Theorie, die logisch in einer anderen enthalten ist, wird streng genommen zur Beschreibung der Welt nicht mehr benötigt, womit in den Begriffen von Hoyningen-Huene 2007 eine Reduktion im Sinne Nagels eine tatsächlich durchführbare eliminative Reduktion wäre. Zum Zweiten handelt es sich innerhalb einer Unterscheidung zwischen direkter und indirekter Reduktion um eine direkte Reduktion, bei der die reduzierte Theorie nämlich direkt erklärt wird und die keinen Umweg über die Erklärung von Phänomenen (indirekte Reduktion) einschlägt – diese Unterscheidung ergibt sich aus der nun zu besprechenden Arbeit von Kemeny/Oppenheim 1956, die die Gedanken von Nagel aufgreift, kritisiert und vor allem in einen größeren 10

Einen ausführlichen Überblick über reduktionistische Vorstellungen innerhalb der Physik gibt Scheibe 1997, S.13-23.

26

Rahmen stellt, der diese Unterscheidung nahelegt. Zunächst gehören Kemeny und Oppenheim zu den ersten, die in der Reduktionsdebatte den Einwand geltend machen, dass Erklärungen in der Physik oft keine streng logischen Ableitungen sind, sondern in den meisten Fällen approximativen Charakter haben – dies ist als typisches physikalisches Vorgehen natürlich schon lange bekannt, wird hier aber zum ersten Mal mit Nagels strenger Reduktionstheorie konfrontiert. Auf die grobe Vereinfachung, die entsteht, wenn man diesen Umstand außer Acht lässt, und die allerdings auch das Hempel-Oppenheim-Schema selbst betrifft und noch in Nagel 1961 steckt, machen später etwa Popper 1957 und vor allem und mit großer Wirkung Feyerabend 1962 aufmerksam. Und während Kemeny und Oppenheim lediglich auf das Problem hinweisen und es aus Sorge, der Reduktionsbegriff würde durch Berücksichtigung des approximativen Charakters von Erklärungen zu kompliziert, bewusst ignorieren – „Hence we will go along with the previous authors in their first oversimplification“ (a.a.O., S.13) –, wird diese Kritik in Hempel 1965a und Nagel 1970 verarbeitet – diese ganze Problematik wird aber in Abschnitt 2.3 noch ausführlich diskutiert und sei daher hier nur erwähnt. Was nun den angekündigten größeren Rahmen betrifft, so wird in Nagels Reduktionskonzept eine reduzierte Theorie mit Hilfe der verbindenden Brückengesetze von einer reduzierenden erklärt, während Reduktion bei Kemeny/Oppenheim 1956 etwas allgemeiner bedeutet, dass die reduzierende Theorie alle Phänomene erklären kann, die von der dadurch reduzierten Theorie behandelt werden: „[...] we must certainly require that the new theory [die reduzierende] should fulfill the role of the old one, i.e., that it can explain (or predict) all those facts that the old theory [die zu reduzierende] could handle“ (S.7). Man beachte den Unterschied: Hier werden nicht ganze Theorien erklärt, sondern direkt mit der reduzierenden Theorie einzelne Phänomene (Kemeny und Oppenheim sprechen von Beobachtungsdaten – observational knowledge auf S.8 bzw. observational data auf S.13), die vorher der zu reduzierenden Theorie vorbehalten waren. Die Nagelsche Theorienreduktion ist nun ein Spezialfall dieser weiteren Fassung, der nach Kemeny/Oppenheim zunächst dann eintritt, wenn das Vokabular der zu reduzierenden Theorie in der reduzierenden enthalten ist. Dann nämlich folgen die Gesetze ersterer aus denen letzterer, ohne dass zusätzliche Brückengesetze nötig wären, und sie sprechen in diesem Fall von einer internal reduction (S.9), bei der also die in ihrem Reduktionskonzept geforderte Phänomenerklärung dadurch gesichert ist, dass die zu dieser Erklärung nötigen Gesetze auch in der reduzierenden Theorie enthalten sind. Der Spezialfall einer Nagelreduktion kann aber auch dann vorliegen, wenn die zur Phänomenerklärung notwendigen Gesetze zwar in der reduzierenden Theorie enthalten sind, aber nur mittels Brückengesetzen mit denen der zu

27

reduzierenden Theorie in Verbindung gebracht werden können. Diese zweite Möglichkeit fassen sie als eine indirekte Verbindung zwischen Theorien auf, während in ihrer Sprechweise Nagel direkte Verbindungen anstrebte (S.16): Bei ihnen erklärt eine reduzierende Theorie, die die Beobachtungsdaten einer zu reduzierenden Theorie wiedergibt, gegebenenfalls zusätzlich noch – unter Zuhilfenahme von Brückengesetzen – die zu reduzierende Theorie selbst, während Nagel darauf hinaus will, dass die zu reduzierende Theorie unmittelbar mit der reduzierenden erklärt wird. Dagegen sollen nun in dieser Arbeit als indirekte Reduktionen auch solche Fälle bezeichnet werden, in denen die Erklärung von Phänomenen mit einer dadurch reduzierenden Theorie möglich ist, ohne dass in einem zweiten Schritt auch die Gesetze der reduzierten Theorie abgeleitet werden. Der Reduktionsbegriff von Kemeny/Oppenheim ist nämlich durchaus in diesem Sinne weiter gefasst als der von Nagel: „If one theory is to follow from another [wie bei Nagel], it must be translatable into the vocabulary of the latter. But it is entirely possible that a theory should be able to explain all the facts that another can, without there being any method of translation. [...] Naturally, we do not exclude the possibility that reduction may be accomplished by means of translation. That is why the previous definitions [hier nicht wiedergegebene Modifikationen der Nageldefinition] [...] are special cases of our corresponding definition. But we maintain that they cover what is an extremely special case.“ (a.a.O., S.16)

Nagels Theorienreduktion wäre damit als direkte Reduktion dieser „special case“, in dem Theorien selbst erklärt werden, während eine Theorie auch indirekt dadurch reduziert sein kann, dass die Phänomene, die sie typischerweise erklärt, von der reduzierenden Theorie erklärt werden, ohne dass es eine weitere Verbindung zwischen den beiden Theorien geben muss. Diese Unterscheidung zwischen direkten und indirekten Reduktionen, zwischen Reduktionen durch Erklärung von Theorien und Reduktionen durch Erklärung von Phänomenen also, und vor allem das mögliche Zusammenspiel beider Konzepte, wird im Laufe der Arbeit eine erhebliche Rolle spielen. So wird das in Abschnitt 2.4 vorgeschlagene Reduktionskonzept aus einer Mischung dieser beiden Reduktionsarten bestehen. In der Reduktionsdebatte jedenfalls wird diese Unterscheidung in den Worten von Mayr 1982 oft auch als explanatorische Reduktion (indirekte Reduktion) und Theorienreduktion (direkte Reduktion) bezeichnet.11 11

Mayrs dritter Reduktionstyp, die konstitutive Reduktion, bei der es um ontologische Fragestellungen im Zusammenhang mit Reduktionen geht, wird erst im Schlusskapitel kurz aufgegriffen und sonst nur in dem Sinne eine Rolle spielen, dass makroskopische Objekte aus mikroskopischen Teilen zusammengesetzt sind, was etwa für die Zusammensetzung einer Gasmenge aus zahllosen Molekülen im Beispiel von Thermodynamik

28

Mit dieser Unterscheidung lässt sich nun auch die große Herausforderung von Kuhn und Feyerabend an das Konzept der Theorienreduktion besser verstehen: Beide, besonders Feyerabend 1962, arbeiten die wechselseitige Unübersetzbarkeit, die Inkommensurabilität verschiedener Theorien heraus, bestreiten also die Möglichkeit direkter Reduktionen, ohne dabei jedoch das Konzept der indirekten Reduktion über die Erklärung von Phänomenen anzugreifen. Im Gegenteil, in ihrem Wissenschaftsbild stellt es sich so dar, dass die zu erklärenden Phänomene immer besser von neuen Theorien, die auch noch weitere Phänomene erklären können, verstanden werden, wobei diese Theorien aber inkommensurabel zu ihren Vorgängertheorien sind, die ihrerseits sogar zu falschen Theorien werden. Die Erklärung von Phänomenen schreitet gewissermaßen immer weiter voran, wobei die älteren Theorien auf der Strecke bleiben – sie sind falsch, durch die neuen Theorien überflüssig und können und sollen einfach ersetzt werden. Wenn man darauf die bis hier eingeführten Begrifflichkeiten anwendet, handelt es sich bei dem Verhältnis von Vorgänger- zu Nachfolgertheorie um indirekte eliminative Reduktionen: Die entsprechende Nachfolgertheorie kann die Phänomene, die von ihrer Vorgängertheorie erklärt werden, besser erklären, und macht letztere dadurch überflüssig. Bei Kuhn und Feyerabend geht es aber zunächst nicht um das Reduktionsproblem, sondern um die Frage des wissenschaftlichen Fortschritts. Wenn sich dann allerdings Feyerabend 1962 mit Nagels Reduktionskonzept auseinandersetzt, bestreitet er mit der Inkommensurabilitätsthese die Möglichkeit von Theorienreduktion, also direkten Reduktionen, überhaupt: Bei ihm stehen Theorien ohne jegliche Verbindungen nebeneinander, sind inkommensurabel, und die bessere, neue Theorie löst die ältere, schlechtere Theorie einfach ab und ersetzt sie. Seine Argumente gegen Theorienreduktion sprechen dabei in der Tat gegen Nagels Konzept direkter Reduktionen: Feyerabend bringt im Wesentlichen zwei Punkte gegen die logische Ableitbarkeit von Theorien ins Feld. Erstens die Inkommensurabilität von Theorien, nach der es keine Brückengesetze geben kann, die die Sprachen der Theorien verbinden könnten, und zweitens den Punkt der oben erwähnten bloß approximativen Ableitungen in der Physik, wobei er herausstellt, dass sich streng genommen physikalische Theorien oft widersprechen. Diese beiden Aspekte, der begriffliche und der mathematische, werden im zweiten Kapitel ausführlich diskutiert, wobei auch zu besprechen sein wird, dass sich inkommensurable, also unvergleichbare Theorien, gar nicht widersprechen können. Diese Argumente hatten nun einen erheblichen Einfluss auf die Reduktionsdebatte: Feyerabends Behauptung, direkte Reduktionen seien unmöglich, und statistischer Mechanik im fünften Kapitel gilt.

29

wurde als große Herausforderung aufgenommen. Dabei ist aber bemerkenswerterweise seine Vorstellung von der Ersetzbarkeit älterer Theorien auch unter ausgeprägten Verteidigern der Theorienreduktion verbreitet: Demnach sind reduzierte Theorien ebenso überflüssig und können ersetzt werden, allerdings nicht, weil sie falsch wären – sie sollen schließlich mittels Theorienreduktion, wenn möglicherweise auch nur approximativ (womit sie also streng genommen doch falsch sind), an die reduzierenden Theorien angeschlossen werden –, sondern weil sie durch erfolgreiches Ableiten aus reduzierenden Theorien im Prinzip überflüssig sind. Auf diesem Weg eine Einheit der Wissenschaft zu stiften, ist das oben zitierte erklärte Ziel von Oppenheim/Putnam 1958, und eine Einheit der Physik vermittelst Theorienreduktion schwebt zum Beispiel Scheibe 1997 vor, wobei sich dieser entschieden als von Kuhn und Feyerabend provoziert zu erkennen gibt. Somit wird Feyerabends Ersetzungsforderung auch von Verfechtern der Theorienreduktion vorgebracht, aber aus anderen Motiven: Bei Feyerabend sind die zu reduzierenden Theorien falsch und unbrauchbar und daher überflüssig, bei den Verfechtern der Theorienreduktion sind sie durch eine Theorienreduktion mit den reduzierenden Theorien verbunden, dabei durchaus noch brauchbar und lediglich im Prinzip überflüssig. Dieses Wechselspiel zwischen Ersetzung ohne (direkte) Reduktion und prinzipieller Überflüssigkeit einer Theorie aufgrund einer Reduktion lässt sich nun gut an der Reduktionstheorie von Schaffner 1967 nachvollziehen. Diese wendet sich zunächst gegen die Feyerabendsche Vorstellung der bloßen Ersetzung von Theorien ohne Reduktion, da eine direkte Theorienreduktion die reduzierte Theorie in einem neuen Licht erscheinen lassen kann. Dazu heißt es a.a.O., „[...] that a reduction can give us new information about the reduced science, and change the way we understand the entities of that domain to behave“ (S.143). Dieser Aspekt würde bei Feyerabends Ersetzungen verloren gehen und Schaffner macht überhaupt gegen indirekte Reduktionen, die diese Ersetzungen letztlich sind, geltend, dass „[t]here is no theory relation in this case – only adequate explanation of the observable predictions of the previous theory“ (S.145). Bloße Phänomenerklärungen liefern kein Verständnis für das Verhältnis zwischen zwei Theorien, was sowohl gegen bloße Ersetzungen als auch gegen indirekte Reduktionen spricht. Für eine Reduktion scheinen solche Erklärungen in der Tat zu wenig zu sein: Sie sollte schon zeigen können, warum etwa die reduzierende Theorie auch in der Lage ist, die Phänomene der reduzierten zu erklären, und es wäre unbefriedigend, wenn es sich um völlig unabhängige Theorien handeln könnte. Schaffner möchte also aus guten Gründen in Anlehnung an Nagel ein Konzept direkter Reduktionen etablieren. Gleichwohl soll eine reduzierte Theorie wiederum prinzipiell überflüssig sein, was innerhalb direkter

30

Theorienreduktion aber zunächst nur durch logische Ableitbarkeit der reduzierten Theorie gewährleistet werden kann, worauf in Schaffner 1974 explizit hingewiesen wird: „[...] in order to insure that a reduced theory is in principle eliminable, i.e., that the reducing theory can do all that the reduced theory accomplished in terms of explanation and systematization of data, we stipulate that a reduced theory must be derivable from the reducing theory when the reducing theory is supplemented with the reduction functions [Brückengesetzen] mentioned above“ (a.a.O., S.615). Nun wurde aber mit Feyerabend gerade herausgestellt, dass es logische Ableitungen nicht geben kann: Es können keine Brückengesetze zwischen inkommensurablen Theorien aufgestellt werden und statt logischer Ableitbarkeit handelt es sich in allen interessanten Fällen um approximative Beziehungen zwischen sich widersprechenden Theorien. Schaffner löst dieses Problem dadurch, dass nicht die zu reduzierende Theorie selbst logisch abgeleitet wird, sondern eine korrigierte Theorie, die zu der ursprünglich zu reduzierenden im Verhältnis einer strong analogy (Schaffner 1967, S.144) steht. Dieses Verhältnis der starken Analogie bleibt zwar explizit vage und appelliert an intuitive Vorstellungen – „[...] not much work of any import has been done on the logic of analogy“ (a.a.O., S.146), in Schaffner 1974 ist auch die Rede von „[...] the more intuitively appealing notion of a strong analogy“ (S.628) –, ermöglicht aber zunächst ein Konzept der direkten Reduktion im Sinne Nagels, das dessen Schwierigkeiten umgeht und bei dem auch von der Überflüssigkeit reduzierter Theorien gesprochen werden kann, die insofern mehr als bloße Ersetzung bedeutet, als sich innerhalb von Analogieüberlegungen Beziehungen zwischen reduzierter und reduzierender Theorie herstellen lassen, die es bei indirekten Reduktionen bzw. Ersetzungen à la Feyerabend und Kuhn nicht gibt. Dabei beruht die Überflüssigkeit einer reduzierten bzw. ersetzten Theorie im Gegensatz zu diesen Konzepten nicht auf (besserer) Erklärung von Phänomenen, sondern auf der logischen Ableitung einer korrigierten, zu der zu reduzierenden analogen Theorie. Diese korrigierte Theorie liefert natürlich ihrerseits wiederum Erklärungen von Phänomenen: Auf diesen indirekten Anteil in Schaffners Konzept wird gleich bei der Diskussion des Vorschlags von Hooker 1981 eingegangen. Nun bleibt auch bei diesem Konzept das Brückengesetzproblem der verschiedenen Sprachen von Theorien bestehen, da zwar die Notwendigkeit einer korrigierten Theorie eingeräumt wird, diese aber immer noch in dem Vokabular der ursprünglichen formuliert ist. Damit wird zwar gewissermaßen das Problem sich widersprechender Theorien umgangen, die Möglichkeit einer logischen Ableitung aber, die nur innerhalb einer Sprache durchgeführt werden kann, ist dadurch streng genommen noch nicht gewährleistet. An diesem Punkt setzt Hooker 1981 an, indem er fordert, dass

31

die korrigierte Theorie im konzeptuellen Rahmen und in dem Vokabular der reduzierenden Theorie formuliert wird, womit für eine logische Ableitung keine Brückengesetze benötigt werden. Auch wenn die Aufstellung einer solchen korrigierten Theorie nicht leicht ist – und insbesondere im üblichen Wissenschaftsbetrieb nicht vorkommt, da sie lediglich zum Aufweis einer Reduktionsbeziehung dient, der etwa in der Physik, deren Erklärungen, wie in 1.2 ausgeführt, typischerweise verschiedene Theorien verwenden, keine Rolle spielt –, ermöglicht dieses Vorgehen nun eine strenge Deduktion: „What this discussion indicates so far is that, while the construction of TR∗ [korrigierte zu reduzierende Theorie] within TB [reduzierende, „basic“ Theorie] may be a complicated affair [...] the ultimate relation between TB and TR∗ remains straightforward deduction“ (a.a.O., S.49). Die korrigierte Theorie bleibt explizit im Rahmen der reduzierenden und kann daher streng logisch aus dieser abgeleitet werden – womit Erklärungen mit dieser korrigierten Theorie aber streng genommen Erklärungen mit der reduzierenden Theorie selbst sind, die ihrerseits mit der zu reduzierenden wiederum nur durch Analogiebetrachtungen verbunden ist. Es handelt sich also gewissermaßen wieder um eine indirekte Reduktion, die in den Analogiebetrachtungen lediglich einen direkten Anteil hat. Hooker legt zwar Wert darauf, dass die korrigierte Theorie direkt von der reduzierenden erklärt wird (was mit Analogiebetrachtungen zu dem besagten direkten Anteil der Reduktion ausgebaut werden kann), weist aber auch darauf hin, dass die ursprünglich zu reduzierende Theorie und deren Erklärungserfolge nur indirekt erklärt werden: „The importance of this [vgl. obiges Zitat] is that TB continues to directly explain TR∗ and this is the basis for TB’s indirect explanation of TR’s [ursprünglich zu reduzierende Theorie] erstwhile scientific role“ (ebd.). Aus der Perspektive der indirekten Reduktion muten Hookers Erklärungen von Phänomenen mit korrigierten Fassungen zu reduzierender Theorien, die im Vokabular der reduzierenden Theorien aufgestellt sind, aus diesen logisch ableitbar und damit letztlich diese selbst sind, wie ein Umweg an, der aber aus der Perspektive der direkten Reduktion Analogiebetrachtungen zwischen Theorien ermöglicht. Ob für Analogierelationen solche korrigierten Theorien wirklich notwendig und ob noch andere Verbindungen von direkter und indirekter Reduktion möglich sind, wird im zweiten Kapitel untersucht. Hier sei nun noch kurz auf Probleme von Hookers Analogiebetrachtungen zwischen der korrigierten und der ursprünglich zu reduzierenden Theorie hingewiesen. Wie Schaffner buchstabiert Hooker die Analogierelation nämlich nicht genau aus und macht darauf aufmerksam, dass die Aufstellung klarer Kriterien für das Vorliegen einer solchen Relation durch die in der wissenschaftlichen Praxis oft vorliegende gegenseitige Beeinflussung und gemeinsame Entwicklung von zu reduzierender und reduzierender Theorie erschwert wird:

32

„[...] in reality scientific theories co-evolve, i.e. both levels TR und TB change in response to developments at the other level as well as their own“ (Hooker 1981, S.50). Dies zeigt sich etwa im Verhältnis zwischen Thermodynamik und statistischer Mechanik laut Hooker darin, „[...] that thermodynamics acts as a serious conceptual guide to statistical mechanics and that there are serious attempts to continue to develop it“ (S.49). Und während dieser Punkt allgemein auf eine Schwierigkeit zeigt, die sich beim Finden der genauen Relationen zwischen Theorien ergibt, stellt sich für Hooker insbesondere die Frage, wie sich angesichts dieses Befundes innerhalb von Analogiebetrachtungen zwischen retentiver und eliminativer Reduktion unterscheiden lässt: Kann eine zu reduzierende Theorie, die Einfluss auf die Entwicklung einer reduzierenden nimmt, durch eine Reduktion überflüssig werden? Dazu ist zunächst festzuhalten, dass auch für Hooker die Frage relevant ist, inwiefern reduzierte Theorien überflüssig sind: Er möchte unterscheiden zwischen solchen Reduktionen, vermöge derer eine Theorie überflüssig wird und ersetzt werden kann (eliminative Reduktion, Hooker 1981 spricht von Replacement), und solchen, bei denen die reduzierte Theorie weiterhin eine Rolle spielt (retentive Reduktion, Retention bei Hooker).12 Und in dieser Frage muss er nun einräumen, dass er innerhalb seines Konzepts der Analogiebetrachtungen diese Fälle nicht klar unterscheiden kann: Es gibt mehr oder weniger starke Analogien und mithin ein Kontinuum zwischen Fällen von Replacement und Retention: „[...] what can be said about a theory of the retention/replacement distinction? [...] Unhappily, I can think of no neat formal conditions which would intuitively separate the two – we are dealing with a continuum which grades off across examples from retention to replacement“ (a.a.O., S.223). Das zweite Kapitel wird zeigen, dass diese Schwierigkeit von dem besagten Umweg der korrigierten Theorien herrührt, den Schaffners und Hookers Reduktionskonzepte enthalten, und der sich aus dem zu starken Beharren auf direkten Reduktionen ergibt. Diese Schwierigkeit lässt sich vermeiden, indem man eine andere Verbindung zwischen direkter und indirekter Reduktion herstellt: Im zweiten Kapitel wird mit dem Konzept der Theoriennachbarschaft, das auf direkten Vergleichen zwischen Theorien beruht, und einem Reduktionskonzept, das indirekte Reduktion und Nachbarschaft fordert, eine präzise Trennung zwischen retentiver und eliminativer Reduktion erarbeitet. Dabei wird insbesondere ein an indirekten Reduktionen orientiertes Reduktionskonzept vorgeschlagen, das garantiert, dass reduzierte Theorien prinzipiell überflüssig sind und zur Beschreibung 12 Eine

weitere Bezeichnung für diese Unterscheidung zwischen retentiver und eliminativer Reduktion, die auch Hooker 1981 aufgreift, findet sich in Sklar 1967, wo zwischen explaining und explaining away getrennt wird: „At least one plausible distinction to be drawn is that between one theory’s explaining another, and the former’s explaining away the latter“ (S.112).

33

der Welt nicht mehr benötigt werden. Hier sei aber zunächst ein weiterer Ausweg aus der bei Hooker aufgetretenen Schwierigkeit der Unterscheidung zwischen retentiver und eliminativer Reduktion besprochen – der Vorschlag von Bickle 1998. Dieser greift den direkten Reduktionsbegriff von Schaffner und Hooker über korrigierte Theorien auf und versucht, mit Hilfe des strukturalistischen Ansatzes der Beschreibung von Theorien die bisher vage gebliebene Analogierelation zu präzisieren, wobei es Bickle explizit darum geht, die bei Hooker nicht durchgeführte Trennung zwischen retentiver und eliminativer Reduktion zu ermöglichen. Auch der strukturalistische Reduktionsansatz wird im zweiten Kapitel noch besprochen, sein Konzept und seine Schwierigkeiten sollen gleichwohl an dieser Stelle schon benannt werden. Es handelt sich um ein subtiles Vergleichsverfahren zwischen mathematischen Modellen von Theorien, das etwa in Moulines 1984 als eine „[...] mathematical relationship between two sets of structures“ (a.a.O., S.55) charakterisiert wird, wobei „[...] this scheme of reduction does not require semantic predicate-by-predicate connections nor deducibility of statements“ (S.54). Man erhält also in der Tat eine präzise Vergleichsmöglichkeit, die die Schwierigkeiten deduktiver Reduktionskonzepte umgeht, dies aber um den Preis, dass diese Relation auch zwischen Theorien etabliert werden kann, die außer formalen Ähnlichkeiten nichts miteinander gemein haben: „We could have a reductive relationship between two theories that are completely alien to each other“ (S.55). Eine solche Relation möchte man natürlich nur ungern als Reduktion bezeichnen, was etwa Endicott 2001 hervorhebt: „For example, thermodynamics, hydrodynamics, and exchange economics might have the same formal structure, but they do not reduce to one another“ (a.a.O., S.381). Wenn also der strukturalistische Ansatz allein noch kein befriedigendes Reduktionskonzept liefert, könnte man ein solches erhalten, indem die Analogiebeziehung des Konzepts von Schaffner und Hooker mit strukturalistischen Methoden ausbuchstabiert wird, wie es Bickle 1998 vorschlägt. Zwar bezeichnet Bickle seinen Vorschlag als New Wave Reduction, während er doch nichts weiter als eine präzisierte Fassung der Konzepte von Schaffner und Hooker liefert – „[...] Bickle’s account is a model-theoretic version of Schaffner, not the new wave“ (Endicott 2001, S.382) –, aber mit diesem Ansatz gelingt es ihm, die von Hooker eingeräumten Bedenken aufzulösen: Er erhebt den Anspruch gezeigt zu haben, wie sich formal zwischen den starken bzw. schwachen Analogien (smooth bzw. bumpy reductions bei Bickle) innerhalb von Hookers Reduktionskonzept unterscheiden lässt – „I only intend this discussion to show that I can make quantitative sense of ,amount of correction‘ that locates reductions on the smooth-to-bumpy spectrum“ (Bickle 1998, S.101). Mit dieser strukturalistischen Präzisierung,

34

für deren Einzelheiten hier lediglich auf Bickle 1998, Kapitel 3, verwiesen sei, des bei Schaffner und Hooker noch vage gebliebenen Analogiekonzepts, hat er deren Ansätze, direkte Reduktionsbeziehungen zu etablieren, deutlich vorangebracht. Allerdings bleibt es nun bei dem gesamten Vorgehen von Schaffner, Hooker und Bickle fraglich, ob man so ein Konzept direkter eliminativer Reduktionen erhält, da schließlich selbst eine korrigierte Theorie mit der ursprünglich zu reduzierenden zunächst nur vergleichbar ist: Das Brückengesetzproblem wurde gewissermaßen dadurch umgangen, dass eine vage Analogiebeziehung zwischen diesen Theorien eingeführt wurde, und selbst, wenn diese Analogiebeziehung mit strukturalistischen Methoden präzisiert wird, erhält man keine Deduktion, sondern lediglich eine Vergleichsbeziehung zwischen verschiedenen Theorien: „Any problems for classical bridge laws will therefore accrue to this newest new wave“ (Endicott 2001, S. 387). Ob nun für ein solches direktes vergleichendes Reduktionskonzept ohne logische Ableitung gilt, dass eine reduzierte Theorie überflüssig ist, hängt wesentlich davon ab, ob die im Vokabular der reduzierenden Theorie aufgestellte korrigierte Theorie in der Lage ist, die reduzierte Theorie zu ersetzen. Damit steht aber für die Frage des eliminativen Reduktionismus der indirekte Anteil der Schaffner-Hooker-Bickle-Reduktionen im Vordergrund, der durch die korrigierte Theorie und die Phänomenerklärungen ins Spiel kommt, die mit dieser möglich sind. Das zweite Kapitel wird nun für physikalische Theorien zeigen, dass sich in der Tat im Allgemeinen mit direkten Reduktionen allein die Überflüssigkeit reduzierter Theorien nicht begründen lässt. Eliminative Reduktionen müssen zwar einen direkten, nämlich vergleichenden Anteil haben (der Theoriennachbarschaft heißen wird), damit sichergestellt ist, dass es sich nicht um zwei völlig verschiedene Theorien handelt, die etwa nur zufällig ähnliche Erklärungsleistungen bieten. Wesentlich ist aber der indirekte Anteil der Erklärung von Phänomenen, und sowohl bei diesem als auch bei dem vergleichenden Anteil scheint die Aufstellung korrigierter Theorien, die es in der Wissenschaft nicht gibt und die lediglich vorgeschlagen wurden, um ein direktes Reduktionskonzept zu etablieren, nicht notwendig zu sein – im Gegenteil scheint die Forderung nach korrigierten Theorien von einer Überschätzung des eliminativen Charakters direkter Reduktionen herzurühren. Für die weiteren Einzelheiten dieser Diskussion des Reduktionsproblems in der Physik sei aber auf das zweite Kapitel verwiesen. Die Kritik dort an dem Schaffner-Hooker-Bickle-Ansatz direkter Reduktionen wird allerdings mit ihrer Hervorhebung der Bedeutung indirekter Reduktionen in dieselbe Richtung gehen, die auch Schaffner inzwischen einschlägt: Während sich nämlich Bickle im Zusammenhang mit dem Leib-Seele-Problem in Bickle

35

2006 mit seinem New-Wave-Konzept direkter Reduktionen für einen ruthless reductionism stark macht, plädiert Schaffner selbst im Zusammenhang mit Theorien der Biologie in Schaffner 2006 für kleinteilige indirekte Reduktionen, also für Erklärungen konkreter Phänomene mit reduzierenden Theorien, ohne dass auf diese Weise Theorien als Ganze reduziert würden. Dazu erinnert er zunächst an die Unterscheidung zwischen direkter und indirekter Reduktion in den oben wiedergegebenen Begriffen von Mayr 1982 – explanatory reduction für indirekte und theory reduction für direkte Reduktion –, wobei er die Erklärungen indirekter Reduktionen nicht als Reduktionen bezeichnet wissen möchte: „The results are like reductions, but I think they are better described as explanations, using that term as an alternative to reduction because the e-word does not carry the conceptual freight of various reduction models and is a more appropriate general context, within which to analyze what is actually occurring in the biomedical sciences“ (a.a.O., S.380). Da in der Tat bloße Erklärungen von Phänomenen für eine „echte“ Reduktion, die auch Verbindungen zwischen den Theorien selbst herstellen sollte, zu wenig sind, und das Konzept der indirekten Reduktion diesen Namen streng genommen nicht verdient, wird auch der im zweiten Kapitel erarbeitete Reduktionsbegriff zwar auf solchen Erklärungen beruhen, aber noch um eine Nachbarschaftsrelation angereichert sein. Schaffner macht weiterhin an einem Beispiel aus der Physik deutlich, dass die Vorstellung direkter eliminativer Reduktionen zwischen zwei ganzen Theorien verfehlt ist und stattdessen zahlreiche (indirekte) Erklärungen einzelner Phänomene nötig sind – während in der Reduktionsdebatte der Physik die Zurückführung der Optik auf die Maxwellsche Theorie des Elektromagnetismus als gelungene Reduktion gilt, zeigt sich bei näherem Hinsehen, dass dies so leicht nicht ist: „Closer inspection of the explanatory process, however, revealed difficulties. Although one can get Snell’s law by derivation from Maxwell’s electromagnetic theory, one does not obtain the entire range of Fresnel’s theory of physical optics [...]. Furthermore, to get an explanation of optical dispersion, one has to go beyond Maxwell’s theory per se to Lorentz’s electron theory. But even Lorentz’s theory was not enough to account for all of physical optics, since to get an explanation of the photoelectric effect, one has to go beyond it to Einsteinian elementary quantum mechanics, and an explanation of the optics of moving bodies requires special relativity. The message from this prima facie strong case of intertheoretic reduction is that we get fragmentary and partial explanations of parts of a discipline, but not any type of overall sweeping reduction.“ (a.a.O., S.378)

Die physikalische Optik lässt sich demnach bei weitem nicht auf die elektromagnetische Theorie zurückführen, sondern innerhalb eines reduktionistischen Vorgehens nur durch viele verschiedene Erklärungen einzelner

36

Phänomene mit fundamentaleren Theorien in Verbindung bringen. Schaffner zieht daraus den Schluss, dass man sich von der Vorstellung direkter eliminativer Reduktionen ganzer Theorien zu verabschieden habe und sich stattdessen der Untersuchung solcher konkreten, kleinteiligen reduktionistischen Erklärungen widmen sollte: „The first thesis is that what have traditionally been seen as robust reductions of one theory or one branch of science by another more fundamental one are largely a myth. Although there are such reductions in the physical sciences, they are quite rare, and depend on special requirements. In the biological sciences, these prima facie sweeping reductions tend to fade away, like the body of the famous Cheshire cat, leaving only a smile... The second thesis is that the ,smiles‘ that remain are fragmentary patchy explanations, and though patchy and fragmentary, they are very important, potentially Nobel-prize winning advances.“ (ebd.)

Wenn demnach die eigentlich interessante Aufgabe darin besteht, die genauen Verhältnisse zwischen konkreten Theorien auszuarbeiten, soll in dieser Arbeit dennoch die Fragestellung nach den Möglichkeiten der eliminativen Reduktion ganzer Theorien im Mittelpunkt stehen – und in diesem Zusammenhang zeigt Schaffners Hinweis, dass man, statt auf direkte Reduktionen zu setzen, lieber nach indirekten Reduktionen durch Erklärungen von Phänomenen suchen sollte. Diese können allerdings allein noch nicht als Reduktionen bezeichnet werden, was, wie oben zitiert, schon Schaffner 1967 mit seinen Argumenten gegen die Feyerabendsche Ersetzungsauffassung von Theorien hervorgehoben hat: Eine Reduktion muss auch einen direkten Anteil haben. Ob jedenfalls für die benötigten Erklärungen zusätzlich aufzustellende korrigierte Theorien hilfreich sind, ist nicht ohne weiteres klar. Für diese Frage und die genaue Ausarbeitung eines auf indirekten Reduktionen beruhenden und mit einem direkten Anteil versehenen Reduktionsbegriffs sei aber wieder auf das zweite Kapitel verwiesen. Diesem sollen nun zum Abschluss dieses Abschnitts noch drei Bemerkungen vorangestellt werden. Erstens wird auch in der Philosophie des Geistes im Zusammenhang mit dem Leib-Seele-Problem der Reduktionsbegriff diskutiert. Der wichtigste Punkt aus dieser Debatte für die hier vorliegende Fragestellung ist das Argument der multiplen Realisierbarkeit, das von Fodor 1974 als Einwand stark gemacht wurde: Demnach können Phänomene höherstufiger Beschreibungsebenen auf viele verschiedene Weisen aus Mikrobestandteilen realisiert sein, was einfache Reduktionsbeziehungen unmöglich erscheinen lässt. Auf weitere Einzelheiten soll hier aber nicht eingegangen werden. Wichtig für die vorliegende Arbeit ist allein, dass Kim 1998 diesem Einwand sein funktionales Modell der Reduktion entgegensetzte, das

37

etwa in Rueger 2006 und Kistler 2006a und 2006b auch für die Reduktion physikalischer Theorien diskutiert wird. Dabei handelt es sich um Reduktionen, bei denen Phänomene höherer Beschreibungsebenen mit einer reduzierenden Theorie dadurch erklärt werden, dass letztere bestimmte Phänomene einer tieferen Ebene beschreibt, die die funktionale Rolle der entsprechenden zu erklärenden Phänomene einnehmen. In diese Erklärung fließt damit insbesondere das Wissen um die funktionale Rolle der zu erklärenden Phänomene ein, wie sie von der zu reduzierenden Theorie beschrieben wird: Innerhalb der zu reduzierenden Theorie wird die funktionale Rolle der zu erklärenden Phänomene ermittelt, die dann mit der reduzierenden Theorie bei bestimmten Phänomenen innerhalb der tieferen Beschreibungsebene wiedergefunden wird. In den Worten von Kistler 2006a: „According to the model of ,functional reduction‘, an account first developed in the philosophy of mind, reductions have two parts: an a priori part in which a higher-level concept is analysed as having a functional nature, and an empirical part in which the lower-level role-player is discovered which executes the function“ (a.a.O., S.312). Da dabei von der reduzierenden Theorie Phänomene erklärt werden, handelt es sich um indirekte Reduktionen, bei deren Erklärungen allerdings Wissen um die funktionale Rolle der zu erklärenden Phänomene benötigt wird, das von der zu reduzierenden Theorie stammt: In dem Beispiel vom Anfang des Abschnitts 1.2 über die funktionale Rolle eines Stuhls als Möbelstück leuchtet es unmittelbar ein, dass diese Rolle von einer mikroskopischen Theorie allein nicht erschlossen werden kann – für eine weitere Diskussion dieses Reduktionskonzepts sei aber wieder auf das zweite Kapitel verwiesen. Die zweite Bemerkung betrifft eine Besonderheit der Reduktion physikalischer Theorien: Wie gesehen, machen Kemeny und Oppenheim 1956 darauf aufmerksam, dass Erklärungen in der Physik oftmals approximativ und keine exakten logischen Ableitungen aus allgemeinen Gesetzen sind. Dieser Einwand wurde von Feyerabend 1962 dazu erweitert, dass direkte Reduktionen unmöglich sind, da sich Theorien, die in einem Näherungsverhältnis zueinander stehen, streng genommen widersprechen. Allerdings werden solche Näherungsverhältnisse in der Physik üblicherweise durch mathematische Grenzübergänge wiedergegeben, in denen ein bestimmter Parameter gegen Null oder Unendlich geht. Überträgt man diese Art der Erklärung auf die Erklärung ganzer Theorien innerhalb einer Reduktion, lässt sich damit ein Reduktionskonzept etablieren, das statt logischer Ableitungen solche Grenzübergänge zugrundelegt. So charakterisiert etwa Batterman 2007 Reduktionen in der Physik durch einen Grenzübergang limε →0 T f = Tc , wobei „[...] Tf is the typically newer, more fine theory, Tc is the typically older, coarser theory, and ε is a fundamental parameter appearing in Tf “ (a.a.O., Abschnitt 2). Dieses Konzept direkter Reduktion wird allerdings von Bat-

38

terman selbst insofern angegriffen, als er zwischen regulären und singulären Grenzübergängen unterscheidet und für letztere geltend macht, dass sie zu kompliziert sind, um Reduktionen zu liefern. Um in solchen Fällen Erklärungen zu erhalten, benötigt man nämlich nach Batterman 2002 sogenanntes asymptotic reasoning, wozu insbesondere Kenntnisse von Theorien über die Physik des Grenzfalls notwendig sind, also von vermeintlich reduzierten Theorien. Konkret heißt dies, dass man zum Beispiel für ein volles Verständnis der unterhalb von Regenbögen auftretenden Interferenzbögen nicht nur die Wellentheorie des Lichtes benötigt, sondern zusätzlich das Wissen, dass man Licht auch als geometrische Strahlen auffassen kann – nur mit den strahlentheoretischen Kaustiken, den Brennflächen von als Linsen aufgefassten Wassertropfen, lässt sich laut Batterman die Stabilität der in diesem Zusammenhang auftretenden Wellenmuster erklären (vgl. a.a.O., S.81-94). Man braucht eine Theorie für den Übergangsbereich der beiden Auffassungen (Welle bzw. Strahl), die er allgemein als borderland physics bezeichnet. Ähnlich wie in der Optik erhebt er den Anspruch, dieses Erfordernis auch für den Übergang von Quantenmechanik zu klassischer Mechanik zeigen zu können (vgl. a.a.O., S.99-112), wobei er die Notwendigkeit einer semiclassical mechanics begründet. Und im fünften Kapitel dieser Arbeit wird kurz darauf eingegangen, dass Batterman bei der Thermodynamik von Flüssigkeiten nahe ihres kritischen Punktes ähnliche Argumente bringt: Es treten universelle Eigenschaften auf, die unabhängig von der genauen Zusammensetzung der jeweiligen Flüssigkeit sind und zu deren Erklärung das mathematische Hilfsmittel der renormalization group benötigt wird, das ebenfalls zum asymptotic reasoning zählt (vgl. a.a.O., S.37-42, bzw. Kapitel 5 unten). Solche Aspekte des Reduktionsproblems sollen hier aber nicht weiter diskutiert werden, da das Augenmerk dieser Arbeit vor allem darauf liegen wird, inwiefern selbst bei regulären Grenzübergängen der Ansatz, Reduktionen mit Hilfe von Grenzprozessen zu etablieren, in der Lage ist, eine Lösung für die Einwände Feyerabends zu bieten, ob es mit Hilfe von Grenzübergängen vielleicht doch direkte eliminative Reduktionen gibt und welche Rolle Schaffners korrigierte Theorien in diesem Zusammenhang spielen. Dieser mathematische Aspekt des Reduktionsproblems in der Physik, dessen Herausforderung der bloß näherungsweisen Erklärungen nämlich mit dem Grenzübergangskonzept nur scheinbar gelöst wird, soll in Abschnitt 2.3 ausführlich besprochen werden. Dabei wird sich zeigen, dass die übliche Sprechweise, eine Theorie sei als Grenzfall in einer anderen enthalten, zwar ein bestimmtes mathematisches Verhältnis zwischen diesen Theorien beschreibt, dass vermöge dieses Verhältnisses aber die „enthaltene“ Theorie im Allgemeinen nicht eliminativ reduziert ist. Auch diskutiert werden soll der sprachliche Aspekt von Reduktionen in der Physik, der innerhalb die-

39

ses Grenzübergangskonzepts ebenfalls kein Problem darzustellen scheint: In Abschnitt 2.2 wird sich dagegen zeigen, dass die Bedeutungsunterschiede zwischen Termen verschiedener Theorien, zu deren Überbrückung Nagel die Brückengesetze einführte und die Feyerabend zu seiner Inkommensurabilitätsthese veranlassten, nicht ohne weiteres durch Grenzübergänge aufgehoben werden können. Die dritte und letzte Bemerkung dieses Abschnitts soll nun schließlich noch einmal den Unterschied zwischen dem Reduktionsproblem und den Positionen des Reduktionismus hervorheben: Unter dem Stichwort des ersteren wird versucht, das Verhältnis zwischen Theorien zu verstehen, ohne dass dabei reduktionistische Behauptungen über einzelne Theorien im Spiel sein müssen. So hegen weder Nagel noch später Hempel mit ihren direkten Reduktionskonzepten eliminative Gedanken im Sinne der reduktionistischen Positionen aus Abschnitt 1.2. Und auch bei Kemeny/Oppenheim 1956 finden sich eher Betrachtungen darüber, wann man sinnvoll von Theorienreduktion sprechen kann: Sie halten zum Beispiel fest, dass die reduzierende Theorie mindestens ebenso gut systematisiert (systematized, S.11)13 sein sollte, wie die reduzierte. Ähnliche Überlegungen finden sich auch bei Nagel und werden in Abschnitt 2.1 bei der genaueren Darstellung seines Reduktionskonzepts besprochen. Was nun die reduktionistischen Positionen betrifft, so wird in jüngster Zeit oft statt von Reduktionen neutral von Beziehungen zwischen Theorien, von intertheoretic relations gesprochen – die Verhältnisse zwischen verschiedenen Theorien sind oft viel zu kompliziert, als dass sie sich unter einfache Begriffe bringen ließen. So wurde etwa, wie gesehen, schon von Hooker 1981 darauf hingewiesen, dass sich zu reduzierende und reduzierende Theorien oft gegenseitig beeinflussen und gemeinsam entwickeln, und Schaffner 2006 wurde exemplarisch für die inzwischen vorherrschende Auffassung zitiert, dass es interessanter ist, die genauen Verhältnisse zwischen konkreten Theorien auszuloten, als pauschale Aussagen über Reduzierbarkeit aufzustellen. Nichtsdestotrotz wird sich diese Arbeit mit der in Abschnitt 1.2 vorgestellten Position des eliminativen Reduktionismus beschäftigen: Im nächsten Kapitel wird ein Reduktionskonzept erarbeitet, bei dem eine in dessen Sinne reduzierte Theorie in der Tat prinzipiell überflüssig ist. Die Fallbeispiele der anschließenden Kapitel werden dann zeigen, dass es für solche Reduktionen zwar historische Beispiele gibt, die Verhältnisse zwischen modernen physikalischen Theorien aber eher unter den ebenfalls im zweiten Kapitel erarbeiteten Begriff der Theoriennachbarschaft fallen, wobei im All13

Was das genau heißen soll bleibt allerdings unklar: „We realize that this concept [der Begriff systematized] is in need of precise definition, but at least we can make it intuitively clear“ (S.11).

40

gemeinen keine der Theorien, die benachbart zueinander sind, überflüssig ist. Damit wurden nun alle für die Untersuchung des Reduktionsproblems in der Physik wesentlichen Aspekte vorgestellt. Im nächsten Kapitel wird also ausgehend von den in diesem Abschnitt vorgestellten Theorien der Reduktion und unter besonderer Berücksichtigung des sprachlichen und mathematischen Aspekts ein Konzept für die Reduktion physikalischer Theorien erarbeitet, und die folgenden Kapitel untersuchen unter Zugrundelegung dieses Konzepts, inwiefern moderne physikalische Theorien prinzipiell aufeinander eliminativ reduzierbar sind.

Kapitel 2 Die Reduktion physikalischer Theorien 2.1 Das Reduktionsproblem in der Physik

Nach dem allgemeinen Überblick zum Reduktionsproblem im ersten Kapitel wird im zweiten nun die spezielle Fragestellung der Reduktion physikalischer Theorien in den Blick genommen. Es wird ein Reduktionskonzept erarbeitet, mit dem sich sagen lässt, dass eine reduzierte Theorie im Prinzip überflüssig ist, also eliminativ reduziert wurde. Dabei ist klar, dass eine indirekte Reduktion, bei der also alle Phänomene, die die reduzierte Theorie beschreibt, auch von der reduzierenden erklärt werden, eine solche eliminative Reduktion liefern würde. Allerdings wurde im ersten Kapitel auch darauf hingewiesen, dass dieses Konzept unbefriedigend ist, da es die fraglichen Theorien selbst unverbunden nebeneinander stehen lässt. Daher liegt der Schwerpunkt dieses Kapitels auf der Untersuchung der Grenzen und Möglichkeiten direkter Reduktionen in der Physik, bei denen also ein Verhältnis direkt zwischen den entsprechenden Theorien etabliert wird. In Abschnitt 1.3 wurde herausgearbeitet, dass es die direkte Theorienreduktion mit zwei wesentlichen Schwierigkeiten zu tun hat: Dem sprachlichen Problem der Frage nach der wechselseitigen Übersetzbarkeit des Vokabulars von Theorien und dem mathematischen Problem der nur annähernden Ableitbarkeit von Gesetzen. Dieser Abschnitt wird daher zwei konkrete Konzepte direkter Theorienreduktion kurz vorstellen, die sich jeweils einer dieser Schwierigkeiten in besonderem Maße widmen: Zum Ersten das von Nagel 1961, das sich mit den Brückengesetzen dem Problem der Sprache widmet, dabei natürlich lediglich historischer Vorläufer von subtileren Reduktionstheorien bleibt und hier als exemplarische Einführung in den begrifflichen Aspekt des Reduktionsproblems zu verstehen ist. Und zum Zweiten das Konzept von Scheibe 1997, das die mathematischen Besonderheiten der Reduktion physikalischer Theorien in den Mittelpunkt stellt und dabei eine viel präzisere Antwort gibt, als die in Abschnitt 1.3 zitierte Reduktion durch Grenzübergänge. Nach der Vorstellung dieser beiden Aspekte

42

in diesem Abschnitt werden sie in den Abschnitten 2.2 und 2.3 jeweils noch einmal gesondert diskutiert. In Abschnitt 2.4 wird dann davon ausgehend ein Reduktionskonzept erarbeitet, mit dem schließlich, nach vorbereitenden Betrachtungen dazu in Abschnitt 2.5, in den nächsten Kapiteln Fallbeispiele der Reduktion physikalischer Theorien untersucht werden. Die klassische Theorie der Reduktion, eine erste gründliche Fassung des Reduktionsbegriffs nämlich, auf den seither Bezug genommen wird, stammt von Ernest Nagel, der in The Structure of Science (1961) ein Kapitel der Theorienreduktion widmet. Seine Untersuchung hat dabei lediglich analysierenden Charakter: Er arbeitet am Beispiel der Reduktion der Thermodynamik auf die statistische Mechanik die wesentlichen Merkmale von Reduktionen heraus, ohne Reduktionsbehauptungen aufzustellen. Stattdessen beschäftigt er sich mit der Frage, wann Reduktionen sinnvoll sein könnten, und gibt dafür Kriterien an. So ist seiner Auffassung nach die bloße Möglichkeit, eine Theorie auf eine andere zu reduzieren, noch kein Grund, eine solche Reduktion auch durchzuführen – Reduktionen sind nach Nagel nur dann sinnvoll, wenn mit ihrer Hilfe die reduzierte Theorie vorangebracht wird: „In general, therefore, for a reduction to mark a significant intellectual advance, it is not enough that previously established laws of the secondary science [reduzierte Theorie] be represented within the theory of the primary discipline [reduzierende Theorie]. The theory must also be fertile in usable suggestions for developing the secondary science, and must yield theorems referring to the latter’s subject matter which augment or correct its currently accepted body of laws.“ (a.a.O., S.360)

Darin, dass er Fortschritte für die reduzierte Theorie fordert, gibt er sich als Vertreter retentiver Reduktionen zu erkennen, und äußert sich entsprechend über den Fall der Biologie, die selbst wenn sie etwa auf die Quantenmechanik reduziert wäre, ihre Fragestellungen besser untersuchen könnte, als letztere: „For example, even if biology were reducible to the physics of current quantum mechanics, at the present stage of biological science the gene theory of heredity may be a more satisfactory instrument for exploring the problems of biological inheritance than would be the quantum theory“ (S.363). Daher könnte es zwar ein schließlich erreichbares Ideal sein, alle naturwissenschaftlichen Theorien auf eine fundamentale Theorie zu reduzieren, ein solches Vorgehen wäre aber nur dann sinnvoll, wenn die jeweils reduzierte Theorie von dieser fundamentalen Theorie auch profitieren kann: „An integrated system of explanation by some inclusive theory of a primary science may be an eventually realizable intellectual ideal. But it does not follow that this ideal is best achieved be reducing one

43

science to another with an admittedly comprehensive and powerful theory, if the secondary science at that stage of its development is not prepared to operate effectively with this theory“ (ebd.). Damit weist Nagel auch darauf hin, dass die Fruchtbarkeit einer Reduktion vom Entwicklungsstand der zu reduzierenden Theorie abhängt. So gewinnt etwa die Botanik in einer Zeit, in der ihre Hauptfragestellung darin besteht, ein System der Pflanzen zu entwerfen, wenig durch eine Reduktion auf Physik und Chemie: „For example, at a time when the prime need of botany is to establish a systematic typology of existing plant life, the discipline may reap little advantage from adopting a physicochemical theory of living organisms“ (S.362). Auch darin spricht sich Nagels Auffassung über den retentiven Charakter von Reduktionen aus: „Again, although one science may be reducible to another, the secondary discipline [die reduzierte] may be progressively solving its own special class of problems with the help of a theory expressly devised for dealing with that subject matter of that discipline“ (ebd.). Nagel ist aber nicht nur ein Vertreter einer retentiven Reduktionsauffassung, sondern äußert sich auch kritisch zu Positionen, die sich allgemein für Reduzierbarkeit oder Nichtreduzierbarkeit aussprechen, mit dem Hinweis, dass dabei immer die konkreten Fragen der betroffenen Theorien und deren jeweiliger Entwicklungsstand ausschlaggebend seien, dass die Argumente solcher Positionen also vergessen „[...] that the reducibility (or irreducibility) of one science to another is contingent upon the specific theory employed by the latter discipline at some stated time“ (S.363). Positionen zur Reduzierbarkeit hält er nur für sinnvoll, wenn es darum geht, zu entscheiden, welche Forschungstrategien verfolgt werden sollten: „Such claims and counterclaims are perhaps most charitably construed as debates over what is the most promising direction systematic research should take at a given stage of a science“ (ebd.). Die kritischen Hinweise, die viel später etwa von Sklar 1999 (vgl. Abschnitt 1.2) oder Schaffner 2006 (vgl. Abschnitt 1.3) in dieser Hinsicht gegeben wurden und die sich für gründliche Einzelfallprüfungen statt allgemeiner Reduktionspositionen aussprechen, kann man also schon bei Nagel selbst nachlesen. Um nun seine Reduktionstheorie entfalten zu können, beginnt Nagel damit, festzuhalten, welche Bestandteile zu einer wissenschaftlichen Theorie gehören – was hier aber nur stark verkürzt wiedergegeben werden soll: Was zu einer solchen Theorie gehört, ist eine weite Frage und soll hier nur so weit verfolgt werden, wie es für die Reduktionsproblematik notwendig ist. Laut Nagel gibt es im Wesentlichen theoretische Postulate, experimentelle Gesetze und Theoreme, die sich aus diesen ableiten lassen. Weiterhin spricht er von theoretischen und experimentellen Größen bzw. theoretischen Termen und Beobachtungstermen, die klassischerweise durch die sogenannten

44

correspondence rules miteinander verknüpft sind. Neben den Gesetzen1 spielt die sprachliche Komponente eine wichtige Rolle: Jede Theorie hat ihre spezifischen Terme mit einer sich aus der jeweiligen Theorie ergebenen Bedeutung. Nagel schlägt nun eine vorläufige Definition vor, die er selbst später präzisiert, hier aber dennoch festgehalten werden soll, da sie auch einer ersten Intuition davon entspricht, was man von einer direkten Reduktion erwarten würde. Eine Reduktion einer Theorie auf eine andere liegt demnach vor, wenn die Gesetze der ersteren aus denen der letzteren logisch ableitbar sind. In Abschnitt 1.3 wurde schon ein Zitat von Nagel wiedergegeben, das allgemein den Erklärungscharakter solcher Reduktionen heraushebt. Hier sei eine andere, etwas genauere Fassung zitiert: „As has already been indicated in this chapter [vgl. besagtes Zitat in 1.3], a reduction is effected when the experimental laws of the secondary science [...] are shown to be logical consequences of the theoretical assumptions [...] of the primary science“ (Nagel 1961, S.352). Wie in Abschnitt 1.3 bereits festgehalten, besagt dieses Reduktionskonzept mit dem Hempel-Oppenheim-Schema der Erklärung, dass die reduzierte Theorie von der reduzierenden erklärt wird. Mit dieser Definition direkter Reduktionen ist nun eine reduzierte Theorie überflüssig: Ihre Gesetze sind in einer anderen Theorie logisch enthalten und sie wird daher zur Beschreibung der Welt nicht mehr benötigt. Bemerkenswerterweise entwirft Nagel also ein Konzept eliminativer Reduktionen, obwohl er, wie eben ausgeführt, Reduktionen für retentiv hält. Allerdings greift diese Vorstellung von der Reduktion physikalischer Theorien durch Deduktion von Gesetzen, was im Folgenden, mit Nagel und über Nagel hinaus, ausführlich gezeigt wird, auch deutlich zu kurz – Nagel verfehlt mit seinem Konzept gewissermaßen die tatsächlichen Verhältnisse zwischen Theorien, die in der Tat so, wie er es sich auch vorstellt, eher retentiv sind. Allerdings geht es in dieser Arbeit um die Frage, ob es überhaupt direkte eliminative Reduktionen geben kann, und es wird daher zu untersuchen sein, was von der besagten Intuition, die Nagels erklärender Reduktion zugrunde liegt, angesichts dieses Befundes bleibt. In Abschnitt 1.3 wurde dieses Ergebnis nun schon kurz angedeutet, indem zwei Schwierigkeiten dieses einfachen Reduktionskonzepts herausgestellt wurden: Eine wird von Nagel diskutiert und die andere wird im weiteren Verlauf auch noch ausführlich behandelt. Es ist erstens die Frage nach der Sprache: Die verschiedenen Theorien verwenden (meist, und jedenfalls in den interessanten Fällen) auch ein verschiedenes Vokabular. Wenn nun die relevanten Terme nicht absolut, sondern innerhalb der jeweiligen Theorie 1

Die theoretischen Postulate und experimentellen Gesetze sollen hier zusammenfassend als die Gesetze der Theorie bezeichnet werden.

45

definiert sind, kann von logischen Ableitungen zunächst keine Rede sein. Zweitens handelt es sich bei den Beziehungen zwischen den Gesetzen verschiedener Theorien (außer in trivialen Fällen) niemals um bloße Deduktionen: Stattdessen werden üblicherweise mathematische Approximationen bemüht, ein Tatbestand, der von Nagel geflissentlich übersehen wird.2 Und auch, wenn dieser Umstand in einigen Fällen aufgrund immerhin näherungsweiser Erklärungen unproblematisch erscheint, ist es doch fraglich, wie er in ein differenzierteres Reduktionskonzept integriert werden kann. Dies wird in Abschnitt 2.3 noch gründlich diskutiert und zu einer Herausforderung an die gängige Vorstellung von auf Grenzübergängen basierenden, direkten eliminativen Reduktionen führen. Doch zunächst sei der erste, sprachliche Punkt besprochen, soweit er von Nagel diskutiert wird. Nagel unterscheidet in dieser Frage zwischen homogenen und heterogenen Reduktionen (Nagel 1961, S.342). Erstere sind die unkomplizierten Fälle, in denen zwei Theorien in demselben Vokabular formuliert sind, weshalb dann bei Reduktionen das logische Ableiten, jedenfalls was die Sprache betrifft, kein Problem darstellt. Das Paradebeispiel bei Nagel ist die Zurückführung der Galileischen Fallgesetze auf die Newtonsche Mechanik. Allerdings übersieht Nagel hier ein anderes Problem: Wenn die Theorien auch in derselben Sprache abgefasst sind, handelt es sich dennoch um keine logische Deduktion, sondern um eine mathematische Annäherung. Aus dem Newtonschen Gravitationsgesetz ergibt sich nämlich gerade keine konstante Beschleunigung eines fallenden Körpers, die Beschleunigung nimmt stattdessen stetig zu. Die Galileische konstante Beschleunigung gilt nur annähernd für kleine Fallstrecken. Aber diese Frage wird später noch eingehend besprochen und sei hier zunächst ignoriert. Der sprachlich interessantere Fall ist nun der der heterogenen Reduktion. Bei dieser sind die Begriffe der Theorien verschieden und können nicht ohne weiteres logisch aufeinander bezogen werden. Das Nagelsche Beispiel hierfür ist die Reduktion der Thermodynamik auf die statistische Mechanik: Der Begriff der Temperatur, wie er innerhalb der Thermodynamik gebraucht wird, taucht in der statistischen Mechanik nicht auf. Um dennoch das Konzept der Reduktion als logisches Ableiten der Gesetze beibehalten zu können, führt Nagel zusätzliche Annahmen, additional assumptions (a.a.O., S.354), ein, die eine sprachliche Verbindung zwischen diesen Theorien herstellen, die zwar nicht von ihm aber später gemeinhin sogenannten Brückengesetze: „Assumptions of some kind must be introduced which postulate suitable relations“ (S.353f.). Nimmt man zu den Gesetzen der reduzierenden Theorie solche Brückengesetze hinzu, die bei ihm die Form von Bikonditionalen haben, so kann man nach Nagel im Fall 2

Jedenfalls in Nagel 1961 – in Nagel 1970 wird dieses Problem aufgegriffen.

46

einer Reduktion aus dieser Gesamtheit die Gesetze der zu reduzierenden Theorie logisch ableiten: In einer präziseren Definition (für heterogene Reduktionen) wird nach Nagel also eine Theorie auf eine andere reduziert, wenn die Gesetze der zu reduzierenden aus denen der reduzierenden und hinzugenommen Brückengesetzen, die Zusammenhänge zwischen den verschiedenen sprachlichen Termen herstellen, logisch ableitbar sind. Ein solches Brückengesetz ist laut Nagel im Fall der Reduktion der Thermodynamik auf die statistische Mechanik die Identifizierung der Temperatur eines Gases mit der mittleren kinetischen Energie seiner Moleküle: „[...] the deduction of the law from the theory depends on the additional postulate that the temperature of a gas is proportional to the mean kinetic energy of its molecules“ (S.355),3 wobei Nagel den Status dieses Postulats als problematisch erkennt und diskutiert – dies wird in Abschnitt 2.2 noch besprochen. Allerdings erfüllen nun die von Nagel als solche heterogenen Reduktionen intendierten Beispiele, selbst wenn die nicht trivialen und problematischen Brückengesetze hinzugenommen werden, streng genommen auch wieder nicht die Forderung nach der logischen Ableitbarkeit: Die Definition wird im Fall der Reduktion der Thermodynamik auf die statistische Mechanik, so wie Nagel diese Reduktion darstellt, zwar erfüllt, es handelt sich aber eigentlich wiederum statt um eine logische Implikation um eine mathematische Annäherung, was Nagel, ganz wie im oben erwähnten Zusammenhang mit den Galileischen Fallgesetzen, bei denen es sich streng genommen auch nicht um eine auf logischer Ableitung beruhende homogene Reduktion handelt, nicht thematisiert. Dieses Problem des mathematischen Aspekts bei der Reduktion physikalischer Theorien soll nun kurz vorgestellt werden. Die derzeit in Bezug auf den mathematischen Aspekt elaborierteste Reduktionstheorie wurde von Erhard Scheibe in Die Reduktion physikalischer Theorien (zwei Bände, 1997 und 1999) erarbeitet. Scheibe steht in der Tradition der strukturalistischen Schule der Wissenschaftstheorie, die im Wesentlichen von Sneed 1971 begründet und später von Stegmüller, unter anderem in Stegmüller 1976, weiterentwickelt und popularisiert wurde. Der Ansatz dieser Schule für eine Lösung des sprachlichen Problems wissenschaftlicher, insbesondere physikalischer Theorien, das in der Frage nach der Bedeutung theoretischer Terme besteht – eine Frage, die sich, wie gezeigt, auch im Zusammenhang mit den Brückengesetzen stellt –, besteht im Wesentlichen darin, die Theorien im Geiste Bourbakis streng zu formalisieren. Es werden Metatheorien aufgestellt, die wissenschaftliche 3

Dieses Beispiel wurde innerhalb der Reduktionsdebatte zu dem Standardbeispiel für Brückengesetze.

47

Theorien mit Begriffen aus der Mengenlehre und Logik, insbesondere der Modelltheorie, erfassen sollen. Dieser Ansatz ist auch eine Reaktion auf die Angriffe Kuhns und Feyerabends auf den logischen Empirismus (insbesondere auf Poppers Falsifikationismus), denen die Strukturalisten mit ihrem Programm einer gründlichen Formalisierung der Physik, ganz in der Tradition des logischen Empirismus als rationale Rekonstruktion der Physik, entgehen zu können hoffen. Allerdings gab es im Zusammenhang mit der Reduktionsproblematik auch schon vor Feyerabend Ansätze, physikalische Theorien zu formalisieren. So geht die strukturalistische Bewegung ursprünglich auf die Forderung von Suppes 1957 zurück, Theorien für Reduktionszwecke mit mengentheoretischen Mitteln zu axiomatisieren, was zuerst von Adams 1959 durchgeführt wurde.4 Scheibe beruft sich seinerseits zum einen auf Arbeiten von Ludwig, der ebenfalls zu der strukturalistischen Schule gehört und in Ludwig 1990 eine umfangreiche Axiomatisierung der Physik vorgelegt hat, und liefert zum anderen darüber hinaus in Scheibe 1997 eine eigene Metatheorie physikalischer Theorien. Hier soll es nun zunächst kurz um die Darstellung seiner Reduktionstheorie gehen, die er in diesem Rahmen formuliert: Scheibe beschränkt sich auf physikalische Theorien und legt, was den mathematischen Aspekt von Reduktionen betrifft, eine gründlich ausgearbeitete Theorie der Reduktion vor. Dabei erhebt er den Anspruch, einen direkten und eliminativen Reduktionsbegriff zu liefern, wenn er, wie schon in Abschnitt 1.2 zitiert, in der Einleitung von Scheibe 1997 explizit als „Leitidee“ formuliert, „[...] dass eine physikalische Theorie durch Reduktion im Prinzip entbehrlich oder überflüssig oder redundant gemacht wird durch eben die Theorie, auf die sie reduziert wird“ (a.a.O., S.4). Dies verbindet er mit dem Gedanken der Hintereinanderausführbarkeit von Reduktionen, ein, wenn nicht der Hauptgedanke seines Buches: Man kann demnach Theorien höherer Beschreibungsebenen zwar nicht direkt, aber über mehrere Zwischenschritte auf eine fundamentale Theorie zurückführen. Dabei können auch verschiedene von ihm eingeführte Reduktionstypen miteinander kombiniert werden, wobei er keinen festen Reduktionsbegriff von vornherein festlegt, sondern diesen abhängig sein lässt von den vielen Kombinationsmöglichkeiten und den dadurch jeweils entstehenden Gesamtreduktionen, er möchte in seinen Worten „[...] den allgemeinen Begriff von Reduktion dadurch gewinnen, dass wir von ebenso speziellen wie verschiedenartigen Reduktionen ausgehen und durch iterierte Kombinationen zu neuen und immer komplizierteren Reduktionen vordringen“ (a.a.O., S.40). Mit diesem flexiblen Redukti4

Eine Besprechung der Arbeit von Adams und weiterer strukturalistischen Arbeiten zum Reduktionsbegriff liefert Niebergall 2002, eine Übersicht des Reduktionsproblems aus strukturalistischer Sicht gibt Balzer et al. 1984.

48

onsbegriff wird er obigem Einwand Nagels gerecht, der einen pauschalen Reduktionsbegriff deshalb für problematisch hielt, weil Reduktionen immer vom jeweiligen Theorienkontext abhingen. Im Gegensatz zu Nagel aber, der zwar ein eliminatives Reduktionskonzept entwickelt hat, aber eigentlich ein Vertreter einer retentiven Reduktionsauffassung ist, und kritisch untersucht, unter welchen Bedingungen solche Reduktionen überhaupt sinnvoll sein können, ist es Scheibes ausgesprochenes Ziel, die prinzipielle Überflüssigkeit nichtfundamentaler physikalischer Theorien zu zeigen. Wenn nun auch aufgrund der vielen verschiedenen Möglichkeiten, Reduktionen hintereinander zu schalten, ein allgemeiner Reduktionsbegriff nicht explizit definiert ist, gibt Scheibe aber eine notwendige Bedingung für das Verhältnis der beiden in einem Reduktionsverhältnis stehenden Theorien an, die wiederum der Bedingung indirekter Reduktionen entspricht: „[...] T  [die reduzierende Theorie] muss die empirischen Erfolge von T [der zu reduzierenden Theorie] reproduzieren und darüber hinaus neue empirische Erfolge haben, insbesondere solche, die für T Misserfolge waren“ (S.42). Scheibe versucht aber gleichwohl, direkte Reduktionen zu etablieren, und schränkt dementsprechend diese indirekte Bedingung ein: „Obwohl wir diesen möglichen Zusammenhang zwischen Reduktion und empirischem Fortschritt also wegen seiner grundsätzlichen Bedeutung im Auge behalten und die Möglichkeit empirischen Fortschritts von T zu T  geradezu als notwendige Bedingung dafür ansehen werden, dass T auf T  reduzierbar ist, muss schon hier darauf hingewiesen werden, dass es hierbei um ein besonders schwieriges Gebiet geht, das durch diese Arbeit nicht wesentlich gefördert werden kann.“ (S.43)

Wenn es auch nicht explizit ausgesprochen wird, steckt in dieser Einschränkung die Einsicht in den Unterschied zwischen direkter und indirekter Reduktion, und es spricht sich darin insbesondere der Tatbestand aus, dass es leichter ist, direkte Verbindungen zwischen Theorien herzustellen, als indirekte Reduktionen mittels Phänomenerklärungen zu erhalten. Im weiteren Verlauf der Arbeit wird sich nun zeigen, dass Scheibes direkte Reduktionen im Allgemeinen nicht eliminativ sind, sondern lediglich vergleichenden Charakter haben: Eliminative Reduktionen benötigen nämlich einen indirekten Anteil. Und dieser ist in der Tat bei modernen physikalischen Theorien nicht leicht zu haben. Wenn nämlich etwa bei dem Verhältnis zwischen Newtonscher Mechanik und Keplerschen Gesetzen die direkte Reduktion im Sinne Scheibes und eine indirekte Reduktion über die Erklärung von Phänomenen in eins fällt, ist dies im Fall von Newtonscher Mechanik und Quantenmechanik nicht mehr so leicht, wie das vierte Kapitel zeigen wird: Hier gibt es zwar direkte, vergleichende Beziehungen, die für die in diesem Kapitel zu definierende Nachbarschaft dieser Theorien sprechen, die aber

49

keine eliminative Reduktion darstellen. Und eine indirekte Reduktion, die die prinzipielle Überflüssigkeit der Newtonschen Mechanik zeigen könnte, ist nicht in Sicht. Scheibe jedenfalls schränkt seine obige Forderung, die indirekte Reduktionen liefern würde, darauf ein, die „Möglichkeit empirischen Fortschritts“ im Blick behalten zu wollen, und widmet sich letztlich doch ausschließlich direkten Reduktionen. Dennoch enthält seine Arbeit durchaus, wenn auch nicht unmittelbar, einige Hinweise zu dem Problem indirekter Reduktionen,5 so dass in den Untersuchungen dazu in den Fallbeispielen der Kapitel 3, 4 und 5 auf die Arbeit Scheibes zurückzukommen ist. Bemerkenswert an Scheibes Arbeit ist weiterhin, dass sie bei dem Versuch, direkte eliminative Reduktionen in der Physik zu etablieren, auf große Schwierigkeiten und sogar Grenzen stößt und diese benennt: Direkte Reduktionen sind oft nur in Ansätzen durchführbar, die mathematischen Schwierigkeiten, die sich in Scheibes formalisiertem Rahmen stellen, sind erheblich und selbst wenn es sich lediglich um retentive Reduktionen handelt, sind diese nicht immer vollständig durchgeführt, sondern harren oft noch einer genauen mathematischen Ausarbeitung. Doch nun zu einem Überblick über Scheibes Reduktionstheorie. Es wird zwischen drei verschiedenen Reduktionsarten unterschieden, den exakten, den approximativen und den partiellen Reduktionen. Die ersteren sind die unkomplizierten Fälle, die, so wie es Nagel bei seinen homogenen Reduktionen intendiert hat, logische Ableitungen darstellen. Wenn man von dem sprachlichen Problem zunächst absieht bzw. von Fällen homogener Reduktionen im Sinne Nagels ausgeht, sind Scheibes exakte Reduktionen tatsächlich logische Ableitungen, was hier nur deshalb nicht unter diesen Begriff subsumiert werden soll, da er dabei zwischen vielen verschiedenen Fällen differenziert – so gibt es zum Beispiel Verallgemeinerungen, Äquivalenzen, Einbettungen und Verfeinerungen –, die hier nicht im Einzelnen vorgestellt werden sollen. Es sei aber darauf hingewiesen, dass der Begriff „exakt“ diejenigen Reduktionen meint, bei denen keine Grenzübergänge bzw. Annäherungen vorkommen, was dann aber wiederum durchaus Reduktionen sein können, die Nagel als heterogen und somit als zusätzlicher Brückengesetze bedürftig bezeichnet hätte: Es sind zwei verschiedene Herangehensweisen, wenn Nagel das mathematische Problem außer Acht lässt, womit auch seine Beispiele für homogene Reduktionen keine logischen Ableitungen sind, und Scheibe das sprachliche Problem durch Formalisierung umgeht und also in exakten Reduktionen logische Verbindungen zwischen verschiedenen Konzepten herstellt. Wichtig ist 5

Schwierigkeiten, die bei der direkten Theorienreduktion auftreten, sind zum Teil auch für die indirekte Reduktion über die Erklärung von Phänomenen relevant.

50

dabei noch festzuhalten, dass Scheibe zwar axiomatisch genau definiert, wie Theorien aufgebaut sind, aber dennoch einen sehr laxen Umgang mit dem Begriff der Theorie insofern pflegt, als er vielerlei als Theorie auffasst: So spricht er zum Beispiel im Zusammenhang mit exakten Reduktionen von der „Theorie des mathematischen Pendels“ und dessen Reduktion auf die Differentialgleichung seiner Bewegung, was beides eher einzelne Gesetze sind, die zu einer Theorie (der klassischen Mechanik) gehören6 und daher eigentlich keine Anwendungsfälle für Reduktionen sein sollten. Bei den approximativen Reduktionen kommen nun mathematische Grenzübergänge und Annäherungen ins Spiel, der wesentliche Punkt, der von Nagel zunächst vernachlässigt wurde. Streng genommen widersprechen sich in diesen Fällen die beiden Theorien, die in einem Reduktionsverhältnis stehen sollen, logisch – eine Verbindung durch Grenzprozesse ist kein logisches Ableiten, sondern eher eine Vergleichsbeziehung, die zu inhaltlichen Korrekturen Anlass gibt – und Scheibe stellt sich zu Recht die Frage, ob man sagen kann, dass eine approximativ reduzierte Theorie überflüssig ist: „Je nachdem, ob der Eingriff [die inhaltliche Korrektur, die Näherungsbetrachtungen erlauben] harmloser oder weniger harmlos ist, hat man dann kleinere oder größere Schwierigkeiten, den Vorgang noch als eine Reduktion zu rekonstruieren. Denn hierfür war ja unsere Devise, dass die überwundene Theorie durch ihren Nachfolger redundant gemacht wird. Wie aber soll dies geschehen, wenn die beiden Theorien sich widersprechen – ganz zu schweigen von eventuellen tiefer liegenden Diskrepanzen?“ (Scheibe 1997, S.170)

Die kleineren oder größeren Schwierigkeiten erinnern an das in Abschnitt 1.3 erwähnte Kontinuum zwischen Retention und Replacemet bei Hooker 1981, wobei es allerdings fraglich ist, inwiefern Näherungsreduktionen, die einen logischen Widerspruch überbrücken, überhaupt eine Theorie eliminativ reduzieren können. Scheibes Antwort darauf besteht zunächst einfach darin, neben den unkomplizierten exakten Reduktionen auch approximative zuzulassen, so dass Reduktionen dann Näherungsbeziehungen zwischen Theorien sind, wobei er genauer im Rahmen seiner rationalen Rekonstruktion von einem approximativen topologischen Vergleich zweier Mengen spricht, der Theoriekerne nämlich, die er in seinem Buch als Mengen expliziert. Wie in Abschnitt 1.3 bereits erwähnt, lassen lange vor Scheibe auch Hempel und Nagel Näherungserklärungen bei Reduktionen zu, und Scheibe baut diesen Ansatz nun zu einer gründlichen Theorie aus, die mit ihren topologischen Vergleichen deutlich präziser ist als das ebenfalls in Abschnitt 1.3 zitierte Schema einer Reduktion durch einen Grenzübergang. Scheibes Reduktionstheorie wird 6 Womit

es hier tatsächlich kein sprachliches Problem gibt.

51

in Abschnitt 2.3 noch genauer nachvollzogen, wobei dann zu untersuchen sein wird, ob durch solche Näherungsreduktionen das eben zitierte von Scheibe selbst benannte Problem wirklich gelöst wird, inwiefern also auf Grenzübergängen beruhende Reduktionen eliminativ sind: Es wird sich zeigen, dass Scheibes Reduktionen tatsächlich eher retentiven Charakter haben. Während also Nagel retentive Reduktionen beschreiben möchte und einen eliminativen Reduktionsbegriff entwickelt, möchte Scheibe umgekehrt eliminative Reduktionen etablieren und liefert lediglich retentive Reduktionen. Mit dem Begriff der partiellen Reduktion weist Scheibe schließlich auf die Fälle hin, in denen nicht eine gesamte Theorie auf eine andere zurückgeführt wird, sondern nur Teile, oft nur einzelne Gesetze, reduziert werden können. Dass dies nicht im Widerspruch zu seiner Forderung nach der Überflüssigkeit reduzierter Theorien stehen muss, erklärt er so, dass dazu nicht alle Axiome einer Theorie reduziert werden müssen, sondern dass es genügt, den „empirisch bewährten Teil“ (Scheibe 1997, S.205) zu reduzierender Theorien zu reproduzieren. Insbesondere bei dem Übergang von der Quantenmechanik zur Kontinuumsmechanik (also der nicht „gequantelten“ und mithin „kontinuierlichen“ klassischen Mechanik) ist es nach Scheibe so, dass letztere nicht im Ganzen aus ersterer abgeleitet werden kann, sondern immer nur einzelne Gesetze: „So oder so wird die Quantenmechanik auf keinen Fall die volle Kontinuumsmechanik reproduzieren können“ (a.a.O., S.206, vgl. Kapitel 4 für diesen Fall). Dazu sagt er weiterhin, dass es im Sinne des Fortschritts innerhalb der Physik auch ganz natürlich so sei, da physikalisches Wissen nicht kumulativ ist und neue Theorien ältere nur zum Teil bestätigen, dass letztere daher verständlicherweise auch nur zum Teil reduziert werden können. Es wäre „[...] aus historischer Sicht erstaunlich, wenn jede jemals aufgestellte Theorie anlässlich ihrer schließlichen Überwindung in einer Weise verbessert würde, die sie als Ganzes unangetastet ließe“ (ebd.). Wie sich dieser Gedanke mit der Forderung nach direkten, eliminativen Reduktionen verträgt, wird sich zeigen. Dazu soll in Abschnitt 2.3 genau untersucht werden, wie die Reduktionen verlaufen, die er sowohl als approximative wie partielle Reduktionen durchführt, und ob es sich dabei um eliminative Reduktionen handelt. Insgesamt hat dieser Abschnitt nun gezeigt, dass die erste, intuitive Vorstellung von direkten Reduktionen, nach der Gesetze zu reduzierender Theorien aus denen reduzierender logisch abgeleitet werden können, zu einfach ist und nicht die Schwierigkeiten erfasst, mit denen man es bei typischen Beziehungen zwischen physikalischen Theorien zu tun hat. Das heißt noch lange nicht, dass man mit differenzierteren Reduktionstheorien nicht doch ein Konzept direkter eliminativer Reduktionen formulieren kann. In dieser

52

Hinsicht werden nun in den folgenden zwei Abschnitten die beiden als wesentlich erkannten Schwierigkeiten – die der Sprache und die der Näherungsbeziehungen – untersucht. Diese beiden Aspekte gehören dabei natürlich streng genommen zusammen und bedingen einander, da die Bedeutung der theoretischen Konzepte von den zugehörigen Gleichungen abhängt, sollen aber hier und in den folgenden Kapiteln um der Übersicht willen einzeln behandelt werden. Die Ergebnisse dieser getrennten Untersuchungen in den nächsten beiden Abschnitten werden dann in Abschnitt 2.4 zusammengeführt. 2.2 Der begriffliche Aspekt

Der im letzten Abschnitt kurz besprochene strukturalistische Ansatz wurde bereits in Abschnitt 1.3 erwähnt, als es um die präzise Ausarbeitung der Analogiebeziehung, die von Schaffner bzw. Hooker im Rahmen ihres Reduktionskonzepts über korrigierte Theorien zwar gefordert, aber nicht genau definiert wurde, in Bickle 1998 ging. Dort wie bei der im letzten Abschnitt vorgestellten Arbeit von Scheibe erlaubt dieser Ansatz einen äußerst differenzierten Umgang mit dem Brückengesetzproblem, der auf der formalen, axiomatischen Formulierung von Theorien und der Verwendung von Theoriemodellen beruht. Als solche technische Hilfe wird der strukturalistische Ansatz nun auch im Verlauf dieses Abschnitts eine Rolle spielen, weshalb ein paar allgemeine kritische Bemerkungen dazu vorangestellt seien. Schon Achinstein 1968 brachte einige Argumente gegen die formale Betrachtung von Theorien vor. So räumt er zwar ein, dass die axiomatische Herangehensweise die nicht zu bestreitenden Vorteile begrifflicher Klarheit und einfacher Nachvollziehbarkeit logischer Schlüsse für sich verbuchen kann (a.a.O., S.149f.), gibt aber zu bedenken, dass bei einer solchen Darstellung von Theorien Wesentliches verloren geht (S.150f.). So wird zum Beispiel nicht klar, welche Axiome einer Theorie zentral sind, wie sie motiviert werden, worin bei einer rein formalen Ableitung „der Trick“ besteht, der sie erst verständlich werden lässt, und wie die Bedeutung von Termen aus bloßen Definitionen ohne verdeutlichende Erklärungen oder Analogien erhellen soll. Und nicht zuletzt entsprechen formale Darstellungen keinesfalls der wissenschaftlichen Praxis und es gibt sie auch gar nicht vollständig, sondern sie stellen meist ein erst noch zu erreichendes Ziel dar. Kurzum, Wissenschaft ist mehr als bloß formales Ableiten, und es spielen viele andere Aspekte eine Rolle, ohne die man von einer Menge von Formeln auch nicht wüsste, ob es sich überhaupt um eine Theorie handelt: „Any set T consisting of axioms, theorems, and proofs is a theory

53

irrespective of whether anyone has (had, might have had, and so forth) T ; indeed, it is a theory irrespective of whether anyone ever contemplated or could have contemplated such a set. This ignores contextual considerations relevant in deciding what is to count as a theory“ (S.131). Mit formalen Methoden allein lässt sich offenbar nicht adäquat formulieren, bei welchen Mengen von Axiomen es sich um eine Theorie handelt. In Abschnitt 1.3 wurde nun schon kurz angesprochen, dass der strukturalistische Reduktionsbegriff ebenfalls in diesem Sinne unterbestimmt bleibt, da Kriterien über formale Ähnlichkeiten für eine Reduktion auch von zwei Theorien erfüllt sein können, die von völlig verschiedenen Dingen handeln. Als Beleg wurde Moulines 1984 zitiert, der allerdings dieses Problem durch eine Erweiterung der strukturalistischen Reduktionsdefinition vermeiden möchte. Dabei muss er gleichwohl einräumen, dass es sich bei seinem Erweiterungsversuch lediglich darum handeln kann, möglichst viele solcher Fälle unechter Reduktionen auszuschließen. Es besteht nämlich zwar „[...] the possibility of enriching our previous concept through appropriate modifications so as to keep outside it as many of the unwanted cases as possible“ (a.a.O., S.55). Die Möglichkeit, dennoch Reduktionsbeziehungen zwischen völlig verschiedenen Theorien herzustellen, kann aber im Allgemeinen nicht ausgeschlossen werden: „The possibility that we find a formally appropriate ρ [eine Reduktionsbeziehung] just by chance or by constructing it in an ad-hoc way cannot be ruled out in general“ (ebd.). Deshalb liefert der strukturalistische Ansatz allein kein befriedigendes Reduktionskonzept, da man in diesen, nicht auszuschließenden Fällen schließlich nicht von Reduktionen sprechen möchte: „Would we then say that we have reduced one theory to the other? I think we would feel such a reduction is not ,serious‘“ (ebd.). Allerdings kann dieser Ansatz im Rahmen anderer Reduktionskonzepte präzise Vergleiche zwischen verschiedenen Theorien liefern und wird in diesem Sinne in dieser Arbeit noch eine Rolle spielen – insbesondere wird er bei der Besprechung der Arbeit von Scheibe im nächsten Abschnitt um seiner Klarheit willen hinzugezogen. Bevor aber die eher technische Hilfe des strukturalistischen Ansatzes bei der Bearbeitung des Brückengesetzproblems in Anspruch genommen wird, soll dieses nun allgemein diskutiert werden. Damit wird jetzt also der sprachliche Aspekt des Reduktionsproblems besprochen. Das Brückengesetzproblem besteht, wie ausgeführt, nach Nagel darin, dass Reduktionen zunächst keine logischen Ableitungen sein können, da Theorien mit einem jeweils eigenem Vokabular arbeiten, dessen Bedeutung innerhalb der jeweiligen Theorie festgelegt ist. In Nagels Worten: „It is, however, of utmost importance to note that expressions belonging to a science possess meanings that are fixed by its own procedures of explication. In

54

particular, expressions distinctive of a given science (such as the word ,temperature‘ as employed in the science of heat) are intelligible in terms of the rules or habits of usage of that branch of inquiry; and when those expressions are used in that branch of study, they must be understood in the senses associated with them in that branch, whether or not the science has been reduced to some other discipline.“ (Nagel 1961, S.352)

Reduktionsbeziehungen zwischen verschiedenen Theorien müssen also Verbindungen zwischen den verschiedenen, innerhalb ihrer jeweiligen Theorie definierten Termen herstellen können, sei es zwischen verschiedenen Begriffen mit ähnlicher Bedeutung (wie etwa bei „Temperatur“ und „mittlerer kinetischer Energie der Moleküle“) oder gleichen Begriffen mit unterschiedlicher Bedeutung (etwa die verschiedenen Bedeutungen des Begriffs „Masse“ in klassischer bzw. relativistischer Physik). Es sei hier betont, dass solche Verbindungen innerhalb des Wissenschaftsbetriebs oft nicht naheliegen, sondern aus dem Bemühen um Reduktionsbeziehungen heraus konstruiert werden – zunächst hantiert jede Theorie mit dem ihr eigentümlichen Vokabular. Nagels Vorschlag für Verbindungen zwischen den verschiedenen Termen sind die schon genannten Brückengesetze, in denen bestimmte Begriffe verschiedener Theorien miteinander identifiziert werden.7 Zur Erinnerung: Nagels Beispiel einer heterogenen Reduktion ist die der Thermodynamik auf die statistische Mechanik mit Hilfe eines Brückengesetzes, das Temperatur und mittlere kinetische Energie miteinander identifiziert. In Abschnitt 2.1 wurde schon darauf hingewiesen, dass der Status dieser zusätzlichen Annahmen in Form von Brückengesetzen höchst problematisch ist. Nagel 1961 unterscheidet nun drei Möglichkeiten für diesen Status (S.354): Erstens könnten Brückengesetze logische Verbindungen zwischen etablierten Bedeutungen sein, so dass verschiedene Begriffe analytisch als synonym erkannt würden, zweitens könnte es sich um Konventionen handeln, also um Definitionen bzw. Neudefinitionen und drittens um faktische Zusammenhänge, womit Brückengesetze überprüfbare physikalische Gesetze wären. Diese Möglichkeiten diskutiert Nagel an dem Thermodynamikbeispiel, wobei sich zeigt, dass die erste Möglichkeit nicht in Frage kommt: Temperatur und mittlere kinetische Energie sind in völlig verschiedenen Zusammenhängen definiert und daher ganz sicher nicht synonym: „Certainly no standard exposition of the kinetic theory of gases pretends to establish the postulate [das Brückengesetz] by analyzing the meanings of the terms occurring in it. The linkage stipulated by the postulate cannot 7 Die Idee solcher Brückengesetze geht historisch mindestens auf die Korrespondenz-

prinzipien zwischen klassischer Mechanik und Quantenmechanik in Bohr 1923 zurück, vgl. auch Kapitel 5.

55

therefore be plausibly regarded as a logical one“ (S.355). Dies kann gleich allgemeiner festgehalten werden: Brückengesetze werden sich, außer in uninteressanten, trivialen Fällen, nie als analytische Identitäten herausstellen – in anderem Zusammenhang heißt es dazu bei Schaffner 1976: „Genes were not discovered to be DNA via the analysis of meaning; important and difficult empirical research was required to make such an identification“ (a.a.O., S.614f.). Dies ist in der klassischen Bedeutungsauffassung physikalischer Terme, wie sie sich in obigem Nagelzitat ausspricht, und nach der sich die Bedeutung eines Terms innerhalb der jeweiligen Theorie ergibt, in der er verwendet wird, eine geradezu triviale Feststellung. Insbesondere gilt dies für Terme von Theorien, die sich mit verschiedenen Sachverhalten befassen: Ohne eine schlüssige Reduktionsbeziehung ist dies bei den meisten Theorienverhältnissen der Fall, da erst von einer solchen Reduktionsbeziehung gezeigt werden muss, dass es sich lediglich um verschiedene Theorien handelt, die dasselbe meinen. So sagt etwa Nagel über sein Konzept heterogener Reduktionen: „In such reductions, the subject matter of the primary science appears to be qualitatively discontinuous with the materials studies by the secondary science“ (Nagel 1961, S.342). In solchen Fällen können Brückengesetze nicht durch logische Analyse hergestellt werden, da erst empirisch gezeigt werden muss, dass die Theorien dieselben Dinge beschreiben. Letzteres ist schließlich nicht immer der Fall, und dann lassen sich gar keine Übersetzungen angeben, wie Scheibe festhält: „Eine Sprache, die gerade ausreicht, um die Einrichtung meines Zimmers zu beschreiben, ist gewiss unübersetzbar in eine Sprache, die gerade ausreicht, um eine Besteigung des Mont Blanc wiederzugeben“ (Scheibe 1999, S.37). Was nun die anderen beiden Möglichkeiten für den Status der Brückengesetze betrifft, gelangt Nagel zu keiner Entscheidung, sondern verweist darauf, dass dies eine Auffassungsfrage sei und vom „context of exposition“ der jeweiligen Reduktion (Nagel 1961, S.356) abhänge: Einerseits scheint es möglich zu sein, die Identifizierung von Temperatur und mittlerer kinetischer Energie experimentell zu überprüfen. Zwar ist die kinetische Energie von Molekülen nicht direkt messbar, aber es sind indirekte Verfahren denkbar, die ohne das Konzept der Temperatur auskommen: „In consequence, it does seem possible to determine experimentally whether the temperature of a gas is proportional to the mean kinetic energy of its molecules“ (ebd.). Andererseits kann die Reduktion auch so aufgefasst werden, dass die Verbindung dieser Begriffe rein definitorisch ist, weshalb insgesamt gilt: „It is therefore not possible to decide in general whether the postulate is a coordinating definition or a factual assumption, except in some given context in which the reduction [...] is being developed“ (S.357). Es geht ihm auch gar nicht um eine endgültige Klärung des Status der Brückengesetze, sondern es kommt ihm darauf an, überhaupt zu zeigen, dass solche für Reduktionen

56

benötigt werden und dass sie jedenfalls nicht von logisch-analytischer Art sind, sondern tatsächlich zusätzliche Annahmen: „But in any event, the present discussion does not require that a decision be made between these alternative interpretations of the postulate [also zwischen Brückengesetzen als Neudefinitionen bzw. empirischen Gesetzen]. The essential point in this discussion is that in the reduction of thermodynamics to mechanics a postulate connecting temperature and mean kinetic energy must be introduced, and that this postulate cannot be warranted by simply explicating the meanings of the expressions contained in it.“ (a.a.O., S.357)

Allerdings weist Nagel darauf hin, dass das Brückengesetz als Neudefinition den so neu definierten Term selbstverständlich verändert, da er gerade neu definiert wird. Betrachtet man also den Zusammenhang zwischen Temperatur und mittlerer kinetischer Energie im Gesetz von Boyle-Charles,8 23 kT = 12 mv2 = E kin, nicht als empirische Verbindung zwischen zwei verschiedenen Konzepten, sondern als Neudefinition eines Konzepts, das der Temperatur, mit Hilfe eines anderen, dem der mittleren kinetischen Energie,9 so ergibt sich eben ein neuer Temperaturbegriff, und zwar einer, der gerade nicht dem der klassischen Thermodynamik entspricht. Letzterer ist aber ursprünglich im Gesetz von Boyle-Charles gemeint, da dieses als ledigliche Neudefinition schließlich keinen Gesetzescharakter hätte. In den Worten von Nagel: „It is certainly possible to redefine the word ,temperature‘ so that it becomes synonymous with ,mean kinetic energy of molecules‘. But it is equally certain that on this redefined usage the word has a different meaning from the one associated with it in the classical science of heat, and therefore a meaning different from the one associated in the Boyle-Charles’ law“ (S.357). Dies weist nun in die Richtung des in Abschnitt 1.3 vorgestellten Reduktionskonzepts von Schaffner, Hooker und Bickle über im Sinne dieser Neudefinitionen korrigierte Theorien, dessen Antwort auf das Brückengesetzproblem aber erst später diskutiert wird. Von den drei Möglichkeiten, die Nagel für den Status der Brückengesetze eröffnet, kommt also die der analytischen Identität nicht in Frage und die der Neudefinition läuft auf einen komplizierteren Reduktionsbegriff hinaus, der noch zu besprechen ist. Für die Reduktion einer Theorie im Nagelschen Sinne, bei der also die Gesetze dieser (ursprünglichen und nicht 8 Diese

Formel stimmt nur bei Beschränkung auf die Translationsenergie, da die Rotationsenergie keine Rolle für die Temperatur spielt. Nebenbei bemerkt schließt man gerade von dem Zusammenhang dieser Formel auf die Existenz eines absoluten Nullpunktes der Temperatur, bei dem nämlich die Moleküle ruhen und Ekin = 0 und mithin T = 0 gilt. 9 Als eine solche Definition wird dieses Gesetz in gängigen Physiklehrbüchern eingeführt, zum Beispiel in Gerthsen 1995, S.208.

57

korrigierten) Theorie aus denen einer reduzierenden Theorie und zusätzlichen Annahmen, den Brückengesetzen, logisch abgeleitet werden, können jedenfalls diese Annahmen nur noch den Status von empirischen Gesetzen haben: Durch seinen Hinweis auf die Veränderung von Begriffen durch Neudefinitionen lässt Nagel die Frage, für welche der beiden Alternativen man sich entscheiden muss, entgegen seiner oben zitierten Ansicht gerade nicht offen. Nun seien also Brückengesetze als empirische Korrelationen betrachtet. Diese Auffassung wurde sogar soweit verschärft, dass es sich statt um bloße Korrelationen sogar um empirische Identitäten, also nicht um oben verworfene analytische, sondern synthetische Identitäten handelt. Diese Auffassung vertritt Sklar 1967: „It is that the place of correlatory laws is taken by empirically established identifications of two classes of entities. Light waves are not correlated with electromagnetic waves, for they are electromagnetic waves“ (a.a.O., S.120). Auch wenn dies prima facie eine plausible Annahme ist, die in diesem Fall des Lichtes sogar der üblichen Redeweise entspricht (im Fall der Temperatur ist das schon nicht mehr so selbstverständlich), muss sie doch im Zusammenhang mit dem Reduktionsbegriff in Frage gestellt werden. So verwendet Hooker 1981 innerhalb seines Konzepts der mehr oder weniger starken Analogien zwischen ursprünglich zu reduzierender und korrigierter Theorie nur in den Fällen starker Analogien den Begriff der Identität – „Thus reduction via identity is bound to the retention end of the spectrum [gemeint ist Hookers Kontinuum zwischen Retention und Replacement, vgl. 1.3]“ (a.a.O., S.201) –, so dass Brückengesetze nur in bestimmten Fällen Identitäten wären. Hookers Ansatz sei aber noch zurückgestellt: Zunächst sollen die klassischen Brückengesetze mit der Argumentation von Feyerabend 196210 konfrontiert werden, und dabei wird sich zeigen, dass die Verschärfung zu Identitäten genauso wenig haltbar ist, wie die Auffassung von Brückengesetzen als empirischen Gesetzen überhaupt. Feyerabend fasst seinen Hauptpunkt wie folgt zusammen: „Es [das Argument] geht von der Tatsache aus, dass gewöhnlich einige der Grundsätze, die in die Bestimmung des Sinnes älterer Theorien oder Auffassungen eingehen, den neuen und besseren Theorien widersprechen“ (Feyerabend 1981, S.112). Dieses Argument wird konkret am Thermodynamikbeispiel vorgeführt, wozu Feyerabend festhält, dass der Temperaturbegriff so, wie er klassischerweise in der Thermodynamik definiert ist, nämlich über das Gleichsetzen von Temperaturverhältnissen mit dem Verhältnis von abgegebenen bzw. aufgenommenen Wärmemengen bei reversiblen Vorgängen, den zweiten Hauptsatz der Thermodynamik implizit enthält: „[...] der Tempe10

Im Folgenden wird die deutsche Übersetzung in Feyerabend 1981 zitiert.

58

raturbegriff, wie er ,durch die anerkannten Verwendungsweisen festgelegt ist‘, hat also bei seiner Anwendung auf konkrete Situationen den strengen (d.h. nichtstatistischen) zweiten Hauptsatz zur Folge“ (S.109). Daraus folgt, dass es in der statistischen Theorie keinen Begriff gibt, der ebenfalls diese Eigenschaft hat und daher mit der klassischen Temperatur identifiziert werden könnte, denn: „Die statistische Theorie lässt Wärmeschwankungen zwischen zwei Temperaturniveaus zu und widerspricht damit [...] einem der Gesetze, die im ,anerkannten Gebrauch‘ des Temperaturbegriffs implizit enthalten sind“ (S.109). Damit kann die von Nagel vorgeschlagene Identifizierung von Temperatur und mittlerer kinetischer Energie kein empirisches Gesetz sein, da das Konzept der letzteren den implizit im ersteren enthaltenen Eigenschaften widerspricht: Wenn die statistische Theorie gilt, sind „[...] die Bedingungen für die Definition der thermodynamischen Temperatur [...] in der Natur nie erfüllt“ (S.111). Feyerabend nennt dies die Inkommensurabilität dieser beiden Theorien, es sind zwei verschiedene und insbesondere sich widersprechende Zugänge zur Welt, die daher unvergleichbar, inkommensurabel sind.11 Diese Unmöglichkeit semantischer Verbindungen zwischen Theorien mittels Brückengesetzen gilt nun nach Feyerabend nicht nur in diesem Beispiel, sondern ganz allgemein, wenn es um zwei sich widersprechende Theorien geht. Damit gilt dies aber streng genommen für alle interessanten Fälle – würden sich zwei Theorien nicht widersprechen, wären es keine verschiedenen Theorien, die einer Verbindung bedürften, wie man stark vereinfacht sagen könnte. Dieser Umstand der Unvergleichbarkeit oder Inkommensurabilität der Begriffe sich widersprechender Theorien wurde nun nicht erst von Kuhn und Feyerabend entdeckt, sondern schon von Frank 1947 im Zusammenhang von Newtonscher Physik und Spezieller Relativitätstheorie aufgezeigt: Die Zeitmessung hängt nach letzterer von der Geschwindigkeit des Bezugssystems ab, während diese in der Newtonschen Physik keine Rolle spielt, womit sich beide Konzepte widersprechen und mit dem Begriff „Zeitabstand“ jeweils etwas anderes gemeint ist. Diese Unvergleichbarkeit bleibt nach Feyerabend auch bestehen, wenn es mathematische Zusammenhänge zwischen den Theorien gibt, wie es im Nachsatz des folgenden Zitats, das sich auch auf die Verbindung zwischen Newtonscher Physik und Spezieller Relativitätstheorie bezieht, deutlich wird: „Doch die beiden Begriffssysteme sind ganz verschieden und stehen in keiner logischen Bezie11

„[...] we are again dealing with two incommensurable concepts“ heißt es in Feyerabend 1962, S.78, über Thermodynamik und statistische Mechanik. Der naheliegende Einwand, dass sich inkommensurable Theorien eben aufgrund dieser Unvergleichbarkeit gar nicht widersprechen können, wie er sich zum Beispiel in Achinstein 1968 findet, wird am Ende des Abschnitts noch kurz aufgegriffen.

59

hung zueinander (was nicht ausschließt, dass man klassische Formeln12 aus relativistischen Annahmen herleiten kann)“ (S.118), oder an anderer Stelle: „It is of course true that the relativistic scheme very often gives us numbers which are practically identical with the numbers we get from CM [klassische Mechanik] – but this does not make the concepts more similar. Even the case c → ∞ (v → 0) which gives strictly identical predictions cannot be used as an argument for showing that the concepts must coincide at least in this case“ (Feyerabend 1970, S.221). Weitere Beispiele dafür sind etwa das schon erwähnte Verhältnis zwischen elektromagnetischer Welle bzw. Lichtstrahl oder die Beschreibung eines Spiegels als glatte Fläche bzw. als die raue Oberfläche seiner Molekularstruktur: Selbst bei stetigen Grenzübergängen zwischen ihren mathematischen Beschreibungen handelt es sich um unstetige Bedeutungswechsel, die mathematisch nicht überbrückt werden können. Um diese mathematischen Aspekte des Reduktionsproblems und um solche Grenzübergänge geht es genauer im nächsten Abschnitt, hier genügt es festzuhalten, dass auch bei vorhandenen mathematischen Verbindungen die Begriffe der verschiedenen Theorien nicht einfach durch als empirisch überprüfbar aufgefasste Brückengesetze im Nagelschen Sinne identifiziert werden können: „Es ist meistens unmöglich, aufeinander folgende wissenschaftliche Theorien so aufeinander zu beziehen, dass ihre Hauptbegriffe zur Beschreibung eines Gebietes [...], auf dem sich die Theorien decken und empirisch richtig sind, entweder gleichen oder mindestens durch empirische Verallgemeinerungen miteinander verknüpft werden können“ (Feyerabend 1981, S.111). Nun muss deshalb nicht die Möglichkeit direkter Beziehungen zwischen verschiedenen Begriffen überhaupt bestritten werden, aber Feyerabend hat gezeigt, dass diese Verbindungen jedenfalls keine empirischen Gesetze sein können und mithin nicht als Grundlage für Nagels deduktives Reduktionskonzept verwendbar sind. Zusammenfassend muss daher an dieser Stelle konstatiert werden, dass, wenn man von der am Anfang dieses Abschnitts festgehaltenen klassischen Bedeutungstheorie für physikalische Begriffe ausgeht, Reduktionen im Nagelschen Sinne nicht durchführbar sind: Seine Brückengesetze können keine empirischen Gesetze sein, sobald sich zu reduzierende und reduzierende Theorien widersprechen, was bei allen interessanten Reduktionskandidaten der Fall ist, und Brückengesetze als Neudefinition verändern die zu reduzierende Theorie, so dass bei einer solchen Reduktion eine korrigierte, nicht aber die ursprüngliche Theorie abgeleitet würde, was nicht im Sinne von Nagels Reduktionskonzept ist. 12 Formeln

unterscheiden sich als Bestandteil des mathematischen Apparats dadurch von den Begriffen einer Theorie, dass sie zunächst rein formal behandelt werden können, vgl. die Ausführungen oben zu den strukturalistischen Ansätzen bei Reduktionen.

60

Für Nagels Reduktionen auf der Grundlage logischer Ableitungen gibt es also offenbar nur triviale Beispiele. Um auch das Verhältnis zwischen sich widersprechenden Theorien mit einem deduktiven Reduktionskonzept zu erfassen, bleibt als einziger möglicher Ausweg die Neudefinition: Die Begriffe der zu reduzierenden Theorie werden zu diesem Zweck mit Hilfe der reduzierenden Theorien neu definiert, womit dann aber in der Tat nicht die ursprünglichen, sondern zu diesen in gewisser Hinsicht ähnliche Theorien abgeleitet werden. Einen solchen Vorschlag für eine Theorie der Reduktion liefert zuerst Schaffner 1967, indem er fordert, dass nicht die ursprüngliche Theorie, sondern eine unter Berücksichtigung der reduzierenden korrigierte Theorie abgeleitet wird, die aber zu der ursprünglichen, damit überhaupt von Reduktion die Rede sein kann, „strongly analogous“ sein soll. Dieses Konzept wurde von Hooker 1981 und Bickle 1998 noch präzisiert (vgl. Abschnitt 1.3), hat aber zunächst das Problem, nur schwer ausführbar zu sein: Es müsste mit den neu definierten Termen eine völlig neue und vor allem „künstliche“ Theorie entwickelt werden nur zu dem Zweck, Reduktionen als deduktive Erklärungen, bei denen die Brückengesetze als unkomplizierte Definitionen fungieren könnten, betrachten zu können. Solche Theorien kommen im Wissenschaftsbetrieb nicht vor und Schaffner selbst räumt ein, dass es sie „in textbooks and research papers“ (Schaffner 1976, S.617) nicht gibt. Schwerer wiegt aber, dass das Verhältnis zwischen der reduzierenden und der ursprünglich zu reduzierenden Theorie auch in diesem Ansatz eben nicht deduktiv ist: Um die korrigierte Theorie mit der ursprünglichen in ein direktes Verhältnis zu setzen, muss auf starke Analogien verwiesen werden. Diese bleiben bei Schaffner und Hooker explizit vage, und werden erst bei Bickle präzisiert – mit Hilfe des strukturalistischen Ansatzes. Dessen Reduktionskonzept beruht wiederum auf mathematischen Beziehungen zwischen mengentheoretischen Strukturen und kann damit nun ebenfalls Terme verschiedener Bedeutung in ursprünglicher und korrigierter Theorie nicht deduktiv verbinden: Alles, was dieser Ansatz zu liefern hat, ist ein subtiler, mengentheoretischer Vergleich dieser Terme, der, wie zu Beginn dieses Abschnitts ausgeführt, auch zwischen gänzlich verschiedenen Theorien möglich ist. Dass es sich zwischen korrigierter und zu reduzierender Theorie um nicht mehr als einen Vergleich handeln kann, wird nicht zuletzt auch durch die Redeweise von der Analogie bei den Vertretern dieses Reduktionskonzepts nahelegt. Allein die Diskussion des Brückengesetzproblems mit Nagel und Feyerabend hat schließlich schon gezeigt, dass auch der jüngste Ansatz von Bickle prinzipiell keine Deduktion zwischen zu reduzierender und reduzierender Theorie liefern kann: Ableiten lässt sich höchstens eine korrigierte Theorie, die ihrerseits mit der ursprünglich zu reduzierenden lediglich verglichen

61

werden kann, egal wie subtil dieser Vergleich auch durchgeführt wird. Ein solcher Vergleich verschiedener Begriffe ist damit alles, was eine direkte Reduktion leisten kann – aber das ist wiederum nicht wenig: Man kann damit ein nichtdeduktives Konzept direkter Reduktionen erarbeiten, statt sich gänzlich von einem wie auch immer gearteten Reduktionskonzept zu verabschieden, wie es Feyerabend getan hat. Es gibt gegen Feyerabends Inkommensurabilität durchaus Verbindungen zwischen Theorien, die nur eben auf Vergleichen statt auf Deduktionen beruhen. Fraglich bleibt dann allerdings, ob solche direkten Reduktionen eliminativ sind: Eine Theorie, die logisch in einer anderen enthalten ist, ist sicherlich überflüssig, eine lediglich in einer vergleichenden Beziehung stehende dadurch noch nicht unbedingt. Außerdem ist zu untersuchen, ob für einen solchen Vergleich tatsächlich die zusätzliche Aufstellung einer korrigierten Theorie nötig ist: Die Forderung nach korrigierten Theorien entstammte schließlich der nicht einlösbaren Vorstellung, ein deduktives Reduktionskonzept zu etablieren, in dem Theorien qua deduktiver Reduktion überflüssig würden. Wenn direkte Reduktionen nun aber nicht deduktiv sein können und also ohnehin auf Vergleichen beruhen müssen, bedarf es dazu nicht unbedingt zusätzlicher korrigierter Theorien. Bevor aber diese Fragen weiter verfolgt werden, soll das Konzept direkter, vergleichender Reduktionen noch etwas ausgeführt werden. Für vergleichende Beziehungen, wie sie ein strukturalistischer Ansatz liefert, sei allerdings auf den nächsten Abschnitt verwiesen, in dem solche Beziehungen zwischen physikalischen Theorien diskutiert werden, wie sie in Scheibe 1997 und 1999 ausgearbeitet wurden – Scheibes Arbeit ist mit ihrem Schwerpunkt auf der Physik im Zusammenhang dieser Untersuchung einschlägiger als die allgemeine Arbeit Bickles und deren Vergleichskonzept. An dieser Stelle sollen daher lediglich einige allgemeine Bemerkungen zu dem Ansatz direkter Reduktionen durch Theorienvergleich stehen. Zunächst muss nach den Untersuchungen dieses Abschnittes zu dem Status der Brückengesetze konstatiert werden, dass sie, wollte man an ihnen festhalten, geradezu willkürliche Setzungen darstellen: Sie werden nicht erklärt, da sie zum einen per definitionem zusätzliche Annahmen darstellen, die nicht aus der reduzierenden Theorie folgen, und da sie zum anderen auch keine empirischen Gesetze sind – es blieb nur die Möglichkeit, sie als Definitionen neuer Begriffe aufzufassen. Als Verbindungen zwischen den ursprünglichen Termen bilden sie unerklärte Setzungen, zu deren Status Hooker 1981 sagt: „[...] indeed, if they [die Brückengesetze] are not explained they become mysterious ad hoc connections“ (S.204). Rohrlich 2004 macht weiterhin darauf aufmerksam, dass die derart selbst nicht erklärten (und nicht erklärbaren) Brückengesetze eigentlich ihrerseits sogar erklärenden Charakter haben sollten – schließlich sollen sie in Nagels Intention

62

zusammen mit der reduzierenden Theorie die zu reduzierende Theorie erklären. Da dieser Anspruch offenbar nicht eingelöst wird, erscheinen Brückengesetze wiederum als willkürliche Überbrückungen: „Thus, bridges do not narrow the gap between theories; they only bridge it“ (S.79). Und selbst wenn ihnen gegen Rohrlich erklärender Charakter zugestanden wird, kann durch die anscheinende Beliebigkeit, mit der Brückengesetze als unerklärte ad-hoc-Gesetze offenbar eingeführt werden können, schließlich jede Theorie auf jede andere reduziert werden. Wenn man aber den Anspruch, die Gesetze einer Theorie in einer Reduktion logisch abzuleiten, fallen lässt, können die vormaligen Brückengesetze als Grundlage für Vergleichsbeziehungen umgedeutet werden, die wiederum alles andere als willkürlich sind: Vergleiche lassen sich im Gegenteil gut begründen. Dazu kann man sich wiederum an Nagel halten, da auch dieser seine Brückengesetze über deren Status als Gesetze, die Deduktionen ermöglichen, hinaus rechtfertigte. Die Gefahr nämlich, dass man Brückengesetze als „ad hoc assumptions“ (Nagel 1961, S.358) betrachten könnte, wodurch sein Reduktionskonzept trivial würde, hat er selbst kommen sehen: „If the sole requirement for reduction were that the secondary science is logically deducible from arbitrarily chosen premises, the reqirement could be satisfied with relatively little difficulty“ (a.a.O., S.358). Er sieht sich daher veranlasst, Hinweise13 zu geben, „[...] that remove[s] from the special postulate connecting temperatures and molecular energy even the appearance of arbitrariness“ (S.360). Diese laufen auf seine schon in Abschnitt 2.1 wiedergegebenen Bedingungen hinaus, die genauer bestimmen, wann man überhaupt Reduktion durchführen sollte. Insbesondere muss die Reduktion in der Lage sein, die reduzierte Theorie bedeutend voranzubringen. Reduktionen finden demnach nicht zwischen beliebigen Theorien statt, sondern nur zwischen solchen, die dafür in dem Sinne prädestiniert sind, dass die zu reduzierende davon profitiert – was in 2.1 schon einmal zitiert wurde, bekommt in diesem Zusammenhang eine präzisere Bedeutung: „The theory [die reduzierende] must also be fertile in usable suggestions for developing the secondary science [die zu reduzierende Theorie], and must yield theorems referring to the latter’s subject matter which augment or correct its currently accepted body of laws“ (ebd.). Weiterhin stützen sich laut Nagel die Theorien eines Reduktionspaares gegenseitig, da sie jeweils auf ihre Art dieselben Phänomene behandeln, was er ebenfalls zur Rechtfertigung seiner Brückengesetze heranzieht. Zu dieser gegenseitigen Absicherung von reduzierter und reduzierender Theorie fasst 13

Und zwar durch Hinzunahme von nonformal conditions als weitere notwendige Bedingungen für eine Reduktion zu den bisher beschriebenen formal conditions, der Ableitbarkeit aus der reduzierenden Theorie und Brückengesetzen nämlich.

63

Nagel zusammen: „In consequence, the reduction of thermodynamics to kinetic theory not only supplies a unified explanation for the laws of the former discipline; it also integrates these laws so that directly relevant evidence for any one of them can serve as indirect evidence for the others, and so that the available evidence for any of the laws cumulatively supports various theoretical postulates of the primary science“ (S.361). Wenn Brückengesetze auch keine Grundlage für logische Ableitungen liefern können, kann mit dieser Möglichkeit gegenseitiger Befruchtung zweier Theorien begründet werden, dass sich bestimmte Konzepte produktiv in ein Vergleichsverhältnis setzen lassen. Nicht zuletzt stellt die von Nagel erwogene Möglichkeit, Korrelationen zwischen Temperatur und mittlerer kinetischer Energie experimentell nachzuweisen, wenn auch keine Grundlage für eine logische Ableitung doch immerhin die Möglichkeit einer vergleichenden Näherungsbeziehung zwischen verschiedenen Konzepten dar. Kurzum, bescheidet man sich damit, die Brückengesetze als Vergleichsannahmen aufzufassen, die besagen, welche Konzepte sinnvoll miteinander verglichen werden können, sind es keine willkürlichen Setzungen, sondern Grundlage für ein (indirekt von Nagel selbst) gut begründetes Vorgehen. Solche Vergleichsannahmen sind allerdings auch notwendig, da sich formal auch Theorien miteinander vergleichen lassen, die von verschiedenen Dingen handeln, wie es die Diskussion des strukturalistischen Ansatzes zu Beginn dieses Abschnitts gezeigt hat. Für die Fragen aber, inwiefern sich solche Vergleiche zu direkten Reduktionen ausbauen lassen, ob solche direkten Reduktionen eliminativ sind und ob für solche Vergleiche korrigierte Theorien notwendig sind, sei auf den Abschnitt 2.4 verwiesen, der zu deren Beantwortung die Ergebnisse der Untersuchung des mathematischen Aspekts in Abschnitt 2.3 hinzuziehen wird. Vor der Behandlung des mathematischen Aspekts sei aber die Möglichkeit semantischer Vergleiche zwischen verschiedenen Termen über die an Nagel angelehnte Begründung hinaus noch etwas erläutert. Dazu wird nun die klassische Bedeutungstheorie für physikalische Begriffe verlassen und ein Konzept von Putnam verwendet, nach dem die Bedeutung eines Begriffs wesentlich von seiner Extension bestimmt ist. Bisher stand unausgesprochen Carnap im Hintergrund, nach dem die Intension eines Begriffs, so, wie sie von der Theorie, in der er auftritt, festgelegt wird, seine Extension bestimmt. Diese Sichtweise steckt hinter dem eingangs wiedergegebenen Nagelzitat über die Bedeutung wissenschaftlicher Begriffe. Putnam verschiebt nun diese Auffassung grob gesagt dahingehend, dass die Extension eines Terms primär ist, und die Theorien, in denen der Term verwendet wird, umso

64

besser sind, je besser es mit ihrer Hilfe gelingt, die eigentlich gemeinte Bedeutung, nämlich die Extension des Terms, zu erfassen. Wie das zu verstehen ist, wird aus Putnams Aluminiumbeispiel deutlich: Eine gewisse zunächst mit dem Term Aluminium verbundene Theorie unterscheide nicht zwischen Aluminium und Molybdän, so dass erst wenn die Theorie mit einem Verfahren zur Bestimmung des Atomgewichts angereichert und damit verbessert wird, diese Metalle unterschieden werden können – erst in dieser Theorie wird der Term in seiner richtigen Bedeutung verwendet. Diese Bedeutungsauffassung wird nun in Bartels 1994 auf das besprochene Inkommensurabilitätsproblem angewendet: Begriffe verschiedener Theorien sind danach nicht unvergleichbar, sondern werden durch Theorienfortschritt erst an ihre eigentliche Bedeutung herangeführt, wobei umgekehrt die Begriffe überholter Theorien in solche neuerer Theorien semantisch eingebettet werden können. Am Beispiel der „Temperatur“ wäre das so zu verstehen, dass der klassische Temperaturbegriff durch eine solche Einbettung gewissermaßen in dem der statistischen Mechanik enthalten ist und seine Bedeutung daher durch die fundamentalere Theorie besser verstanden wird. Dabei ist es nicht ausgeschlossen, dass sich durch spätere Theorien auch das statistische Temperaturkonzept als in ein weiteres eingebettet erweist, indem etwa ein relativistischer Temperaturbegriff entwickelt wird (vgl. a.a.O, Kapitel 4). Die bisher als inkommensurabel beschriebenen Begriffe wären demnach lediglich verschiedene Stufen in der Begriffsgeschichte ein und desselben Begriffs, die durch eine Einbettungsrelation miteinander verbunden sind – Brückengesetze sind nach dieser Auffassung entbehrlich, da es keiner zusätzlichen Verbindung zwischen den so schon verbundenen Termen bedarf. Damit spricht dieser Ansatz für die Möglichkeit direkter Reduktionen, da er gegen die Argumente Feyerabends zeigt, wie Verbindungen zwischen Termen vermeintlich inkommensurabler Theorien hergestellt werden können. Allerdings liefern auch semantische Einbettungen wiederum keine Deduktionen, sondern stellen ebenfalls vergleichende Beziehungen her. Dies wird aus der Darstellung der Einbettung des Begriffs der Newtonschen Masse in den der Schwarzschildmasse der Allgemeinen Relativitätstheorie in Bartels 1996 deutlich. Dort heißt es nämlich: „[...] Newtonian gravitational mass is semantically embedded in Schwarzschild mass (Schwarzschild mass is a semantic extension of Newtonian gravitational mass), because for a special case, the case of weak fields, Newtonian gravitational mass can be substituted for the Schwarzschild mass to a certain numerical approximation. The mathematical functions are similar in their numerical behavior with respect to a subclass of models of general relativity.“ (a.a.O., S.359)

65

Die semantische Einbettung beruht also auf der annähernden Gültigkeit der Newtonschen Theorie – und im Rahmen einer direkten Reduktion stellt eine solche Näherungsbeziehung kein deduktives Verhältnis dar, sondern einen Vergleich zwischen verschiedenen Begriffen. Nichtsdestotrotz ist der begriffsgeschichtliche Ansatz für ein direktes Reduktionskonzept von großer Bedeutung, da es durch die gemeinsamen Extensionen eine subkutane Verbindung zwischen den verschiedenen, prima facie inkommensurablen Begriffen gibt, die ihrerseits eine gute Erklärung für die Möglichkeit von Vergleichsannahmen liefert, die in bestimmten Fällen Begriffe verschiedener Theorien in eine fruchtbare Beziehung zueinander setzen können. Außerdem zeigt dieser Ansatz gegen Feyerabend, dass Theorien nicht inkommensurabel sein müssen – wobei sich dieser selbst übrigens darüber im Klaren ist, dass das Fehlen solcher Begriffsverbindungen (laut Inkommensurabilitätsthese) innerhalb der klassischen Bedeutungsauffassung ein ernsthaftes Problem ergibt: Wenn nämlich die Bedeutung von Termen allein durch die Theorie, in der sie verwendet werden, bestimmt wird, können sich inkommensurable Theorien weder widersprechen noch bestätigen. Feyerabend zitiert dazu aus dem Brief einer seiner Kritiker (Shapere): „Denn damit zwei Sätze einander widersprechen, muss der eine die Negation des anderen sein; und das heißt, das vom einen Verneinte muss vom anderen behauptet werden; und das wiederum heißt, dass Theorien irgendeinen gemeinsamen Sinn haben müssen. Zwei Sätze dagegen, die keinen gemeinsamen Sinn haben, können einander weder widersprechen noch nicht widersprechen“ (Feyerabend 1981, S.142). Dass zwei Theorien weder sich widersprechen noch übereinstimmen können, bezeichnet Achinstein 1968 zu Recht als „absurd consequence“ (S.93).14 Eine extensionsbestimmte Bedeutungstheorie liegt also auch aus diesem Grund nahe und wäre, wie ausgeführt, in der Lage, durch Begriffsgeschichten Verbindungen zwischen Termen verschiedener Theorien herzustellen. Damit wären also vergleichende, nichtdeduktive direkte Reduktionen möglich. Ob diese nun weiterhin auch eliminativ sind, wurde hier noch nicht diskutiert: Es wurde bisher lediglich festgehalten, dass eine Reduktion, die auf Deduktion beruht, eliminativ wäre und dass es solche Reduktionen nur in trivialen Fällen gibt. In allen interessanten Fällen können direkte Reduktionen lediglich vergleichenden Charakter haben, wobei für diese Vergleiche wiederum der mathematische Aspekt des Reduktionsproblems bedeutsam ist: Dieser kam explizit bei den semantischen Einbettungen in Form von Näherungsbetrachtungen ins Spiel, ist auch unabhängig davon bei begrifflichen Vergleichen verschiedener Konzepte relevant – und wird daher 14

Auf Feyerabends Reaktion darauf soll hier nicht eingegangen werden, eine Diskussion des Problems findet sich zum Beispiel in Achinstein 1968, S.91-105.

66

im nächsten Abschnitt behandelt.15 Und erst nach dieser Untersuchung kann beurteilt werden, inwiefern auf Begriffsvergleichen und Näherungsbeziehungen beruhende nichtdeduktive direkte Reduktionen eliminativ sind. Der weiteren Diskussion dieser Frage in Abschnitt 2.4 wird daher nun ein Abschnitt über den mathematischen Aspekt vorangestellt. Gewissermaßen als Überleitung dazu sei zum Abschluss dieses Abschnittes noch kurz und ohne weitere Vertiefung16 darauf hingewiesen, dass Nagels paradigmatisches Brückengesetz, das Temperatur und mittlere kinetische Energie miteinander verbindet, neben allen besprochenen Schwierigkeiten auch nur in einem bestimmten mathematischen Grenzfall gültig ist: Die Moleküle müssen sich nämlich in perfekt zufälliger Bewegung, in einer Maxwellverteilung, befinden, da man weder bei einem einzelnen Molekül noch bei Molekülen, die sich gleichmäßig in eine Richtung bewegen, sinnvoll von einer Temperatur sprechen kann. 2.3 Der mathematische Aspekt

Feyerabend 1962 erhebt gegen Nagels Reduktionsbegriff ein „qualitatives und quantitatives Argument“ (S.97 in der deutschen Übersetzung in Feyerabend 1981) – der qualitative Aspekt der Sprache wurde gerade untersucht, der quantitative, mathematische soll in diesem Abschnitt betrachtet werden. Es wurde schon mehrfach darauf hingewiesen, dass selbst wenn man von einem einheitlichen begrifflichen Apparat ausgeht, sich dennoch in den meisten Fällen – und immer in den interessanten – die Gesetze der zu reduzierenden aus denen der reduzierenden Theorie nicht logisch ableiten lassen, und an die Stelle logischer Ableitungen Näherungsbetrachtungen treten. Dies ist nun keine Entdeckung Feyerabends. Wie in Abschnitt 1.3 erwähnt wurde, machen schon Kemeny/Oppenheim 1956 auf diesen Punkt aufmerksam. So heißt es dort: „[...] the old theory usually holds only within certain limits, and even then only approximately“ (S.13). Feyerabend hat aber genauer herausgearbeitet, dass sich die verschiedenen Theorien widersprechen, ihre mathematisch formulierten Gesetze verschiedene, nicht miteinander vereinbare Aussagen über die Welt machen und logische Ableitungen mithin nicht möglich sind. Das Nagelsche Beispiel für eine glatte (homogene) Reduktion, die der Galileischen Fallgesetze auf die Newtonsche Mechanik, ist 15 Bei

dieser Untersuchung wird Scheibes Arbeit von Bedeutung sein, und auch diesem scheint unausgesprochen etwas in der Art semantischer Einbettungen vorzuschweben, wenn er versucht, durch numerische Beziehungen zwischen Begriffen semantische Verbindungen herzustellen. 16 Im fünften Kapitel wird der Fall der Thermodynamik ausführlich behandelt.

67

auch bei gleichem Vokabular keine Deduktion, da die Newtonsche Mechanik die Fallgesetze nicht enthält, sondern ihnen widerspricht: Aus dem Newtonschen Gravitationsgesetz ergibt sich, wie oben schon festgehalten, keine konstante Beschleunigung eines fallenden Körpers, da die Beschleunigung laut Newton im Gegenteil stetig zunimmt. In diesem Einwand muss Feyerabend zugestimmt werden, an dieser Erkenntnis führt kein Weg vorbei – und sie gilt für alle interessanten Reduktionskandidaten. Allerdings muss man daraus nicht die Feyerabendsche Schlussfolgerung einer Inkommensurabilitätsthese ziehen, da es mit den erwähnten Näherungsbetrachtungen Verbindungen auch zwischen sich widersprechenden Theorien gibt. Die Verbindung durch mathematische Approximation ist auch im Zusammenhang des Reduktionsproblems anwendbar: Es ist üblich, davon zu sprechen, dass eine Theorie zwar nicht logisch exakt, aber immerhin näherungsweise abgeleitet wird und damit als Grenzfall in der reduzierenden enthalten ist.17 In diesem Sinne kann man aus den Newtonschen Gesetzen ableiten, dass die Fallgesetze für kleine Fallstrecken näherungsweise gelten und in einem gewissen Genauigkeitsrahmen empirisch angemessene Vorhersagen machen. Die Auffassung, aufgrund solcher Näherungserklärungen seien ältere Theorien in neueren als Grenzfall enthalten, ist in der Physik weit verbreitet, und scheint zu implizieren, dass eine enthaltene Theorie überflüssig ist, womit solche direkten Reduktionen eliminativ wären. Dieser Abschnitt wird aber zeigen, dass die Beziehungen zwischen modernen physikalischen Theorien komplizierter sind, als es diese Vorstellung nahelegt, woraufhin in Abschnitt 2.4 diskutiert wird, ob sich tatsächlich mit Approximationen eliminative Reduktionen etablieren lassen. Darauf, dass die Grenzfallbeziehungen in vielen Fällen jedenfalls äußerst kompliziert sind, macht Hoyningen-Huene 2007 aufmerksam: „Die relevanten Grenzübergänge sind dabei mathematisch z.T. äußerst heikel, was ihre rigorose mathematische Behandlung zu Spezialgebieten der mathematischen Physik macht“ (a.a.O., S.179). Wenn in der Physik also davon die Rede ist, eine bestimmte Theorie sei als Grenzfall in einer anderen enthalten, handelt es sich oft lediglich um eine Behauptung, zu deren Nachweis Grenzfalluntersuchungen nötig wären, die im Einzelnen nicht durchgeführt sind: „Das Gros der Physiker, die Theoretiker eingeschlossen, gibt sich hier typischerweise mit nicht-rigorosen Überlegungen zufrieden, die das Bestehen der entsprechenden Grenzbeziehung nur plausibel machen, aber nicht wirklich beweisen“ (ebd.). In Laughlin/Pines 2000 heißt es dar17 Scheibe

stellt dem zweiten Band seiner Untersuchung folgendes Einsteinzitat (aus „Über die spezielle und die allgemeine Relativitätstheorie“) als Motto voran: „Es ist das schönste Los einer physikalischen Theorie, wenn sie selbst zur Aufstellung einer umfassenden Theorie den Weg weist, in welcher sie als Grenzfall weiterlebt.“

68

über hinaus, dass Physiker, wenn es nicht um die direkte Verbindung zwischen Theorien, sondern um die Erklärung konkreter Phänomene mit einer fundamentalen Theory of Everything geht, oft sogar an die Möglichkeit exakter Erklärungen im Sinne einer logischen Ableitung glauben würden: „[...] they [konkrete Phänomene] cannot be deduced by direct calculation from the Theory of Everything, for exact results cannot be predicted by approximate calculations. This point is still not understood by many professional physicists, who find it easier to believe that a deductive link exists and has only to be discovered than to face the truth that there is no link“ (a.a.O., S.28). Approximative Verbindungen zwischen physikalischen Theorien gibt es aber immerhin, und diese können als Grundlage für ein Konzept direkter Reduktion dienen. Während Feyerabend die Möglichkeit approximativer Reduktionen gänzlich verwirft – so heißt es etwa in Feyerabend 1962: „[...] the remark that we explain ,by approximation‘ is much too vague and general to be regarded as the statement of an alternative theory [einer alternativen Theorie der Reduktion]“ (a.a.O., S.48) –, soll in diesem Abschnitt untersucht werden, inwiefern sich mit approximativen Erklärungen ein direktes Reduktionskonzept etablieren lässt. Kemeny/Oppenheim 1956 sprechen nun zwar an, dass bloß näherungsweise Erklärungen ein Problem darstellen, ignorieren dies aber bewusst (vgl. Abschnitt 1.3). Und bei Nagel 1961 taucht das Problem, dass es sich bei Erklärungen in der Physik meist nicht um logische Ableitungen handelt, wie in Abschnitt 2.1 gesehen, gar nicht auf. Erst in Hempel 1965a und Nagel 1970 wird dieses Problem durch die Zulassung näherungsweiser Erklärungen in ein Reduktionskonzept integriert. Bei ersterem heißt es dazu wiederum im Zusammenhang mit den Newtonschen Gesetzen und dem Galileischen Fallgesetz: “[...] in this sense, the theory might be said to provide an approximative D-N explanation of Galileo’s law“ (Hempel 1965a, S.344), letzterer sagt etwas allgemeiner: „[...] the derivation of laws from theories usually involves simplifications and approximations of various kinds, so that even the laws which are allegedly entailed by a theory are in general only approximations to what is strictly entailed by it“ (Nagel 1970, S.121). Sieht man von dem diskutierten sprachlichen Problem ab und beschränkt sich bei Theorien auf deren mathematischen Apparat, so kann man diese Vorstellung von der Reduktion durch Approximation in Anlehnung an Batterman 2007 stark vereinfacht mit der Formel limε →0 T1 = T2 ausdrücken,18 wobei T1 die reduzierende und T2 die reduzierte Theorie darstellt und ε ein für den jeweiligen Theorienübergang charakteristischer Parameter ist. Dabei handelt es sich um eine Größe, die in der zu reduzierenden Theorie nicht vorkommt 18

Batterman spricht dabei von dem „physicist’s sense of reduction“ und beruft sich unter anderem auf Nickles 1973 und Rohrlich 1988.

69

bzw. keine Rolle spielt und für die Durchführbarkeit des mathematischen Grenzübergangs dimensionslos gewählt wird, also zum Beispiel als Quotient einer Größe durch eine andere, wobei die Idee approximativer Reduktionen darin besteht, dass erstere im Vergleich zu letzterer vernachlässigbar ist. An einfachen Beispielen lassen sich solche Grenzübergänge leicht nachvollziehen, ein Standardbeispiel hierfür ist der Übergang von der Speziellen Relativitätstheorie zur Newtonschen Mechanik. In Nickles 1973 wird etwa auf einen solchen Zusammenhang zwischen der klassischen und relativistischen  Formel für den Impuls, p = m0 v bzw. p = m0 v/ 1 − v2 /c2 , hingewiesen. Der charakteristische Parameter ist in diesem Fall ε = v/c und damit gilt in der Tat lim 

m0 v

= m0 v. 1 − v2 /c2 Für das Beispiel des Fallgesetzes lässt sich eine ähnliche Beziehung herstellen: Nach Galilei erfährt ein frei fallender Körper eine konstante Beschleunigung, modern ausgedrückt gilt x¨ = −g = const., aus dem Newtonschen Gravitationsgesetz ergibt sich aber x¨ = −g/(1 + x/R)2 , wobei R der Erdradius ist und der Erdmittelpunkt bei x = −R liegt. Mit ε = x/R erhält man den Zusammenhang v/c→0

−g = −g. x/R→0 (1 + x/R)2 Gleichungen dieser Art sehen nun verführerisch einfach aus und werden in Physiklehrbüchern gerne herangezogen, um zu zeigen, dass eine Theorie als Grenzfall in einer anderen enthalten ist. Man bekommt allerdings solche einfachen Grenzprozessgleichungen bei weitem nicht immer, die Sachlage ist zum Beispiel im Zusammenhang mit der Allgemeinen Relativitätstheorie oder der Quantentheorie deutlich komplizierter. Außerdem zeigt Batterman 2002, dass es auch Grenzprozesse gibt, die formal den vorgeführten entsprechen, aber keine regulären, sondern singuläre Grenzübergänge sind und bei denen daher für das Ableiten der zu reduzierenden Theorie zusätzliche, sogenannte asymptotische Erklärungen nötig sind, die Wissen von der zu reduzierenden Theorie voraussetzen (es wird das Erfordernis von borderland physics begründet, da Erklärungen gewissermaßen zwischen den verschiedenen Theorien gebraucht werden, vgl. Abschnitt 1.3). Von diesen beiden Einwänden über mathematische Schwierigkeiten bei Grenzübergängen ganz abgesehen19 soll nun noch einmal betont werlim

19 Komplizierte

Grenzbeziehungen werden in den Fallbeispielen der Kapitel 3, 4 und 5 diskutiert und Battermans Argumente, die in Abschnitt 1.3 bereits vorgestellt wurden, im fünften Kapitel kurz aufgegriffen.

70

den, dass eine solche Gleichung mit Grenzübergang eben keine logische Ableitung ist: Es handelt sich zwar um mathematisch korrekte Grenzübergänge zwischen zwei (mathematischen) Termen, die aber lediglich eine gewisse Vergleichsmöglichkeit, die gleich betrachtet wird, und jedenfalls keine logische Verbindung darstellen. Der Ausdruck v/c → 0 wird gern so interpretiert, dass die klassische Gleichung aus der relativistischen für Geschwindigkeiten v, die klein im Vergleich zur Lichtgeschwindigkeit c sind, folgt – aber es folgt nie die exakte Gleichung des Grenzüberganges, da die Geschwindigkeiten dafür auch wirklich gleich Null sein müssten (oder die Lichtgeschwindigkeit gleich unendlich), was aber nicht erfüllt ist, da auch die klassische Theorie Geschwindigkeiten größer Null behandelt (bzw. auch hier die Lichtgeschwindigkeit endlich ist). Darin ist Feyerabend 1962 Recht zu geben: „Any such procedure would imply the false assertion that the velocity of light is infinitely large“ (a.a.O., S.81). Und für Geschwindigkeiten größer Null bei endlicher Lichtgeschwindigkeit widersprechen sich die beiden Gleichungen, woran der mathematisch korrekte Grenzübergang nichts ändert. Gleiches gilt für kleines x im Vergleich zu R: Weder ist (vor dem Auftreffen auf dem Boden) x gleich Null, noch ist der Erdradius unendlich, weshalb das unter diesen Annahmen gewonnene Gesetz streng genommen nur für Körper gilt, die auf der Erdoberfläche liegen, während das Galileische Fallgesetz explizit für fallende Körper gültig ist. Mit der Sprechweise, die Newtonsche Physik würde für kleine Abstände von der Erdoberfläche im Vergleich zum Erdradius näherungsweise eine konstante Beschleunigung ergeben, wird überspielt, dass die Grenzfallbetrachtung keine logische Deduktion liefert, sondern lediglich einen Vergleich zwischen den beiden Theorien stiftet. Die Grenzfallannahmen erlauben nur eine mathematische Näherungsbeziehung, nicht das logische Ableiten physikalischer Theorien. Nun ist es allerdings das Anliegen dieses Abschnitts, direkte Reduktionen auf der Grundlage solcher Näherungsbeziehungen zu betrachten. Das Bestehen auf dem Punkt aber, dass es sich bei diesen um keine logischen Verbindungen handelt, rührt daher, dass es nicht ohne weiteres klar ist, inwiefern solche Reduktionen eliminativ sein können. Eine Theorie, die logisch in einer anderen enthalten ist, wäre damit überflüssig, was für eine Theorie, die zu einer anderen in einem Näherungsverhältnis steht, nicht unbedingt gelten muss. Nun ist es unbestritten, dass etwa das Galileische Fallgesetz überflüssig ist, obwohl es, wie gesehen, ebenfalls nur näherungsweise aus den Newtonschen Gesetzen folgt. Allerdings wird das Phänomen fallender Körper auch von der Newtonschen Theorie erklärt, sogar besser als von ihrer Vorgängertheorie, was sich in der angegebenen Näherungsbeziehung zeigt, und deshalb kann das Galileische Fallgesetz als überflüssig bezeichnet werden – es ist also überflüssig aufgrund einer

71

indirekten Reduktion, in der Phänomene erklärt werden, und zunächst nicht aufgrund einer direkten Reduktion, die auf Vergleichsbeziehungen beruht. Da diese beiden Reduktionstypen in solchen einfachen Fällen nahe beieinander liegen, fällt diese Unterscheidung nicht ins Auge. Bei komplizierteren Fällen aber, wie etwa dem Verhältnis zwischen Newtonscher Gravitationstheorie und Allgemeiner Relativitätstheorie, gibt es zwar direkte Vergleichsmöglichkeiten, aber keine indirekte Reduktion, da es für etliche Phänomene, die newtonsch erklärt werden, keine Lösungen der Feldgleichungen der ART gibt. Für dieses konkrete Problem sei nun auf das dritte Kapitel verwiesen, an dieser Stelle aber herausgestellt, dass zu untersuchen sein wird, ob direkte Reduktionen allein, die nichtdeduktiv und immer nur Vergleiche zwischen verschiedenen Konzepten sind, nicht nur in solchen einfachen Fällen, sondern auch im Allgemeinen eliminativ sein können, wie es die Sprechweise vom „im Grenzfall enthalten sein“ nahelegt. In dieser Hinsicht werden die direkten Näherungsbeziehungen zwischen physikalischen Theorien im weiteren Verlauf dieses Abschnitts genauer untersucht und die Ergebnisse dieser Untersuchung in Abschnitt 2.4 besprochen. Zunächst sollen die besagten Grenzfallannahmen in zwei Gruppen unterteilt werden: Es gibt einmal die Annahme variabler Naturkonstanten (dies betrifft vor allem, wie in obigem Beispiel, die Lichtgeschwindigkeit c, der Erdradius gehört auch dazu, ein weiteres typisches Beispiel ist das Plancksche Wirkungsquantum ), die nicht nur variabel gedacht werden, sondern auch gegen einen Grenzwert konvergieren sollen (meist Null oder unendlich). Und zum Zweiten die Forderung, dass bestimmte Variablen, also Größen, bei denen das Variieren – anders als bei den Konstanten – unproblematisch ist, einen bestimmten Grenzwert annehmen (in obigen Beispielen die Geschwindigkeit v oder der Erdabstand x, beide Male den Wert Null). In beiden Varianten werden damit kontrafaktische Annahmen zur Ableitung bzw. Herleitung herangezogen, was in beiden Varianten eines Kommentars bedarf. Diese Fragestellung wird unten im Zusammenhang mit Scheibes Theorie wieder aufgegriffen: Die variablen Konstanten werden im Zusammenhang mit seiner Grenzfallreduktion besprochen, Variablen, die einen Grenzwert annehmen, bei der Diskussion seiner asymptotischen Reduktion. In der Physik wird nun oft der Begriff Herleitung (derivation) synonym für Ableitung (deduction) verwendet, was daher auch in der Philosophie vorkommt, gerade im Zusammenhang mit der Reduktionsproblematik, in der oft schon bloße Herleitungsbeziehungen als Reduktion gelten: „[...] there is a long history in the philosophical literature of mistaking derivation for reduction“ (Hooker 1981, S.44). Bei dieser Verwechslung wird nicht beachtet, dass bei typischen physikalischen Herleitungen nicht einfach Wer-

72

te, zum Beispiel Anfangs- oder Randbedingungen, in Formeln eingesetzt, sondern neben dem Vernachlässigen einzelner Größen und dem Einsatz eben beschriebener Grenzübergänge oft und gerne mathematische Operationen in einer Weise angewendet werden, die aus Sicht des Mathematikers höchst fragwürdig sind20 und die zwar in ein komplizierteres Reduktionskonzept integriert werden können, aber jedenfalls nicht zu logischen Ableitungen führen. Wenn nun die Reduktion durch Approximation in der Tat keine Deduktion liefert, weist sie doch auf Möglichkeiten, wie man der Feyerabendschen Inkommensurabilitätsthese entrinnen kann – die Grenzübergänge geben schließlich Vergleichsmöglichkeiten an die Hand, die Grundlage von direkten Reduktionen sein können. Bei der Betrachtung des mathematischen Aspekts muss nun aber doch festgestellt werden, dass die Vorstellung der direkten Reduktion nach Schaffner, Hooker und Bickle, nach der eine korrigierte Theorie logisch abgeleitet und diese mit der ursprünglich zu reduzierenden verglichen wird, um eine „strong analogy“-Relation zu erhalten, zu einfach ist. Dieser Ansatz ist nicht nur schwer ausführbar, da er, wie in Abschnitt 2.2 schon ausgeführt, völlig neue und vor allem im Wissenschaftsbetrieb nicht vorkommende Theorien nur zu dem Zweck entwerfen müsste, das Konzept der direkten Reduktion mit einem deduktiven Anteil zu versehen, sondern auch, weil sich die Situation darüber hinaus mathematisch viel komplizierter darstellt, als es ein einfacher Vergleich zwischen einer logisch abgeleiteten, korrigierten Theorie mit der ursprünglich zu reduzierenden wäre. Dies wird sich gleich bei der Besprechung der Arbeit Scheibes zeigen und darauf macht auch Sklar 1993 aufmerksam: „Simple assertions that the laws of the now refuted, reduced theory are good ,approximations‘ to laws strictly deducible from the reducing theory won’t do“ (a.a.O., S.336). Die Näherungsbeziehungen zwischen modernen physikalischen Theorien sind zu kompliziert und zu vielfältig für diesen Reduktionsansatz: „[...] the complex of ,taking a limit‘ type of operations that characterize the interrelations of the theories in important cases – such as the limit of infinite velocity of light in the case of the reduction of Newtonian to special relativistic mechanics, and the limit of energy large relative to Planck’s constant in the case of the reduction of classical to quantum physics – are far too subtle and formally complex for any simple notion of ,approximation‘ to cover the relationship 20 Es

wird oft, gerade in der Quantenmechanik, in vom Maßstab der Mathematik aus unzulässiger Weise operiert. So werden zum Beispiel Grenzwerte von Reihen berechnet, ohne dass klar ist, ob die Reihe überhaupt konvergiert. Oder man rechnet unbekümmert mit „∞“ als wäre dies eine normale Zahl. Und dergleichen mehr, solange es „funktioniert“!

73

between the theories. Again, important questions of ,limitation of domain‘, specification of the kinds of situations in which the reduced theory’s laws can be expected to approximate the correct relations, are sometimes of importance and complexity.“ (ebd.)

Bisher wurde lediglich geltend gemacht, dass für einen Vergleich zwischen verschiedenen Theorien der Umweg über korrigierte Theorien nicht unbedingt notwendig ist. Hier zeigt sich nun darüber hinaus, dass die Vorstellung, man könne eine „strong analogy“-Relation mit einem einfachen Approximationsverhältnis zwischen einer logisch abgeleiteten, korrigierten Theorie und der ursprünglich zu reduzierenden Theorie gewinnen, den komplizierten Verhältnissen nicht gerecht wird. Und in der Tat kommen solche korrigierten Theorien in der Arbeit von Scheibe, die sich den von Sklar herausgearbeiteten Schwierigkeiten in allen Details stellt, nicht vor. Es werden zwar die mathematischen Bestandteile der Theorien zum Zweck der Reduktion aneinander angepasst, das betrifft aber beide Theorien und hat nichts mit der Ableitung einer korrigierten Theorie zu tun. Direkte Reduktionen können also keine logischen Ableitungen sein: Die Verhältnisse sind komplizierter – „Simple derivation [...] seems out of the question, but other subtler relations surely hold“ (Sklar 1993, S.344) – und werden auch von dem Konzept der korrigierten Theorien nicht angemessen wiedergegeben. Stattdessen wird nun mit dem Konzept von Scheibe eines vorgestellt, in dem die angeführten Grenzübergänge, inklusive der in ihnen enthaltenen kontrafaktischen Annahmen, analog zu der oben besprochenen Auffassung der Brückengesetze als Vergleichsannahmen zu einem präzisen Vergleichsverfahren ausgebaut werden. Diese, wie sich zeigen wird, topologischen Vergleiche finden dabei direkt zwischen den Theorien statt, ohne dass der Umweg über korrigierte Theorien nötig ist, der im Gegenteil die Angelegenheit unzulässig vereinfachen würde. Die Frage wiederum, ob die auf dieser Grundlage erarbeiteten direkten Reduktionen eliminativ sind, wird erst in Abschnitt 2.4 besprochen. Für diese Frage nämlich soll nun zunächst Scheibes Reduktionstheorie näher betrachtet werden. Den Vergleichsmöglichkeiten zwischen sich widersprechenden Theorien, die die Grundlage des Vorschlags sind, vergleichende direkte Reduktionen zu entwickeln, widmet sich also die Untersuchung in Scheibe 1997 und 1999. Sie nimmt die Herausforderung der Kuhn-Feyerabendschen Inkommensurabilitätsthese an und zeigt auf, inwieweit verschiedene Theorien doch vergleichbar sind. Ob Scheibe damit allerdings auch seinen Anspruch auf eliminative Reduktionen erfüllen kann – er sagt explizit, wie in den Abschnitten 1.3 und 2.1 zitiert, dass reduzierte Theorien qua Reduktion

74

redundant sein sollen –, ist fraglich und wird in Abschnitt 2.4 besprochen, wobei zu berücksichtigen ist, dass sich Scheibes Arbeit in subtilen Vergleichsmöglichkeiten erschöpft. Es werden mit viel Mühe Zusammenhänge konstruiert und mit deren Hilfe Theorien verglichen, was allein noch keine eliminative Reduktion ergeben muss. Seine Untersuchung der Vergleichsmöglichkeiten, die im Folgenden kurz vorgestellt werden soll, ist jedenfalls von einer solchen Klarheit, Präzision und vor allem Differenziertheit, dass die oben vorgeführten Grenzübergänge als geradezu naiv erscheinen. So einfach wie in obigen Gleichungen sind die Zusammenhänge nicht, und um Theorien angemessen miteinander vergleichen zu können, bedarf es weit größerer Anstrengungen als solche einfachen Grenzübergänge. Scheibe weicht auch nicht vor den angekündigten komplizierten Fällen zurück, sondern zeigt auch dort, so weit es ihm möglich ist, wie sich vergleichende Zusammenhänge zwischen Theorien herstellen lassen. Diese Vergleiche sind nun bei Scheibe topologischer Natur, was in seiner Auffassung von physikalischen Theorien begründet liegt, die er als Begriff (also im Wesentlichen als axiomatische Formulierung) mit Modellen im Sinne der mathematischen Modelltheorie expliziert. Diese Modelle bilden Mengen, die sich topologisch vergleichen lassen: „[...] für uns [ist] eine Theorie in erster Linie ein Begriff. Ihr entspricht daher als Umfang dieses Begriffs eine Klasse von Modellen, und [...] die Modellklasse [ist] eine ordentliche [...] Menge. [...] Wenn wir also zwei Theorien [...] haben, so haben wir zwei Mengen in Form ihrer theoretischen Geltungsbereiche, und zwei Mengen kann man topologisch vergleichen, wenn sie Teilmengen ein und desselben topologischen Raumes sind. Insbesondere können die beiden Mengen so zueinander liegen, dass sie gemeinsame Häufungspunkte haben, oder dass die eine Menge zum topologischen Rand der anderen gehört, oder was sonst in dieser Art passieren kann. Damit hätten wir dann die Grundlage für einen approximativen Vergleich der Theorien.“ (Scheibe 1997, S.171)

Dieser gemeinsame topologische Oberraum ist nun allerdings nicht in allen Fällen gegeben, kann aber dadurch hergestellt werden, dass man die beiden Theorien in dieser Hinsicht aneinander anpasst. Dazu werden sie etwas anders, aber äquivalent, formuliert. Stark vereinfacht kann man redundante Variablen hinzufügen, die die Theorie nicht verändern (genauer: sie hat die gleichen Modelle, die nur in einem anderen topologischen Raum liegen), sie aber mathematisch mit der jeweils anderen Theorie überhaupt erst vergleichbar machen. Das Aufeinanderzugehen zweier Theorien durch solche Anpassung nennt Scheibe Assimilation der Grundbegriffe. Vor der Besprechung der eigentlichen Vergleiche soll nun dieses Anpassungsverfahren am Beispiel der Galileischen bzw. Minkowskischen Raumzeit

75

nachvollzogen werden, also an den jeweils verschiedenen geometrischen Modellen des Raumes (bzw. der Raumzeit). In der Galileischen Raumzeit arbeitet man mit einem Tensorfeld h, das den Raum, und einem davon unabhängigen Skalarfeld t, das die Zeit repräsentiert, während es im Minkowskiraum nur den Minkowskitensor G gibt: Raum und Zeit sind anders als in der Galileischen Geometrie nicht getrennte Größen, sondern verschmelzen in eben diesem Tensor zur Raumzeit. Um diese Konzepte mathematisch vergleichbar zu machen, werden beide insofern verändert, als sie anders dargestellt werden. In der Galileischen Geometrie wird die Zeit t durch einen Tensor g vermöge gab = tatb ersetzt, und im Minkowskiraum tritt zu dem Minkowskitensor G ein Tensor H, definiert durch H = −G−1, hinzu. Somit werden beide Geometrien formal durch jeweils zwei Tensorfelder g und h bzw. G und H beschrieben,21 was äquivalent zu der jeweils ursprünglichen Formulierung ist, wobei die Veränderung bzw. Ergänzung gerade so gewählt wurde, dass diese Strukturen vergleichbar werden: Es lässt sich durch eine gemeinsame Erweiterung der beiden Theorien ein gemeinsamer topologischer Oberraum ihrer Modelle definieren, der mit Hilfe einer Funktion λ eingeführt wird, die die Einheiten der Dimensionen „Zeit“ und „Länge“ so miteinander verknüpft, dass λ = 0 der Galileischen und λ > 0 der Minkowskischen Geometrie entspricht. Genauer ist es so, dass die Verbindung dieser beiden Dimensionen durch die Grenzgeschwindigkeit (also die Lichtgeschwindigkeit) bestimmt ist, wobei nun λ = 0 einer unendlichen und λ > 0 einer endlichen Grenzgeschwindigkeit entspricht. Da es in der Galileigeometrie keine solche Grenzgeschwindigkeit gibt und die Gleichungen sich so verhalten, als wäre eine solche Grenzgeschwindigkeit unendlich groß (was ja gerade heißt, dass es keine obere Grenze gibt) und es die Minkowskigeometrie mit einer endlichen Grenzgeschwindigkeit zu tun hat, erhält man damit eine gemeinsame Erweiterung Σ≥0 (Bezeichnung von Scheibe) der Galileischen Theorie Σ=0 und der Minkowskischen Σ>0, in der alle Werte λ ≥ 0 zugelassen sind – das Problem, dass es in letzterem Fall nur eine Grenzgeschwindigkeit, nämlich die Lichtgeschwindigkeit, gibt, wird gleich diskutiert, zunächst entsprechen alle Modelle mit λ > 0 der Minkowskigeometrie.22 Nachdem nun die beiden Theorien auf diese Weise zwecks Ermöglichung eines Vergleiches aneinander angepasst wurden, unterscheidet Scheibe zwei Möglichkeiten, einen solchen Vergleich durchzuführen. Oben hieß es in anderem Zusammenhang, der Grenzübergang v/c → 0 bedeute, dass man kleine Geschwindigkeiten im Vergleich zur Lichtgeschwindigkeit betrachtet und es blieb offen, ob für den Grenzübergang c → ∞ oder v → 0 gemeint ist. 21 22

Vgl. Scheibe 1999, S.12f. Vgl. Scheibe 1999, S.12-21.

76

Aber diese beiden Deutungen wurden sauber voneinander getrennt, es war zum einen von variablen Naturkonstanten die Rede und zum anderen davon, dass Variablen einen kontrafaktischen Grenzwert annehmen. Hier wird nun in einem viel weiteren Rahmen klar, dass diese beiden Möglichkeiten völlig verschiedene Theorienvergleiche liefern, die, wie Scheibe betont, sogar unabhängig voneinander sind. Die erste Möglichkeit nennt Scheibe Grenzfallreduktion und meint damit den mathematischen Vergleich möglicher Welten, bei denen in unserem Zusammenhang einmal die Lichtgeschwindigkeit endlich, aber variabel gedacht (die Fälle Σ>0, die dem Minkowskifall entsprechen, bilden also eine ganze Schar von Modellen), und einmal als unendlich angenommen wird (im Galileifall Σ=0). Dies entspricht dem Grenzübergang c → ∞, der hier durch λ → 0 realisiert wird, indem man abhängig von diesem Parameter eine Schar von Modellen mit ihrem Grenzfall bei λ = 0 in Beziehung setzt. Durch diese Annahme möglicher Welten, in denen eine jeweils andere (endliche) Lichtgeschwindigkeit gilt, können die beiden Theorien als Ganze verglichen werden, allgemein gesagt erweist sich die zu reduzierende Theorie gewissermaßen als Grenzfall der reduzierenden, wenn bestimmte Parameter (wie hier zum Beispiel der Wert der Lichtgeschwindigkeit) gegen einen bestimmten Grenzwert konvergieren.23 Die andere, davon unabhängige Vergleichsmöglichkeit beider Theorien nach der bis hier erfolgten Anpassung nennt er asymptotische Reduktion und besteht darin, im Minkowskifall eine feste Grenzgeschwindigkeit anzunehmen und nicht mehr die Theorien als Ganze, sondern die Funktionen g und G bzw. h und H jeweils asymptotisch miteinander zu vergleichen, und also zu untersuchen, wie im Bereich kleiner Geschwindigkeiten Lösungen der Theorien im Sinne von Grenzprozessen ineinander übergehen (was grob gesagt obigem v → 0 entspricht). Innerhalb von Scheibes Theorienrekonstruktion heißt es etwas präziser, dass es für jedes Modell der reduzierenden Theorie in jeder kleinen Umgebung ein Modell der reduzierten Theorie geben muss.24 Genauer bedeutet dies, dass in konkreten Zusammenhängen, wie zum Beispiel der Längenkontraktion, Näherungsbeziehungen zwischen Lösungen der beiden Theorien hergestellt werden – Lösungen der reduzierenden werden von solchen der reduzierten approximiert25 –, wohingegen bei obiger Grenzfallreduktion die Funktionen g und G bzw. h und H selbst in eine Grenzfallbeziehung treten (was bei fester Lichtgeschwindigkeit 23

Vgl. Scheibe 1997, S.190ff. Vgl. Scheibe 1997, S.175ff. 25 Man beachte die Richtung: Die reduzierende Theorie kann durch die reduzierte angenähert werden, nicht umgekehrt, wie man es erwarten würde bei einer Reduktion, worauf zurückzukommen sein wird. 24

77

gerade nicht geht). Diese beiden Möglichkeiten sollen nun kurz einzeln diskutiert werden. Bei der Grenzfallreduktion wird, wie angekündigt, zunächst das Problem der variablen Naturkonstanten besprochen. Dazu sei zuerst festgehalten, dass auch von Scheibe nicht übersehen wird, dass die in diesem Fall notwendige Annahme variabler Grenz-, also Lichtgeschwindigkeit, problematisch ist: „Gegen die Heranziehung oder schon die bloße Zulassung dieser Vielheit [von möglichen Grenzgeschwindigkeiten] ist eingewendet worden, dass sie ein metaphysisches Element berge: wir kennen nur eine Raumzeit mit nur einer empirisch bestimmbaren Grenzgeschwindigkeit, und die Zulassung auch nur der realen Möglichkeit von Raumzeiten mit anderen Grenzgeschwindigkeiten ist eine empirisch nicht gerechtfertigte Annahme. Dieser Einwand ist natürlich sofort zuzugeben, und wir wollen uns auch keineswegs auf diese Alternative festlegen. Wir wollen sie (neben der anderen [asymptotische Reduktion mit konstanter Grenzgeschwindigkeit]) aber auch nicht gänzlich außer Acht lassen, weil sie ein gewisses Verständnis, wenn auch eventuell nur ein metaphysisches, für die Galilei Geometrie als Grenzfall der Minkowski Geometrie vermittelt.“ (Scheibe 1999, S.19)

Das Problem der variablen Naturkonstanten wird in der Tat schon länger diskutiert, nicht nur anhand der Lichtgeschwindigkeit c. Auch das Plancksche Wirkungsquantum  bei Reduktionen auf die Quantenmechanik oder Wellenlängen beim Übergang von elektromagnetischer Theorie zur geometrischen Optik werden als variabel angesehen.26 Darüber hinaus werden diese Konstanten nicht nur variabel angenommen, sondern auch ausgerechnet gleich Null oder unendlich gesetzt. Nickles 1973 macht nun darauf aufmerksam, dass durch solches Variieren von Konstanten eine gewisse Beliebigkeit in das Reduktionskonzept Einzug hält: „If we are going to permit constants of nature, i.e., numerical constants, to approach new values – and physicists (including Planck and Bohr) sometimes do this with Planck’s constant and the velocity of light – there are still more interesting possibilities“ (S.198f.). Dann könnte man nämlich auch gleich andere Koeffizienten in Gleichungen variieren, und ein Grenzprozess schließlich wie „2 → 0“ (S.199) würde manches vereinfachen: „Any physical-constant coefficient can be eliminated by taking it to 1 (take additive factors to zero). Any expression whatever may be introduced or eliminated from an equation by these means“ (ebd.). Verwendet man nun in Reduktionen derartige Grenzübergänge, wird das Reduktionskonzept trivial: „[...] by this means every equation reduces to every other – a complete 26 Wellenlängen

sind zwar durchaus variabel, können aber nicht gleich Null gesetzt werden, wie es der besagte Grenzübergang verlangt – in diesem Sprung zwischen echt positiver Wellenlänge und dem Wert Null sind sie nicht variabel.

78

trivialization of the concept of intertheoretic reduction“ (ebd.), weshalb Nickles die Schlussfolgerung zieht, dass – für Reduktionen und auch sonst – die Variation von Konstanten nicht zulässig sein kann: „Clearly we must say that letting numerical constants change value is mathematically illegitimate“ (ebd.). Diese Betrachtung erinnert an die scheinbare Willkürlichkeit der Brückengesetze, die in Abschnitt 2.2 behandelt wurde. Auf den Ausweg, den Nagel dort gewiesen hat, und nach dem Brückengesetze als Vergleichsannahmen gedeutet werden, die gut begründete Vergleiche zwischen verschiedenen Begriffen ermöglichen, führt in dem hier betrachteten Zusammenhang zum Beispiel Yoshida 1977. Es ist nämlich auch hier wieder so, dass die Annahme variabler Konstanten nicht in beliebigen Zusammenhängen gemacht wird, sondern nur in wohlbegründeten Fällen: „Planck’s constant is so small for most ordinary purposes that its actual value is negligible for those purposes. The velocity of light is so large relative to other velocities one usually deals with that it might as well be infinite. So the physicist is not approving logically of the practice of letting any constant go to any value“ (a.a.O., S.22). Und wie sich bei Scheibe unten zeigen wird, ist die kontrafaktische Annahme variabler Konstanten in dafür geeigneten Fällen fruchtbar für Theorienvergleiche. Es lässt sich also wiederum begründen, wann eine solche (kontrafaktische) Vergleichsannahme für den Zweck des Theorienvergleichs gerechtfertigt ist: „[...] it makes no sense to speak of letting the number 2 vary, though it does make sense to treat a physical constant as if it were a variable. So letting numerical constants change value is mathematically legitimate“ (S.22, offenbar gegen Nickles gerichtet).27 Für dieses Ergebnis hätte man auch direkt wieder Nagels Argumentation für die Rechtfertigung der Brückengesetze bei bestimmten Theorienpaaren aufgreifen können, da es sich hier, wie gesehen, nicht anders verhält. Auf eine ähnliche Lösung kommt schließlich auch Nickles selbst, wenn er die Variation von Konstanten wie c oder , die man immerhin rechtfertigen kann, mit wirklich willkürlichen Grenzprozessen wie dem folgenden vergleicht: „Finally, it is important that the reductive operations make physical sense. By taking the limit as temperature T goes to infinity, we may be able to eliminate T or a more complex factor involving T from some theory. But an infinite temperature does not make physical sense“ (Nickles 1973, S.200). Und wenn es streng genommen auch physikalisch sinnlos ist, Konstanten variieren zu lassen, so ist es doch eher erlaubt, als das eben 27

Das Argument, das Yoshida in diesem Zusammenhang für sein wichtigeres hält, nämlich dass der Wert physikalischer Konstanten kontingent ist und daher variiert werden kann, ist dagegen vergleichsweise schwach – Theorien sollen unsere Welt beschreiben, wie sie ist, auch wenn der Wert der Naturkonstanten kontingent ist.

79

beschriebene Vorgehen, da es schließlich begründet werden kann: „Indeed, it makes no physical sense to permit physical constants to vary (h → 0, c → ∞).28 But the reason it is illuminating in such cases as these [also die Fälle von c und h] is that these values were in a sense tacitly assumed in the predecessor theory or at least were compatible with it. Thus we can think of h and c as variables in a noncommittal metalanguage“29 (a.a.O., S.201). Es ist übrigens bemerkenswert, dass Nickles hier ein Argument anführt, das an den Hinweis auf die Bedeutungsgeschichte von Begriffen in der Diskussion der Brückengesetze erinnert: c und h waren auch in den Vorgängertheorien „tacitly assumed“ bzw. sind „compatible“ mit ihnen. Eine solche Auffassung trägt hier wie dort zur Rechtfertigung der ansonsten im Prinzip willkürlich gesetzten Vergleichsannahmen bei. Wenn also die Annahme variabler Naturkonstanten streng genommen physikalisch sinnlos bleibt, kann sie als Vergleichsannahme für den Zweck bestimmter Theorienvergleiche gerechtfertigt werden, ähnlich wie in der Diskussion des letzten Abschnitts die Brückengesetze zu solchen Annahmen umgedeutet wurden – auch die Brückengesetze blieben schließlich ohne diese Deutung unerklärte Setzungen. Diese Annahmen sind dann auch nicht willkürlich, sondern wie die auf Brückengesetzen beruhenden Vergleichsannahmen für jeweils bestimmte Theorienpaare gut begründet. Zu einem solchen Schluss scheint schließlich auch Scheibe gekommen zu sein, wenn er sagt: „Wir wollen uns aber über die hiermit [seiner ,metaphysischen Annahme‘ variabler Lichtgeschwindigkeit, siehe oben] verbundenen Bedenken hinwegsetzen, weil gerade die Grenzfallreduktion [die von dieser Annahme Gebrauch macht] auf gewisse mathematische Tatsachen führt, deren physikalische Bedeutung aufschlussreich ist“ (Scheibe 1999, S.22). Er kann also die „Bedenken“ nicht wegdiskutieren und muss sich über sie „hinwegsetzen“ – diese Vergleichsannahmen bleiben streng genommen physikalisch sinnlos – kann aber gleichwohl sehr gut begründen, warum er das tut – sie sind immerhin nicht willkürlich. Dass die variabel gedachten Naturkonstanten zu guter Letzt auch noch Werte wie Null oder unendlich annehmen sollen, ist nun innerhalb von Scheibes Theorie nicht mehr problematisch, da er sich, wie oben schon ausgeführt, in 28 Bevor

Verwirrung entsteht: Es gilt  = h/2π , und mit welchem h von beiden man den Grenzprozess durchführt, ist egal. 29 Dass es sich um variable Konstanten innerhalb einer nicht näher erklärten „noncommittal metalanguage“ handeln soll, stellt einen Versuch dar, diese kontrafaktischen Annahmen über ihre Deutung als Vergleichsannahmen, als die sie hier im Folgenden betrachtet werden, hinaus zu plausibilisieren. Ein Konzept allerdings, das solche Annahmen in einem anderen Rahmen als dem des Reduktionsproblems schlüssig deuten kann, scheint noch auszustehen: Diese Annahmen sind streng genommen physikalisch sinnlos.

80

seinem Reduktionskonzept auf Vergleiche beschränkt, bei denen Modelle als Mengen topologisch verglichen werden. Und es ist völlig legitim, von der Beziehung der „näherungsweisen Ersetzbarkeit“ (a.a.O., S.25) zwischen Modellen der reduzierenden Theorie und solchen eines mathematisch immerhin möglichen Grenzfalles, der wiederum zu der reduzierten Theorie äquivalent ist, zu sprechen. Als einziges Problem verbleibt, dass es zur Herstellung eben dieser Beziehung der variablen Konstanten bedarf. Wenn Scheibe nun also sein Konzept der Grenzfallreduktion auch auf ein „nicht gänzliches außer Acht lassen“ einer Alternative, die darüber hinaus auch nur ein „gewisses, eventuell nur metaphysisches Verständnis“ einer solchen Grenzfallreduktion erlaubt (vgl. das Zitat oben), beschränkt, so soll ihm diese „metaphysische Annahme“ für das weitere Verfolgen dieses Reduktionskonzepts zugestanden werden, und zwar im Sinne besagter Vergleichsannahmen. Ob direkte Reduktionen auf dieser Grundlage als subtile Vergleiche zwischen Theorien allerdings eliminativ sind, wird zu besprechen sein (vgl. Abschnitt 2.4). Außerdem werden gleich mit den asymptotischen Reduktionen auch Reduktionen auf die Minkowskigeometrie mit fester Lichtgeschwindigkeit untersucht. Interessant dabei ist bereits an dieser Stelle, dass diese beiden Möglichkeiten unabhängig voneinander sind – insbesondere arbeitet die eine mit „metaphysischen Annahmen“, während die andere ohne dergleichen auskommt – und beide auf jeweils ihre Weise Vergleiche zwischen denselben Theorien liefern. Damit sei nun die Grenzfallreduktion in den Blick genommen. Zur Erinnerung: Es geht immer noch um die Reduktion der Galileischen auf die Minkowskische Raumzeit, die Theorien wurden oben aneinander angeglichen und können dadurch verglichen werden – zum einen als Grenzfallreduktion, zum anderen als asymptotische Reduktion. Unter Auslassung der Einzelheiten und mit dem Hinweis, dass das folgende Ergebnis alles andere als trivial ist, sei nun festgehalten, dass die Grenzfallreduktion in dem hier besprochenen Fall die Gleichungen limλ →0 G = g und limλ →0 H = h im Sinne einer punktweisen Konvergenz auf den jeweiligen Funktionenräumen liefert.30 Diese Grenzbeziehungen zwischen den wesentlichen mathematischen Komponenten der beiden in dieser Hinsicht aneinander angepassten Theorien (g und H sind, wie gesehen, jeweils Hilfskonstruktionen) stellen eine direkte Verbindung zwischen den Theorien her. Was dieser allgemeine Zusammenhang im Einzelnen bedeutet, wird bei 30

Diese Gleichungen sind nicht wörtlich zu nehmen, im Rahmen der Untersuchung von Scheibe lauten sie in seiner Notation limζ →0 Gζ = g◦ und entsprechend limζ →0 H ζ = h◦ , was im Wesentlichen auf die obigen Grenzfallgleichungen hinausläuft (ζ steht für die Funktionswerte von λ , einer Funktion, die hier auch nicht präzise definiert wurde). Die genaue Ausführung findet sich in Scheibe 1999, S.21-25.

81

Scheibe an Beispielen erhellt, von denen hier das der Gleichzeitigkeit herausgegriffen sei: In der als Σ≥0 gekennzeichneten Theorie sind zwei Ereignisse gleichzeitig immer nur in einem Inertialsystem, „[...] es ist der Begriff des Inertialsystems, durch den hier die λ -Abhängigkeit hereinkommt“ (a.a.O., S.26). Für jedes λ > 0 hängt die Gleichzeitigkeit zweier Ereignisse vom gewählten Bezugssystem des Betrachters ab (Relativität der Gleichzeitigkeit), während es für λ = 0 eine absolute Gleichzeitigkeit gibt. Diese als Σ>0 bzw. Σ=0 gekennzeichneten Theorien spiegeln damit ganz verschiedene Verhältnisse wider, die aber dennoch im Sinne der Grenzfallbeziehung innerhalb der gemeinsamen Erweiterung Σ≥0 ineinander übergehen: „[...] mit abnehmendem ζ [steht für die Funktionswerte von λ ] nimmt die Unabhängigkeit der Gleichzeitigkeit vom Inertialsystem zu“ (S.27), was Scheibe auch mathematisch mit Hilfe der Beziehungen zwischen G und g bzw. H und h aufzeigt. Dies ist ein schönes Beispiel für sein oben erwähntes Konzept der „näherungsweisen Ersetzbarkeit“ von Modellen. In diesem Sinne handelt es sich um ein mathematisches Ineinanderübergehen zweier verschiedener Begriffe (Gleichzeitigkeit abhängig von Inertialsystemen bzw. absolute Gleichzeitigkeit), das Scheibe veranlasst, an dieser Stelle noch einmal deutlich festzuhalten, dass eine solche Grenzfallreduktion Vergleichsmöglichkeiten zwischen verschiedenen Theorien und ihren Begriffen bietet, womit die Schlussfolgerung der Inkommensurabilitätsthese als übertrieben erscheint: „Inkommensurabilität ist eine Sache des Mehr oder Weniger und gestattet nicht, oder eben nur im Extremfall, derart krasse Urteile, wie sie zum Beispiel Feyerabend mit Bezug auf die allgemeine Relativitätstheorie als Nachfolger der Newtonschen Mechanik und Gravitationstheorie gefällt hat. [...] Als inkommensurabel würde Feyerabend gewiss auch diese Geometrien bezeichnen. Aber gerade sie lehren uns, dass die Sache so schlimm nicht sein muss.“ (S.27)

Dies sei ohne weiteres zugestanden, verglichen werden können die Theorien durchaus, nur ob ein solches Konzept direkter Reduktionen eliminativ ist, wird zu diskutieren sein. Doch zunächst sei die asymptotische Reduktion besprochen. Dazu soll wiederum eine allgemeinere Diskussion vorangestellt werden, diesmal, wie angekündigt, die der Forderung, dass Variabeln einen kontrafaktischen Grenzwert annehmen sollen. In den einführenden Beispielen dieses Abschnitts betraf dies die Geschwindigkeit v und den Abstand zur Erdoberfläche x, die beide für die Ableitung der jeweils zu reduzierenden Theorie den Grenzwert Null annehmen sollten, obwohl die Gleichungen dieser Theorien explizit Werte größer Null behandeln – womit die Gleichun-

82

gen also streng genommen nicht in ihrer ursprünglichen Form abgeleitet werden können. Weitere einschlägige Beispiele für solche kontrafaktischen Grenzfallannahmen sind die Anzahl von Teilchen bzw. Molekülen einer Gasmenge,31 die beim Übergang von statistischer Mechanik zu Thermodynamik im sogenannten thermodynamischen Limes gegen unendlich streben soll (vgl. Kapitel 5), oder die ebenso zunächst abwegige Annahme unendlich kleiner Raumgebiete für den Übergang von Allgemeiner zu Spezieller Relativitätstheorie (vgl. Kapitel 3), offenbar ignorierend, dass Teilchenzahlen immer endlich und Raumgebiete, die diesen Namen verdienen, keine Raumpunkte sind. Auch wenn es nun offensichtlich wiederum physikalisch sinnlos ist, Variablen kontrafaktische Grenzwerte annehmen zu lassen, wird dieses Problem von Scheibe nicht eigens diskutiert, da es sich in seinem Konzept von selbst auflöst: Er ist sich darüber im Klaren, dass man nicht einfach einen Grenzfall in eine Gleichung einsetzen kann, da man dann zwar die Gleichungen formal abgeleitet hätte, diese dann aber nur für den nicht realen (kontrafaktischen) Grenzfall gültig wären (wie es bei den am Anfang dieses Abschnitts vorgeführten Grenzübergängen übrigens der Fall ist), und bemüht daher stattdessen besagte topologische Vergleiche zwischen Modellen und betrachtet also Näherungslösungen. Dies nun allerdings wieder um den Preis, dass die auf diesem Wege gewonnenen direkten Reduktionen im Wesentlichen Vergleiche darstellen: Die exakten Gleichungen der zu reduzierenden Theorie erhält man in der Tat nur durch Einsetzen der kontrafaktischen Grenzwerte, und wenn man dies vermeiden möchte, kann man lediglich approximativ Lösungen der Theorien vergleichen. Anders lässt sich in einem mathematisch und physikalisch sauberen Sinne nicht verfahren, und was das für die Frage nach der Eliminativität direkter Reduktionen bedeutet, wird zu besprechen sein – hier sei aber zunächst Scheibes asymptotische Reduktion vorgestellt. Während bei der oben betrachteten Grenzfallreduktion die Funktionen G, H und λ als Ganze variabel waren und an die Funktionen g, h und λ = 0 im Sinne eines Grenzprozesses angenähert wurden, bleiben sie bei der asymptotischen Reduktion fest, da jetzt in der Minkowskischen Theorie von einer festen Grenzgeschwindigkeit ausgegangen wird – die Funktionen werden deshalb „im Sinne einer Asymptotik“ (S.34) miteinander verglichen. Es handelt sich um eine gänzlich andere Situation und Scheibe betont: „Insbesondere gibt die für den vorliegenden Fall im vorigen Abschnitt schon festgestellte Grenzfallsituation keinerlei Hinweis darauf, wie die jetzige Frage zu beantworten ist“ (ebd.). Das Konzept der asymptotischen Reduktion 31

Diese Anzahl kann durchaus als Variable gedacht werden, indem man in der Ableitung „immer größere“ Gasmengen behandelt.

83

soll wieder an einem Beispiel, diesmal dem der Längenkontraktion, erläutert werden: In der Galileischen Geometrie mit λ = 0 folgt aus den allgemeinen Gleichungen der bekannte Zusammenhang für Längentransformationen32 l = l ◦ , in der Minkowskischen mit λ = 1 als Standardmodell gilt hingegen l = (1 − v2 )1/2 l ◦ . Diese Gleichungen33 erinnern an den am Anfang des Abschnitts vorgeführten Zusammenhang zwischen klassischem und relativistischem Impuls, und es ist auch hier verführerisch, eine Verbindung einfach durch den Grenzübergang v → 0 durchzuführen. Aber Scheibe macht darauf aufmerksam, dass ein solcher Grenzprozess nicht in Frage kommt, da die Galileische Gleichung von v unabhängig und daher gerade nicht die Minkowskische mit v = 0 ist. Stattdessen sieht seine asymptotische Reduktion so aus, dass man in beliebiger Nähe jeder Lösung der Minkowskischen Gleichung eine Lösung der Galileischen finden kann, wenn v klein genug ist (vgl. S.39, dort findet sich auch die genaue mathematische Formulierung dieses Sachverhalts). Diese Argumentation gilt entsprechend für die beiden Beispiele am Anfang des Abschnittes: Verbindungen zwischen verschiedenen Konzepten einfach durch mathematische Grenzprozesse herstellen zu wollen, hat sich nach Scheibe als zu naiv erwiesen. Man kann solche Konzepte lediglich in eben beschriebenem Sinne asymptotisch vergleichen. In Scheibe 1997 wird dies auch explizit an dem Beispiel der Fallgesetze vorgeführt, in dem man sich ebenso auf eine Vergleichsmöglichkeit in dem Sinne, dass Lösungen des Newtonschen Gravitationsgesetzes mit solchen der Fallgesetze approximiert werden (vgl. a.a.O., S.201f.), beschränken muss.34 Darauf, dass die eingangs formulierten Grenzprozesse keinen sinnvollen physikalischen Gehalt haben (die Fallgesetze gelten auch für Werte jenseits des Grenzfalles), wurde mehrfach hingewiesen, jetzt wurde gezeigt, dass eine Reduktion mathematisch sauber und physikalisch sinnvoll nur im Rahmen dieses asymptotischen Vergleichs stattfinden kann, und obige mathematische Formulierungen mit den „Limes-Gleichungen“ irreführend sind. Auf eine für die Fragestellung, ob solche direkten Reduktionen eliminativ 32 Transformationen

der räumlichen Länge zwischen verschiedenen Inertialsystemen, die mit der Geschwindigkeit v relativ zueinander bewegt sind. 33 Notation von Scheibe; c taucht in letzterer Gleichung nicht auf, da die Lichtgeschwindigkeit mit λ gleich eins gesetzt wurde. 34 Approximiert werden Lösungen der jeweiligen Differentialgleichungen und nicht konkrete Zahlenwerte: Letztere kann man natürlich nicht beliebig genau approximieren, da sich die Werte für konkrete Situationen (etwa die Beschleunigung, die ein Körper bei einem bestimmten Erdabstand erfährt) gerade unterscheiden. Wohl lassen sich aber die Lösungsfunktionen der Differentialgleichungen im Bereich kleiner Fallhöhen beliebig genau annähern, wenn man dabei das Intervall der Falllinie und das Zeitintervall entsprechend einschränkt, vgl. a.a.O., S.201f.

84

sind, wichtige Besonderheit soll an dieser Stelle noch einmal hingewiesen werden: Wie eben vorgeführt wurde, wird bei der asymptotischen Reduktion nicht die reduzierte Theorie durch die reduzierende angenähert, sondern gerade umgekehrt: In jeder Umgebung eines Modells der reduzierenden findet sich ein Modell der zu reduzierenden Theorie, die Gleichungen der reduzierenden werden somit von denen der zu reduzierenden Theorie approximiert. Andersherum kann es auch gar nicht gehen, da die zu reduzierende Theorie aus Sicht der reduzierenden falsch ist: Die reduzierende Theorie hat die „richtigen“ Gleichungen, wohingegen die der zu reduzierenden unpräzise sind und daher den „richtigen“ angenähert werden können. Auf diese Weise lässt sich nun zwar sehr schön zeigen, dass die zu reduzierende Theorie nicht ganz falsch ist – dies als Note gegen Feyerabend –, aber sie wird dabei nicht logisch abgeleitet – man vergleicht sie, wie beschrieben, mit der reduzierenden und von einer Deduktion ist keine Spur. Soviel an dieser Stelle zu dem mathematischen Aspekt des Reduktionsproblems innerhalb der Physik – weitere Herausforderungen durch mathematische Schwierigkeiten werden in den Fallbeispielen der nächsten Kapitel behandelt,35 in denen sich auch zeigen wird, dass Scheibe selbst in seiner Untersuchung auf einen Fall stößt, bei dem er „[...] von echter Inkommensurabilität sprechen möchte“ (Scheibe 1999, S.174). Zunächst sei aber zusammenfassend festgehalten, dass approximative, direkte Verbindungen zwischen physikalischen Theorien durchaus möglich, aber nicht leicht zu haben sind: Nach gegenseitigem Anpassen der jeweiligen Theorien, wodurch Vergleiche zuallererst ermöglicht werden, gibt es Grenzfallvergleiche, die der kontrafaktischen Annahme variabler Naturkonstanten bedürfen, und asymptotische Vergleiche, bei denen Lösungen der reduzierenden durch solche der zu reduzierenden Theorie approximiert werden können, und beide Fälle sind weit davon entfernt, logische Deduktionen zu sein – man muss sich mit Vergleichen bescheiden. Eine besondere Pointe ist weiterhin, dass diese beiden Scheibeschen Konzepte direkter Reduktion unabhängig voneinander sind und auf jeweils ihre Weise Vergleiche zwischen denselben Theorienpaaren erlauben. Und nicht zuletzt ergab diese Untersuchung auch, dass die Verhältnisse zwischen modernen physikalischen Theorien komplizierter sind als Vergleiche zwischen einer logisch abgeleiteten korrigierten und der ursprünglich zu reduzierenden Theorie: Dies zeigte sich innerhalb des strukturalistischen Ansatzes von Scheibe, mit dem die Verhältnisse zwischen physikalischen Theorien präzise bestimmt werden können, und spricht gegen die 35

Die eingangs angesprochenen von Batterman 2002 herausgearbeiteten Besonderheiten werden hingegen nur noch am Rande im fünften Kapitel eine Rolle spielen, vgl. auch Abschnitt 1.3.

85

Reduktionstheorie von Schaffner und Hooker, selbst wenn diese von Bickle 1998 ebenfalls strukturalistisch präzisiert wurde – dieses Reduktionskonzept scheint für die komplizierten Verhältnisse zwischen physikalischen Theorien nicht geeignet zu sein. Der folgende Abschnitt untersucht nun, ob sich eingedenk der bis hier betrachteten sprachlichen und mathematischen Probleme ein Konzept direkter Reduktionen erarbeiten lässt, das auf Vergleichen beruht und dabei eliminativ ist, wobei sich zeigen wird, dass Eliminativität nur von einem indirekten Reduktionsanteil gewährleistet werden kann, der auf der Erklärung von Phänomenen beruht. In den folgenden Kapiteln wird dann in Fallbeispielen, die in Abschnitt 2.5 vorbereitet werden, untersucht, welche Beispiele es für im Prinzip mögliche eliminative Reduktionen in der Physik gibt, wobei ein im nächsten Abschnitt erarbeiteter Reduktionsbegriff zugrunde gelegt wird. 2.4 Reduktion und Theoriennachbarschaft

Feyerabend zieht aus seiner Untersuchung die radikale Schlussfolgerung, dass ältere Theorien nicht reduziert werden können und stattdessen aufgegeben werden müssen, da sie schließlich durch bessere ersetzt wurden: „Es [Feyerabends Argument] verweist darauf, dass es natürlich ist, diesen Widerspruch zu lösen, indem man die unbefriedigenden, zu Schwierigkeiten führenden älteren Grundsätze fallen lässt und durch Grundsätze oder Theoreme der neuen und besseren Theorie ersetzt. Und schließlich zeigt es, dass ein solches Vorgehen auch die Beseitigung der alten Bedeutungen [...] nach sich zieht“ (Feyerabend 1981, S.112). Er beruft sich dabei auf Poppers Falsifikationsthese, nach der ältere Theorien durch neue Erkenntnisse über die Natur falsifiziert werden und mithin aufzugeben sind. So sagt Popper zu den Theorien Galileis und Keplers und deren (vermeintlicher) Erklärung durch die Newtonsche Mechanik: „Die ursprüngliche Erklärungsaufgabe war die Deduktion der beiden älteren Theorien. Sie wurde gelöst, nicht indem diese abgeleitet werden, sondern indem etwas Besseres an ihrer Stelle abgeleitet wird: neue Resultate, die, unter den besonderen Bedingungen der älteren Theorien, zahlenmäßig sehr nahe an diese älteren Theorien herankommen und sie gleichzeitig berichtigen“ (Popper 1973, zitiert nach Feyerabend 1981). Feyerabend verschärft dies im Sinne der Kuhnschen Inkommensurabilitätsthese dazu, dass man von Erklärung dann nicht mehr sprechen kann: „In dieser neuen Sprechweise müssen wir sagen, dass die Keplerschen Gesetze von Newtons Theorie relativ zu den heutigen Beobachtungen nicht erklärt werden – und das ist auch völlig in Ordnung; denn die heutigen Beobachtungen widerlegen ja die Keplerschen Gesetze und machen damit

86

das Bedürfnis nach Erklärung hinfällig“ (a.a.O., S.121).36 Nun verfolgt Feyerabend zum einen eine andere Fragestellung: Hier geht es nicht um das Problem des Theorienfortschritts, sondern um das Reduktionsproblem und die Frage nach der Möglichkeit direkter eliminativer Reduktionen. Zum anderen wurde schon in Abschnitt 1.3 darauf hingewiesen, dass auch dezidierte Reduktionisten, die insbesondere gegen Feyerabends Inkommensurabilitätsthese argumentieren, davon sprechen, dass reduzierte Theorien im Prinzip überflüssig sind, eine Auffassung, die auch Scheibe mit seiner Reduktionstheorie vertritt. Allerdings soll diese Überflüssigkeit nicht auf der Ersetzung überholter Theorien beruhen, sondern auf eliminativen Reduktionen. Ziel dieses Abschnittes ist es nun zu untersuchen, wie ein eliminatives Reduktionskonzept definiert werden kann: Feyerabends Ersetzungen beruhen gewissermaßen auf indirekten Reduktionen, auf der Erklärung von Phänomenen mit dadurch eliminativ reduzierenden Theorien. Solche Reduktionen sind nun zwar eliminativ, aber unbefriedigend, da sie keine direkten Beziehungen zwischen den jeweiligen Theorien liefern. Feyerabend bestreitet weiterhin die Möglichkeit direkter Reduktionen überhaupt, wohingegen in den letzten beiden Abschnitten gezeigt wurde, dass es durchaus direkte Verbindungen auch zwischen sich widersprechenden Theorien gibt. Ob direkte Reduktionen aber eliminativ sind, wie es die in der Physik übliche Sprechweise vom „als Grenzfall enthalten sein“ nahelegt, ist die Fragestellung dieses Abschnitts: Es wird sich zeigen, dass direkte Reduktionen im Allgemeinen lediglich retentiv sind und besser als Theoriennachbarschaft bezeichnet werden sollten, und dass eliminative Reduktionen aus einer Mischung aus direkter und indirekter Reduktion bestehen müssen – in diesem Sinne wird unten ein Reduktionsbegriff definiert. Direkte Reduktionen wären eliminativ, wenn die Gesetze der reduzierten 36 Allerdings

argumentiert Feyerabend 1962 auch für einen Methodenpluralismus, nach dem ältere Theorien als alternative Beschreibungen der Welt doch ihre Berechtigung haben: „[...] ein strenger Empirismus wird Theorien zulassen, die mit den Tatsachen übereinstimmen, aber untereinander unverträglich sind. Meine Analyse [...] hat zudem gezeigt, dass die Existenz von Mengen sich teilweise deckender, miteinander unverträglicher, aber empirisch richtiger Theorien nicht nur möglich, sondern auch gefordert ist“ (zitiert aus Feyerabend 1981, S.102f. Ausgehend von dieser Forderung nach Methodenpluralismus entwickelt Feyerabend später bekanntlich seinen erkenntnistheoretischen Anarchismus). Eine ähnliche pluralistische (aber nicht anarchistische) Auffassung wird in dieser Arbeit vertreten: Auch wenn es fundamentalere Theorien gibt, werden Theorien, die nicht eliminativ reduziert sind, weiterhin benötigt – und sind zwar (logisch) unverträglich zu den entsprechenden fundamentalen Theorien, stehen diesen aber näher, als bei Feyerabend: Sie sind ihnen in einem unten noch zu definierenden Sinne benachbart.

87

Theorie logisch in denen der reduzierenden enthalten wären, wie es in Nagels Reduktionskonzept, nach dem in einer Reduktion die reduzierte Theorie durch die reduzierende im Sinne des D-N-Schemas erklärt wird, gelten würde. Nun hat Abschnitt 2.2 gezeigt, dass dieses Konzept aus begrifflichen Gründen nicht haltbar ist: Die Untersuchung dort hat ergeben, dass man Brückengesetze innerhalb dieses Erklärungskonzeptes plausibel nur als Neudefinitionen von Begriffen auffassen kann, womit sich dann aber aus der reduzierenden Theorie zusammen mit den so verstandenen Brückengesetzen gerade nicht die gewünschte zu reduzierende Theorie ableiten lässt, sondern höchstens eine zu dieser im Sinne des Schaffner-Hooker-Bickle-Ansatzes ähnliche. Außerdem wurde darauf hingewiesen, dass man stattdessen auch die Erklärungsauffassung verlassen und bei bestimmten Theorienpaaren Brückengesetze zu Vergleichsannahmen umdeuten kann, womit zwar keine Deduktionen, aber immerhin produktive Theorienvergleiche möglich sind. Und schließlich müssen auch die besagten ähnlichen Theorien mit der ursprünglich zu reduzierenden verglichen werden, um eine „stronganalogy“-Relation etablieren zu können. Wenn durch die Aufstellung analoger Begriffe im Rahmen von Neudefinitionen innerhalb korrigierter Theorien natürlich ein differenzierter Vergleich ermöglicht wird, bleibt zu untersuchen, ob für einen solchen Vergleich tatsächlich die Entwicklung einer ganzen korrigierten Theorie notwendig ist – oder ob dieses Vorgehen angesichts der Möglichkeit eines Vergleichs unmittelbar zwischen den ursprünglichen Theorien eher einen Umweg darstellt. In Abschnitt 2.3 wurde klar, dass es auch aus mathematischen Gründen keine auf Deduktionen beruhende direkte Reduktionen gibt: Statt logischer Ableitungen gibt es Näherungsbeziehungen. Dass es sich bei diesen wiederum um Vergleiche zwischen Theorien handelt, zeigte die Untersuchung von Scheibes Reduktionskonzept. Nach gegenseitiger Anpassung des mathematischen Apparates, die eine Beziehung zwischen den Theorien erst ermöglicht, konnte auf zwei verschiedene Weisen verglichen werden. Dabei bedurfte die erste Variante (die der Grenzfallreduktion) noch zusätzlicher kontrafaktischer Annahmen, die ähnlich wie die Brückengesetze als Vergleichsannahmen aufgefasst werden müssen. Und ganz analog zu dem Umstand, dass es für die Brückengesetze als direkte Verbindung zwischen Theorien (ohne korrigierte Theorie) keine andere sinnvolle Deutung als die der Vergleichsannahme gibt, die zunächst unerklärt und lediglich durch ihre Ermöglichung produktiver Theorienvergleiche gerechtfertigt ist, bleiben die kontrafaktischen Annahmen außerhalb solcher Vergleichsbeziehungen, für die allein sie gerechtfertigt werden können, physikalisch sinnlos. Zu Beginn des Abschnitts 2.3 wurden zwar vermeintliche Ableitungen mit Grenzübergängen zitiert, aber Scheibes Reduktionstheorie zeigte, dass

88

allein (topologische) Vergleiche mathematisch und physikalisch sinnvoll sein können, wobei Scheibe besagte kontrafaktische Annahmen als „metaphysische Annahmen“ bezeichnet und zu Vergleichszwecken rechtfertigt. Damit zeigte die Diskussion des begrifflichen und mathematischen Aspekts, dass die Vorstellung, reduzierte Theorien könnten in reduzierenden logisch enthalten sein, nicht haltbar ist. Es gibt zwar – entgegen der Feyerabendschen Inkommensurabilitätsthese – direkte Verbindungen in Form von Grenzfallbetrachtungen bzw. Näherungsbeziehungen, diese sind aber „nur“ vergleichend, und somit scheinen direkte Reduktionen zunächst nicht eliminativ zu sein. Bevor nun nichtdeduktive direkte Theorienverbindungen in dieser Hinsicht diskutiert werden, sei abschließend zu den deduktiven noch festgehalten, dass die Gründe, die gegen die Möglichkeit deduktiver Reduktionen sprechen, wie oft betont immer nur für die interessanten Reduktionskandidaten gelten, also für die Verhältnisse zwischen Theorien, die als jeweils eigenständig gelten und sich insbesondere hinreichend voneinander unterscheiden. Dazu soll noch gesagt werden, dass Reduktionen, bei denen man tatsächlich von logischer Ableitung sprechen kann, sowohl Nagels Konzept der homogenen Reduktion zu erfüllen haben, wozu also beide Theorien in der selben Sprache formuliert sein müssen, so dass Brückengesetze entbehrlich wären, als auch Scheibes Konzept der exakten Reduktion, so dass also keine Näherungen im Spiel sind.37 Für Reduktionen, die diese beiden Kriterien erfüllen, gilt in besonderem Maße, was Friedman 1982 allein von homogenen Reduktionen sagt: „[...] in such reductions the theories involved are too closely related for the reduction to constitute an intertheoretical reduction“ (a.a.O., S.25). Bei Reduktionskandidaten, die beide Kriterien erfüllen, handelt es sich in der Tat weniger um zwei Theorien, als um verschiedene Gesetze einer Theorie. Nagels Beispiel für homogene Reduktionen, das der Zurückführung der Galileischen Fallgesetze auf Newtons Gravitationsgesetz, ist nicht exakt im Sinne Scheibes, wie in Abschnitt 2.3 gezeigt wurde. Und die Beispiele Scheibes für exakte Reduktionen sind tatsächlich solche, in denen in die Gesetze reduzierender Theorien bestimmte Randbedingungen eingesetzt werden, so dass man wirklich Gesetze reduzierter Theorien als logische Ableitung erhält. So bestimmt er als ein Beispiel für exakte Reduktionen aus der Bewegungsgleichung des mathematischen Pendels eine Formel für dessen Schwingungsdauer (Scheibe 1997, S.145f.). Schon bei der Besprechung seiner Theorie in Abschnitt 2.1 wurde 37 Streng

genommen ist Scheibes Kriterium in Nagels enthalten, da letzteres eine gemeinsame Sprache fordert und dann von logischer Ableitbarkeit – ohne Näherungen – ausgeht. Hier wird aber dennoch zusätzlich auf Scheibes Kriterium hingewiesen, da Nagels Beispiele für homogene Reduktionen zwar als logische Ableitungen intendiert sind, es aber meist nicht sind, vgl. Abschnitt 2.1.

89

allerdings darauf hingewiesen, dass Scheibe nicht klar zwischen Gesetzen und Theorien unterscheidet, und wenn dies auch eine schwierige Aufgabe ist, der sich diese Arbeit nicht stellen möchte, so gilt doch wenigstens für diesen Fall, dass beides Gesetze der klassischen Mechanik sind. Wirklich interessante Reduktionen, also solche zwischen verschiedenen Theorien, können dagegen nicht sowohl Nagels als auch Scheibes Kriterium erfüllen, und man könnte geradezu sagen, dass das Nichterfüllen dieser Kriterien Reduktionen erst zu interessanten Fällen werden lässt. Damit schließen sich dann automatisch Reduktion und Deduktion aus und es gilt insgesamt, dass das von Hempel und Nagel mit jeweils nur wenigen Sätzen eingeräumte Zulassen von approximativen Reduktionen deren auf Deduktion beruhendes Reduktionskonzept letztlich gesprengt hat. Damit seien nun also die nichtdeduktiven Verbindungen zwischen Theorien besprochen und die Frage nach der Möglichkeit direkter eliminativer Reduktionen erörtert. Dazu soll nun zunächst noch einmal der Ansatz von Schaffner, Hooker und Bickle diskutiert werden, da dieser ursprünglich von Schaffner, wie schon in Abschnitt 1.3 zitiert, als ein Konzept direkter eliminativer Reduktion konzipiert wurde: „[...] in order to insure that a reduced theory is in principle eliminable, i.e., that the reducing theory can do all that the reduced theory accomplished in terms of explanation and systematization of data, we stipulate that the reduced theory must be derivable38 from the reducing theory when the reducing theory is supplemented with the reduction functions39 mentioned above“ (Schaffner 1976, S.615). Schaffner vertritt damit die Position, dass Eliminativität nur mit auf Deduktion beruhenden Reduktionen zu haben ist. Er ist sich aber darüber im Klaren, dass die Möglichkeit deduktiver Reduktionskonzepte von Feyerabend in Frage gestellt wurde: „As has been stressed over the last decade by Paul Feyerabend, reducing theories often contradict or are incommensurable with aspects of the purportedly reduced theory“ (ebd.). Als dennoch eliminatives direktes Reduktionskonzept schlägt er nun am Beispiel der Reduktion von klassischer Genetik auf Physik und Chemie vor, nicht die eigentliche Theorie, sondern eine korrigierte logisch abzuleiten: „I believe that we can take a modification of classical genetics and explain that modification by physics and chemistry“ (S.617). Um dann aber noch gerechtfertigt von Reduktion sprechen zu können, fordert er als Bedingung eine strenge Ähnlichkeit zwischen der veränderten und der ursprünglichen Theorie: „To say, however, that we have reduced classical genetics and not some totally different theory to physics and chemistry, we require that the corrected reduced theory bear a strong analogy with the uncorrected 38 39

Womit in diesem Zusammenhang logisches Ableiten gemeint ist. Dies sind letztlich Brückengesetze.

90

reduced theory, and, that the reducing theory explain why the uncorrected reduced theory worked as well as it did historically“ (ebd.). Nun erläutert Schaffner nicht, was dieses „strongly analogous“ genau heißen soll, sondern räumt in der Auseinandersetzung mit Kritik von Nickles ein, „[...]that the notion of analogy has [...] not yet received an adequate philosophical treatment“ (a.a.O., S.627). Weiterhin erklärt er seine Analogieforderung zu einer Sache der Intuition, „[...] the more intuitively appealing notion of a strong analogy“ (S.628), und allgemeinen Übereinkunft, „general agreement“ (S.628). In diesem Sinne sei diese Forderung zwar nicht genau bestimmt, aber ihre Erfüllung feststellbar: „We are thus dealing with an unanalyzed or primitive relation, but with one which is testable“ (S.628). Allerdings wurde Schaffners Konzept, wie in Abschnitt 1.3 ausgeführt, von Hooker 1981 und Bickle 1998 ausgebaut. Hooker ergänzt es um die Forderung, dass die korrigierte Theorie vollständig in der Sprache und mit den Konzepten der reduzierenden Theorie aufgestellt werden soll, um deren logische Ableitbarkeit zu gewährleisten, die bei Schaffner selbst, bei dem diese Theorie in der Sprache der zu reduzierenden Theorie formuliert ist, aufgrund der Brückengesetzproblematik noch nicht unbedingt gegeben ist. Und schließlich präzisiert Bickle die auch bei Hooker noch vage gebliebene „strong-analogy“-Relation mit Hilfe des strukturalistischen Ansatzes der Beschreibung wissenschaftlicher Theorien. Selbst mit diesen Ergänzungen hat dieser Ansatz nun das Problem, dass solche korrigierten Theorien nie aufgestellt wurden. Man darf sie dabei nicht verwechseln mit im Rahmen des Theorienfortschritts in der Wissenschaftspraxis veränderten Theorien, die zwar von dem Wissen um entsprechende fundamentalere Theorien Gebrauch machen, dadurch aber nicht notwendig aus diesen ableitbar werden. Dies ist auch Schaffner klar: Die natürlichen Theorienfortschritte sind verwickelt und kompliziert und korrigierte, logisch ableitbare Theorien müssen von solchen Theorienveränderungen unterschieden werden. An seinem Beispiel der klassischen bzw. molekularen Genetik räumt er dazu ein: „It should be noted here however that because the partial reductions of genetics thus far achieved have resulted in a kind of ,intertwining‘ of chemistry and genetics, such a separation as is analytically desired for our purposes is not explicitly found in textbooks and research papers“ (Schaffner 1976, S.617). Korrigierte Theorien im Schaffnerschen Sinne müssten also als künstliche Theorien erst noch konstruiert werden nur zu dem Zweck, den deduktiven Charakter von Reduktionen zu erhalten. Dieser Ansatz hat insofern seine Berechtigung, als die Möglichkeit, etwa in der statistischen Mechanik einen Temperaturbegriff einzuführen, einen Vergleich zwischen den hier involvierten Theorien erlaubt. Andererseits braucht man dafür nicht gleich eine ganze korrigierte Theorie, die es in den meisten Fällen ohnehin nicht gibt und nur schwer zu formulieren wäre.

91

Dagegen ist es vielmehr so, dass die zu reduzierende Theorie selbst durch das Wissen der reduzierenden verändert wird, wofür sowohl die Thermodynamik als auch die klassische Genetik einschlägige Beispiele sind. Es entwickeln sich sogar Mischtheorien, wie statistische Thermodynamik bzw. molekulare Genetik (zu letzterer wurde gerade Schaffner zitiert: „a kind of ,intertwining‘ of chemistry and genetics“), da auch die jeweils reduzierende Theorie von dem Wissen der zu reduzierenden profitiert. Dies sind aber Vorgänge, die nicht in Schaffners Sinn als Theorienkorrektur betrachtet werden können, da diese Entwicklungen im Rahmen eines natürlichen Theorienfortschritts stattfinden, ohne dass dabei darauf geachtet würde, dass die zu reduzierende Theorie dadurch ableitbar wird. Außerdem erfüllen sie nicht Hookers Kriterium, nach dem sie in der Sprache der reduzierenden Theorie formuliert sein müssen. In der Wissenschaftspraxis gibt es also keine logisch ableitbaren, korrigierten Theorien. Davon abgesehen, dass es die korrigierten Theorien des Schaffner-HookerBickle-Ansatzes nicht gibt, kann dieser weiterhin nichts als eine subtile Vergleichsmöglichkeit zwischen Theorien bieten: Die hypothetischen, korrigierten Theorien müssen schließlich mit den ursprünglich zu reduzierenden verglichen werden, damit eine „strong-analogy“-Relation begründet werden kann – eine direkte deduktive Verbindung zwischen reduzierender und zu reduzierender Theorie kann es nicht geben, und die Antwort dieses Ansatzes darauf lautet gerade, dass nur bis zu einem bestimmten Punkt (den korrigierten Theorien) logisch abgeleitet und dann verglichen wird. Wie solche Vergleiche für physikalische Theorien genau aussehen können, wurde wiederum in Abschnitt 2.3 mit der Arbeit von Scheibe untersucht, die wie Bickle von einem strukturalistischen Ansatz ausgeht und diesen aber speziell auf die Physik anwendet. Dabei zeigte sich, dass für solche Vergleiche korrigierte Theorien nicht nur nicht nötig sind, sondern dass die Vorstellung, man könne als Zwischenschritt korrigierte Theorien logisch ableiten und diese approximativ mit den zu reduzierenden vergleichen, unrealistisch ist: Die tatsächlichen Vergleiche zwischen den ursprünglichen Theorien stellen sich viel komplizierter als in dieser einfachen Vorstellung dar. So wurden die mathematischen Teile beider Theorien aneinander angepasst und Scheibe unterscheidet dann verschiedene Möglichkeiten topologischer Vergleiche zwischen Modellmengen, womit es sich um eine Vorgehensweise handelt, die mit korrigierten Theorien nicht erfasst wird. Die Intuition hinter den korrigierten Theorien, Begriffe zu reduzierender Theorien in reduzierenden Theorien zu reproduzieren, um mit deren Hilfe Vergleiche anstellen zu können, ist nichtsdestotrotz berechtigt und soll nach wie vor berücksichtigt werden. Gezeigt wurde aber, dass die Forderung nach ganzen korrigierten Theorien zu weit geht: Erstens gibt es sie nicht und zweitens wären diese für die im Schaffnerschen Ansatz notwendigen

92

Vergleiche gar nicht nötig, sondern im Gegenteil sogar hinderlich. Was nun aber die Frage nach direkten eliminativen Reduktionen betrifft, muss eingeräumt werden, dass Reduktionen im Sinne von Schaffner, Hooker und Bickle tatsächlich eliminativ wären. Dies liegt nun aber zunächst an dem indirekten Anteil dieser (hypothetischen) Reduktionen: Wenn nämlich eine korrigierte Theorie aus der reduzierenden logisch abgeleitet wird, die in deren Vokabular formuliert und als korrigierte Theorie in der Lage ist, Phänomene besser zu erklären, als die reduzierte Theorie, werden diese Phänomene letztlich von der reduzierenden Theorie selbst erklärt und die korrigierte Theorie stellt in diesem Zusammenhang lediglich einen Umweg dar. Bei dem Reduktionsbegriff von Schaffner handelt sich also um ein Mischkonzept aus direkter und indirekter Reduktion, das eliminativ nur aufgrund des indirekten Anteils ist und dessen direkter Anteil in einem eine „strong-analogy“-Relation begründenden Theorienvergleich besteht. Für diese beiden Anteile sind aber korrigierte Theorien nicht notwendig: Zum einen können Phänomene auch unmittelbar mit der reduzierenden Theorie erklärt werden, ohne dass erst eine zusätzliche Theorie innerhalb dieser Theorie aufgestellt werden müsste – die Forderung nach einer solchen Theorie verdankt sich lediglich der Vorstellung, eine direkte eliminative Reduktion müsse deduktiv sein und der Konsequenz aus der Unmöglichkeit direkter deduktiver Reduktionen. Darüber hinaus kann eine korrigierte Theorie für die Phänomenerklärungen sogar hinderlich sein: Bei reduzierenden Erklärungen werden tatsächlich oft Konzepte zu reduzierender Theorien nachgeahmt (allerdings ohne dass eine logisch ableitbare korrigierte Theorie entstünde), obwohl unmittelbare Erklärungen mit der reduzierenden Theorie selbst leichter zu haben wären. Darauf macht etwa Callender 2001 im Zusammenhang mit der Reduktion der Thermodynamik auf die statistische Mechanik aufmerksam. Wenn dabei zum Beispiel die thermodynamische Beschreibung von Phasenübergängen innerhalb der statistischen Mechanik nachgeahmt wird, ergeben sich Schwierigkeiten, die sich durch Erklärungen mit Konzepten der statistischen Mechanik selbst möglicherweise vermeiden ließen (vgl. Kapitel 5). Zum anderen läuft diese Analogiebeziehung auf einen Vergleich zwischen den Theorien hinaus, der ebenso ohne eine korrigierte Theorie möglich ist – korrigierte Theorien kommen schließlich in den Scheibeschen Vergleichen nicht vor und können darüber hinaus in diese nicht ohne weiteres eingebaut werden. Bei dem Schaffner-Hooker-Bickle-Ansatz handelt sich also um eine Mischung aus direkter und indirekter Reduktion mit einigen Schwierigkeiten, die nun in einer anderen Mischung dieser Konzepte vermieden werden können: Man braucht lediglich auf die Forderung nach korrigierten Theorien zu verzichten und stattdessen sowohl unmittelbare Phänomenerklärungen

93

als auch unmittelbare Theorienvergleiche zu verlangen. In diesem Sinne wird unten eine Reduktionsdefinition vorgeschlagen. Zuvor muss aber noch diskutiert werden, ob ein indirekter Anteil für eliminative Reduktionen tatsächlich notwendig ist oder ob auch direkte Reduktionen eliminativ sind. In dieser Frage wurde bisher lediglich gezeigt, dass es deduktive Reduktionen nicht gibt und dass die Eliminativität des Schaffnerschen Ansatzes auf indirekter Reduktion beruht. Zur Beurteilung dieser Frage seien nun einige Besonderheiten der direkten Verbindungen zwischen Theorien besprochen, die in den Abschnitten 2.2 und 2.3 aufgezeigt wurden. Diese Verbindungen beruhen also zunächst auf den dort herausgearbeiteten Vergleichsannahmen. Zum einen müssen die vormaligen Brückengesetze als solche gedeutet werden: Diese Annahmen besagen dann, welche Begriffe sinnvoll miteinander verglichen werden können, und sind aber erst a posteriori durch die Ermöglichung solcher Vergleiche gerechtfertigt. Ohne ihre Umdeutung als Vergleichsannahmen bleiben Brückengesetze entweder Neudefinitionen (die aber ebenfalls auf Vergleiche hinauslaufen, vgl. die Diskussion der Schaffnerschen Reduktion) oder unerklärte Setzungen: Außer für die Ermöglichung eines Theorienvergleichs können sie nicht gerechtfertigt werden. Zum anderen werden die mathematischen Zusatzannahmen variabler Naturkonstanten benötigt, die ebenfalls nur für die Ermöglichung von Theorienvergleichen gerechtfertigt werden können und sonst physikalisch sinnlos wären. Nicht zuletzt werden immer nur bestimmte Naturkonstanten verwendet und dass diese und nicht andere Konstanten variiert werden, lässt sich ebenfalls nur durch konkrete Theorienvergleiche begründen. Theorienvergleiche, die die Grundlage direkter Reduktionen bilden, beruhen also auf Vergleichsannahmen, die ihrerseits ausschließlich durch die Vergleiche gerechtfertigt sind, die durch sie erst ermöglicht werden. Darin zeigt sich bereits, dass es sich um Vergleiche zwischen verschiedenen und jeweils eigenständigen Theorien handelt. Dies wird weiterhin daraus klar, dass es selbst mit solchen Annahmen verschiedene Möglichkeiten gibt, zwei physikalische Theorien miteinander zu vergleichen. Dies wurde in Abschnitt 2.3 an der Arbeit Scheibes herausgestellt, laut der zwischen denselben Theorien durch Grenzfallreduktion und asymptotische Reduktion auf verschiedene Weisen Verbindungen hergestellt werden können. Aber selbst innerhalb etwa des Konzeptes der asymptotischen Reduktion gibt es mehrere Möglichkeiten, Beziehungen zu etablieren. Dies macht die Untersuchung Scheibes am Beispiel der Ehrenfestschen Sätze deutlich. Wenn in diesen Gesetze der klassischen Mechanik innerhalb der Quantenmechanik formuliert werden sollen, so zeigt sich zum einen, dass man dafür Grenzfallreduktionen mit der Annahme der variablen Konstante  benötigt (für den Grenzübergang  → 0, vgl. Scheibe 1999, S.182-202) und zum anderen, dass es mehrere

94

und vor allem voneinander unabhängige Möglichkeiten gibt, klassische Gleichungen asymptotisch aus der quantenmechanischen Beschreibung zu erhalten: „Die klassische Ortsverteilung [...] ist asymptotisch reduzierbar auf die quantenmechanische Ortsverteilung und entsprechend die klassische Impulsverteilung [...] auf die quantenmechanische Impulsverteilung [...]. Aber diese beiden Reduktionen gelingen nicht mit demselben, ja nicht einmal mit verträglichen Vehikeln“ (a.a.O., S.196, vgl. auch Kapitel 4). Die Scheibeschen Vergleiche ergeben sich auch nicht zwangsläufig aus der reduzierenden Theorie, sondern hängen wesentlich von der jeweils zu reduzierenden Theorie mit ab, wobei es es kein einheitliches Konzept für solche Vergleiche gibt, sondern diese in jedem einzelnen Fall erarbeitet werden müssen, wofür es mehrere sinnvolle Vergleichsmöglichkeiten geben kann. Dabei gehört es insbesondere zu Scheibes Konzept, sich nicht auf einen bestimmten Reduktionstypen festzulegen, sondern viele verschiedene Beziehungen zuzulassen. In diesem Zusammenhang heißt es etwa bei Hooker 1981: „[...] there are a number of ways in which statements can be approximately true“ (S.46) – Hooker unterscheidet drei verschiedene Fälle von approximativen Beziehungen und versieht dies mit dem Hinweis, dass diese auch kombiniert werden können (vgl. ebd.). Direkte Reduktionen beruhen also auf verschiedenen approximativen Vergleichen, die sich auf Annahmen stützen müssen, die nur durch die Vergleiche selbst gerechtfertigt sind. Weiterhin ist es nun so, dass sich zwei Theorien, die in einem Reduktionsverhältnis stehen, in einigen Fällen gegenseitig beeinflussen. Besonders ausgeprägt ist dies bei dem Verhältnis von Thermodynamik und statistischer Mechanik: Die beiden Theorien sind nicht mehr scharf voneinander zu trennen und man spricht von statistischer Thermodynamik. Hooker 1981 sagt zu diesem Fall: „[...] the thermodynamics-to-statistical mechanics reduction displays another widespread and important feature: the mutual evolutionary feedback between reducing and reduced theories“ (S.48, vgl. auch Kapitel 5 für diesen Fall). Auf eine solche gegenseitige Beeinflussung wurde innerhalb der Reduktionsdebatte auch an dem nichtphysikalischen Beispiel der Genetik hingewiesen, so wenn etwa Roll-Hansen 1969 über die wechselseitigen Beziehungen zwischen Biologie und Chemie sagt: „The thought lies close that the connecting links [Brückengesetze], by introducing new procedures of explication into the two theories, effect a thoroughgoing change of them both“ (S.281) und genauer: „Finding out that genes are too DNA-molecules, expands and changes our conception of chemistry as well as our conception of genetics“ (S.282). Wie im Fall der statistischen Thermodynamik, handelt es sich um den gemeinsamen Fortschritt zweier Theorien, was Hooker 1981 wiederum so auf den Punkt bringt: „In fact, we have to do here with two theories in search of their final forms, not with two finished products“

95

(S.514). Und nicht zuletzt wurde in Abschnitt 1.3 Schaffner 2006 mit dem Hinweis zitiert, dass die Beziehungen zwischen den Theorien oft zu komplex sind, als dass sich pauschale Urteile über Reduzierbarkeit fällen ließen, eine Auffassung, die sich bereits in Schaffner 1976 abzeichnet – „[...] the conditions that in point of fact exist between classical and molecular genetics are so complex that we would encounter a bizarre many-many set of relations if we attempted to articulate the reduction functions“ (S.618) – und inzwischen verbreiteter Konsens ist (vgl. Abschnitt 1.3). Diese Überlegungen zeigen, dass nichtdeduktive direkte Beziehungen zwischen Theorien auf nichttrivialen Vergleichsannahmen beruhen, dass die damit ermöglichten Vergleiche vielfältig sein können und vor allem kompliziert sind, und dass sich in einem Vergleichsverhältnis stehende Theorien gegenseitig beeinflussen können – es sind also Vergleiche zwischen verschiedenen, eigenständigen Theorien. Außerdem gibt Scheibe nun noch mit seinem Konzept der „partiellen Reduktion“ (vgl. Abschnitt 2.1) Beispiele für reduktive Beziehungen, bei denen eine Theorie nicht im Ganzen reduziert wird. Auch sei daran erinnert, dass bei Scheibes Vergleichen beide Theorien eines Reduktionspaares aneinander angepasst werden und dass bei asymptotischen Vergleichen die Lösungen der zu reduzierenden Theorie diejenigen der reduzierenden approximieren und nicht umgekehrt. Nun wurde schon in Abschnitt 1.3 angesichts all dessen festgehalten, dass es lohnender ist, die vielfältigen Beziehungen zwischen Theorien zu untersuchen und dass die spannendere Frage in der Reduktionismusdebatte eigentlich nicht die nach der allgemeinen Möglichkeit eliminativer Reduktionen ist, sondern die nach der Klärung der vielen Einzelfälle und der Kategorisierung dieser Vielheit. Zu dem Schluss, in dieser Hinsicht in der Fragestellung unterscheiden zu müssen, kommt auch Friedman 1982: „This underlines the importance of divorcing considerations of the methodological value of the quasi-reductionist enterprise from the feasibility of the reductionist programme as a whole“ (S.39). Allerdings soll an dieser Stelle gerade doch die Möglichkeit direkter eliminativer Reduktionen diskutiert werden. Und wenn auch die Vielfalt der Beziehungen nahe zu legen scheint, dass „a priori considerations“ zum Reduktionsproblem nicht möglich sind (Sarkar 1992, S. 188), denn: „What is required is a detailed investigation of the context“ (ebd., dies gibt wiederum den besagten, inzwischen verbreiteten Konsens wieder, vgl. Abschnitt 1.3), soll dieser Aspekt nun doch in den Blick genommen werden. In dieser Frage zeigen die Ausführungen über die Komplexität und Vielfalt der auf Vergleichsannahmen beruhenden direkten Beziehungen zwischen Theorien und vor allem der Umstand der gegenseitigen Beeinflussung von reduzierender und reduzierter Theorie, dass eine direkte Reduktion allein nicht eliminativ sein muss: Im Prinzip überflüssig zu sein, bedeutet nämlich

96

für eine Theorie, zur Beschreibung der Welt nicht benötigt zu werden. Wenn nun aber bestimmte Phänomene mit einer Theorie beschrieben werden, die mit einer reduzierenden lediglich in einer Vergleichsbeziehung steht, dann ist nach allem, was hier über diese Vergleichsbeziehungen vorgebracht wurde, klar, dass die Phänomene von der ursprünglichen Theorie selbst beschrieben werden und nicht von der Theorie, mit der sie verglichen werden kann – Vergleiche finden nach obigen Ausführungen offenbar zwischen jeweils eigenständigen Theorien statt. Das heißt nun nicht, dass die Theorie, mit der verglichen wird, überhaupt nicht in der Lage ist, ebenfalls die entsprechenden Phänomene zu erklären. Aber solche Erklärungen erhält man nicht ohne weiteres aus einem Vergleich: Allein durch vergleichende Betrachtungen mit einer anderen Theorie werden Theorien nicht überflüssig, da dazu zusätzlich gezeigt werden müsste, dass erstere – mit Hilfe eines Vergleichs oder ohne – auch in der Lage ist, die entsprechenden Phänomene zu erklären, was aber eine andere Fragestellung ist, und zwar gerade die der indirekten Reduktion. Diese Fragestellung wird in den Kapiteln 3, 4 und 5 behandelt, in denen sich tatsächlich zeigen wird, dass es viele Möglichkeiten des Theorienvergleichs in direkten retentiven Reduktionen gibt, ohne dass die reduzierende Theorie in der Lage wäre, auch die Phänomene der reduzierten zu erklären. Kurzum, für eine eliminative Reduktion sind nichtdeduktive, vergleichende direkte Beziehungen zu wenig. Die Sprechweise der Physiker, eine Theorie sei als Grenzfall in einer anderen enthalten, übersieht also, dass diese Relation auf Näherungsbeziehungen beruht, und daher für sich genommen lediglich eine (direkte) vergleichende Verbindung darstellt. Die mit Grenzfallbetrachtungen möglichen Vergleiche können dabei äußerst detailliert sein und werden im Folgenden zu dem Konzept der Theoriennachbarschaft ausgebaut. Für die durch die Sprechweise des Enthaltenseins nahegelegte Position allerdings, die enthaltene Theorie sei eliminativ reduziert und daher überflüssig, reichen solche Grenzbeziehungen allein nicht aus: So lange eine Theorie für bestimmte Phänomene noch verwendet wird oder gar verwendet werden muss, ist sie trotz Vergleichbarkeit mit und schließlich Nachbarschaft zu (siehe unten) einer fundamentaleren Theorie nicht überflüssig – dies wäre nur dann der Fall, wenn es zusätzlich eine indirekte Reduktion gibt, die zeigt, dass auch die fundamentalere Theorie die entsprechenden Phänomene erklären kann. Dieser Punkt fällt an einfachen Beispielen, wie etwa den Keplerschen Gesetzen oder dem Galileischen Fallgesetz, bei denen Vergleiche – und mehr gibt es auch bei diesen einfachen Beispielen nicht, da sie zu den nichttrivialen Fällen nichtdeduktiver Reduktionen gehören – und Phänomenerklärungen Hand in Hand gehen bzw. bei denen die Vergleiche zwischen den Erklärungsleistungen selbst stattfinden, nicht ins Auge. Der Unterschied zwischen direkten Vergleichen und indirekten Erklärungen

97

wird aber relevant bei den Beziehungen zwischen modernen physikalischen Theorien, bei denen zwar die mathematischen Strukturen der Theorien verglichen werden können, nicht aber Phänomenerklärungen, da es diese, wie in den nächsten Kapiteln gezeigt wird, für etliche Phänomene nur von der jeweils zu reduzierenden Theorie gibt. Nun haben zwar auch vergleichende Näherungsbeziehungen zwischen mathematischen Strukturen erklärenden Charakter, sind aber nicht notwendig eliminativ – dazu sei noch einmal an die Unterscheidung zwischen explaining und explaining away von Sklar 1967 erinnert:40 Näherungserklärungen, wie sie in den besprochenen Grenzfallüberlegungen insofern stecken, als die damit ermöglichten retentiven Reduktionen ein besseres Verständnis der reduzierten Theorie ermöglichen, mögen zwar in diesem Sinne Erklärungen sein, bleiben dabei aber in Sklars Worten bloßes (retentives) explaining41 und stellen kein (eliminatives) explaining away dar – letzteres kann nur von indirekten Reduktionen geliefert werden, wohingegen direkte Reduktionen nicht über Vergleiche zwischen eigenständigen Theorien hinauskommen. Vergleiche können zwar, müssen aber nicht indirekte Erklärungen beinhalten – und sollen im Folgenden als Nachbarschaftsrelationen näher bestimmt werden. Die Untersuchung dieser Arbeit widmet sich der Frage nach der Möglichkeit eliminativer Reduktionen in der Physik. Dieses Kapitel hat bis hier nun gezeigt, dass direkte Reduktionen, von den trivialen, deduktiven Beispielen abgesehen, nicht eliminativ sein müssen. Indirekte Reduktionen wiederum sind selbstverständlich eliminativ, können aber aufgrund fehlender direkter Zusammenhänge zwischen den entsprechenden Theorien nicht ohne weiteres als Reduktionen bezeichnet werden. Daher soll nun ein Reduktionskonzept vorgeschlagen werden, dass sowohl eliminativ ist, als auch seine Bezeichnung als Reduktion verdient, da es, wie bei der Diskussion der Schaffnerschen Reduktion oben angekündigt, aus einer Mischung direkter und indirekter Reduktion besteht. Dieses Reduktionskonzept wird dann den Untersuchungen der Fallbeispiele in den folgenden Kapiteln zugrunde gelegt. Was nun zunächst den direkten Anteil des angestrebten Reduktionsbegriffs betrifft, so ist klar geworden, dass dieser zwar nicht deduktiv sein kann, es 40

„At least one plausible distinction to be drawn is that between one theory’s explaining another, and the former’s explaining away the latter“ (a.a.O., S.112). 41 Dieses führt er aus mit den Worten: „What, then, does quantum mechanics explain, if it fails to explain Newtonian mechanics? Among other things it explains why Newtonian mechanics seemed to be correct“ (S.112) – Es handelt sich also um eine Näherungserklärung, die zwar die Newtonsche Mechanik nicht überflüssig macht, aber doch zeigen kann, inwiefern sie aus Sicht der retentiv reduzierenden Quantenmechanik näherungsweise richtig ist.

98

aber nichtsdestotrotz viele verschiedene nichtdeduktive Beziehungen zwischen Theorien gibt. Theorien stehen nicht, wie es Feyerabend sieht, isoliert nebeneinander, sondern befruchten sich gegenseitig – außerdem könnten sich völlig unvergleichbare Theorien weder widersprechen noch bestätigen. Weiterhin gibt es in der Wissenschaftsgeschichte zahlreiche Beispiele erfolgreicher reduktiver Erklärungen und reduktionistische Vorstellungen sind als heuristische Maxime offenbar produktiv (vgl. Abschnitte 1.1 und 1.2). Kurzum, es gibt zahlreiche direkte Verbindungen zwischen verschiedenen Theorien, die hier nun mit dem Konzept der Theoriennachbarschaft auf einen Nenner gebracht werden sollen. Es handelt sich dabei um direkte retentive Reduktionen, die nur deshalb nicht so genannt werden sollen, da sie nicht eliminativ sind und der Reduktionsbegriff eliminativen Reduktionen vorbehalten sein soll – er wird oft in eliminativen Sinne gebraucht und um Missverständnissen vorzubeugen, sollen nichteliminative Beziehungen zwischen Theorien nicht Reduktionen heißen: In der Reduktionsdebatte wird aus ähnlichen Gründen inzwischen neutral von Beziehungen zwischen Theorien (intertheoretic relations) gesprochen, für die hier eine Unterscheidung zwischen besagter Nachbarschaft und ebenfalls noch zu definierender „echter“, nämlich eliminativer Reduktion vorgeschlagen wird. Das Konzept der Theoriennachbarschaft zunächst soll nun auf Nagels nonformal conditions für Reduktionen (vgl. Abschnitt 2.2) aufbauen: Man könnte zwei Theorien benachbart nennen, wenn sie sich gegenseitig zu stützen in der Lage sind und wenn das In-Beziehung-Setzen dieser Theorien die Entwicklung beider Theorien voranbringt. Außerdem soll in Anlehnung an Scheibes Vergleiche mathematischer Strukturen gefordert werden, dass sich die Nachbarschaft von Theorien in der (topologischen) Nachbarschaft von Lösungsmengen ihrer Gleichungen zeigt, wobei es durchaus jeweils verschiedene Möglichkeiten für solche Beziehungen zwischen Lösungsmengen geben kann, wie in Abschnitt 2.3 gesehen wurde. Dort wurde auch darauf hingewiesen, dass innerhalb Scheibes Konzept zusammen mit den Lösungsmengen auch die zu den entsprechenden Gleichungen gehörenden Begriffe ineinander übergehen. Eine Nachbarschaftsbeziehung soll sich also nicht nur an den mathematischen Strukturen der Theorien zeigen, sondern auch an den entsprechenden Begriffen, die genauer im Sinne der in Abschnitt 2.2 erwähnten Begriffsgeschichte ineinander übergehen können (was dort als semantische Einbettung zitiert wurde, vgl. auch Bartels 1994) und damit ihrerseits benachbart zueinander wären. Weiterhin müssen benachbarte Theorien von denselben Dingen handeln: Diese Forderung ist wichtig, da es formale Ähnlichkeiten auch zwischen Theorien geben kann und gibt, die sonst nichts miteinander zu tun haben. Darauf wurde bei der Diskussion des strukturalistischen Reduktionskonzepts schon hingewiesen, als weiteres Beispiel seien hier noch die formalen Ähn-

99

lichkeiten zwischen der Theorie des elektrischen Stroms und der Akustik erwähnt, die historisch von der Vorstellung der Ätherwellen innerhalb der elektromagnetischen Theorie herrühren.42 Da diese Theorien aber offenbar gänzlich verschiedene Dinge behandeln, sollen sie nicht „benachbart“ genannt werden. Allerdings ist das Nachbarschaftskriterium, das hier formuliert werden soll, letztlich nicht in der Lage zu prüfen, ob zwei Theorien tatsächlich denselben Gegenstandsbereich haben: Dies muss auf Grundlage eines naiven Vorverständnisses davon zum Zweck des Vergleichs bereits vorausgesetzt werden. Solche Vorannahmen werden auch explizit in den Scheibeschen Vergleichen verwendet, wenn der gemeinsame Oberraum M◦ zweier als Modellmengen aufgefasster Theorien M und M bestimmt wird (Notation von Scheibe), in dem die topologischen Vergleiche stattfinden. Dabei fasst Scheibe das jeweils betrachtete physikalische System im Wesentlichen als eine differenzierbare Mannigfaltigkeit X; F auf,43 und geht dann zum Zweck seines Vergleichs davon aus, dass die beiden zu vergleichenden Theorien dasselbe physikalische System beschreiben: „[...] um zu einem gemeinsamen Vergleichsraum zu gelangen, nehmen wir an, dass beide Theorien dasselbe X ◦ ; F ◦  behandeln“ (ebd.). Schließlich beruht die Prüfung einer so formulierten Nachbarschaft auf Vergleichsannahmen, die außerhalb solcher Theorienvergleiche unerklärt bzw. physikalisch sinnlos und damit im Prinzip willkürlich sind. Sie lassen sich aber dennoch dadurch rechtfertigen, dass sie es erlauben, Nachbarschaftsrelationen zu etablieren, wozu die Zugrundelegung dieser Annahmen sogar unerlässlich ist, da die Theorien sonst – sprachlich und in den meisten Fällen44 mathematisch – nicht vergleichbar sind. Dabei handelt es sich um zwei voneinander unabhängige Arten von Vergleichsannahmen: Zum Ersten bedarf es der vormaligen Brückengesetze als (begriffliche) Vergleichsannahmen, um wissen zu können, welche Konzepte überhaupt sinnvoll für die Etablierung einer Nachbarschaftsbeziehung verwendbar sind – es ist zum Beispiel nicht von vornherein klar, welches Konzept der statistischen Mechanik mit der Entropie der phänomenologischen Thermodynamik in Beziehung gesetzt werden kann (vgl. Abschnitt 5.2 unten). Zum Zweiten ist die in Abschnitt 2.3 besprochene mathematische Vergleichsannahme der variablen Konstanten notwendig, um Lösungsmengen verschiedener Theorien topologisch vergleichbar zu machen, wobei es sich je nach Theorienpaar um jeweils verschiedene Konstanten (zum Beispiel Erdradius, Lichtgeschwindigkeit oder Plancksches Wirkungsquantum) handelt. Beide Arten 42 Vgl.

etwa Spector 1978, S.18-21, für Einzelheiten. Vgl. zum Beispiel Scheibe 1999, S.72, für die Einzelheiten. 44 Scheibes asymptotische Vergleiche kommen ohne kontrafaktische Zusatzannahmen aus, vgl. Abschnitt 2.3. 43

100

von Vergleichsannahmen sind erst a posteriori durch die Ermöglichung von Vergleichen gerechtfertigt – und diese Vergleiche widerlegen als Grundlage der Nachbarschaftsrelation die Feyerabendsche Inkommensurabilitätsthese insofern, als Theorien eben benachbart sein können und dadurch nicht inkommensurabel sind. Diese Nachbarschaftsrelation muss nun einerseits in den meisten Fällen nicht erst an Theorienpaare herangetragen werden, sondern steckt implizit schon in den vielen in der Wissenschaft vorhandenen zwischentheoretischen Beziehungen. Sie erklärt gewissermaßen post festum, wie es zu den faktisch vorhandenen, gegenseitig befruchtenden Beziehungen kommen kann. Andererseits kann man diese Relation auch auf prima facie nicht vergleichbare Theorienpaare anwenden, wie es bei den Scheibeschen Untersuchungen der Fall ist, und was, wie schon oft hervorgehoben, als heuristische Maxime neue Erkenntnisse befördern kann. Die zu definierende Nachbarschaftsrelation setzt also voraus, dass die entsprechenden Theorien auf je ihre Weise von denselben Dingen handeln, und beruht auf dem Umstand, dass die Lösungsmengen ihrer Grundgleichungen topologisch benachbart sind und sie damit einhergehend ineinander übergehende (und insofern benachbarte) Begriffe verwenden. Dies lässt sich in mathematischen und begrifflichen Theorienvergleichen zeigen, bei denen Vergleichsannahmen verwendet werden, die auf diesen zunächst unausgesprochen vorhandenen Zusammenhängen beruhen – und die letztere aber erst ans Licht bringen, wodurch ihre Verwendung schließlich gerechtfertigt ist. Weiterhin können sich solche Zusammenhänge in der von Nagel geforderten Möglichkeit gegenseitiger Entwicklung der betreffenden Theorien zeigen: Wirken verbindende Annahmen befruchtend auf beide Theorien, werden erstere dadurch nochmals gerechtfertigt – eine solche gegenseitige Befruchtung zeigt, dass subkutane Verbindungen zwischen den Theorien ohnehin bestanden, die mit Vergleichen erhellt werden können. Das Vorhandensein solcher Zusammenhänge und das mögliche produktive Herausarbeiten derselben durch auf verbindenden Annahmen beruhende Vergleiche soll nun mit dem Konzept der Theoriennachbarschaft erfasst und benannt werden. Als Definition sei also festgehalten: Theoriennachbarschaft Zwei Theorien heißen benachbart, wenn sie i) von denselben Dingen handeln und wenn sich auf der Grundlage von begrifflichen und mathematischen Vergleichsannahmen Beziehungen zwischen ihnen herstellen lassen, die zeigen, dass ii) die Lösungsmengen ihrer Gleichungen topologisch benachbart sind und damit einhergehend iii) ihre Begriffe ineinander übergehen. Damit können anders als bei Feyerabend Theorien kompatibel sein oder

101

sich widersprechen: Sie können benachbart sein oder eben nicht. Diese Definition ist nun zwar sehr allgemein, soll aber auch eine Vielzahl unterschiedlicher Fälle erfassen – es gibt viele verschiedene und vor allem komplizierte Beziehungen zwischen physikalischen Theorien. In Sarkar 1992 heißt es dazu zusammenfassend: „[...] the issue of reduction is much more complicated than is usually recognized and [...] there is no reason to suppose that any single model of reduction captures all the cases of reduction in the sciences“ (a.a.O., S.170), es gibt keinen „a priori reason“ für solch ein einfaches Modell (S.188). Was Sarkar hier über Reduktionen sagt, lässt sich auf die Theoriennachbarschaft übertragen: Ein einheitliches Konzept für alle Fälle wird es kaum geben, sondern dem Problem angemessen eher viele verschiedene Relationen. Obige Definition versteht sich also als ein Versuch der Beschreibung einer basalen Bedingung für solche Relationen, wobei die Fallbeispiele der folgenden Kapitel exemplarisch zeigen werden, in welchen Fällen man von einer Nachbarschaft sprechen kann und wie die jeweiligen Beziehungen zwischen den Theorien konkret beschaffen sind. Theorien, die in einer Nachbarschaftsrelation zu einer anderen stehen, sind nun deswegen nicht überflüssig, es handelt sich lediglich um einen Vergleich und explizit nicht um eliminative Reduktionen, weshalb schließlich von der Bezeichnung als Reduktion abgesehen wird. Weiterhin ist diese Relation nicht transitiv, da sie nicht deduktiv ist und da die Vergleichsannahmen von der jeweils konkreten Situation abhängen. Beispiele für Theoriennachbarschaft sind nun etwa die schon genannten Relationen zwischen Thermodynamik und statistischer Mechanik oder Genetik und Chemie, auch die Theorienvergleiche von Scheibe gehören dazu. Ein trivialer Fall von nicht benachbart ist zum Beispiel das Verhältnis zwischen Optik und Thermodynamik, da diese Theorien unterschiedliche Gegenstandsbereiche haben und keine formalen Ähnlichkeiten aufweisen. Weiterhin sind die Theorie des elektromagnetischen Stroms und die Akustik nicht benachbart, da sie trotz formaler Ähnlichkeiten von verschiedenen Dingen handeln. Etwas komplizierter ist die Lage in dem Fall von Allgemeiner Relativitätstheorie und Elementarteilchenphysik. Hier wird eine Theorie gesucht, die die Gravitationskraft mit den drei Grundkräften der elektromagnetischen, starken und schwachen Wechselwirkungen verbindet – und wenn hier das heuristische Element der reduktionistischen Maxime zum Tragen kommt, indem nach einer verbindenden Theorie gesucht wird, so dürfte diese dann zwar zu Recht Theory of Everything heißen, es ist aber nicht zu erwarten, dass diese in eliminativ-reduktionistischem Sinne vereinigt, also Theorien höherer Beschreibungsebenen redundant werden lässt, sondern eher, dass sie die Nachbarschaft von Allgemeiner Relativitätstheorie und Elementarteilchenphysik aufzeigt. Aber die Frage nach dem Verhältnis von Vereinheitlichung, Reduktion und Theoriennachbarschaft sowie der

102

denkbare eliminative Charakter einer Reduktion auf eine solche Theorie von Allem werden erst im abschließenden sechsten Kapitel besprochen. Die Nachbarschaftsrelation ist nun eng an das angelehnt, was Scheibe als Reduktionen behandelt. Zunächst verwendet er verschiedene, sogar voneinander unabhängige Vergleiche zwischen denselben Theorienpaaren, seine Vergleiche sind topologischer Natur, bleiben mithin approximativ und erfordern die vorherige Angleichung der mathematischen Formulierung. Diese Punkte sprechen alle gegen den eliminativen Charakter seiner (direkten) Reduktionen. Da er weiterhin jeweils zeigt, wie Lösungsmengen von Gleichungen verschiedener Theorien topologisch einander angenähert werden können und damit buchstäblich benachbart sind, werden seine Vergleiche, die man jedenfalls nicht als Reduktionen bezeichnen sollte, durch den Begriff der Theoriennachbarschaft angemessen auf den Punkt gebracht – sie genügen schließlich der obigen Definition, bei deren Aufstellung Scheibes Konzept andersherum sogar Pate stand. Nun soll aber, wie angekündigt, auch ein eliminatives Reduktionskonzept definiert werden, das auf einer Mischung aus direkter und indirekter Reduktion beruht. Dabei soll der direkte Anteil gerade in der Nachbarschaft der betreffenden Theorien bestehen, so dass sich als Spezialfall der Theoriennachbarschaft ein Verhältnis der Theorienreduktion ergibt, bei dem zusätzlich zu der Nachbarschaft noch gefordert wird, dass man mit der reduzierenden Theorie auch alle die Phänomene erklären kann, die mit der dadurch reduzierten Theorie erklärt werden, wobei mit der reduzierenden Theorie zumindest einige dieser Phänomene besser erklärt werden sollen und sich auch mehr Phänomene als mit der reduzierten Theorie erklären lassen müssen. Wie die folgenden Kapitel zeigen werden, wird mit dieser Forderung das Vorliegen von Reduktionen in vielen Fällen zweifelhaft und mindestens zu einer offenen Frage: Nur bei einigen historischen Theorien lässt sich klarerweise von gelungenen Reduktionen sprechen. So sind die Reduktionen der Keplerschen Gesetze oder des Galileischen Fallgesetzes auf das Newtonsche Gravitationsgesetz tatsächlich Beispiele für eliminative Reduktionen im Sinne der folgenden Definition, und insbesondere weder, weil sie logisch abgeleitet wären (was sie nicht sind), noch, weil sie näherungsweise direkt erklärt würden (was nicht eliminativ wäre), sondern weil sie Beispiele für die Kombination von Theoriennachbarschaft und indirekter Reduktion darstellen, wie es die folgende Definition verlangt: Theorienreduktion Eine Theorie wird auf eine andere reduziert, wenn i) alle Phänomene, die mit ihr erklärt werden, auch mit der reduzierenden erklärt werden, wenn ii) mit der reduzierenden Theorie einige Phänomene besser erklärt werden und auch noch weitere Phänomene erklärt werden können und wenn iii) die bei-

103

den Theorien benachbart sind. Diese Reduktionsdefinition ist an die Definition von Kemeny/Oppenheim 1956 (vgl. Abschnitt 1.3) angelehnt, wobei aber deren Reduktionskonzept ausschließlich auf indirekter Reduktion beruht, während die vorliegende Fassung den indirekten Anteil um den direkten der Nachbarschaft ergänzt – damit wird der Intuition Genüge getan, dass reduzierte und reduzierende Theorie gewisse Gemeinsamkeiten haben sollten und mit letzterer nicht bloß zufällig auch die entsprechenden Phänomene erklärt werden können. Diese Definition liefert weiterhin aufgrund des indirekten Anteils ein eliminatives Reduktionskonzept, wobei eine reduzierte Theorie nur unter der Bedingung der Theoriennachbarschaft überflüssig ist und nicht, wie bei Feyerabend, allein aufgrund von Phänomenerklärungen. Außerdem beruht diese Überflüssigkeit nicht, wie etwa von Scheibe intendiert, auf einer direkten Beziehung, sondern wiederum auf dem indirekten Anteil. Diese beiden verschiedenen Aspekte des Überflüssigseins von Theorien sind mithin in dieser Definition miteinander verbunden, wodurch sowohl Feyerabends Inkommensurabilitätsthese durch die Theoriennachbarschaft aufgehoben als auch Scheibes Forderung nach direkten eliminativen Reduktionen durch ein indirektes Reduktionskonzept ersetzt wird. Während also ein bloß indirektes Reduktionskonzept aufgrund fehlender Beziehungen zwischen den Theorien unbefriedigend wäre und ein bloß direktes nicht eliminativ sein muss, liefert obige Definition mit seiner Mischung beider Konzepte einen angemessenen Reduktionsbegriff. Beispiele solcher Reduktionen sind nun etwa die schon erwähnten Keplerschen Gesetze und das Galileische Fallgesetz, die im Sinne dieser Definition eliminativ auf das Newtonsche Gravitationsgesetz reduziert sind. Die nächsten Kapitel werden aber zeigen, dass es sich bei den Beispielen für echte Reduktionen, wie bei diesen, hauptsächlich um historische Fälle handelt: Bei den Beziehungen zwischen modernen physikalischen Theorien bleibt es meist bei einer Nachbarschaft, die sich in Grenzfallbeziehungen zeigt – die Redeweise von „als Grenzfall enthalten“ zeigt keine eliminativen Reduktionen an, sondern bezeichnet meist lediglich Nachbarschaftsbetrachtungen, und es ist eben leichter, mathematische Strukturen von Theorien zu vergleichen, als mit reduzierenden Theorien Phänomene zu erklären. Dies liegt im wesentlichen daran, dass Grenzfallbetrachtungen nur unter bestimmten vereinfachenden Annahmen, zu denen insbesondere die Vergleichsannahmen variabler Konstanten gehören, möglich sind, während es Phänomene geben kann, die unter Voraussetzung dieser Annahmen nicht behandelt werden können. So beruhen zum Beispiel die Näherungsbetrachtungen zwischen der Allgemeinen Relativitätstheorie und dem Newtonschen Gravitationsgesetz auf der Annahme schwacher Gravitationsfelder. Wenn

104

daher Phänomene starker Gravitationsfelder newtonsch beschrieben werden, kann man nicht mit dem Verweis auf Grenzfallbetrachtungen behaupten, diese Phänomene seien qua Reduktion mit der Allgemeinen Relativitätstheorie erklärbar, da diese Grenzfallbetrachtungen unter Bedingungen aufgestellt wurden, die in diesen Fällen nicht vorliegen. An diesem Punkt zeigt sich der wesentliche Unterschied zwischen echten Reduktionen und bloßen Nachbarschaftsrelationen: Es können nachbarschaftsstiftende Grenzübergänge etabliert werden, die unter bestimmten Bedingungen gelten, wobei es Phänomene geben kann, die von der zu reduzierenden Theorie erklärt werden und die gerade nicht unter diesen Bedingungen auftreten. Diese Phänomene werden also trotz Grenzfallbeziehungen zunächst nicht von der benachbarten, fundamentaleren Theorie erklärt und dieser Punkt, der hier nur angedeutet sei, wird in den konkreten Beispielen der nächsten Kapitel ausführlich untersucht, wenn es nämlich um die Frage geht, ob es dennoch solche Erklärungen – unabhängig von den Grenzprozessen – gibt. Bei den genannten Beispielen der Reduktion der Keplerschen Gesetze und des Galileischen Fallgesetzes fallen nun gerade Grenzübergang und Phänomenerklärung zusammen, so dass es sich in diesen Fällen bei Scheibes vergleichender Untersuchung durchaus um eliminative Reduktionen handelt. Wichtig ist dabei, dass sich die Eliminativität nur aus dem indirekten Anteil dieser Reduktionen ergibt, der in dem Vergleich von Phänomenerklärungen unter bestimmten Bedingungen steckt – und dass Scheibe auch Vergleiche zwischen Theorien unter Bedingungen anstellt, die für viele Phänomene nicht erfüllt sind. Seine Reduktionen sind also allein aufgrund der Vergleiche nicht eliminativ, sondern nur dann, wenn alle fraglichen Phänomene unter der Annahme der Vergleichsbedingungen beschrieben werden können. Da dies aber nicht immer der Fall ist und da er diesen indirekten Anteil der Phänomenerklärung für seine Reduktionen nicht fordert, ist sein Reduktionskonzept zu schwach und liefert allein nicht notwendig eliminative Reduktionen – so, wie er seine Reduktionen durchführt, stellen sie zunächst allgemein nur Theoriennachbarschaft her und ergeben nur in einzelnen Fällen auch indirekte Reduktionen. Für das deduktive Reduktionskonzept Nagels gilt andererseits, dass es zwar eliminative Reduktionen liefern würde, es aber keine Beispiele für solche Reduktionen gibt, da direkte Beziehungen zwischen Theorien – von trivialen Fällen abgesehen – nicht deduktiv sind: Sein Forderungen sind also zu stark. Nun schwebte Nagel, wie in 2.1 ausgeführt, ohnehin ein retentives Reduktionskonzept vor, das er mit seiner Definition aber verfehlt hat und das von der Nachbarschaftsrelation eingelöst werden kann. Und Scheibe wollte seine Reduktionen explizit als eliminativ verstanden wissen und verfehlte dies mit seinen bloßen Vergleichen ebenso – seine Intuition wird wiederum von der obigen Reduktionsdefinition eingefangen.

105

Mit diesen Definitionen gesprochen sieht es also so aus, dass es sich bei den meisten Beziehungen zwischen Theorien um Theoriennachbarschaft handelt, es aber auch einige echte Fälle von Reduktionen gibt – dies wird in den folgenden Kapiteln an ausgewählten Fallbeispielen noch genauer untersucht. An dieser Stelle sei noch einmal an das Replacement-RetentionKontinuum von Hooker 1981 erinnert: Lediglich die Fälle des ReplacementExtrems dieses Spektrums bilden eliminative Reduktionen, bei allen anderen Beziehungen handelt es sich um bloße Nachbarschaft. Insgesamt liefern also obige Definitionen ein differenzierteres und vor allem plausibleres Bild sowohl als Nagels als auch als Scheibes Reduktionskonzept. Zum Abschluss dieses Abschnitts sei noch herausgestellt, dass dieses Konzept eliminativer Reduktion nicht transitiv ist, da es mit der Forderung iii) nach Theoriennachbarschaft eine Relation enthält, die ihrerseits, wie oben besprochen, nicht transitiv ist. Damit ist insbesondere die Vorstellung einer globalen eliminativen Reduktion aller Physik auf eine fundamentale Theorie durch Hintereinanderschaltungen von Reduktionen, so, wie sie hier verstanden werden, nicht haltbar. Die für den eliminativen Charakter der Reduktionen wesentliche Forderung i) nach Phänomenerklärungen ist hingegen transitiv, es sollte aber Folgendes bedacht werden: Wenn für die Etablierung einer neuen Reduktionsbeziehung gezeigt wird, wie alle Phänomene einer zu reduzierenden Theorie erklärt werden können, kann eine bereits vorliegende Reduktionsbeziehung der reduzierenden Theorie auf eine weitere reduzierende Theorie zusammenbrechen, falls durch die neue Reduktion Phänomenerklärungen hinzugekommen sind, die bei der schon bestehenden Reduktionsbeziehung noch nicht berücksichtigt wurden. Transitivität würde also besagte globale eliminative Reduktion nicht erleichtern, da man im Rahmen verketteter indirekter Reduktionen ohnehin immer zeigen können muss, wie sich unmittelbar mit einer fundamentalen Theorie alle Phänomene der Physik erklären lassen: Die Forderung, eine reduzierende Theorie müsse alle Phänomene der reduzierten Theorie erklären können, betrifft schließlich auch die Phänomene, die diese reduzierte Theorie im Rahmen weiterer Reduktionen erklären kann. Die Vorstellung, Verkettungen seien hier vereinfachend, rührt von der in dieser Arbeit widerlegten Auffassung her, direkte Reduktionen würden ganze Theorien erklären, so dass eine globale Reduktion reduzierte Theorien als Zwischenstufen verwenden könnte. Soll eine globale Reduktion hingegen eliminativ sein, reichen direkte Reduktionen nicht aus – und indirekte Reduktionen lassen sich zwar hintereinanderschalten, dies bringt aber, wie gezeigt, keine Vereinfachung. Und eliminative Reduktionen, wie sie hier definiert wurden, sind, wie schon gesagt, ohnehin nicht transitiv.

106

2.5 Zusammenfassung und Vorbereitung der Fallbeispiele

Dieses Kapitel zeigte, dass direkte Reduktionen nicht eliminativ sein müssen, weshalb auf Vergleichen beruhende direkte Beziehungen zwischen Theorien mit dem Begriff Theoriennachbarschaft zusammengefasst wurden und ein Reduktionskonzept definiert wurde, das neben einem solchen direkten Anteil auch einen indirekten hat, in dem die Erklärung von Phänomenen gefordert wird. Für solche eliminativen Reduktionen gibt es durchaus Beispiele: Dazu zählen die schon genannten des Galileischen Fallgesetzes und der Keplerschen Gesetze, aber auch Theorien wie die Phlogistontheorie der Verbrennung oder das Ptolemäische Weltbild.45 Aber, und das wird in den folgenden Kapiteln zu zeigen sein, nach dem derzeitigen Stand nicht die klassische Newtonsche Mechanik – auch hier gibt es viele interessante Beziehungen zu Quantenmechanik oder Allgemeiner Relativitätstheorie, aber keine eliminative Reduktion der ganzen Theorie (vgl. Kapitel 3 und 4). Ähnliches gilt auch für das Verhältnis zwischen Thermodynamik und statistischer Mechanik (vgl. Kapitel 5). Dabei gibt es durchaus Nachbarschaftsbeziehungen zwischen diesen Theorien – die Grenzen eliminativer Reduktionen sind in dem indirekten Anteil der Erklärung von Phänomenen zu suchen, der hier nun vor der Diskussion der konkreten Fallbeispiele in den folgenden Kapiteln kurz einleitend allgemein besprochen sei. Wenn es also darum gehen soll, dass mit reduzierenden Theorien Phänomene aus dem Zuständigkeitsbereich zu reduzierender Theorien erklärt werden, sprechen zunächst intuitive Einwände gegen die Möglichkeit solcher Erklärungen, die von der Vorstellung herrühren, dass fundamentale Theorien zu den Phänomenen höherer Beschreibungsebenen nur wenig zu sagen haben. Während die Argumentation dieser Arbeit gegen die Möglichkeit solcher Erklärungen letztlich auch auf dieser Vorstellung fußt, muss gleichwohl darauf geachtet werden, dass man diese nicht zu stark macht und dadurch trivial werden lässt. So darf man etwa von solchen Erklärungen nicht verlangen, dass sich Phänomene höherer Beschreibungsebenen aus den Gesetzen fundamentaler Theorien konstruieren lassen. Bevor hier aber gleich präzisiert werden soll, in welcher Hinsicht tatsächlich Schwierigkeiten zu erwarten sind, sollen diese unbestimmten Intuitionen gegen die Möglichkeit solcher Erklärungen kurz wiedergegeben werden. So spricht etwa Anderson 1972 von einer solchen übertriebenen Erklä45

Wobei sich diese Theorien und ihre Nachfolger nicht unbedingt gegenseitig befruchtet haben – was sich aber durchaus diskutieren lässt. Außerdem kann gegenseitige Entwicklung zwar das Vorliegen einer Nachbarschaftsbeziehung anzeigen, ist dafür allerdings nicht notwendig.

107

rungsforderung als Konstruktionismus: „The main fallacy in this kind of thinking is that the reductionist hypothesis does by no means imply a ,constructionist‘ one: The ability to reduce everything to simple fundamental laws does not imply the ability to start from those laws and reconstruct the universe“ (a.a.O., S.393). Hier handelt es sich in der Tat um eine übertriebene Forderung, gegen die sich auch Scheibe 1999 wendet: „Man fragt sich wirklich, wer den Standpunkt des Konstruktionisten, gegen den sich Anderson wendet, jemals ernsthaft vertreten hat“ (a.a.O., S.120). Allerdings zeigt sich auch bei Scheibe die besagte Intuition, Phänomene höherer Beschreibungsebenen seien nicht ohne weiteres mit fundamentalen Gesetzen zu erklären, wenn er etwa festhält, „[...] dass Naturgesetze immer eine gewisse Allgemeinheit haben und eine um so größere, je mehr wir uns den fundamentalen Gesetzen nähern. Demgegenüber sagen sie gar nichts darüber, welche der von ihnen aufgrund ihrer Allgemeinheit noch zugelassenen Möglichkeiten in unserer Welt realisiert sind. Daher arbeitet der Gesetzesreduktionismus seiner Umkehrung durch konstruktive Ausfüllung des Kontingenten geradezu entgegen.“ (Scheibe 1999, S.120)

Der letzte Satz besagt, dass das Zurückführen von Gesetzen auf allgemeinere Gesetze, wie es Scheibes Reduktionsprogramm vornimmt, gerade nicht dazu führt, die spezielleren (kontingenten) Gesetze in einem weiteren Schritt wieder aus den allgemeinen ableiten zu können. Scheibe spricht an späterer Stelle sogar von der „[...] Autonomie physikalischer Reduktionsebenen durch die Priorität kontingenter Verhältnisse vor den Gesetzen der Physik“ (a.a.O., S.127). Dass die sich damit aussprechende Intuition, höhere Beschreibungsebenen hätten eine gewisse Autonomie, sich so leicht jedenfalls nicht belegen lässt, wird gleich besprochen. Für Scheibe heißt dies zunächst, dass er zwar das erklärte Ziel hat, zu zeigen, dass reduzierte Theorien überflüssig sind, er hier aber gewisse Grenzen einräumt, die zunächst von besagten übertriebenen Forderungen herrühren. An welchen Stellen solche Grenzen tatsächlich vorliegen könnten, soll dagegen in den folgenden Kapiteln präzise bestimmt werden. Eine weitere Formulierung übertriebener und trivialerweise unerfüllbarer Forderungen an die Erklärung von Phänomenen mit fundamentalen Theorien liefert Laughlin/Pines 2000, wenn es dort über den „imperative of reductionism“ (S.30) heißt: „[...] its objective is to construct a deductive path from the ultimate equations to the experiment without cheating“ (ebd.). Auch Spector 1978 gibt eine solche Vorstellung wieder: „[...] given the basic laws of a theory and no other information whatsoever, you can have no idea of what to do next! No amount of mathematical skill will tell you which deductive consequences or lines of thought are or are not worth

108

following among the infinite possibilities“ (S.62). Spector wendet sich mit diesem Hinweis offenbar gegen eine solche Argumentation – „[That] point, then, however important, is much to general to enable one to draw specific conclusions about particular theories or theory-pairs“ (ebd.) –, es soll nun aber untersucht werden, wie es um die sich in diesen Forderungen aussprechende Intuition steht und was tatsächlich gegen die Möglichkeit solcher Erklärungen sprechen könnte. Dazu soll nun der Erklärungsbegriff selbst kurz diskutiert werden: In welchem Sinne soll hier von Erklärung die Rede sein? Dabei kann im Rahmen dieser Arbeit keine Klärung des Problems der wissenschaftlichen Erklärung erfolgen – festgehalten werden soll hier lediglich, dass es keinen allgemein akzeptierten Erklärungsbegriff gibt, die Diskussion darüber sehr verwickelt ist und dass dabei das klassische Hempel-Oppenheim-Schema der DN-Erklärung mit einigen Schwierigkeiten konfrontiert wurde.46 Zur Erinnerung sei aber kurz zusammengefasst, dass nach Hempel/Oppenheim 1948 ein Explanandum E erklärt wird, wenn es aus einem Explanans, bestehend aus allgemeinen Gesetzen L1 , L2 , ..., Lr und Aussagen über Anfangsbzw. Randbedingungen, den Antecedensbedingungen C1 ,C2, ...,Ck, logisch folgt, wenn also (L1 ∧ L2 ∧ ... ∧ Lr ) ∧ (C1 ∧C2 ∧ ... ∧Ck ) ⇒ E gilt.47 Zu den besagten Schwierigkeiten dieses Erklärungsbegriffs zählt nun unter vielen anderen die der Erklärungsasymmetrie: Es gibt Fälle, in denen auch die Randbedingungen C1 ,C2 , ...,Ck aus dem Explanandum E und den Gesetzen L1 , L2 , ..., Lr formal logisch folgen, so dass auch dabei die Kriterien der DN-Erklärung erfüllt sind, wobei man aber in dieser Richtung nicht von einer Erklärung sprechen möchte, sondern eher von Voraussage oder Begründung. Dies kann man sich etwa an dem bekannten Fahnenmastbeispiel klarmachen: Es lässt sich die Länge des Schattens aus der Höhe des Mastes und dem Sonnenstand, aber strukturell völlig analog auch die Höhe des Mastes aus der Länge des Schattens und dem Sonnenstand bestimmen – und nur ersteres würde man als eine Erklärung gelten lassen. Eine weitere Schwierigkeit besteht darin, dass Gesetze und Randbedingungen irrelevante Informationen beinhalten können, so dass auch da die Bezeichnung „Erklärung“ als unangemessen erscheint. So etwa, wenn das Gesetz „Alle Männer, die regelmäßig die Pille nehmen, werden nicht schwanger“ verwendet würde. Unabhängig von solchen Fragen hat Hempel nun weiterhin das Modell einer induktiv-statistischen Erklärung, das der IS-Erklärung, entwickelt, bei der 46 Vgl.

etwa Woodward 2003 oder Schurz 2007 für einen Überblick. Notation zitiert nach Hempel 1965b, S.249; dieses Schema heißt deduktivnomologisch, DN, da es zum einen auf logischer Ableitung und zum anderen auf Gesetzen beruht. 47

109

einzelne Ereignisse mit statistischen Gesetzen in Zusammenhang gebracht werden. Auf Einzelheiten soll hier nicht eingegangen werden, es genügt, mit Salmon 1989 festzuhalten, dass für beide Modelle gilt: „[...] the essence of scientific explanation can be described as nomic expectability – that is expectability on the basis of lawful connections“ (S.57). Die benannten (und viele weitere) Schwierigkeiten gelten demnach für Hempels gesamtes Konzept der DN/IS-Erklärung, sollen hier aber nicht weiter interessieren, da es schließlich nicht um Grenzfälle des Erklärungsbegriffs geht: In der vorliegenden Untersuchung ist immer bekannt, welches Phänomen erklärt werden soll, und es werden die üblichen Erklärungen der Physik herangezogen. Die Frage, was genau eine Erklärung ist, steht hier also nicht im Vordergrund: Es soll lediglich für den Zweck der vorzunehmenden Untersuchung einen Erklärungsbegriff zugrunde gelegt werden, auf dessen Basis sich für oder gegen die Möglichkeit eliminativer Reduktionen argumentieren lässt – und da Erklärungen in der Physik nun üblicherweise unkomplizierte DN/ISErklärungen sind, bietet sich dieses Modell allen Einwänden zum Trotz in dieser Hinsicht an. Aus der Perspektive dieses Modells nun sind die oben zitierten Forderungen trivialerweise unerfüllbar, da selbstverständlich bei einer Erklärung die Kenntnis des Explanandums vorausgesetzt ist: Die zu erklärenden Phänomene brauchen nicht aus den Gesetzen fundamentaler Theorien konstruiert werden, sondern sind immer schon bekannt und müssen lediglich mit Hilfe entsprechender Randbedingungen aus diesen Gesetzen ableitbar sein. So hat auch schon Nagel 1961 herausgearbeitet, dass man zwar mit grundlegenden Gesetzen allein nicht weit kommt, Erklärungen mit entsprechenden Randbedingungen aber durchaus möglich sind. Im Zusammenhang seiner Untersuchung zum Charakter wissenschaftlicher Gesetze hält er fest: “[...] it is far from certain that such statements as Kepler’s are in fact logically derivable even today from fundamental laws alone [...]. There appears to be no way of deducing the Keplerian laws from Newtonian mechanics and gravitational theory, merely by substituting constant terms for variables occurring in the latter and without using additional premises whose predicates are not purely qualitative.“ (a.a.O., S.58)

Dies wird in einer Fußnote noch genauer ausgeführt: „It is indeed possible to deduce from Newtonian theory that a body which is under the action of an inverse-square law will move on an orbit that is a conic section with its focus as the origin of the central force. But in order to derive the further conclusion that the conic is an ellipse, additional premises appear to be unavoidable – premises which state the relative masses and relative velocities of the planets and the sun. This circumstance is one reason for doubting that Kepler’s

110

laws are deducible from premises containing only fundamental laws.“ (Fußnote 12 auf S.58)

In der Tat lassen sich die Keplerschen Gesetze der Planetenbewegung nicht aus den Newtonschen Gesetzen allein ableiten, aber die Zusatzannahmen („additional premises“), die Nagel erwähnt, sind ganz normale Randbedingungen C1 ,C2, ...,Ck der DN-Erklärung.48 Im Sinne dieses DN-Konzeptes sind Erklärungen von Phänomenen höherer Beschreibungsebenen mit Hilfe fundamentaler Theorien und entsprechender Randbedingungen als reduktive Erklärungen durchaus möglich. Dennoch ist die besagte Intuition, die gegen die Möglichkeit solcher Erklärungen spricht, nicht ganz unbegründet: Wenn es nämlich darum geht, mit Hilfe solcher Erklärungen eliminative Reduktionen durchzuführen, darf in eine solche Erklärung schließlich kein Wissen der zu reduzierenden Theorie einfließen. Das Explanandum einer Erklärung ist natürlich immer bekannt, aber dieses besteht in den Phänomenen, nicht in den Theorien: Wenn die Überflüssigkeit einer bestimmten Theorie gezeigt werden soll, müssen die Phänomene, die von dieser üblicherweise erklärt werden, mit einer reduzierenden Theorie erklärt werden können, ohne dass die zu reduzierende Theorie herangezogen wird. In dieser Frage hat die besagte Intuition doch ihre Berechtigung: In Nagels Beispiel handelte es sich gewissermaßen um legitime Randbedingungen, die das Wissen um die zu reduzierenden Keplerschen Gesetze nicht verwenden. Wenn aber mit allgemeinen, fundamentalen Gesetzen Phänomene höherer Beschreibungsebenen erklärt werden sollen, ist es, wie zu zeigen sein wird, in vielen Fällen für ein angemessenes Verständnis solcher Phänomene doch notwendig, Wissen einer für diese Beschreibungsebene geeignete Theorie hinzuzuziehen – womit diese Theorie dann nicht eliminativ reduziert ist. Theorien sind schließlich immer für einen bestimmten Zuständigkeitsbereich, eine eigene Beschreibungsebene, konzipiert worden und lassen sich – trotz als bekannt vorausgesetzter zu erklärender Phänomene und entsprechender Randbedingungen – nur bedingt auf andere Zuständigkeitsbereiche anwenden. Dies zeigt sich in der Physik etwa darin, dass zur Erklärung konkreter Phänomene oft Konzepte verschiedener Theorien herangezogen werden: Schon in Abschnitt 1.2 wurde erwähnt, dass physikalische Erklärungen oft auf solchen Mischtheorien beruhen, und selbst Teilchenphysiker nicht 48 Nagel

übersieht allerdings, dass sich die Newtonsche Theorie und die Keplerschen Gesetze widersprechen, und es sich daher trotz Randbedingungen um keine logischen Ableitungen handelt, die eine deduktive Reduktion begründen könnten: In der entsprechenden DN-Erklärung mit der Newtonschen Theorie werden die Bahnen der Planeten nur näherungsweise so erklärt, wie sie von den Keplerschen Gesetzen beschrieben werden.

111

den Anspruch erheben, andere physikalische Theorien wären aufgrund „ihrer“ fundamentalen Theorien überflüssig. Ein einfaches Beispiel für eine solche Mischtheorie ist die statistische Thermodynamik, in der Konzepte sowohl der phänomenologischen Thermodynamik als auch der statistischen Mechanik verwendet werden. Ob erstere durch letztere dennoch im Prinzip überflüssig ist und es sich mithin nur um eine scheinbare Mischtheorie handelt, wird im fünften Kapitel untersucht. Auch die Kapitel 3 und 4 werden noch Beispiele für solche Mischerklärungen und Untersuchungen dieser prinzipiellen Frage liefern. Prima facie und, wie sich zeigen wird, auch aus prinzipiellen Gründen, handelt es sich in der Physik jedenfalls oft um Erklärungen mit verschiedenen Theorien, wobei solche Erklärungen durchaus gut gerechtfertigt sein können: Näherungsbeziehungen können zeigen, dass Theorien benachbart sind – und benachbarte Theorien können mit guten Gründen bei der Erklärung konkreter Phänomene zusammenarbeiten. Solange aber eine zu einer fundamentaleren Theorie benachbarte Theorie in solchen Erklärungen verwendet wird, ist sie auch bei einer bestehenden Nachbarschaftsrelation nicht überflüssig. Im Rahmen solcher Mischerklärungen sind nun durchaus auch reduktionistische Erklärungen erfolgreich, bei denen Theorien tieferer Beschreibungsebenen hinzugezogen werden, wenn etwa, in den sogenannten Mikroreduktionen, für die Erklärung der Eigenschaften eines Ganzen eine Untersuchung seiner Teile angestellt wird. Solche Erklärungen sind aber nicht unbedingt eliminativ: Dies wären sie nur, wenn sie Phänomene aus dem Zuständigkeitsbereich einer Theorie erklären können, ohne diese Theorie zu verwenden. Um reduktionistische, aber nicht eliminative Erklärungen handelt es sich bei dem in Abschnitt 1.3 erwähnten Konzept der funktionalen Reduktion: Hier werden mit einer Theorie einer höheren Beschreibungsebene die funktionalen Zusammenhänge von Phänomenen dieser Beschreibungsebene analysiert, die dann daraufhin innerhalb einer Theorie einer grundlegenderen Ebene beschrieben werden können – es handelt sich damit zwar um eine indirekte Reduktion, da Phänomene mit einer (funktional) reduzierenden Theorie erklärt werden, diese Reduktion ist aber nicht eliminativ, da die funktionale Rolle dieser Phänomene nur mit Hilfe der (deshalb lediglich retentiv) reduzierten Theorie gefunden werden kann. Wenn nun für Phänomenerklärungen mit fundamentalen Theorien zusätzlich Theorien höherer Beschreibungsebenen benötigt werden, handelt es sich nicht unbedingt um lediglich heuristische Hilfen für Erklärungen, die auch mit der fundamentaleren Theorie allein möglich wären. Darauf macht etwa Teller 2004 aufmerksam, wenn er zu dem Vorgang der Erklärung mit fundamentalen Theorien unter Zuhilfenahme von Theorien höherer Beschreibungsebenen, die gewissermaßen phänomenologische Beschrei-

112

bungen liefern, sagt: „Rather one usually supplements, simplifies, trims, rewrites, augments, and otherwise contorts the foundational theory in squeezing out the phenomenological information. To be sure, ideas and relationships from the foundational theory play an essential role. But it is misleading to suggest that, after the phenomenological considerations have done their epistemic work in telling us just where to look in the foundational theory, the resulting description no longer includes information that goes beyond what was implicitly contained in the foundational theory from the beginning. [...] It is misleading to the extreme to think of phenomenological theories functioning only to help us find the information all of which is ,hidden‘ in the ,foundational‘ theory.“ (a.a.O., S.443)

Wenn phänomenologische Theorien höherer Beschreibungsebenen bei der Erklärung von Phänomenen dieser Ebene mit einer fundamentalen Theorie gebraucht werden, sind sie nicht überflüssig – dies wäre nur der Fall, wenn diese Phänomene sich tatsächlich mit der fundamentalen Theorie und entsprechenden Randbedingungen allein erklären ließen. Dass es hierbei aber Grenzen geben kann, zeigt sich wiederum in dem Umstand, der oben bei den als überzogen charakterisierten Forderungen auftauchte, dass Gesetze grundlegender Theorien oft zu allgemein sind, um konkrete Phänomene höherer Ebenen beschreiben zu können – in diesem Sinne lassen sich etwa die oben wiedergegebenen Bemerkungen Scheibes verstehen. So reicht es oft nicht aus, spezifizierende Randbedingungen hinzuzunehmen, sondern es muss im Sinne von Teller 2004 auch das Wissen einer entsprechenden Theorie verwendet werden. Betrachtet man zum Beispiel die Gesetze der statistischen Mechanik, wird man mit ihnen allein nicht die zur Erklärung thermodynamischer Phänomene notwendigen Gasgleichungen ableiten können. Es lassen sich nämlich formal Mittelwerte beliebiger Größen bilden, und aus der statistischen Mechanik allein wird nicht klar, welche Mittelwerte physikalisch sinnvoll zur Beschreibung thermodynamischer Systeme verwendet werden können. Die statistische Mechanik „weiß nicht“, was solche Mittelwerte bedeuten bzw. welche Mittelwerte bei Makrosystemen eine Bedeutung haben, dies „weiß“ nur die für diese Makrosysteme zuständige Thermodynamik. Das ist natürlich ein geradezu trivialer Punkt, es ist aber zu beachten, dass damit bei den üblichen Erklärungen thermodynamischer Phänomene über die geeignete Wahl von Mittelwerten, wie zum Beispiel dem der mittleren kinetischen Energie, Wissen einer zu reduzierenden Theorie mit einfließt – darin handelt es sich um ein Beispiel der oben besprochenen (nichteliminativen) funktionalen Reduktion, die sich im Fall der statistischen Thermodynamik auch als die Anwendung einer Mischtheorie auffassen lässt, was hier aber nur angedeutet sei (vgl. Kapitel 5 für diesen Fall). Erinnert werden soll

113

hier aber noch einmal daran, dass es nicht um die (direkte) Erklärung der Thermodynamik selbst geht, wobei diese dann natürlich als Explanandum vorausgesetzt werden dürfte, sondern, da es direkte eliminative Reduktionen als Ergebnis dieses Kapitels im Allgemeinen nicht gibt, um die (indirekte) Erklärung von Phänomenen und die Forderung, dass dadurch die Thermodynamik überflüssig wird – weshalb diese für solche Erklärungen eben nicht vorausgesetzt werden darf. Die damit nahegelegte Vorstellung, es gebe in höheren Beschreibungsebenen Phänomene, die nicht ohne Hilfe durch speziell für diese Beschreibungsebene konzipierte Theorien mit fundamentalen Theorien erklärt werden können, mag nun zunächst kontraintuitiv erscheinen: Schließlich sollten die Gesetze der fundamentalen Theorien für alle physikalischen Phänomene gelten. Dies lässt sich aber durch den Hinweis von Batterman 2002 plausibilisieren, dass es einen Unterschied gibt zwischen dem als Lösung in einer Gleichung Enthaltensein und dem Folgen aus einer Gleichung (vgl. a.a.O., S.119) – um zu zeigen, dass sich ein Phänomen gemäß eines grundlegenden Gesetzes verhält, kann es durchaus der heuristischen Hilfe einer speziellen Theorie bedürfen, die damit nicht überflüssig ist, sondern zur Anwendung der fundamentalen Theorie gebraucht wird. Dieser Unterschied wird besonders am Beispiel der Astrophysik deutlich, bei dem nämlich mit der Physik und Chemie die entsprechenden fundamentalen Theorien zur Hand sind, zahlreiche Phänomene (etwa bei der Entwicklung von Sternen und Galaxien) aber noch einer Erklärung harren, die offenbar zusätzliche, über bloße Physik und Chemie hinausgehende Überlegungen benötigt. Die Unfähigkeit der fundamentalen Theorien, die Phänomene speziellerer Theorien zu erklären, springt nicht ins Auge, wenn es sich um vertraute Phänomene und bekannte Theorien handelt. Fällt das Wissen um die spezielleren Theorien aber weg, wird evident, was auch sonst gilt: Erklärungen mit grundlegenden Theorien sind ohne die Hilfe spezieller Theorien oft nicht möglich, und es gibt einen Unterschied zwischen dem Gelten eines Gesetzes für ein Phänomen und das Folgen dieses Phänomens aus diesem Gesetz. Bis hier wurde nun erläutert, mit welchen Schwierigkeiten es die in den nächsten Kapiteln zu untersuchenden indirekten Reduktionen zu tun haben werden: Sie dürfen kein Wissen zu reduzierender Theorien verwenden und es wurde gerade plausibel gemacht, dass solches Wissen eben doch tatsächlich notwendig sein kann. Wenn nun an den drei Fallbeispielen der nächsten Kapitel von diesem Problem ausgehend sogar prinzipielle Grenzen der Möglichkeiten von Reduktionen aufgezeigt werden sollen, sind diese nicht vergleichbar mit der prinzipiellen Unmöglichkeit, etwa mit der Theorie der Elektrostatik Phänomene des Magnetismus zu erklären. Es sollen aber immerhin Gründe angeführt werden, die gegen die Behauptung

114

sprechen, man könne zwar mit einer bestimmten Theorie jeweils rein pragmatisch bestimmte Phänomene nicht erklären, diese seien aber im Prinzip mit dieser Theorie erklärbar. Diese Gründe können dabei nicht beweisen, dass die entsprechenden Phänomene nicht eines Tages doch mit der jeweils reduzierenden Theorie erklärt werden können: Es kann, wie gesagt, keine Grenze aufgezeigt werden wie die, nach der magnetische Phänomene nicht mit elektrostatischen Theorien erklärt werden können. Immerhin aber wird die Beweislast in dieser Frage insofern der reduktionistischen Position überantwortet, als diese nun zu zeigen hat, wie die von ihr behaupteten Erklärungen trotz der hier vorgelegten Gründe – und insbesondere ohne die Hilfe einer zu reduzierenden Theorie – möglich sein sollen. Die in den folgenden Kapiteln in dieser Hinsicht relevanten Gründe, die gegen die Plausibilität der Behauptung sprechen, man könne bestimmte Phänomene im Prinzip mit einer jeweils reduzierenden Theorie erklären, sollen an dieser Stelle schon einmal kurz angedeutet werden. Es handelt sich um begriffliche und mathematische Gründe, die schließlich bei dem (gleich zu besprechenden) Deutungsproblem numerischer Simulationen auch zusammen auftreten. Zunächst also kurz zu den begrifflichen Gründen. Diese gehen von dem schon im ersten Kapitel erwähnten Problem aus, dass sich die funktionale Rolle eines Stuhls nur aus der makroskopischen Perspektive der Möbelstücke erfassen lässt: Diese Rolle scheint nämlich selbst im Prinzip nicht mit einer Theorie bestimmbar zu sein, die dessen Zusammengesetztsein aus Elementarteilchen beschreibt. Wenn es in den folgenden Kapiteln um die Frage nach im Prinzip möglichen eliminativen Reduktionen geht, spielen derartige Argumente insbesondere insofern eine Rolle, als selbst die Phänomene, die als Explanandum in einer Erklärung als bekannt vorausgesetzt werden, immer nur innerhalb einer Theorie beschreibbar sind – sie dürfen also, wenn die Überflüssigkeit einer bestimmten Theorie gezeigt werden soll, nicht von dieser beschrieben werden, sondern müssen mit den Begriffen der reduzierenden Theorie selbst erfasst werden können. Nun wird aber zum Beispiel unsere makroskopische Welt newtonsch beschrieben und nicht quantenmechanisch – und es ist fraglich, ob die Quantenmechanik den Newtonschen Zugang zu unserer Alltagswelt – selbst im Prinzip – ersetzen kann. Die angekündigten mathematischen Gründe gegen die Möglichkeit eliminativer Erklärungen machen im wesentlichen von der Komplexität dieser geforderten Erklärungen Gebrauch: Die Gesetze fundamentaler Theorien sind nämlich oft in nichtlinearen partiellen Differentialgleichungen formuliert, die daher zu kompliziert sind, als dass man einfach Randbedingungen einsetzen könnte und dann schon die zu erklärenden Phänomene logisch folgten. Die Komplexität mathematischer Beschreibungen muss sich dabei nicht nur aus der Vielzahl der beteiligten Teilchen ergeben, sondern

115

beginnt schon bei solch einfachen Konstellationen wie der eines Doppelpendels, und es gibt für solche komplexen Systeme eigene mathematische Theorien, die über deren Beschreibung mit fundamentalen physikalischen Gesetzen hinausgehen und stattdessen weitere Überlegungen auch aus anderen Gebieten enthalten: „Theorien komplexer Systeme scheinen also einen neuen Grundtypus von Wissenschaft zu bilden, der quer zu den alten Fächergrenzen liegt“ (Kuhlmann 2007, S.309). Dabei geht es auch nicht mehr darum, exakte Bahnen zu bestimmen, wie es etwa die mechanistische Vorstellung des Laplaceschen Dämons nahelegt, sondern es lassen sich bei hochkomplexen Systemen oft nur qualitative Vorhersagen über Stabilität und Langzeitverhalten machen: „Tatsächlich besteht ein großer Teil der Theorien komplexer Systeme gerade in solchen Methoden der Analyse des zeitlichen Verhaltens ohne explizite Bahnberechnung“ (a.a.O., S.321). Die Komplexität solcher Systeme liegt nun, wie gesagt, nicht nur in der Anzahl der beteiligten Teilchen begründet, sondern tritt im Falle nichtlinearer Differentialgleichungen, wie etwa bei den Feldgleichungen der Allgemeinen Relativitätstheorie, auch schon bei einfachen Phänomenen auf – so dass die Behauptung, diese ließen sich im Prinzip numerisch mit diesen Gleichungen beschreiben, nicht ohne weiteres haltbar ist.49 Um in diesem Sinne komplizierte Gesetze fundamentaler Theorien überhaupt auf Phänomene anwenden zu können, ist, wie die folgenden Kapitel zeigen werden, in vielen Fällen die Hilfe von Theorien höherer Beschreibungsebenen notwendig, die daher auf diese fundamentalen Theorien nicht eliminativ reduzierbar sind. Wenn solche mathematischen Gründe gegen die prinzipielle Möglichkeit eliminativer Erklärungen sprechen, heißt dies natürlich nicht, dass die Gesetze der fundamentalen Theorien nicht für diese Phänomene gelten würden: „Die fundamentale Physik wird nicht außer Kraft gesetzt (und ist bei der Herleitung der Gleichungen häufig sogar die Voraussetzung), spielt aber im pragmatischen Kontext keine oder eine untergeordnete Rolle“ (a.a.O., S.320). Die Beschreibung komplexer Systeme verlangt eigenständige Erklärungsansätze und kann aus mathematischen Gründen nicht einfach in der Anwendung fundamentaler Gesetze bestehen – zur Anwendung fundamentaler Gesetze werden oft Theorien höherer Beschreibungsebenen benötigt. Die Behauptung also, ein Laplacescher Dämon könne im Prinzip auf der Grundlage fundamentaler Gesetze Phänomene höherer Beschreibungsebenen erklären, muss sich den angeführten mathematischen Gründen – dem Komplexitätsproblem – stellen. Nun können die angeführten mathematischen und begrifflichen Gründe 49

In Mitchell 2008 wird übrigens allein aufgrund von Komplexitätsargumenten aus der Biologie gefordert, reduktionistische Vorstellungen durch einen „integrativen Theorienpluralismus“ zu ersetzen.

116

aber auch zusammenspielen: Numerisch gewonnene Zahlenwerte müssen nämlich gedeutet werden, wozu, wie es das Beispiel des Stuhles zeigt, wiederum die Perspektive einer Theorie einer höheren Beschreibungsebene notwendig sein kann. Genauer lässt sich zum Beispiel bei der Quantenchemie sagen, dass sich durchaus numerische Berechnungen mit der (linearen) Schrödingergleichung anstellen lassen, diese Berechnungen allein aber nicht die Begriffe der Chemie, wie etwa den des Moleküls oder des Kerngerüsts, liefern können (vgl. Kapitel 4). Man kann also in vielen Fällen gerade nicht einfach rechnen und bei der Frage nach den prinzipiellen Möglichkeiten eliminativer Reduktionen auf die Kapazitäten zukünftiger Computer verweisen: Aus mathematischen (Komplexität) wie begrifflichen (Deutung numerischer Werte) Gründen macht es sich eine solche Vorstellung zu einfach. Diese beiden Klassen von Gründen gegen die Möglichkeit eliminativer Erklärungen von Phänomenen höherer Beschreibungsebenen mit fundamentalen Theorien, die die entsprechenden Theorien der höheren Beschreibungsebene überflüssig machen würden, sollen nun noch einmal in zwei Schritten an dem Beispiel der Strömungslehre vorgeführt werden, wobei auch das Zusammenspiel dieser beiden Klassen eine Rolle spielen wird. In einem ersten Schritt geht es um das Verhältnis der Grundgleichungen der Strömungslehre, den Navier-Stokes-Gleichungen, zu den Grundgleichungen der klassischen Mechanik, wobei die Frage nicht in der Ableitung ersterer selbst besteht, sondern in der Beschreibung von Flüssigkeiten mit den Grundgleichungen der klassischen Mechanik (mit einem System von Hamiltongleichungen also) – es geht also um die Möglichkeit einer indirekten Reduktion durch Erklärung von Phänomenen. Die Navier-Stokes-Gleichungen stehen im Moment innerhalb der klassischen Mechanik unabhängig von deren Grundgleichungen da, es ist aber denkbar, dass sich das Verhalten von Flüssigkeiten auch mit letzteren erklären lässt: „I do not know any precisely reconstructed reduction of fluid dynamics to fundamental physics, but I also do not know any reason why this should be impossible for all times“ (Stöckler 1998, S.36). Allerdings sprechen die hier angeführten Gründe durchaus gegen diese Möglichkeit: „Foundational theories do not give us, nor do we otherwise know how to formulate, the Hamiltonians that could underwrite answers to the questions about fluidity that interest us. And even if we did have such a Hamiltonian, we would have to solve a differential equation with 1025 to 1027 variables and then, somehow, make sense of the solutions“ (Teller 2004, S.439). Zum einen wäre also ein solches System von Hamiltongleichungen hoffnungslos komplex, zum anderen müssten die Zahlenwerte der Lösungen physikalisch gedeutet werden und es ist fraglich, ob eine solche Deutung ohne typische Größen der Strömungslehre möglich ist. So handelt es sich etwa bei der

117

Viskosität von Flüssigkeiten um eine makroskopische Größe, die innerhalb der mechanischen Beschreibung der Flüssigkeitsteilchen keine Bedeutung hat, aber essentiell bei der Beschreibung von Flüssigkeiten verwendet wird. Der angekündigte zweite Schritt betrifft nun das Verhältnis der Strömungslehre zu ihren Grundgleichungen: Die Navier-Stokes-Gleichungen50 sind nämlich wiederum hoch komplexe nichtlineare partielle Differentialgleichungen und können selbst numerisch nicht ohne weiteres gelöst werden – es gehört zu den großen ungelösten mathematischen Problemen, überhaupt die Existenz globaler Lösungen zu beweisen. Deshalb ist es keineswegs so, dass durch diese Gleichungen die Strömungslehre überflüssig würde, im Gegenteil besteht die Aufgabe der Strömungslehre gerade darin, die Lösungen der Navier-Stokes-Gleichungen zu finden. Zur Lösung dieser Gleichungen sind nun stark vereinfachende Zusatzannahmen nötig, bei denen es sich neben Vernachlässigungen einzelner Größen oft um eigenständige, also von den Navier-Stokes-Gleichungen unabhängige Ergebnisse der Strömungslehre handelt. So führt etwa die unabhängig von diesen Grundgleichungen gefundene Grenzschichttheorie Prandtls zu Vereinfachungen in den Navier-Stokes-Gleichungen, die den Berechnungsaufwand für einen umströmten Körper beträchtlich reduzieren bzw. eine solche Berechnung überhaupt erst ermöglichen. Und für die numerische Simulation komplizierter Anwendungen (etwa bei der Optimierung von Segelbooten) müssen auch experimentelle Daten aus Wellenbecken oder Windkanal hinzugezogen werden, die über legitime, nämlich lediglich spezifizierende Randbedingungen von DN-Erklärungen hinausgehen. Nun könnte man bei beiden Schritten einwenden, dass die Probleme der Numerik nichtlinearer Differentialgleichungen lediglich solche von Rechnerkapazitäten sind und dass im Prinzip die Strömungslehre eliminativ auf die Navier-Stokes-Gleichungen reduzierbar ist, und diese eliminativ auf die klassische Mechanik reduzierbar sind – und, wie oben schon ausgeführt, lässt sich in diesem Fall und allgemein die Behauptung einer prinzipiellen Möglichkeit natürlich streng genommen nicht widerlegen. Aber es wurden mit der Komplexität der Gleichungen und dem Deutungsproblem für numerische Werte auf begriffliche und mathematische Gründe (und deren Wechselspiel) hingewiesen, die gegen eine solche prinzipielle Möglichkeit sprechen. Hier wie in den Fallbeispielen der folgenden Kapitel soll die Frage 50 Um

sie vor Augen zu haben, seien die Navier-Stokes-Gleichungen an dieser Stelle angegeben: Für die viskose Strömung einer inkompressiblen Flüssigkeit gilt für die Geschwindigkeitskomponenten ui und den Druck p das System (i = 1, 2, 3) nichtlinearer partieller Differentialgleichungen ∂∂uti + ∑k ∂∂ xui uk = − ρ1 ∂∂ xpi + γ ∆ui , ∑k ∂∂ uxk = 0, wobei k k ρ die (konstante) Dichte und γ die kinematische Viskosität bezeichnet. Die ersten drei Gleichungen können in Vektorschreibweise auch in einer Gleichung zusammengefasst werden und es gibt noch eine allgemeinere Fassung für kompressible Flüssigkeiten.

118

nach der prinzipiellen Möglichkeit eliminativer Reduktionen nicht endgültig entschieden werden. Aber durch solche Gründe wird die Beweislast auf die reduktionistische Position übertragen, die zu zeigen hat, wie solche Reduktionen trotz allem möglich sein sollen. Damit wurden nun die Schwierigkeiten kurz umrissen, die bei den Untersuchungen der folgenden Kapitel eine Rolle spielen werden: Es müssen Phänomene mit fundamentalen Theorien erklärt werden, ohne dass zu reduzierende Theorien verwendet werden dürfen, die aber speziell für diese Phänomene geeignet sind und nicht ohne weiteres durch fundamentale Theorien ersetzt werden können. Erwartungsgemäß wird sich zeigen, dass man sich bei den Verhältnissen zwischen modernen physikalischen Theorien meist mit deren Nachbarschaft bescheiden muss und dass echte, eliminative Reduktionen selten sind und hauptsächlich bei historischen Beispielen vorliegen. Als Ausblick sei zum Abschluss dieses Abschnitts noch kurz darauf hingewiesen, dass sich wissenschaftsgeschichtlich die fundamentalen Theorien von den weniger fundamentalen aus entwickelt haben und insbesondere letztere bei der Entwicklung ersterer oft Pate standen. Dies spricht zwar nicht gegen die Möglichkeit, dann umgekehrt die weniger fundamentalen eliminativ auf die fundamentalen reduzieren zu können. Dieser Hinweis soll aber das möglicherweise kontraintuitive Ergebnis dieser Arbeit, dass es solche eliminativen Reduktionen in vielen Fällen nicht gibt, etwas plausibilisieren. So geht die Entwicklung von Theorien immer von den aus der Alltagswelt bekannten Phänomenen aus, weshalb es zuerst Theorien über diese gibt und in die Erschließung neuer, fundamentaler Gebiete die Kenntnisse der Theorien über solche Phänomene einfließen: In der Wissenschaft werden oft Analogien zu Hilfe genommen, um sich Phänomene, die nicht aus der Alltagswelt vertraut sind, überhaupt vorstellen zu können. So beschreibt zum Beispiel Maxwell Moleküle als kleine Körper, die innerhalb eines Gases schnelle Bewegungen vollführen und gegen die Wände ihres Behälters prallen,51 oder Elektrizität wurde als Flüssigkeit gedacht, als etwas, das von einem Körper zu einem anderen fließen kann.52 Achinstein 1968 fasst dazu zusammen: „In short, molecules and electricity were characterized by invoking concepts already available and understood, such as that of body in 51

Bei der Erläuterung des Konzeptes der Eigendiffusion von Molekülen innerhalb eines Gases bedient sich Maxwell auch der schönen Analogie des Bienenschwarms, vgl. Achinstein 1968, S.117f. 52 Von welcher Vorstellung zahlreiche gängige physikalische Fachbegriffe zeugen, etwa „elektrischer Fluss“ oder überhaupt die Bezeichnung „Strom“.

119

motion, a fluid, velocity, mass, and so forth. The only difference between the bodies and fluids postulated and the bodies and fluids more familiar to layman is that the former could not be seen by those postulating them“ (S.111). Modelle und Analogien sind nun in der Physik ein verbreitetes und durchaus legitimes heuristisches Mittel. Dass aber bei der Aufstellung fundamentaler Theorien über solche Analogievorstellungen hinaus das Wissen um Phänomene höherer Beschreibungsebenen eine erhebliche Rolle spielt, zeigt das Beispiel der Quantenmechanik, die ohne das Wissen um die Eigenschaften des Wasserstoffatoms wohl nicht gefunden worden wäre, wobei insbesondere die Einfachheit des Wasserstoffatoms im Vergleich zu anderen Atomen die Aufstellung der Quantenmechanik ermöglicht hat: „Indeed, one could ask whether the laws of quantum mechanics would ever have been discovered if there had been no hydrogen atom. The laws are just as true in the methane molecule and are equally simple, but their manifestations are complicated“ (Laughlin/Pines 2000, S.30). Nun geht die Quantenmechanik damit zwar von vertrauten Phänomenen aus, ist aber im Ergebnis alles andere als vertraut – es gibt im Gegenteil keine Einigung über die Deutung der Schrödingerschen ψ -Funktion. Historisch gesehen hat man sich also immer vom Konkreten zum Allgemeinen vorgearbeitet, so dass es nicht verwundern sollte, wenn, wie sich zeigen wird, die umgekehrte, reduktive Erklärungsrichtung in einem eliminativen Sinne nur schwer möglich ist: Primär sind gewissermaßen die Theorien der Alltagswelt und fundamentale Theorien müssen letztlich von diesen ausgehen – so dass sich dann umgekehrt die Theorien der Alltagswelt nicht unbedingt aus fundamentalen Theorien erschließen lassen. Dies soll nun aber kein eigenständiges Argument gegen die Möglichkeit eliminativer Reduktionen darstellen, sondern deren Unmöglichkeit lediglich plausibilisieren. In den folgenden Kapiteln werden nun Fallbeispiele behandelt, bei denen Phänomene aus dem Zuständigkeitsbereich zu reduzierender Theorien mit den Mitteln der entsprechenden reduzierenden Theorien erklärt werden sollen, wobei in diese Erklärungen die zu reduzierende Theorie nicht einfließen darf. Nur bei solchen Erklärungen wären die Kriterien der Reduktionsdefinition aus 2.4 erfüllt und nur dann könnte von der Überflüssigkeit der so reduzierten Theorie gesprochen werden. Diese Untersuchungen sollen die Grenzen solcher eliminativen Reduktionen aufzeigen, wobei deren Schwierigkeiten in diesem Abschnitt schon allgemein angedeutet wurden: Fundamentale Gesetze sind oft zu allgemein bzw. zu kompliziert und können ohne Hilfe zu reduzierender Theorien nicht angewendet werden, was sowohl aus mathematischen als auch begrifflichen Gründen gilt.

120

Wenn sich daher also zeigen wird, dass fundamentale Theorien nur eine beschränkte Erklärungsleistung bieten, ist das kein Widerspruch zu deren erfolgreicher Anwendung innerhalb der Physik, da in der Physik tatsächlich oft mit Mischtheorien gearbeitet wird: Physikalische Erklärungen ziehen oft verschiedene Theorien zu Rate, so dass gerade auch Gesetze von Theorien höherer Beschreibungsebenen bei Erklärungen eine Rolle spielen. Der Ansatz, Erklärungen ausschließlich mit einer fundamentalen Theorie durchzuführen, ist daher eine künstliche Situation, die in der praktizierten Physik kaum auftritt, aber zum Zweck der Untersuchung der prinzipiellen Frage nach der Möglichkeit eliminativer Reduktionen zugrunde gelegt werden soll. Dass es für solche Reduktionen Grenzen gibt, wird zu zeigen sein und sollte nicht überraschen: Die Vorstellung von der Überflüssigkeit reduzierter Theorien wird von in der Physik üblichen Erklärungsvorgängen nicht nahegelegt. Weitere allgemeine Überlegungen zu dem Reduktionsproblem in der Physik folgen im sechsten Kapitel, nachdem in den nächsten drei Kapiteln konkrete Fallbeispiele in dieser Frage untersucht wurden.

Kapitel 3 Newtonsche Gravitationstheorie und Allgemeine Relativitätstheorie Das letzte Kapitel hat gezeigt, dass eliminative Reduktionen einen indirekten Anteil der Erklärung von Phänomenen haben müssen, und in diesem Sinne wurde in Abschnitt 2.4 ein Reduktionskonzept definiert. Um nun entscheiden zu können, ob die Newtonsche Gravitationstheorie eliminativ auf die Allgemeine Relativitätstheorie (ART) reduziert werden kann, sollen, gemäß den Ausführungen dazu in Abschnitt 2.5, in diesem Kapitel die Möglichkeiten untersucht werden, Gravitationsphänomene allein mit den Grundgleichungen der ART, also insbesondere unabhängig von der Newtonschen Gravitationstheorie, zu erklären: Nur mit solchen Erklärungen ließe sich zeigen, dass die Theorie Newtons eliminativ auf die Einsteins reduzierbar ist. In Abschnitt 2.5 wurde auch kurz darauf hingewiesen, dass historisch gesehen fundamentale Gesetze nicht unabhängig von dem Wissen um die konkreteren aufgestellt wurden. So wurde die ART ausgehend von der Newtonschen Gravitationstheorie entwickelt, wozu exemplarisch eine Passage aus Einstein 1969 zitiert sei: „Das nächste Ziel, dem wir zustreben müssen, ist das Feldgesetz der Gravitation. Dabei muss uns die Poissonsche Gleichung der Newtonschen Theorie ∆ϕ = 4π K ρ zum Muster dienen.1 Dieser Gleichung liegt der Gedanke zugrunde, dass das Gravitationsfeld durch die Dichte ρ der ponderablen Materie erregt wird. So wird es auch in der allgemeinen Relativitätstheorie sein müssen“ (S.81). Dies soll aber wiederum lediglich das Ergebnis der Untersuchung plausibilisieren, dass die Newtonsche Gravitationstheorie nicht eliminativ auf die ART reduzierbar ist – zur Durchführung dieser Untersuchung werden die Gesetze der ART als unabhängig gefunden angesehen. Da in diesem Kapitel drei Theorien eine Rolle spielen werden, die sowohl Konzepte der Newtonschen als auch der Einsteinschen Gravitationstheorie 1 Im

weiteren Verlauf des Kapitels wird diese Gleichung in der Schreibweise ∇ 2 Φ = 4π Gρ verwendet.

122

verwenden bzw. gewissermaßen zwischen diesen Theorien stehen, sollen diese, um Verwirrung zu vermeiden, hier kurz vorgestellt werden. Quasinewtonsche Theorie Bei der Quasinewtonschen Theorie handelt es sich um die geometrisch formulierte Newtonsche Gravitationstheorie: Ohne dass die Feldgleichungen der ART verwendet werden, wird das Newtonsche Gravitationsgesetz im Rahmen einer vierdimensionalen Raumzeit aufgestellt, was vor allem Vergleiche zwischen den beiden Theorien ermöglicht. Linearisierte ART Diese Theorie, mit der viele Phänomene der Astrophysik erklärt werden (vgl. Abschnitt 3.3), beruht auf den Feldgleichungen der ART, berücksichtigt aber nur deren lineare Terme und vernachlässigt damit insbesondere die Rückwirkung des Gravitationsfeldes auf sich selbst, womit vor allem bewegte Gravitationsquellen leichter beschrieben werden können. Post-Newtonsche Näherung Der ebenfalls in der Astrophysik viel verwendeten Post-Newtonschen Näherung liegt wiederum das Newtonsche Gravitationsgesetz zugrunde, diesmal zwar formuliert im Rahmen der klassischen Mechanik, dabei aber um relativistische Korrekturterme angereichert, wodurch auch starke Gravitationsquellen beschrieben werden können, ohne dass die Feldgleichungen gelöst werden müssen. In diesem Kapitel wird nun zunächst kurz die Allgemeine Relativitätstheorie charakterisiert und dann die Frage nach einer direkten eliminativen Reduktion des Newtonschen Gravitationsgesetzes auf die ART untersucht: Während in der Physik davon die Rede ist, dass erstere als Grenzfall in letzterer enthalten ist, wird sich, wie schon allgemein im zweiten Kapitel herausgearbeitet, zeigen, dass damit zwar die Nachbarschaft der beiden Theorien gemeint sein kann, nicht aber eine eliminative Reduktion. Um dann die Möglichkeiten einer solchen Reduktion im Sinne von 2.4, also mit indirektem Anteil, untersuchen zu können, werden anschließend die typischen Erklärungen der ART (Abschnitte 3.3 und 3.4) besprochen und davon ausgehend schließlich die Grenzen eliminativer Erklärungen herausgestellt (Abschnitt 3.5). 3.1 Die Gesetze der Allgemeinen Relativitätstheorie

Mit den Grundgesetzen der Allgemeinen Relativitätstheorie sind nun im Wesentlichen die Einsteinschen Feldgleichungen 1 8π G Rµν − Rgµν = 4 Tµν 2 c gemeint. Dabei ist Rµν der Riccitensor der Krümmung der zugrundeliegenden Mannigfaltigkeit (der Raumzeit), gµν deren metrischer Tensor, R deren Skalarkrümmung, G die Gravitationskonstante, c die Lichtgeschwindigkeit und Tµν der Energie-Impuls-Tensor, wie er sich aus der Materievertei-

123

lung innerhalb dieser Mannigfaltigkeit ergibt. Der wesentliche Punkt dieser Gleichungen ist nun, dass mit ihnen die Krümmung der Raumzeit mit dem Energie-Impuls-Tensor verknüpft wird. Das heißt, dass erstens die Materieverteilung die Geometrie des Raumes beeinflusst, und diese zweitens wieder Auswirkungen auf die Materieverteilung hat, letzteres eben in Form von Gravitation. Dadurch wird das Konstruieren von Modellen in der ART ein nichttrivialer gegenseitiger Anpassungsvorgang, wobei es insbesondere ein äußerst schwieriges Unterfangen ist, auf diese Weise bewegte Materie zu beschreiben, da jede veränderte Position eine andere Geometrie und damit eine andere Kräftesituation mit Rückwirkung wieder auf die Materie nach sich zieht. So ist es zum Beispiel nicht möglich, allein das ZweiKörper-Problem innerhalb der ART analytisch zu lösen, das heißt so, dass sich die Lösung in einer geschlossenen Gleichung angeben ließe – wohingegen das Zwei-Körper-Problem innerhalb der Newtonschen Gravitationstheorie direkt durch das Gravitationsgesetz gelöst wird. Dennoch gibt es in der ART eine Bewegungsgleichung für materielle Punkte innerhalb eines Gravitationsfeldes, auf die sonst keine Kräfte wirken. Gänzlich kräftefreie Punkte bewegen sich gemäß dem Newtonschen Trägheitsprinzip geradlinig und gleichförmig. In der ART werden nun mit dem Äquivalenzprinzip schwere und träge Masse eines Körpers miteinander identifiziert, so dass sich schwere Probeteilchen innerhalb eines Gravitationsfeldes, die also allein der Gravitation bzw. Trägheit ausgesetzt sind, auf Trägheitsbahnen bewegen, die nun aber keine geraden Linien wie im dreidimensionalen Newtonschen (bzw. euklidischen) Raum mehr sind, sondern als deren naheliegende Verallgemeinerung geodätische Kurven innerhalb der Geometrie der jeweiligen Raumzeit bilden. Die Bewegungsgleichung für solche Punkte ist daher einfach die Geodätengleichung, wie sie aus der Differentialgeometrie bekannt ist: d 2 xµ µ dxα dxβ + Γ = 0, ∑ d τ 2 α ,β αβ d τ d τ µ

wobei Γαβ die Christoffelsymbole bezeichnen, die durch den metrischen Tensor gµν ausgedrückt werden können, und τ die Eigenzeit des Probeteilchens.2 Diese Gleichung ist nun im Rahmen des Äquivalenzprinzips explizit für materielle, also „schwere“ Teilchen gedacht, was dieses Prinzip aber streng genommen zu einer Vereinfachung macht, da eine „echte Masse“ die 2 Die

Bewegungsgleichung ist über die Christoffelsymbole mit der Geometrie der zugrundeliegenden Raumzeit verknüpft. In der Schreibweise der modernen Differentialgeometrie lautet diese Gleichung mit dem Levi-Civita-Zusammenhang ∇ für eine Kurve γ einfach ∇γ˙ γ˙ = 0. Für eine „flache“ Raumzeit beschreibt die Geodätengleichung übrigens erwartungsgemäß Geraden.

124

Raumzeit gemäß den Feldgleichungen verändern würde: Es betrachtet nämlich als „schwere“ Masse eines Körpers lediglich dessen Eigenschaft, auf ein Schwerefeld zu reagieren, und sieht von der Masse als felderzeugende Größe ab. Möchte man Massen auch letztere Eigenschaft zusprechen, gilt die Bewegungsgleichung also nur für masselos gedachte Punkte innerhalb einer durch „echte Massen“ gekrümmten Raumzeit. Dass es neben schwerer und träger Masse noch eine dritte, felderzeugende Masse gibt, wird zum Beispiel in Friedman 1983 diskutiert (und damit zusammenhängend verschiedene Formulierungen des Äquivalenzprinzips)3 – dieser Problemkreis wird im folgenden Abschnitt zur Grenzfallproblematik der Newtonschen Gravitation wieder aufgegriffen, da eine mögliche Formulierung des vereinfachenden Äquivalenzprinzips die Existenz lokaler Inertialsysteme (kräftefreier Beµ zugssysteme bzw. solcher, in denen keine Krümmung herrscht und Γαβ = 0 gilt) entlang von Trägheitsbahnen innerhalb der ART postuliert (vgl. a.a.O., S.199ff.), in denen man schwere und träge Masse als identisch betrachten kann, und da die Existenz solcher lokaler Inertialsysteme auch für die Grenzfallproblematik relevant ist. Obige Bewegungsgleichung wird nun jedenfalls auch für „masselose Punkte“ wie Planeten angewendet, die im Schwerefeld der Sonne näherungsweise als solche betrachtet werden können, was unten bei der Schwarzschildlösung noch besprochen wird, wohingegen sich die Sterne eines Doppelsternsystems offenbar nicht mit dieser Gleichung beschreiben lassen, da sich diese als „echte Massen“ gegenseitig gravitativ beeinflussen, was sich nur mit den Feldgleichungen selbst beschreiben lässt und wobei das Äquivalenzprinzip nicht anwendbar ist. Erklärungen werden also sehr schwierig, wenn man es mit bewegter Materie zu tun hat, die nicht als masselos gedacht werden kann, wie es bei der Beschreibung von Doppelsternen oder etwa von Galaxien notwendig ist – auch darauf wird zurückzukommen sein. Vorher seien noch einige Worte über weitere Schwierigkeiten mit den Feldgleichungen verloren. Über das Problem der wechselseitigen Beeinflussung von Materie und Geometrie hinaus handelt es sich nämlich auch noch um nichtlineare partielle Differentialgleichungen, die aufgrund ihrer Nichtlinearität nicht entkoppelt werden können und daher, wie in Abschnitt 2.5 schon in allgemeinerem Zusammenhang erwähnt wurde, erhebliche mathematische Schwierigkeiten bereiten. Die oben in einer Gleichung zusammengefassten Feldgleichungen bilden ein System von 10 partiellen 3 Dort

heißt es: „Actually, mass plays three conceptually distinct roles in classical physics. [...] Third, it serves as the source for the gravitational field [...]“ (a.a.O., S.196). Mit dem Hinweis „The principle of the equivalence of inertial and gravitational mass need only apply to the first two, however“ (ebd.) wird ausgesprochen, was oben als vereinfachende Annahme bezeichnet wurde, dass nämlich das Äquivalenzprinzip für die felderzeugende Masse nicht gilt.

125

Differentialgleichungen,4 wovon aber aufgrund der Bianchi-Identität, einem Satz aus der Differentialgeometrie, letztlich nur 6 Gleichungen unabhängig voneinander sind. Diese nun sind sehr kompliziert: Zwar gehen die zweiten Ableitungen des metrischen Feldes linear ein, dafür aber die ersten Ableitungen quadratisch. Außerdem enthält die linke Seite die Inversen gµν des metrischen Tensors gµν , die als Funktion von letzterem dargestellt sehr unhandlich werden. Damit gilt, was über Einsteins Feldgleichungen in einem gängigen Physiklehrbuch so zusammengefasst wird: „No general procedure exists for solving the equations analytically; one guesses as best one can“ (Ohanian 1994, S.383). Ähnlich wie bei den in Abschnitt 2.5 vorgestellten Navier-Stokes-Gleichungen gilt auch hier, dass die Gesetze zu kompliziert sind, als dass sich Lösungen einfach durch Einsetzen von Randbedingungen ergeben – es gibt keinen kanonischen Weg, Einsteins Feldgleichungen zu lösen und hier wie dort sind zusätzliche Überlegungen nötig, um zu Lösungen zu kommen, um nämlich überhaupt qualifiziert „raten“ zu können. Dazu kommt noch der Umstand, dass es durchaus „unphysikalische“ Lösungen geben kann, die ebenso in den Gleichungen enthalten sind. Stöltzner 2002 hält dazu fest: „Hier rechtfertigt eine jede Lösung größte Anerkennung, da sie nicht automatisch gewonnen werden kann und auch kein Eindeutigkeitssatz gilt. Die Auswahl der unserem Universum tatsächlich entsprechenden Lösung kann nur von außen, also in einer Metatheorie erfolgen“ (a.a.O., S.298). So ist etwa die Gödelsche Lösung des rotierenden Universums in den Feldgleichungen enthalten und kann erst im Nachhinein aufgrund des Beobachtungsbefundes der kosmischen Rotverschiebung als unphysikalisch disqualifiziert werden. Zum „one guesses as best one can“ gehört also, dass zum Lösen dieser Gleichungen zusätzliches Wissen benötigt wird, sowohl zum Auffinden überhaupt als auch zur Beurteilung der physikalischen Relevanz einer Lösung, und im Rahmen der Fragestellung nach der Möglichkeit einer auf Erklärungen beruhenden eliminativen Reduktion ist zu untersuchen, inwiefern dafür Newtonsche Physik notwendig ist (vgl. Abschnitt 3.5). Aber zunächst gibt es natürlich exakte Lösungen für bestimmte einfache Fälle, die mit Randbedingungen gefunden werden können, die (im Wesentlichen) im Rahmen von D-N-Randbedingungen bleiben, also keine „Metatheorie“ und insbesondere keine Newtonsche Physik beinhalten. Diese Lösungen, ihre Erklärungsleistungen und deren Grenzen werden in Abschnitt 3.4 besprochen. Davor sollen aber noch zwei weitere Fragestellungen behandelt werden: Zunächst wird herausgearbeitet, dass die Newtonsche Physik nicht 4 Die

Indizes µν des Krümmungstensors durchlaufen die Werte 0,1,2,3. Da dieser Tensor aber symmetrisch ist, bleiben von 16 Komponenten nur 10 und mithin gibt es 10 Gleichungen.

126

einfach als Grenzfall in der Allgemeinen Relativitätstheorie enthalten ist, auch wenn es oft und in vielen Lehrbüchern so dargestellt wird. Diese Formulierung legt das Vorliegen einer direkten eliminativen Reduktion nahe, während es sich aber um nicht mehr als um eine retentive Näherungsbeziehung handelt. Weiterhin soll die linearisierte ART besprochen werden, die für viele Erklärungen herangezogen wird und dabei zwar im Rahmen der ART bleibt, aber wesentliche Anleihen aus der Newtonschen Physik verwendet, die über legitime D-N-Randbedingungen hinausgehen, wobei auch kurz auf die Post-Newtonsche Näherung eingegangen werden soll, die umgekehrt im Rahmen der Newtonschen Theorie formuliert ist, diese aber um relativistische Korrekturterme anreichert und ebenfalls in der Astrophysik viel Verwendung findet. Dann werden besagte Lösungen besprochen, die mit legitimen D-N-Randbedingungen, also solchen, die keine Newtonsche Physik beinhalten, erhalten werden können – und dabei aber nur begrenzte Erklärungsleistungen bieten, was zu untersuchen zu guter Letzt dem Abschluss des ganzen Kapitels vorbehalten ist. Aber nun zunächst zum Grenzfallproblem.

3.2 Ist die Newtonsche Gravitationstheorie als Grenzfall in der Allgemeinen Relativitätstheorie enthalten?

Wie eingangs kurz angesprochen, wurde die Allgemeine Relativitätstheorie von Einstein geradezu so konzipiert, die Newtonsche Theorie als Grenzfall zu enthalten. Allerdings muss man auch sehen, dass die Konsequenzen der ART den Annahmen der klassischen Mechanik tiefgreifend zuwiderlaufen: Wenn Einstein sich bei der Entwicklung seiner Theorie auch heuristisch an der Newtonschen Theorie orientierte, sprengt das Resultat doch erheblich deren Rahmen. Bei der Diskussion der Zusammenhänge dieser beiden Theorien wird wieder auf die entsprechende Darstellung in Scheibe 1999 zurückgegriffen. Vor der Besprechung von Scheibe sei aber in Anlehnung an Misner et al. 1973 kurz skizziert, wie man üblicherweise die Newtonsche Theorie als Grenzfall der Allgemeinen Relativitätstheorie herausstellt. Der Newtonsche Grenzfall wird dabei durch schwache Gravitationsfelder, kleine Geschwindigkeiten und daher Koordinaten, die nahezu als Inertialsysteme betrachtet werden können, charakterisiert (vgl. a.a.O., §17.4). Dann wird zwischen passiven und aktiven Gravitationsaspekten unterschieden: Erstere beschreiben die Bewegung in einem Gravitationsfeld, wobei die Bewegungsgleichung der ART, also die Geodätengleichung, zugrundegelegt wird, und letztere die Erzeugung von Gravitation mit den Feldgleichungen selbst. Genauer wird im

127

ersten Schritt aus der Geodätengleichung die Newtonsche Bewegungsgleichung F = m · a abgeleitet bzw. mit dem Newtonschen Gravitationspotential Φ < 0 in der Potentialschreibweise die Gleichung d 2 xi ∂Φ = − . dt 2 ∂ xi Im zweiten Schritt wird dann das Newtonsche Gravitationsgesetz F = G m1r2m2 aus den Feldgleichungen erhalten bzw. in der Potentialschreibweise die Poissonsche Gleichung für das Gravitationspotential ∇2 Φ = 4π Gρ mit der Massendichte ρ . Für den ersten Schritt wird zunächst, um die Geodätengleichung überhaupt anwenden zu können, die dort auftauchende Eigenzeit τ mit der Newtonschen absoluten Zeit t über dt/d τ ≈ 1 verknüpft (vgl. a.a.O., S.414), was durch Beschränkung auf kleine Geschwindigkeiten im Vergleich zur Lichtgeschwindigkeit und die Annahme eines annähernd vorhandenen Inertialsystems gerechtfertigt wird. Damit ergibt sich aus der oben angegebenen Geodätengleichung d 2 xi d 2 xi i dxα dxβ = = − Γ . ∑ αβ dt 2 dτ 2 d τ d τ α ,β Weiterhin werden nun in der Summe nur die Terme mit α = β = 0 berücksichtigt, da für alle anderen aufgrund der im Vergleich zu c vernachlässigba    ren Geschwindigkeit dx j /d τ 1 gilt, es bleibt also d 2 xi i dx0 dx0 = −Γ 00 dt 2 dτ dτ übrig. Und wegen x0 = t und dt/d τ ≈ 1 ergibt sich schließlich d 2 xi = −Γi00 . 2 dt Nun kommt ein im Zusammenhang des Reduktionsproblems bemerkenswerter Schritt, denn die verbliebenen Christoffelsymbole werden einfach mit dem Newtonschen Gravitationspotential identifiziert, wozu es a.a.O., S.415, heißt: „These geodesic world lines [in der zuletzt erhaltenen Gleichung] do, indeed, reduce to those of Newtonian theory if one makes the identification Γi00 =

∂Φ ∂ xi

128

[...]“. Damit (die Schreibweise der zitierten Gleichung wurde hier angepasst) ergibt sich in der Tat die oben angegebene Newtonsche Gleichung. Zum Abschluss dieser Ableitung wird dann noch aus der zugrundegelegten Identifikation ein Zusammenhang zwischen der Raumzeitmetrik gµν und dem Newtonschen Gravitationspotential Φ hergestellt: Unter der Annahme, dass letzteres in großen Abständen von der Gravitationsquelle verschwindet („Φ(r = ∞) = 0“, S.415) und dass näherungsweise ein Inertialsystem verwendet werden kann, erhält man g00 = −1 − 2Φ „for nearly Newtonian systems in Newtonian coordinates“ (ebd.). Damit ist die Ableitung vollzogen und es wird festgehalten: „The relation g00 = −1 − 2Φ is the mathematical embodiment of the correspondence between general relativity theory and Newtonian theory for passive aspects of gravity“ (ebd.). Bevor dieses Vorgehen kritisch untersucht wird, sei auch die Ableitung des Gravitationsgesetzes, des aktiven Aspekts also, kurz wiedergegeben: Dazu werden die Feldgleichungen auf ein „nearly Newtonian system“ (a.a.O., S.407) angewandt, für das insbesondere gilt, dass „the stresses Tjk are very small compared to the density of mass-energy T00 = ρ “ (ebd.). Dann wird ein Koeffizientenvergleich durchgeführt und als Beziehung zwischen Krümmungstensor R00 und Massendichte ρ festgehalten (S.406, die Schreibweise der zitierten Gleichung wurde wieder angepasst): „Direct comparison of the Newtonian and Einstein predictions using Newtonian coordinates reveals the relation R00 = 4π Gρ [...]“. Aus der oben angegebenen Identifizierung Γi00 = ∂∂ Φ xi wird noch die Beziehung R00 = ∇2 Φ (S.416) abgeleitet, womit dann auch das Gravitationsgesetz in der oben zitierten Form der Poissonschen Gleichung erhalten wurde. Als Einstieg zu der Kritik dieser Ableitung sei nun Rohrlich 2004 zitiert, der darauf hinweist, dass die darin vorkommende Identifizierung von Christoffelsymbolen mit dem Gravitationspotential, das schließlich zur Gravitationskraft führt, alles andere als kanonisch zwingend ist: „The identification of ,Christoffel Symbols‘ with ,force‘ (apart from trivial factors) is entirely ad hoc: and this is more than a meaning change, because the respective terms belong to qualitatively entirely different theories“ (a.a.O., S.78). In der Newtonschen Theorie gibt es Kräfte zwischen (echten) Massen innerhalb eines euklidischen Raumes, während sich in der ART im Vergleich zur Gravitationsquelle masselos gedachte Punkte auf Trägheitsbahnen bewegen, wie sie die Raumzeit vorgibt, deren Krümmung mit Christoffelsymbolen beschrieben wird. Im Gegensatz zum Newtonschen Gravitationspotential sind die Christoffelsymbole also insbesondere für „echte“ Massen gar nicht zu-

129

ständig, weshalb die obige Verbindung dieser Terme zwar einen Vergleich zwischen verschiedenen Konzepten liefern kann, aber nicht als Grundlage für eine direkte eliminative Reduktion in Form einer logischen Ableitung gerechtfertigt ist. Natürlich wird auch im Newtonschen Fall die Masse etwa eines zur Erde fallenden Apfels vernachlässigt. Dennoch wird sie im Newtonschen Bewegungsgesetz F = m · a berücksichtigt, was für die rein geometrische Beschreibung desselben Apfels im Rahmen des Äquivalenzprinzips, also insbesondere für eine Beschreibung ohne die Feldgleichungen, nicht gilt. Das Konzept der Gravitationskraft, die schließlich sogar als Fernwirkungskraft zwischen jeweils zwei Massen wirkt, kann nicht ohne weiteres mit dem völlig verschiedenen Konzept von Trägheitsbahnen innerhalb einer Raumzeitgeometrie in Verbindung gebracht werden. Dieselbe fragwürdige Verknüpfung dieser verschiedenen Konzepte findet sich zum Beispiel auch explizit in Friedman 1983, wenn innerhalb einer geometrisierten Newtonschen Physik, die noch zu besprechen ist, als „a natural way of expressing the law of motion for Newtonian dynamics“ (a.a.O., S.92) die Gleichung   2 d xi i dx j dxk m = Fi + Γ ∑ jk 2 dt dt dt j,k mit der Kraft F i als raumartigem Vektorfeld angegeben wird (ebd.). Dazu kommt der Hinweis, dass diese Gleichung im Fall eines Inertialsystems die vertraute Form d 2 xi m 2 = Fi dt des Zweiten Newtonschen Gesetzes annimmt (ebd.), was, wie ausgeführt, das Konzept der Masse auf eine Weise mit der Geometrie des Raumes verbindet, die keine logische Verbindung zwischen diesen Theorien etablieren kann. Dieses Problem tritt nun auch bei der Gleichung auf, in der mittels Koeffizientenvergleich die geometrische Größe R00 mit der Newtonschen Massendichte ρ in Beziehung gesetzt wird, in der also die Feldgleichungen, die für „echte Massen“ zuständig sind, mit der Newtonschen Physik verbunden werden. Diese Beziehung wurde dadurch erhalten, dass die jeweiligen Theorien auf ein „nearly Newtonian system“ angewendet und die erhaltenen Gleichungen verglichen wurden. Dies ergibt aber keine Verbindung zweier Größen aus gänzlich verschiedenen Theorien, die zu einer deduktiven Ableitung führen kann. An früherer Stelle wird genau dieser Vorgang in Misner et al. 1973 als „component manipulation“ (S.290) bezeichnet und um mehr handelt es sich dabei auch nicht. Wie im zweiten Kapitel gezeigt wurde, können derartige Verbindungen

130

lediglich als Vergleichsannahmen plausibel gedeutet werden, die zwar Vergleiche ermöglichen, aber keine direkte eliminative Reduktion: Näherungsbeziehungen sind möglich, aber das Brückengesetzproblem der Verbindung verschiedener Konzepte lässt keine logische Verbindung zwischen den entsprechenden Theorien zu. Im zweiten Kapitel wurde entsprechend auch gezeigt, dass dieses Brückengesetzproblem dann von Scheibe insofern umgangen wird, als es sich in seinem subtilen Reduktionskonzept gar nicht erst stellt, da hier verschiedene Konzepte miteinander verglichen werden, ohne dass Größen einfach identifiziert würden. Für diesen Vergleich zwischen so unterschiedlichen Konzepten wie Bewegung als Folge einer Raumzeitgeometrie und Bewegung als Folge von Kräften kann eine auf Cartan zurückgehende geometrisierte Fassung der Newtonschen Theorie verwendet werden, die Scheibe als quasi-newtonsch bezeichnet. Wenn sie auch entwickelt wurde, um die verschiedenen Konzepte aneinander anzunähern, so ermöglicht auch sie letztlich nicht mehr als einen Vergleich zwischen verschiedenen Konzepten, da diese Fassung im konzeptuellen Rahmen der ART verbleibt. Ein Vergleich im Rahmen einer geometrisierten Newtonschen Physik ist natürlich präziser als die zitierte „Ableitung“, aber die Lücke, die diese einfach überspringt, wird auch damit nicht geschlossen. Doch bevor der Scheibesche Vergleich nachvollzogen wird, seien nach dieser kurzen Betrachtung zum begrifflichen Aspekt dieser Reduktion noch einige Worte zum mathematischen Aspekt, zu obiger Ableitung also, verloren. Diese geht wesentlich davon aus, dass man bei schwachen Gravitationsfeldern und kleinen Geschwindigkeiten kräftefreie Inertialsysteme zugrunde legen kann – aber genau dies gilt nach den Feldgleichungen der ART streng genommen gerade nicht. Und da es darum geht, eine bloße Herleitung, die zeigt, inwiefern zwei Theorien benachbart sind, von einer logischen Ableitung, die als direkte eliminative Reduktion eine der Theorien überflüssig zu machen beansprucht, zu unterscheiden, muss man in diesem Punkt streng sein: Streng würde man die Newtonschen Gesetze nur erhalten, wenn man nicht nur schwache Gravitationsfelder annimmt, sondern ein Universum ohne jegliche Raumkrümmung zugrunde legt, wohingegen die Newtonsche Theorie für Gravitationswechselwirkungen zwischen echten (!) Massen gilt, die laut Einstein immer eine Raumkrümmung mit sich bringen:5 „Rein qualitativ behaupten die Einsteinschen Gleichungen eben, dass Feld und Materie Gravitation erzeugen, und wo letztere fehlt, da ist auch nichts anderes mehr im Universum“ (Scheibe 1999, S.71) bzw. „The only obvious 5

In einem nichtleeren Universum gibt es immer Raumkrümmungen und flach kann nur ein leeres Universum sein. Nur erwähnt sei hier, dass die Feldgleichungen auch ein leeres Universum mit Raumkrümmung zulassen.

131

thing one can say is that Minkowski space-time of special relativity [entspricht der flachen Newtonschen Raumzeit] is a possible general relativistic space-time when the universe is empty of matter – which the actual universe surely is not“ (Sklar 1993, S.335f.) – globale Inertialsysteme innerhalb der Raumzeit der ART gibt es nur in einem leeren Universum, wohingegen die Newtonsche Gravitationstheorie als Theorie über Massenanziehung natürlich gerade für ein nichtleeres Universum gültig ist. Es handelt sich hier um einen Widerspruch zwischen den beiden Theorien, der eine logische Ableitung unmöglich macht. Dazu sei an die Diskussion der „Ableitung“ des Galileischen Fallgesetzes aus der Newtonschen Mechanik im zweiten Kapitel erinnert: Streng ergibt sich dieses aus der Newtonschen Theorie nur für Körper, die auf dem Boden liegen. Es gilt aber gerade für fallende Körper und die Beziehung zwischen diesem Gesetz und der Newtonschen Theorie kann daher wie, im vorliegenden Fall, nur ein mathematischer Vergleich sein.6 Nun wurde im zweiten Kapitel auch vorgeführt, dass solche Widersprüche durch Grenzübergänge kaschiert werden können. Davon wird auch in obiger „Ableitung“ Gebrauch gemacht, wobei die Grenzübergänge nicht explizit in der Rechnung verwendet werden, sondern in den zitierten vereinfachenden Annahmen stecken, in denen insbesondere ein Inertialsystem zugrunde gelegt wird. Begründet wird diese Annahme mit schwachen Gravitationsfeldern, aber streng genommen lässt sie sich nur in einem µ leeren Universum rechtfertigen: Entweder gilt Γαβ = 0 (Bedingung für µ ein Inertialsystem) oder nicht, und es kann nicht gleichzeitig Γαβ = 0

und Γi00 = ∂∂ Φ xi = 0 gelten, wie es obige „Ableitung“ mit der Begründung eines näherungsweise vorhandenen Inertialsystems nahelegt. An dieser Stelle liegt gerade der Unterschied zwischen hergeleiteten Gesetzen, die im Rahmen eines Theorienvergleichs näherungsweise gelten und Grundlage einer Nachbarschaftsrelation bilden können, und einer logischen Ableitung von Gesetzen, die eine direkte eliminative Reduktionen ergeben würde und eine Theorie überflüssig machen könnte – eliminativ ist eine Reduktion ohne logische Ableitung trotz möglichen Vergleichs nur dann, wenn die reduzierende Theorie auch alle Phänomene erklären kann, die von der zu reduzierenden erklärt werden, was aber eine andere Fragestellung ist, die erst in den nächsten Abschnitten untersucht wird. Die besagte Vereinfachung lässt sich nun weiterhin durch den Hinweis 6 Ähnliches

gilt übrigens auch für die vermeintliche Ableitung der Keplerschen Gesetze aus der Newtonschen Gravitationstheorie, worauf Sklar 1993 aufmerksam macht: „And if Newton’s laws hold, Kepler’s laws are not true. The planet and sun travel around the center of mass as focus, not the center of the sun, perturbations disturb the elliptical nature of the orbits, and so on“ (S.335).

132

plausibilisieren, dass die „abgeleiteten“ Gesetze für kleine Raumgebiete gelten würden, in denen man bei schwachen Gravitationsfeldern von einem Inertialsystem ausgehen kann – aber streng genommen kann man das nur in unendlich kleinen Raumgebieten, die Gesetze gelten sonst wiederum nur näherungs-, also vergleichsweise und werden nicht logisch abgeleitet. Dieser „etwas delikate[ ] infinitesimale[ ] Aspekt“ (Scheibe 1999, S.69) spielt auch bei einer Fassung des Äquivalenzprinzips eine Rolle, das etwa bei Misner et al. 1973 für „infinitesimally small regions of spacetime“ (a.a.O., S.386) formuliert wird und besagt, dass man in der ART lokal immer mit Inertialsystemen der Speziellen Relativitätstheorie rechnen kann, für die insbesondere µ auch Γαβ = 0 gilt. Die Diskussion dieser Fassung des Äquivalenzprinzips in Friedman 1983 ist auch für die vorliegende Fragestellung erhellend, da dort unterschieden wird zwischen Gesetzen, die lokal gelten und solchen, die nur für einen einzigen, infinitesimalen Punkt abgeleitet werden können: Was mit „infinitesimal kleinen Raumgebieten“ in dem Zusammenhang der Ableitung der Newtonschen Gesetze tatsächlich gemeint ist, spielt eine entscheidende Rolle. Infinitesimal im Sinne von „lokal“ würde heißen, dass man keinen Grenzübergang benötigt und das Gesetz tatsächlich streng für ein kleines Gebiet ableiten könnte. Dagegen bedeutet eine Ableitung mit Grenzübergang nur für ein infinitesimal kleines Raumgebiet, dass man nicht die Newtonschen Gesetze erhält, die nämlich den Anspruch erheben, auch für ausgedehnte Raumgebiete zu gelten, sondern einen mathematischen Vergleich mit Newtons Theorie und deren strenge Ableitung nur für einen mathematischen Punkt. Genauer heißt es in Friedman 1983 zu diesem Problem im Zusammenhang mit dem Äquivalenzprinzip: „Thus, although physics texts often claim that freely falling frames are ,locally‘ equivalent to inertial frames, this assertion is strictly false if ,local‘ has its usual mathematical meaning: local = on some neighborhood. If there is a nonvanishing gravitational field at p ∈ M, then K = 0 at p [die Krümmung ist ungleich Null], and there is no neighborhood of p in which Γijk = 0. Freely falling frames are only ,infinitesimal‘ equivalent to inertial frames: only at a single point or on a single trajectory.“ (a.a.O., S.200)

Diese Unterscheidung ist, wie gesagt, auch für die vorliegende Grenzfallproblematik ausschlaggebend, da auch hier die Existenz von Inertialsystemen gefordert wird, die es streng genommen nur für einzelne Punkte gibt – und eine „Ableitung“ nur für einen Punkt liefert eben lediglich einen approximativen Vergleich und keine Deduktion eines Gesetzes, das auch in einer echten Umgebung gilt. Eine solche Vergleichsmöglichkeit wird von Friedman übrigens gleich im nächsten Satz nachgeliefert: „Of course, freely

133

falling frames approximate inertial frames on a neighborhood of σ [einer Teilchenbahn]: the smaller the neighborhood, the better the approximation“ (ebd.), womit im Zusammenhang des Reduktionsproblems die Möglichkeit von Vergleichen eröffnet wird, wie sie Scheibe durchführt und wie sie gleich besprochen werden. Vorher sei aber noch eine weitere Unterscheidung von Friedman 1983 wiedergegeben, und zwar die zwischen „first-order laws“ und „second-order laws“ (a.a.O., S.202). Während erstere tatsächlich nur für einzelne Punkte gelten und mithin sinnvoll für infinitesimal kleine Gebiete abgeleitet werden können, gelten zweitere auch für eine echte Umgebung eines Punktes, wobei dieser Unterschied laut Friedman oft verwischt wird: „Standard formulations of the principle of equivalence characteristically obscure this crucial distinction between first-order laws and second-order laws by blurring the distinction between ,infinitesimal‘ laws, holding at a single point, and local laws, holding on a neighborhood of a point“ (ebd.). Während hier auf die Probleme des Äquivalenzprinzips nicht näher eingegangen werden soll,7 ist dieser Punkt dennoch für die vorliegende Untersuchung relevant, da Friedman auch darauf hinweist, dass „[...] none of the interesting laws of Newtonian gravitation theory are first order“ (S.203). Darauf wurde schon aufmerksam gemacht: Die Newtonschen Gesetze gelten auch für ausgedehnte Raumgebiete und wenn eine „Ableitung“ für unendlich kleine Raumgebiete meint zeigen zu können, dass die Newtonsche Gravitationstheorie im Sinne einer direkten eliminativen Reduktion in der ART enthalten ist, so beruht dieser Irrtum auf „[...] the physicist’s casual attitude toward the ,infinitesimal‘“ (S.202). Zusammenfassend lässt sich sagen, dass bei vermeintlichen Ableitungen der Newtonschen Gravitationstheorie aus der Allgemeinen Relativitätstheorie, wie sie gerade vorgeführt wurden, mittels vereinfachender Annahmen Grenzübergänge verwendet werden, die zwar mathematisch formal korrekt sind, physikalisch aber sinnlos bleiben: Entweder setzen sie ein leeres Universum voraus oder liefern Gesetze, die nur für einen einzelnen Punkt gelten. Nun wurde im einführenden Abschnitt zur ART auch das Äquivalenzprinzip als in gewissem Sinne vereinfachende Annahme bezeichnet – diese erfolgt aber innerhalb der ART und ist dort statthaft. Eine solche Vereinfachung kann dagegen nicht verwendet werden, um die Newtonsche Theorie logisch abzuleiten, da in dieser Körper mit „echten Massen“ eine Rolle spielen, deren Massen im Rahmen des Äquivalenzprinzips durch diese Vereinfachung gerade vernachlässigt würden. Wenn diese Vereinfachung innerhalb der ART besagt, dass man bestimmte Körper als masselos be7 Es

wurde oben schon in seiner üblichen Formulierung als vereinfachende Annahme charakterisiert.

134

trachten kann,8 kann sie nicht zur Ableitung einer Theorie herhalten, in der genau diese Körper als „echte Massen“ betrachtet werden. Kurzum, sich widersprechende Theorien können nicht in der Relation einer logischen Deduktion zueinander stehen, und Ableitungen, die das vorgeben, verbergen Widersprüche, ohne sie aufheben zu können. Dies betont auch Scheibe, wenn er festhält „Hier macht sich schließlich doch bemerkbar, dass diese üblichen Reduktions- und Korrespondenz-Betrachtungen die eigentliche Pointe der ART, die Gleichungen für die Gravitation, außer Acht lassen“ (Scheibe 1999, S.71) und diese Theorien dann in eine vergleichende Beziehung setzt. Direkte vergleichende Verbindungen zwischen Theorien sind nun aber im Allgemeinen nicht eliminativ – und auch Scheibes „Reduktionen“ stellen eher Vergleiche im Rahmen einer Nachbarschaftsrelation dar, als dass sie das von ihm anvisierte Überflüssigmachen reduzierter Theorien begründen können. Dies wurde im zweiten Kapitel allgemein herausgearbeitet und soll nun in angemessener Kürze9 an dem vorliegenden Fall rekapituliert werden. Scheibe ist sich zunächst darüber im Klaren, dass es eine exakte Reduktion, also eine logische Ableitung in diesem Fall nicht geben kann – dies wurde auch hier gerade gezeigt –, sondern höchstens eine Beziehung, die er, wie gesehen, in seinem Konzept approximative Reduktion nennt, was letztlich auf einen Vergleich verschiedener Theorien hinausläuft, woran eben auch schon erinnert wurde. In einem zweiten Schritt kommt Scheibe zu dem Schluss, dass es im Rahmen seiner approximativen Reduktion für diesen Fall auch keine Grenzfallreduktion geben kann, bei der die Theorie als ganze approximativ mit der reduzierenden verglichen wird, sondern höchstens asymptotische Reduktionen, bei denen zu einzelnen Lösungen bestimmter Gleichungen der reduzierenden Theorie, hier also der ART, Näherungslösungen von Gleichungen der zu reduzierenden Theorie, hier der Newtonschen Gravitationstheorie, gefunden werden können.10 Dies liegt im Wesentlichen daran, dass der Energie-Impuls-Tensor „in allen wichtigen Fällen definit [ist]“ (vgl. Scheibe 1999, S.73), so dass er insbesondere nicht zusammen mit dem Krümmungs8 Indem, wie ausgeführt, nur

ihre „schwere“ Masse als die Eigenschaft berücksichtigt wird, auf ein Schwerefeld zu reagieren, und man von der felderzeugenden Masse absieht. 9 Für die ausführliche Darstellung des Problems der Reduktion auf die ART vgl. Scheibe 1999, S.59-108. 10 Es sei noch einmal darauf hingewiesen, dass tatsächlich Lösungen der ART von solchen der Newtonschen Physik approximiert werden und nicht andersherum: Erstere ist in diesem Theorienpaar die „richtige“ Theorie, ihre Lösungen sind exakt und in diesem Sinne fest und werden von Lösungen der „falschen“, ungenauen und daher „flexiblen“ Theorie angenähert.

135

tensor, der sich in dieser Hinsicht anders verhält, gegen Null konvergieren kann. Dabei handelt es sich um eine mathematische Feinheit, die in obiger Ableitung an der Stelle des Koeffizientenvergleichs übergangen wurde und damit exemplarisch den Unterschied zwischen einer solchen „Ableitung“ durch „component manipulation“ und einem mathematisch sauberen Vergleich markiert – und insbesondere zeigt, dass es eine physikalisch gehaltvolle Ableitung in einem mathematisch exakten Sinn nicht geben kann. Der weitere Vorgang von Scheibes (asymptotischer) Reduktion sei hier nun lediglich kurz skizziert: Es werden die mathematischen Rahmen der beiden Theorien aneinander angepasst, indem eine „λ -Formulierung“ der ART eingeführt wird, in der die Grenz-, also Lichtgeschwindigkeit mit λ parametrisiert wird. Dieser Parameter wird dann zum Zwecke des topologischen Theorienvergleichs variabel gedacht, so dass insbesondere der Grenzfall λ → 0 untersucht werden kann, wobei Scheibe auf den „,metaphysischen‘ Charakter dieser Auffassung“ (S.62) lediglich hinweist und an seine allgemeinen Überlegungen dazu erinnert, auf die in Abschnitt 2.3 schon eingegangen wurde: Die Variabilität der Naturkonstante der Lichtgeschwindigkeit kann als Annahme möglicher Welten interpretiert werden und ist daher zum Zweck eines Theorienvergleichs durchaus legitim.11 Der Grenzfall λ = 0 dieser parametrisierten ART wird nun als quasinewtonsche Theorie bezeichnet, die „eine im Wesentlichen Newtonsche Gravitationstheorie ist“ (ebd.), dabei aber im Konzeptionsrahmen der ART bleibt und insbesondere innerhalb dieses Rahmens geometrisch formuliert ist. Diese schon erwähnte Art der geometrisierten Formulierung der Newtonschen Theorie geht auf Élie Cartan12 zurück und ist natürlich noch nicht die Newtonsche Theorie selbst. Die so geschaffene Anpassung der mathematischen Rahmen der beiden Theorien durch die Schaffung eines gemeinsamen topologischen Oberraums (vgl. Abschnitt 2.3) ermöglicht aber überhaupt erst einen Vergleich. Bei der Vermittlung zwischen diesen beiden angeglichenen Theorien spielt nun die sogenannte linearisierte Fassung der Allgemeinen Relativitätstheorie eine wesentliche Rolle, in der „die Einsteinschen Feldgleichungen durch ein System linearer Gleichungen ersetzt [werden], dessen Lösungen sich nur wenig von denen der Einsteinschen Gleichungen unterscheiden [...]“ (S.84). Die linearisierte ART wird im nächsten Abschnitt noch diskutiert, hier stellt sie zunächst einen wesentlichen Schritt zu dem Ergebnis dar, dass sich schließlich in der Nähe einer Lösungskurve der ART eine Kurve fin11 Der

Grenzübergang λ → 0 entspricht dabei dem Grenzübergang c → ∞. Damit gilt im Newtonschen Grenzfall offenbar c = ∞, was das Appellieren an die Vorstellung einer solchen möglichen Welt zwar sehr strapaziert, hier aber nicht problematisiert werden soll. 12 Misner et al. 1973 erläutern in §12 „Cartan’s ,Newtonian Spacetime‘“ (S.291).

136

den lässt, die einer entsprechenden Newtonschen Gleichung, geometrisch formuliert im Rahmen der quasinewtonschen Theorie, genügt. Scheibe geht dabei nicht so weit, wie in der oben wiedergegebenen Ableitung Christoffelsymbole mit dem Newtonschen Potential zu identifizieren, sondern führt als Hilfsgröße die (quasinewtonsche) Metrik g∗00 mit den zugehörigen Christoffelsymbolen Γi∗ 00 ein und belässt es bei der Formulierung Γi00 ≈ Γi∗ 00 =

∂Φ ∂ xi

(mit Φ statt U bei Scheibe, vgl. S.87f.), wobei das identifizierende Gleichheitszeichen für den Grenzfall λ = 0 im Rahmen der quasinewtonschen 2 Theorie gilt. Und statt die Newtonsche Bewegungsgleichung ddtx2i = − ∂∂ Φ xi wie oben abzuleiten, bescheidet er sich mit der Aussage: „Also vermuten wir in der Nähe von xµ (τ ) [einer Lösungskurve der ART] eine Kurve xi∗ (t) [eine Lösungskurve der quasinewtonschen Theorie] mit der Newtonschen Gleichung d 2 xi∗ ∂Φ = − dt 2 ∂ xi [...]“ (wieder in angepasster Schreibweise, vgl. S.88). Damit sind die geforderten Näherungslösungen angegeben und das ist auch alles, was sich mathematisch sauber als Vergleich realisieren lässt. Die oben zitierte Ableitung ist aufgrund des diskutierten „infinitesimalen Aspekts“ nie eine echte gewesen, sondern stellte ebenfalls nichts als einen Vergleich dar (worauf übrigens allein schon das Verwenden eines Koeffizientenvergleichs hinweist), der nur bei weitem nicht so differenziert wie bei Scheibe durchgeführt wurde. Erwähnt sei auch noch einmal, dass hier Lösungen der ART durch quasinewtonsche approximiert werden und nicht etwa andersherum, wodurch besonders augenfällig wird, dass ein solcher Vergleich allein nicht in der Lage ist, die Newtonsche Theorie, die dabei ohnehin als eigenständiger Vergleichspartner auftritt, überflüssig zu machen. Die asymptotische Reduktion im Sinne Scheibes scheint nun jedenfalls mit den angegebenen Näherungslösungen zunächst vollzogen, ist es aber immer noch nicht ganz, wie er abschließend zu bedenken gibt, da die geometrisch formulierte quasinewtonsche Theorie streng genommen innerhalb des konzeptionellen Rahmens der ART verbleibt: „Denn selbst, wenn am Schluss die Newtonsche Feldgleichung aufgetaucht ist, stehen wir mit der Metrik, auf die [sie] sich bezieht, noch mitten in der ART“ (S.89). Die geometrisierte Fassung der Newtonschen Theorie ist schließlich noch nicht die Newtonsche Theorie selbst, da in ersterer das Konzept der Kraft geometrisiert ist und Rohrlichs oben zitierte Bedenken, die die Möglichkeit

137

der Identifizierung von Christoffelsymbolen mit dem Konzept der Newtonschen „Kraft“ bezweifeln, bestehen bleiben. Das Brückengesetzproblem zeigt sich auch hier, da die Verschiedenheit der Konzepte nicht auf eine Weise überbrückt werden kann, die eine logische Deduktion ermöglicht – dieses Problem lässt sich nur auflösen, indem man die Verschiedenheit der Konzepte anerkennt und sie ohne den Anspruch einer logischen Ableitung miteinander vergleicht: Das ist alles, was eine direkte Verbindung zwischen Theorien leisten kann. Allerdings bleibt das zitierte Vorgehen von Scheibe nicht nur eine Reduktion lediglich der geometrisierten, quasinewtonschen Theorie, sondern auch bloß eine auf die linearisierte ART, wobei es zum einen „[...] unklar bleibt, in welchem genaueren Sinne hier eine Approximation vorgenommen wird und ob es [zum anderen] überhaupt strenge Lösungen der Einsteinschen Gleichungen gibt, auf die eine solche Approximation angewandt werden kann“ (ebd.). Es wird also zum einen lediglich die quasinewtonsche Theorie reduziert, die von der eigentlichen noch ein Stück entfernt ist, und zum anderen ist die reduzierende Theorie nicht die ART selbst, sondern deren linearisierte Fassung – so dass im Falle der Allgemeinen Relativitätstheorie innerhalb von Scheibes Reduktionskonzept durchaus noch Fragen offen bleiben. Nun sollen diese Probleme hier nicht vertieft und stattdessen mit Scheibe optimistisch unterstellt werden, dass sich die Zusammenhänge zwischen Newtonscher Physik und ART noch klarer herausarbeiten lassen. Denn so oder so dürfte klar geworden sein, dass es sich bei einer solchen „Reduktion“ nicht darum handelt, dass die Newtonsche Gravitationstheorie eliminativ als Grenzfall in der Allgemeinen Relativitätstheorie enthalten ist und einfach durch geeignete Zusatzannahmen aus ihr abgeleitet werden kann, sondern zunächst nur um die Nachbarschaft zweier verschiedener Theorien im Sinne von 2.4: Es lässt sich innerhalb eines Vergleichs der mathematischen Strukturen zeigen, dass die beiden Theorien insofern benachbart sind, als sich in besonderen Grenzlagen Näherungslösungen der Newtonschen Gleichungen für Lösungen der Gleichungen der ART finden lassen. Dies zeigt zwar, dass man in diesen Grenzlagen aus Sicht der ART guten Gewissens newtonsch rechnen kann, aber eben aus dem Grund, dass die Newtonsche Theorie zu der ART benachbart ist – und nicht, weil die Newtonsche Gravitationstheorie in der ART enthalten wäre. Dass es derartige Nachbarschaftsbeziehungen geben muss, ist nun eine verbreitete Überzeugung, die sich auch darin zeigt, dass in vielen Lehrbüchern, auf allerdings meist in unzulässiger Weise vereinfachten Wegen,

138

die Newtonsche Theorie als Grenzfall der ART herausgestellt wird13 – worum sich schließlich auch Einstein selbst bemüht hat, was zu Beginn des vorliegenden Abschnitts zitiert wurde. Es handelt sich aber bei diesen direkten Verbindungen um keine eliminative Reduktion: Dass ein bloßer Vergleich keine logische Ableitung darstellt, die die Überflüssigkeit einer Theorie begründen könnte, dürfte für diesen Fall noch einmal deutlich geworden sein. Von einer solchen Überflüssigkeit könnte nur die dann Rede sein, wenn sich gemäß der Reduktionsdefinition aus 2.4 in einem weiteren Schritt zeigen ließe, dass sich Phänomene, für die die Newtonsche Theorie einschlägig ist, auch mit der ART erklären lassen, wenn es also zusätzlich zur Nachbarschaft eine indirekte Reduktion gibt – wobei Schwierigkeiten vor allem bei Phänomenen außerhalb besagter Grenzlagen zu erwarten sind. Diese Fragestellung, um die allein es in diesem Kapitel eigentlich gehen sollte, wird nach dieser Rekapitulation der Ergebnisse des zweiten Kapitels am konkreten Beispiel der Allgemeinen Relativitätstheorie nun endlich untersucht.

3.3 Die linearisierte Allgemeine Relativitätstheorie und die PostNewtonsche Näherung

Nach diesen Ausführungen zum Grenzfallproblem sollen jetzt also die Erklärungsleistungen der Allgemeinen Relativitätstheorie diskutiert werden. Dazu sei in diesem Abschnitt zunächst die eben schon eingeführte linearisierte ART genauer in den Blick genommen und kurz die sogenannte Post-Newtonsche Näherung besprochen. Anschließend werden dann im nächsten Abschnitt Lösungen der allgemeinen Feldgleichungen untersucht und zum Abschluss des Kapitels schließlich die Grenzen der Erklärungsmöglichkeiten mit der ART herausgearbeitet. Aber nun zunächst zur linearisierten Theorie. Ganz am Anfang dieses Kapitels wurde kurz darauf hingewiesen, dass Einstein sich bei der Entwicklung der Feldgleichungen an der Newtonschen Theorie orientiert und von dieser aus seine Theorie entwickelt hat. Das Ergebnis, die Allgemeine Relativitätstheorie in Gestalt der Feld- nebst Bewegungsgleichungen, hat, wie gerade gesehen, insofern nicht mehr viel mit der Newtonschen Theorie gemein, als Beziehungen zwischen diesen Theorien mit einigem mathematischen Aufwand erst konstruiert werden müssen. Zur Ausarbeitung dieser Beziehungen wurde bei Scheibe 1999 eine Zwischenstufe der beiden Theorien verwendet, die man erhält, wenn man 13

Oben wurde exemplarisch der Weg in Misner et al. 1973 wiedergegeben.

139

gewissermaßen auf halbem Wege bei der „Ableitung“ der Newtonschen Theorie aus der ART stehen bleibt: Die linearisierte Theorie bzw. lineare Approximation der ART nämlich, die in Misner et al. 1973 „as weak-field limit of general relativity“ (S.435) bzw. „as standard ,field-theory‘ description of gravity in ,flat spacetime‘“ (ebd.) beschrieben wird. Diese ist nun ein merkwürdiges Zwitterwesen, da sie die „eigentliche ART“ der nichtlinearen Feldgleichungen schon verlassen hat, aber noch nicht bei der Newtonschen Theorie angelangt ist, beiden Theorien also widerspricht. Sie zeichnet sich dadurch aus, dass sie über Feldgleichungen verfügt, die denen der ART sehr nahe kommen, die aber eben linear sind. Während der Kernpunkt der ART nun gerade darin besteht, dass ihre Feldgleichungen nichtlinear sind, was auch das Lösen dieser Gleichungen erheblich verkompliziert, hat es die lineare Approximation mit linearen partiellen Differentialgleichungen zu tun, die leichter handhabbar sind, und kann deshalb für Erklärungen herangezogen werden, die die Allgemeine Relativitätstheorie selbst nicht, oder jedenfalls nicht so leicht, zulässt. Zunächst sei auf den letztgenannten Punkt der Erklärungsleistungen der linearisierten ART kurz eingegangen und dazu ein weiteres Lehrbuch der Physik zitiert: „Although it is true that the most spectacular results of gravitational theory depend in a crucial way on the nonlinearity of the field equations,14 almost all of the results that have been the subject of experimental investigation can be described by the linear approximation. For example, the deflection of light, the retardation of light, the gravitational time dilation, and gravitational radiation emerge in the linear approximation.“ (Ohanian 1994, S.130)15

Besagte „gravitational radiation“ wird nun in Form von Gravitationswellen abgegeben, deren Beschreibung wesentlich von den durch die Linearisierung entstandenen Vereinfachungen profitiert: Es handelt sich bei ihnen schließlich um bewegte Energie und mithin Masse, und das Phänomen der bewegten Masse wurde oben als besonderes Problem herausgestellt. In der ART gelten Bewegungsgleichungen zunächst nur für im Vergleich zur Gravitationsquelle masselos gedachte Teilchen – für alles andere müssen 14 Wichtige Vorhersagen, die auf der Nichtlinearität der Feldgleichungen beruhen, sind

etwa die Periheldrehung des Merkur, die sich aus der exakten Schwarzschildlösung der Feldgleichungen ergibt, kosmologische Betrachtungen, die auf der ebenfalls exakten Friedmannlösung beruhen, oder etwa die Vorhersage schwarzer Löcher, vgl. Abschnitt 3.4 für diese Erklärungsleistungen. 15 Damit ist insbesondere eine viel zitierte Anwendung der ART, die Möglichkeit der Ortsbestimmung mit GPS-Satelliten, die metergenau nur unter Berücksichtigung der gravitativen Zeitdilatation ist, eine Anwendung der linearisierten Theorie. Auch Gravitationslinsen werden mit den linearisierten Feldgleichungen behandelt.

140

die Feldgleichungen gelöst werden, was für bewegte Massen dadurch verkompliziert wird, dass sich in den Gleichungen die Masse unmittelbar auf das Feld auswirkt und vice versa, weshalb sich mit jeder Bewegung das Feld ändert und es damit eine neue Rückwirkung auf die Bewegung gibt. Nicht ohne Grund gelten die bisher gefundenen Lösungen der allgemeinen Feldgleichungen nur für jeweils eine unbewegte, höchstens rotierende Masse, abgesehen von „masselosen Massen“, wie Planeten im Schwerefeld „wirklicher“ Massen, und abgesehen auch von der Annahme des ganzen Universums als einer einzigen, homogenen Masse (vgl. Abschnitt 3.4). Dieses Problem nun wird in der linearisierten Fassung dadurch umgangen, dass als Hintergrund eine flache, ungekrümmte Raumzeit angenommen wird, womit es besagte Rückwirkungen nicht gibt. Insbesondere beruht also die Erklärung (bzw. Vorhersage) der Gravitationswellen, also echter, bewegter Energie bzw. Masse, geradezu auf der linearisierten Fassung – in Ohanian 1994 wird die lineare Approximation auch so charakterisiert: „[...]we neglect the effects of the gravitational field on itself“, und das trotz des Umstands, dass „[...] gravitational energy must gravitate, and the exact field equations must be nonlinear“ (S.130). Damit wird die besagte Rückwirkung der Materie auf das Feld vernachlässigt und das Lösen der Feldgleichungen eminent vereinfacht. Diese Vereinfachung ist allerdings nur in Anwendungsfällen gerechtfertigt, die dem Newtonschen „Grenzfall“ nahe kommen, also bei Phänomenen mit schwachen Gravitationsfeldern und kleinen Geschwindigkeiten – die linearisierte Theorie wird a.a.O. auch charakterisiert durch den Hinweis: „Furthermore, this approximation applies to all phenomena that lie in the region of overlap between Newton’s and Einstein’s theories“ (ebd.). Genauer heißt es bei Misner et al. 1973 dazu: „If, however, the lowest-order (linearized) gravitational ,forces‘ (Christoffel-symbol terms) have a significant influence on the motion of the sources of the gravitational field, one finds that the linearized field equation is inadequate, and better approximations to Einstein’s equations must be considered“ (a.a.O., S.443).16 So gilt insbesondere, dass die „emission by a double-star system, or by stellar oscillations that gravitational forces maintain, will require discussion of nonlinear terms (gravitational ,stressenergy‘) in the Einstein equations“ (ebd.). Gravitationswellen einer starken Quelle, bei denen die Rückwirkung des bewegten Feldes auf sich selbst eine erhebliche Rolle spielt, können also mit der linearisierten ART nicht beschrieben werden. Damit wurde der Erklärungsbereich der linearisierten Theorie abgesteckt – und Erklärungen mit den eigentlichen Einsteinschen Feldgleichungen, 16

Man beachte an dieser Stelle wieder die Leichtfertigkeit, mit der innerhalb dieser „Zwischentheorie“ Kräfte mit Christoffelsymbolen identifiziert werden.

141

die insbesondere nichtlineare Terme beinhalten, werden in Abschnitt 3.4 diskutiert. Allerdings ist die linearisierte Fassung dadurch so bedeutsam, dass sie die ART immerhin für Phänomene im Newtonschen Grenzbereich anwendbar macht, da auch für diese das Lösen der eigentlichen Feldgleichungen ungleich schwerer wäre. Dazu gibt Misner et al. 1973 noch einen Hinweis, wenn es im Zusammenhang mit der Ableitung der linearisierten Gleichungen zur Beschreibung von Gravitationswellen heißt, dass diese Gleichungen bei starken Gravitationsquellen nicht anwendbar sind und dass auch – im Gegensatz zu den Erklärungen der linearisierten ART für schwache Felder – keine effektive und allgemein anwendbare Erklärungsstrategie für solche Fälle bekannt ist: „It [die Formel für eine ,nearly Newtonian, slow-motion source‘] is not valid, except perhaps approximately, for fastmotion or strong-field sources. Moreover, there is no formalism available today which can handle effectively and in general the fast-motion case or the strong-field case“ (S.989). Der oben genannte Fall des Doppelsternsystems erfordert also zum Beispiel eine ganz andere Kategorie von Erklärung und die linearisierte Fassung ermöglicht in ihrem Bereich Erklärungen, die mit der eigentlichen ART ohne weiteres nicht zu haben wären. Nun soll diese linearisierte Theorie etwas genauer untersucht werden. Zunächst ist festzuhalten, dass sie der ursprünglichen ART, bestehend aus den oben angeführten Feldgleichungen, die die „eigentliche Pointe“17 der ART bilden, widerspricht. Dazu noch einmal Ohanian 1994: „The linear tensor theory of gravitation [...] started out as the theory of a tensor field in a flat spacetime background. [...] However, the analysis of spacetime measurements (clocks for time measurements and also for distance, by means of the radar-ranging procedure) has shown us that the flat spacetime background is purely fictitious – in a gravitational field, the real geometry measured by our instruments is the geometry of a curved space, that is, a Riemannian space.“ (a.a.O., S.302)

Die linearisierte ART widerspricht also der experimentell bestätigten ART des gekrümmten Raumes18 – ist aber, wie gerade angeführt wurde, nichtsdestotrotz in der Lage, viele Erklärungen zu liefern. Nun sollen in dieser Arbeit die Erklärungsleistungen der ART selbst ins Visier genommen werden und es ist daher zu fragen, ob Erklärungen mit der linearen Approximation auch mit entsprechenden Randbedingungen aus der 17

Scheibe 1999, S.71, volles Zitat vgl. oben. der Raum nur insofern als gekrümmt zu betrachten ist, als hier von der von Poincaré ins Spiel gebrachten Möglichkeit universeller Kräfte abgesehen wird, die die „wirkliche“ Geometrie des Raumes zu einer Sache der Konvention macht. 18 Wobei

142

ART selbst als eigenständige Erklärungsleistungen erhalten werden können – oder ob etwa die Spezielle Relativitätstheorie mit ihrer flachen Raumzeit eine Rolle spielt bzw. ob im Rahmen der linearisierten Fassung sogar Wissen der Newtonschen Theorie verwendet wird, wie es das obige Zitat nahelegt, in dem im Rahmen dieser Fassung Kräfte und Christoffelsymbole gleichwertig behandelt werden. Da es um die Frage einer möglichen eliminativen Reduktion der Newtonschen Gravitationstheorie geht, muss von einer unabhängig von dieser gefundenen ART ausgegangen und untersucht werden, inwieweit sich allein mit dieser Phänomene erklären lassen. Nun wurde schon darauf hingewiesen, dass sich die linearisierte Theorie durch die Annahme einer flachen Raumzeit auszeichnet – und genau diese Annahme muss nun als Zusatzannahme (bzw. Randbedingung) zu der „reinen“ ART der nichtlinearen Feldgleichungen hinzugenommen werden, um die lineare Approximation zu erhalten. Zu diesem Ergebnis kommt auch Scheibe 1999, der diese Annahme noch etwas präziser in zwei Schritten fasst (S.83f.): „A) Es gibt Koordinatensysteme, in denen die [metrischen Tensoren] g αβ nur wenig von der [flachen] Minkowski Metrik ηαβ abweichen. Auch die ersten und der gαβ sind klein von mindestens derselben Ordnung wie zweiten Ableitungen  gαβ − ηαβ . B) Über A) hinausgehend verhält sich in diesen Koordinatensystemen g αβ im Unendlichen asymptotisch wie ηαβ .“

Scheibe zeigt dann, inwiefern mit diesen beiden „Zusatzannahmen zur ART“ (S.83) die linearisierte Theorie gewonnen werden und als lineare Approximation gelten kann: „Jede strenge Lösung [der Einsteinschen Feldgleichungen], die A) und B) genügt, hat in ihrer beliebigen Nähe eine (strenge) Lösung [der linearisierten Feldgleichungen], wobei die Näherung um so besser ist, je besser [Bedingungen A) und B)] erfüllt [sind]“ (S.85). Diese Zusatzannahmen ermöglichen also im Rahmen der geforderten Koordinatensysteme eine Theorie, die zwar in der Nähe der ursprünglichen bleibt, ihr aber letztlich widerspricht. Nun ist es in der Physik durchaus üblich, Gleichungen zu linearisieren und unter Vernachlässigung von Termen höherer Ordnung zu rechnen, selbst wenn dabei ausgerechnet die Terme vernachlässigt werden, die gerade die Pointe der Theorie ausmachen – die hier eben in der Nichtlinearität der Feldgleichungen und damit in dem gekrümmten Raum besteht. Selbst wenn also die ART mit ihrem gekrümmten Raum allein nicht nahelegt, dass man auch in der linearen Näherung einer flachen Raumzeit produktiv rechnen kann, soll dennoch die linearisierte Theorie als unabhängig von der Speziellen Relativitätstheorie bzw. Newtonschen Theorie, nur durch

143

Vernachlässigung von Termen höherer Ordnung gefunden betrachtet und mithin von dem Zusatzcharakter obiger Annahmen abgesehen werden – denn schließlich wurde auch die ART selbst historisch von der Newtonschen Theorie her entwickelt. Nicht mehr absehen lässt sich aber davon, dass in der linearisierten Theorie Größen ins Spiel kommen, die ebenfalls nicht in der Theorie der Einsteinschen Feldgleichungen stecken, etwa, wenn man die aus der Geometrie stammenden Christoffelsymbole mit dem Konzept der „Kraft“ in Verbindung bringt oder Gleichungen für geodätische Kurven mit dem der „Masse“. Dabei handelt es sich nun wirklich um Konzepte der Newtonschen Physik, die nicht einer linearen Approximation der ART entspringen. So wird zum Beispiel bei der Entwicklung von Gleichungen zur Beschreibung von Gravitationswellen explizit das Newtonsche Potential verwendet, wenn etwa Misner et al. 1973 ein bestimmtes Gebiet wie folgt charakterisiert: „For any nearly Newtonian slow-motion system, there is a spacetime region deep inside the near zone, but outside the boundary of the source, in which vacuum Newtonian gravitation theory is nearly valid“ (a.a.O., S.991). Nun wurde zwar eingeräumt, dass eine solche Begründung die Verwendung der linearisierten Fassung rechtfertigen kann, wenn diese als unabhängig von der Newtonschen Theorie durch Vernachlässigung höherer Terme gefunden gedacht wird, aber wenn unter dieser Begründung nun mit dem Newtonschen Potential selbst gerechnet wird, verlässt man schließlich doch den Rahmen der ART, da die Newtonsche Theorie, wie gezeigt, eben nicht in einer direkten eliminativen Reduktion als Grenzfall in ihr enthalten ist. Ob die Verwendung des Newtonschen Potentials dabei tatsächlich erforderlich ist, sei hier dahingestellt. In der Physik wird es jedenfalls vereinfachend hinzugezogen, wobei es sich zwar um ein aufgrund von Nachbarschaftsüberlegungen gut begründetes Vorgehen handelt, das aber zeigt, dass eliminative Erklärungen mit der ART allein nicht ohne weiteres zu haben sind. Derartige Erklärungen innerhalb der linearisierten Theorie nehmen endgültig den Charakter einer Mischtheorie an, wenn das Newtonsche Potential, das schließlich eine Fernwirkungskraft beschreibt, zur Erklärung von Gravitationswellen nicht nur wie eben hinzugezogen, sondern zum Zweck einer relativistischen Erklärung noch um einen retardierenden Term ergänzt wird, um ein „tiny ,radiation-reaction‘ potential“ (S.993), so dass man schließlich ein Potential der Form Φ = Φstandard Newtonian theory + Φreact verwendet (ebd.). Es werden in solchen Herleitungen von Gravitationswellengleichungen weiterhin Argumente benutzt, die explizit der Newtonschen Theorie entstammen: „Standard Newtonian theory conserves the energy and angular momentum. Therefore only the reaction part of the potential can produce losses“ (S.994). Und schließlich wird im Rahmen der linearisierten ART zur empirischen Bestimmung der Masse eines Sternes sogar auf die

144

Keplerschen Gesetze verwiesen, anstatt sie direkt mit Hilfe der Gleichungen der linearisierten ART zu bestimmen: „One does not have to know the inner workings of a star to define its mass (influence on Kepler orbits outside)“ (S.996). Dies sind natürlich alles legitime Erklärungen, wie sie in der Physik gebräuchlich sind, die aber zeigen, dass es in der Physik eben gängig ist, Konzepte verschiedener Theorien zur Erklärung bestimmter Phänomene heranzuziehen: Während sich die linearisierte ART selbst noch als unabhängig von der Newtonschen Theorie gefunden denken lässt, sprengen Erklärungen mit ihr, wie sie zitiert wurden, doch den Rahmen der ART und verwenden explizit Newtonsche Physik. Auch wenn die linearisierte ART in ihrer Formulierung zunächst im Rahmen der ART bleibt, zeigen typische Anwendungen, dass in ihr zur Vereinfachung Newtonsche Konzepte verwendet werden, was sie schließlich doch zu einer Mischtheorie aus ART und Newtonscher Physik werden lässt. Und wenn die so erklärten Phänomene sich nicht auf anderem Wege mit der ART erklären lassen, was in den nächsten Abschnitten untersucht wird, lassen sie sich eben nicht mit der ART allein erklären. Doch vor dieser weiteren Untersuchung soll noch eine andere Mischtheorie aus diesen beiden Theorien kurz erwähnt werden, die Post-Newtonsche Näherung. Bei dieser handelt es sich im Wesentlichen um eine relativistische Korrektur der Newtonschen Physik (vgl. Misner et al. 1973, S. 1068ff.), die also insbesondere von der Newtonschen Gravitationstheorie ausgeht und diese um Korrekturterme zweiter Ordnung, um „post-Newtonian corrections to the Newtonian treatment in ,second order‘“ (a.a.O., S.1069) ergänzt. Für das Ergebnis gilt: „The resultant three-dimensional formalism will look more like Newtonian theory than like general relativity – as, indeed, one wishes to; after all, one’s goal is to study small relativistic corrections to Newtonian theory!“ (S.1074). Auch diese Mischtheorie, die explizit auf den Füßen der Newtonschen Physik steht, ermöglicht die Erklärung zahlreicher Phänomene, die der ART selbst zunächst verschlossen wären: „The PPN [Parametrized Post-Newtonian] formalism is used not only in interpreting experimental tests of gravitation theories, but also as a powerful tool in theoretical astrophysics. [...] This post-Newtonian approximation can then be used (and has been used extensively) to calculate general relativistic corrections to such phenomena as the structure and stability of stars“ (S.1073) – und dies notabene ohne Lösung der Feldgleichungen mit einer durch Korrekturterme angereicherten Newtonschen Theorie.19 19

Es ist übrigens bemerkenswert, wie in ein und demselben Buch erst der Anspruch erhoben wird, gezeigt zu haben, dass die Newtonsche Theorie als Grenzfall in der ART enthalten ist (und mithin eigentlich gar nicht mehr benötigt wird), und dann dennoch

145

Wenn man also berücksichtigt, dass die Newtonsche Theorie nicht im Sinne einer direkten eliminativen Reduktion als Grenzfall in der ART enthalten ist, wurden mit den Erklärungen der beiden Mischtheorien der linearisierten ART und der Post-Newtonschen Näherung bereits etliche Phänomene aufgezeigt, die zunächst nicht von der ART selbst erklärt werden. Ob deren Erklärung ohne die Hilfe der Newtonschen Physik mit der ART allein möglich ist, wird in den nächsten beiden Abschnitten untersucht. Diese Möglichkeit von Mischtheorien zwischen ART und Newtonscher Physik zeigt nun aber zunächst über Scheibes mehr oder weniger gelungene asymptotische Reduktion hinaus das Bestehen einer Nachbarschaftsbeziehung im Sinne von 2.4 zwischen diesen Theorien, wobei durch diese Mischtheorien insbesondere das zusätzliche Kennzeichen der gegenseitigen Befruchtung erfüllt wird. Gegenseitig, da zum einen Newtons Theorie verbessert und zum anderen die ART für bestimmte Phänomene überhaupt erst anwendbar wird. Insgesamt zeigt sich hier an einem konkreten Beispiel, wie die formal definierte Nachbarschaftsrelation zu verstehen ist. Allerdings bleibt bei zunächst bloßer Nachbarschaft weiterhin die Frage nach einer echten, nämlich eliminativen Reduktion im Sinne von 2.4 bestehen. Nun gibt es aber natürlich auch erfolgreiche Erklärungen mit den Feldgleichungen selbst – und diese sollen nun besprochen werden. Und vielleicht lassen sich auf diese Weise auch die Phänomene der linearisierten ART bzw. der Post-Newtonschen Näherung erklären. 3.4 Erklärungen mit den Einsteinschen Feldgleichungen

Nun sollen also genuin allgemein-relativistische Erklärungen diskutiert werden, die auf Lösungen der Einsteinschen Feldgleichungen beruhen. Im einführenden Abschnitt 3.1 wurde auf die Schwierigkeiten aufmerksam gemacht, die das Lösen dieser Feldgleichungen mit sich bringt. Insbesondere wurde herausgestellt, wie kompliziert es ist, bewegte Materie zu beschreiben. Eingedenk der Komplexität der Gleichungen ist es nicht erstaunlich, dass nur wenige exakte Lösungen der Feldgleichungen gefunden wurden, und dann eben nur für Fälle, die auf stark vereinfachenden Annahmen beruhen. So gibt es im Wesentlichen mit der Friedmannlösung eine, die unter Zuhilfenahme der sogenannten Robertson-Walker-Raumzeit, die „mitbewegte“ Koordinaten liefert, das Universum als Ganzes beschreibt, und mit der Schwarzschildlösung eine, mit der sich das Schwerefeld um eine kugelsymmetrische Masse herum bestimmen lässt. Für letztere gibt es mit der bei astrophysikalischen Erklärungen in erheblichem Umfang Newtonsche Konzepte verwendet werden. So leicht ist es also offenbar mit dem Enthaltensein nicht.

146

Kruskal-Raumzeit eine Erweiterung für das Innere solcher Massen und für schwarze Löcher und noch zwei verwandte Lösungen, einmal die Kerrlösung für eine rotierende Masse und die Nordströmlösung für eine elektrisch geladene Masse.20 Hier sei nun kurz einiges zur Friedmann- und Schwarzschildlösung gesagt – und dann mit letzterer die Erklärung von Planetenbahnen betrachtet. Im nächsten Abschnitt soll dann auf die Grenzen der Erklärung mit den Feldgleichungen eingegangen werden, die sich hier schon darin abzeichnen, dass man exakte Lösungen nur für einzelne Massen (oder gleich das ganze Universum) findet und dagegen Phänomene wie interagierende Planeten, Doppelsterne oder Galaxien, bei denen die Massenstruktur deutlich komplizierter ist als die einer zentralen (bzw. homogen über das ganze Universum verteilten) Masse, zunächst auf der Strecke bleiben. Die Friedmannlösung beruht nun auf der Annahme, dass das Universum als eine ideale Flüssigkeit betrachtet werden kann, deren Moleküle von Galaxien gebildet werden.21 Diese Annahme ist insofern gerechtfertigt, als keine Asymmetrie in der Verteilung der Galaxien beobachtet wird. Sie treten zwar in Clustern auf, die ihrerseits in Clustern angeordnet sind – aber im großen Maßstab der Kosmologie erscheint das Universum von unserer Galaxie aus gesehen in allen Richtungen gleichartig. Mit dieser Annahme erhält man die Friedmannlösung der Einsteinschen Feldgleichungen, die kosmologische Betrachtungen erlaubt, die der Newtonschen Mechanik nicht zugänglich sind: Wir haben es mit einem expandieren Universum zu tun (diese Lösung erklärt mithin den Beobachtungsbefund der Ausdehnung des Universums nach Hubble), das abhängig von der Masseverteilung wieder kontrahiert oder sich ewig weiter ausdehnt. Es lassen sich Aussagen zum Alter des Universums treffen und die kosmologische Rotverschiebung und eben das Gesetz von Hubble erklären. Dabei ist der Friedmannlösung zuzugestehen, dass sie zum einen mit legitimen Randbedingungen (den oben genannten vereinfachenden Annahmen), die insbesondere nicht auf die Newtonsche Physik rekurrieren,22 gefunden werden kann, und zum anderen Erklärungen bietet, die die Newtonsche Theorie nicht liefert. Die Annahmen bzw. Randbedingungen, die zur Schwarzschildlösung führen, sind die einer zentralen, kugelsymmetrischen und statischen Masse, wobei sich die letzten beiden Eigenschaften auch auf das entsprechende Gra20

Daneben wurden in jüngerer Zeit noch exotische Lösungen gefunden, wie etwa 1995 die einer unendlich dünnen Scheibe (vgl. Neugebauer/Meinel 1995), die unten noch besprochen wird. 21 Eine andere geläufige Vorstellung ist die dazu analoge vom Universum als gleichmäßig verteiltem Staub. 22 Bis auf das Vorwissen, das über Eigenschaften idealer Flüssigkeiten Auskunft gibt, wobei es sich aber schließlich nicht um Wissen um das Newtonsche Gravitationsgesetz handelt.

147

vitationsfeld übertragen, und die Forderung, dass die Metrik im Unendlichen asymptotisch in die flache Minkowskimetrik übergeht. Auch mit diesen Randbedingungen erhält man eine Lösung der Feldgleichungen, ohne dass die Newtonsche Theorie involviert ist. Allerdings wird dabei die Identifizierung einer in der Ableitung auftretenden Integrationskonstanten mit dem Wert der zentralen Masse durch einen (übrigens nicht direkten) Vergleich mit der entsprechenden Lösung der linearen Approximation gerechtfertigt (vgl. etwa Ohanian 1994, S. 395f.). In Misner et al. 1973 wird dazu sogar mit der Newtonschen Theorie selbst verglichen, indem die Schwarzschildlösung mit der zunächst ungedeuteten Integrationskonstanten M in einem Gebiet betrachtet wird, „where the geometry is nearly flat“ (a.a.O., S.607), wo also die Newtonsche Gravitationstheorie gilt und sich als Potential Φ = −M/r ergibt. Daraus wird geschlossen: „Consequently, M is the mass that governs the Keplerian motions of planets in the distant, Newtonian gravitational field – i.e., it is the star’s ,total mass-energy‘“ (ebd.). Diese Rechtfertigung der Deutung einer Größe mit Hilfe eines Vergleichs mit Newtonscher Physik23 sei an dieser Stelle noch zugestanden, da man mit dieser kleinen Krücke immerhin eine exakte Lösung der nichtlinearen Gleichungen erhält, wird aber später zu einem Argument gegen die prinzipielle Möglichkeit führen, rein numerisch kompliziertere Gebilde zu beschreiben. Es gibt nämlich in der ART ein generelles Deutungsproblem für Größen, die bei exakten und dann erst recht bei numerischen Lösungen auftreten: „In general relativity, because the use of arbitrary coordinates is permitted, the physical significance of statements about tensor or vector components and other quantities is not always obvious“ (a.a.O., S.595), wobei nicht nur für die Rechtfertigung von Deutungen, sondern für die Bestimmung der „physical significance“ numerischer Größen überhaupt Newtonsche Physik benötigt wird, was, wie in Abschnitt 2.5 ausgeführt, für die Fragestellung eliminativer Reduktionen relevant ist. Jedenfalls lässt sich nun mit der Schwarzschildlösung das Schwerefeld außerhalb der zentralen Masse bestimmen, so 23 In

Bartels 1994 ist das zweite Kapitel genau diesem Vergleich gewidmet und arbeitet vor allem heraus, dass es sich trotz Vergleichbarkeit um verschiedene Konzepte handelt: Da es in der ART auch Krümmungen ohne Newtonsche Massen gibt und die Gravitation geometrisiert wurde, können Newtonsche Konzepte wie „Masse“ und „Kraft“ nicht in ihrer ursprünglichen Bedeutung auf diese Theorie übertragen werden – die Schwarzschildmasse der ART bezeichnet etwas anderes als die Newtonsche Masse: „Sollte die Integrationskonstante ,C‘, die in der Herleitung der [Schwarzschild-]Lösung auftritt, tatsächlich als ,Masse‘ interpretierbar sein, so kann ,Masse‘ danach jedenfalls nicht in der gleichen Bedeutung auftreten wie in der Newtonschen Theorie“ (a.a.O., S.122). Auf das Konzept der semantischen Einbettung, das Bartels 1994 in diesem Zusammenhang ins Spiel bringt, wurde in 2.2 schon hingewiesen: Es bietet eine Vergleichsmöglichkeit, die allerdings nicht zu einem deduktiven Verhältnis führt.

148

dass sich insbesondere mit der Gleichung für geodätische Kurven die Bahnen masseloser Probeteilchen innerhalb dieser Geometrie beschreiben lassen. Wenn man also die Sonne als zentrale Masse und die Planeten als solche Probeteilchen auffasst, erhält man damit ein Modell des Sonnensystems, das weit präziser ist als das Newtonsche der Keplerbahnen. Die entscheidende Verbesserung, die dieses Modell dem der Keplerbahnen voraus hat und die ein wichtiges bestätigendes Ergebnis für Einstein war,24 ist die Erklärung der Perihelpräzession der Ellipsenbahnen der Planeten. Auch in Newtons Theorie gibt es diese Periheldrehungen, die aber auf die nicht perfekte Symmetrie der Sonne und vor allem auf Einflüsse anderer Planeten zurückgehen – sieht man von diesen Effekten ab, liefert die Newtonsche Gravitationstheorie Ellipsenbahnen, die sich nicht drehen. Allerdings wird beim Merkur eine Perihelbewegung gemessen, die um etwa 43 Bogensekunden pro Jahrhundert von der der Newtonschen Vorhersage abweicht – und diese Beobachtung wird nun von der Schwarzschildlösung erklärt. Die geodätische Kurve für Planeten in der Schwarzschildlösung ist in dem besagten idealisierten Fall nämlich keine Ellipsen- sondern eine Rosettenbahn, also eine sich drehende Ellipse – und für den Merkur mit einer Perihelpräzession von just 43 Bogensekunden in hundert Jahren.25 Ein großer Erfolg für die Allgemeine Relativitätstheorie. Da hier aber die Schwierigkeiten der Erklärung mit der ART herausgearbeitet werden sollen, sei noch bemerkt, dass auch die Periheldrehung nicht ganz direkt aus der Bewegungsgleichung der Schwarzschildlösung folgt: Zum einen taucht nämlich in der Ableitung der Bahnkurve eine Differentialgleichung zweiter Ordnung auf, bei der man üblicherweise, um nicht auf numerische Lösungen angewiesen zu sein, den linearen Term der Kurve als Unbekannte stehen lässt, und den quadratischen einfach durch die Newtonsche Lösung, also durch die besagte Ellipsenbahn, ersetzt (vgl. Ohanian 1994, S.403f.). Auch die Rosettenlösung beruht also auf einer eigentümlichen Mischung aus Newtonscher Theorie und Allgemeiner Relativitätstheorie, was aber wiederum nicht problematisiert werden soll, da es sich um eine Vereinfachung handelt, die nicht wesentlich von der Lösung der ART wegführt: Dies sei als kleine Rechenhilfe zugestanden, da sie sich innerhalb einer exakten Lösung der nichtlinearen Gleichungen abspielt. Zum anderen ist die Differentialgleichung auch dann noch zu kompliziert, als dass sie sich analytisch lösen ließe, weshalb weitere Terme vernachlässigt werden müssen und folgende Bemerkung Scheibes gilt: „Die entsprechenden Lösungen [...] lassen sich nicht in exakter Form geschlossen angeben. Es folgt aber streng, 24

Es handelt sich sogar um die erste empirische Bestätigung der ART überhaupt. Ähnliche Übereinstimmungen zwischen Messung und Vorhersage der ART liegen vor für Venus, Erde und Mars, vgl. Ohanian 1994, S.406. 25

149

dass es um eine Rosettenbahn geht, deren Einhüllende zwei konzentrische Kreise sind, auf denen in immer gleichen Winkelabständen die Perihelia und Aphelia der Bahn bezüglich des gemeinsamen Mittelpunktes der Kreise liegen“ (Scheibe 1999, S.99). Und diese Winkelabstände lassen sich, wie gesagt, näherungsweise zu 43 Bogensekunden pro Jahrhundert berechnen. Wenn man diese mathematischen Schwierigkeiten auf sich beruhen lässt, handelt es sich mit dem Schwarzschildmodell des Sonnensystems um eine einschlägige Verbesserung des Newtonschen Modells, eine Erklärungsleistung also, die für eine echte Reduktion der Newtonschen Theorie des Sonnensystems auf die der Schwarzschildlösung spricht, wenn man denn solche Modelle als Theorien bezeichnen möchte. Bevor nun nach diesen Beispielen für gelungene Erklärungen die Erklärungsgrenzen der ART besprochen werden, seien noch zwei Bemerkungen zu diesem letztgenannten Erfolg verloren. Zum Ersten unternimmt Scheibe für diesen Fall eine individuelle Grenzfallbetrachtung – und stößt dabei an Grenzen seines Reduktionskonzepts: „Denn unter welchen Bedingungen für die ganze Rosettenbahn sollte eine solche Bahn schließlich durch eine (wiederholt zu durchlaufende) Ellipse approximiert werden können?“ (Scheibe 1999, S.100). Allerdings soll hier nichtsdestotrotz von Nachbarschaft die Rede sein: Diese steht schließlich nicht, im Gegensatz zu Scheibes Intuition für seine Reduktionen, für eliminative Relationen, sondern beruht lediglich auf Vergleichen zwischen verschiedenen Gesetzen. Auch wenn eine Rosettenbahn qualitativ etwas ganz anderes als eine Ellipsenbahn ist, stellt der zwischen diesen Ergebnissen mögliche Vergleich ein weiteres Beispiel für eine Nachbarschaftsbeziehung dar, die vergleichende Verbindungen zwischen sich widersprechenden Theorien liefert.26 Scheibes Bedenken zeigen lediglich, dass eine direkte eliminative Reduktion hier nicht vorliegt, wohingegen es sich in diesem Fall durchaus um eine Reduktion im Sinne von 2.4 handelt, bei der neben (direkter) Theoriennachbarschaft noch (indirekte) Phänomenerklärung verlangt wird, die hier klarerweise gegeben ist.27 Zum Zweiten soll darauf hingewiesen werden, dass sich die Rosettenbahn noch nicht aus der linearisierten Theorie ergibt – dafür bedarf es der hier vorhandenen Lösung der nichtlinearen 26 Für

Scheibe ist es allerdings nicht so leicht einzusehen, inwiefern das Schwarzschildmodell im Rahmen der ART die Verbesserung des Newtonschen Modells ist: Dies hängt für ihn noch davon ab, wie das Schwarzschildmodell genau an die Keplerbahnen der Newtonschen Gravitationstheorie anknüpft – womit ersteres für ihn noch eine offene Frage bleibt, vgl. a.a.O., S.100f., während von Nachbarschaft auch angesichts dieser Diskrepanz gesprochen werden kann. 27 Wenn man von den gleich in 3.5 zu besprechenden Interaktionen der Planeten untereinander, deren Berücksichtigung für das Verständnis des Sonnensystems ebenso notwendig ist, einmal absieht: Erklärt werden immerhin die Planetenbahnen ohne Störungseinflüsse, und darin besser, als von der Newtonschen Gravitationstheorie.

150

Feldgleichungen. Die Newtonsche Theorie ergibt ohne die Berücksichtigung von Störungseinflüssen anderer Planeten perfekte Ellipsen und laut Misner et al. 1973 liefert die linearisierte Fassung der ART „[...] sufficient accuracy to predict correctly (fractional errors ∼10−6 ) the bending of light and the gravitational redshift in the solar system, but not perihelion shifts“ (a.a.O., S.446). Dies soll an dieser Stelle noch einmal auf die Grenzen der Mischtheorie der linearisierten ART verweisen und außerdem auf die Bedenklichkeit des Umstandes aufmerksam machen, dass bei der Auffindung der Schwarzschildlösung die Identifizierung der besagten Integrationskonstante mit der zentralen Masse durch den Vergleich mit der linearisiserten ART (bzw. sogar mit der Newtonschen Theorie) gerechtfertigt wird, womit also eine in Hinsicht auf das Ergebnis der Planetenbahnen doch ganz andere Theorie zu Hilfe genommen wurde – diese Bedenklichkeit wurde hier noch außer Acht gelassen, wird aber gleich aufgegriffen. Nun seien nämlich endlich die Grenzen der Erklärungen mit der Allgemeinen Relativitätstheorie in den Blick genommen, wozu alle Fäden, die bis hier ausgelegt wurden, schließlich und endlich zusammengeführt werden. 3.5 Erklärungsgrenzen der Allgemeinen Relativitätstheorie

Es war schon oft die Rede davon, an welcher Stelle die Erklärungsgrenzen der Allgemeinen Relativitätstheorie zu suchen sein werden: bei der Beschreibung von bewegter Materie nämlich, die nicht als masseloses Probeteilchen mit der Gleichung für geodätische Kurven behandelt werden kann. Auf die entsprechenden strukturellen Schwierigkeiten in den Einsteinschen Feldgleichungen wurde in Abschnitt 3.1 eingegangen. Außerdem wurde gerade in Abschnitt 3.4 mit der Betrachtung der exakten Lösungen der nichtlinearen Feldgleichungen ein Gespür dafür vermittelt, für welche einfachen Konstellationen diese zunächst nur anwendbar sind, nämlich für einzelne, (kugel-)symmetrische Massen oder ein ganzes Universum als gleichmäßig verteilte bzw. als Flüssigkeit zu denkende Masse. Schwierig wird es dann schon allein für das Zwei-Körper-Problem und somit auch für Wechselwirkungen zwischen den Planeten im Sonnensystem, die nur jeweils im Vergleich zur Sonne masselos gedacht werden können, aber nicht untereinander. Wenn also die ART zwar die gemessene Abweichung der Perihelpräzession von der Newtonschen Vorhersage erklären kann, ist sie gleichwohl zunächst einmal nicht in der Lage, die zusätzliche Periheldrehung, die durch den Einfluss anderer Planeten hinzukommt und wie sie von der Newtonschen Gravitationstheorie vorhergesagt wird, zu bestimmen. So geht der größte Anteil der Periheldrehung des Merkur auf den Einfluss der Venus zurück, auch der Einfluss des Jupiter ist erheblich

151

und selbst die Störung durch die anderen Planeten ist größer, als die 43 Bogensekunden pro Jahrhundert, die durch die Schwarzschildlösung erklärt werden. Da die erstgenannten, wesentlichen Einflüsse von der ART nicht erfasst werden, liefert sie zwar eine kleine Korrektur in der Beschreibung Periheldrehung, kann sonst aber zu der Physik des Sonnensystems nicht viel beitragen. Dazu wurde in Abschnitt 1.2 schon Weinberg 1993 zitiert: „[...] general relativity contributed very little to our understanding of the Solar System or the tides. We already knew enough to calculate planetary orbits with great precision, and general relativity did not help us with the major puzzles still outstanding (long-term stability, tidal dissipation), only with one tiny anomaly in the orbit of Mercury“ (a.a.O., S.475f.). Über die bloße Wechselwirkung der Planeten hinaus kann die ART demnach auch nichts über die Stabilität der Planetenbahnen oder den Energieverlust durch Gezeiten aussagen. Weiterhin lässt sich die ART der nichtlinearen Feldgleichungen nicht ohne weiteres auf Doppelsternsysteme, Sternhaufen oder Galaxien bzw. Galaxiencluster anwenden. Zwar existiert eine exakte Lösung der Feldgleichungen für eine unendlich dünne Scheibe,28 die stark vereinfachend zur Beschreibung von Galaxien herangezogen werden kann, die aber komplexere Gebilde, wie etwa Galaxien mit Spiralarmen oder mit noch spezielleren Strukturen, sicher nicht erfasst. Kurzum, bei allen Phänomenen, bei denen Massen im Spiel sind, die nicht als masselos im Schwerefeld einer großen Masse gedacht werden können, sobald man es auch nur mit zwei solcher „echten“ Massen zu tun hat, oder bei Gebilden, die nicht (kugel-)symmetrisch sind und die sich dann etwa auch noch bewegen, ist die ART der nichtlinearen Feldgleichungen nicht ohne weiteres anwendbar. Und in der Tat rechnet man in der Astrophysik in solchen Fällen nicht einmal in der linearisierten ART, da man schließlich, wie oben zitiert wurde, um deren Nichtanwendbarkeit für die beschriebenen Fälle mit starken Gravitationsquellen, die unter Umständen sogar noch untereinander wechselwirken, weiß, sondern in Post-Newtonscher Näherung (also im Rahmen der Newtonschen Theorie) und oft auch schlichtweg mit der klassischen Newtonschen Gravitationstheorie. So wird zum Beispiel die Gesamtmasse von Doppelsternsystemen mit Hilfe der Keplerschen Gesetze 28 Die

Lösung der sogenannten Einsteinschen Scheibe (Einsteinian disk) wurde 1995 von Neugebauer und Meinel gefunden: „An infinitesimally thin disk of dust rotating uniformly around its symmetry axis is the simplest model of a rotating self-gravitating body. Within Newton’s theory of gravitation this model is described by the Maclaurin solution of the Laplace equation. In the present Letter we show that the model of a uniformly rotating disk of dust allows for an explicit analytic solution in Einstein’s theory of gravitation as well. This seems to be the first rigorous global solution of the rotating body problem (for perfect fluids with p = 0 [unendlich dünn]) in general relativity“ (Neugebauer/Meinel 1995, S.3046).

152

durch Messung von großer Halbachse und Umlaufzeit bestimmt, während oben Misner et al. damit zitiert wurde, dass die Beschreibung von Gravitationswellen, die von einer so starken Quelle wie einem Doppelsternsystem ausgehen, mit der linearisierten ART nicht möglich ist, und dass es auch keine effektive und allgemein anwendbare Methode gibt, für solche Fälle die nichtlinearen Feldgleichungen zu lösen. Auch Galaxien werden, von dem stark idealisierten Fall der Einsteinschen Scheibe abgesehen, newtonsch beschrieben, worauf unten noch einmal gesondert eingegangen wird. An diesem Punkt lässt sich nun das bis hier vorliegende dritte Kapitel wunderbar rekapitulieren. Zunächst zeigte die Diskussion der Feldgleichungen in Abschnitt 3.1, dass in den aufgeführten Fällen Schwierigkeiten zu erwarten waren. Und jetzt wird schließlich auch klar, warum großer Wert darauf gelegt wurde, in Abschnitt 3.2 festzuhalten, dass die Newtonsche Physik nicht einfach eliminativ als Grenzfall in der Allgemeinen Relativitätstheorie enthalten ist: Wenn man bei den aufgezählten Phänomenen nämlich faktisch newtonsch rechnet, rechnet man damit explizit nicht mit der ART. Deshalb ist die gängige Rechtfertigung der Astrophysik, bei Berechnungen mit der Newtonschen Theorie den Rahmen der ART nicht zu verlassen, da es sich um einen in ihr enthaltenen Grenzfall handele, unzulässig: Gerechtfertigt ist durch diese Nachbarschaftsbeziehung lediglich das Hinzuziehen der Newtonschen Theorie, wobei es sich aber um das Hinzuziehen einer zusätzlichen Theorie handelt. Weiterhin wurde in Abschnitt 3.3 die linearisierte ART behandelt, wobei sich zeigte, dass man selbst bei der Erklärung von einfacheren Phänomenen als den hier aufgeführten, die sich noch im Zwischenbereich von Newtonscher Physik und nichtlinearer ART befinden, oft schon auf Konzepte der Newtonschen Theorie zurückgreift, dass also selbst Erklärungen einfacherer Phänomene mit der linearisierten Fassung typischerweise keine Erklärungen der ART allein sind. Außerdem wurde auch die Erklärung von „Zwischenphänomenen“ mit der Post-Newtonschen Näherung besprochen, bei der erst Recht der Rahmen der ART verlassen wird. Zuletzt zeigte dann der Abschnitt 3.4, wie exakte Lösungen der Feldgleichungen aussehen – und damit, dass solche echten Erklärungen der ART zunächst nur für sehr ausgewählte Konstellationen existieren. Selbst die von der linearisierten Theorie erklärten Phänomene, wie insbesondere Gravitationswellen bzw. gravitative Strahlung, werden von diesen Lösungen nicht erfasst, da es sich auch bei diesen Phänomenen um bewegte Massen (bzw. genauer um bewegte gravitative Energie) handelt, die durch ihre Rückwirkungen auf das Gravitationsfeld die Berechnungen erheblich erschweren und sich daher nur unter Vernachlässigung dieses Effektes und also nicht ohne weiteres mit den nichtlinearen Gleichungen beschreiben lassen. Damit können nun zur Einleitung des letzten Abschnitts dieses Kapitels die

153

gegenwärtigen Erklärungsgrenzen der Allgemeinen Relativitätstheorie klar benannt werden. Wenn bei den oben aufgezählten Phänomenen newtonsch, Post-Newtonsch oder mit der linearen Approximation gerechnet wird, dann verlässt man eben durch Verwendung Newtonscher Konzepte den Rahmen der Allgemeinen Relativitätstheorie, und warum sich diese Fälle einer Behandlung mit der „reinen“ ART der Feldgleichungen zunächst entziehen, wurde auch herausgearbeitet. Und es war das erklärte Ziel dieser Unternehmung, die Grenzen der Erklärungen mit der ART allein herauszustellen. Nun wird natürlich bei der nichtrelativistischen Erklärung der aufgezählten Phänomene darauf verwiesen, dass es sich um Fälle schwacher Gravitationsfelder und kleiner Geschwindigkeiten handelt und man also berechtigt ist, newtonsch zu rechnen oder die linearisierte Theorie bzw. die PostNewtonsche Näherung zu verwenden. Allerdings wurde hier gezeigt, dass diese Grenzfallüberlegungen lediglich die Nachbarschaft beider Theorien zeigen, so dass man aufgrund dieser berechtigt ist, in den entsprechenden Fällen newtonsch vorzugehen. Man kann aber nicht davon sprechen, dass dann die ART selbst verwendet würde: Nach der vorliegenden Untersuchung werden nur sehr ausgewählte Phänomene wirklich von der ART selbst erklärt. Aufgrund dieser Rechtfertigungen gibt es nun aber in den genannten Fällen auch gar keinen Bedarf, die ART selbst anzuwenden, da sie auch mit im Rahmen von Nachbarschaftsüberlegungen benennbaren Fehlern newtonsch, linearisiert bzw. Post-Newtonsch behandelt werden können. Innerhalb der Physik werden deshalb alle die Phänomene, die als bisher nicht von der nichtlinearen ART erklärt aufgeführt wurden (wie also zum Beispiel Planetenwechselwirkungen, Doppelsternsysteme, Kugelsternhaufen oder Galaxien), auf diese Weise beschrieben. Aber die Physik versucht seit einigen Jahren auch bestimmte Phänomene wirklich großer Massen mit den Feldgleichungen selbst zu beschreiben, etwa den noch nicht erwähnten Fall der Wechselwirkung zweier schwarzer Löcher, ein Zwei-Körper-Problem mit „echten“ Massen also, um damit in der Astrophysik benötigte Vorhersagen zu erhalten, die man (Post-)newtonsch nicht bekommen kann. Hierbei wurden jüngst mit numerischen Simulationen solcher Konstellationen erste Erfolge erzielt, die gleich besprochen werden. Und mit dieser Möglichkeit nun, die Feldgleichungen numerisch zu lösen, kommt auch die Frage nach eventuellen prinzipiellen Grenzen der Erklärungsleistungen der ART ins Spiel. Bisher wurden nur exakte Lösungen diskutiert bzw. Fälle aufgeführt, die von diesen nicht erfasst werden und die man innerhalb der praktizierten Physik nicht mit der ART beschreibt. Dagegen ist es aber denkbar – und es gibt, wie gesagt, erste Erfolge in dieser Richtung –, dass man Lösungen der Feldgleichungen auch näherungsweise mit Methoden der Numerik partieller Differentialgleichungen finden kann, bzw. dass auf

154

diese Weise in den genannten Fällen doch gewisse Berechnungen mit den Feldgleichungen der ART möglich sind. Nicht umsonst war bis hier immer die Rede davon, dass die nichtlinearen Feldgleichungen nicht ohne weiteres bzw. zunächst nicht gelöst werden können. Der nun zu diskutierende große Einwand stellt also die Möglichkeit in den Raum, dass man eines Tages, bei Verfügung über ausreichend hohe Rechnerkapazitäten etwa, doch mit der ART allein Dinge erklären kann, die sich bisher auf diese Weise nicht erklären lassen und die man zwar mit exakten Lösungen nicht in den Griff bekommt, aber dann vielleicht immerhin näherungsweise. Wäre dies möglich, so wären die bisher aufgezeigten Erklärungsgrenzen nur pragmatischer und nicht prinzipieller Natur, und die Newtonsche Gravitationstheorie wäre im Prinzip auf die Allgemeine Relativitätstheorie eliminativ reduzierbar. In dieser Frage sei zunächst auf die erwähnten Erfolge der numerischen Simulationen kurz näher eingegangen. Diese entstanden vor allem im Umkreis des Problems, dass noch keine Gravitationswellen gemessen wurden und dass solche Messungen sehr schwierig sind, da es sich nach den Vorhersagen der linearisierten ART um äußerst schwache Signale handeln muss. Um diese nun finden zu können, werden mit den nichtlinearen Feldgleichungen starke Quellen von Gravitationswellen simuliert (deren Ausbreitung wiederum in der linearisierten Fassung beschrieben wird), so dass man die Messergebnisse der Detektoren nach ganz bestimmten Mustern durchsuchen kann. Als besonders starke Quelle gilt nun die Wechselwirkung (und schließlich Verschmelzung) zweier schwarzer Löcher, deren erfolgreiche numerische Simulation mit den nichtlinearen Feldgleichungen zum Beispiel in Pollney et al. 2007 beschrieben wird. Eine solche Simulation erlaubt Vorhersagen, die explizit über die der Post-Newtonschen Näherung hinausgehen. So ergibt sich etwa für die Größe der Rückstoßgeschwindigkeit (recoil velocity) eine quadratische Abhängigkeit von dem Verhältnis der Drehung (spin ratio) der schwarzen Löcher, die die lineare Abhängigkeit, die man in der Post-Newtonschen Näherung erhielte, korrigiert: „[...] we have then studied the functional dependence of the recoil velocity on the spin ratio finding that a quadratic behavior reproduces very well the numerical results and corrects the post-Newtonian prediction of a linear dependence“ (a.a.O., S.19).29 Diese Vorhersagen sind nun zwar empirisch nicht belegt, sondern sollen erst die Grundlage dafür bilden, überhaupt Gravitations29

Diese Arbeit ist am Albert-Einstein-Institut, genauer am Max-Planck-Institut für Gravitationsphysik in Golm bei Potsdam entstanden, das eine eigene Abteilung für numerische Relativitätstheorie unterhält, die über eine entsprechende Anlage von Großrechnern verfügt und solche Simulationen durchführt. Auf http://numrel.aei.mpg.de gibt es die entsprechenden Aufsätze und Bilder der Simulationen.

155

wellen messen zu können.30 Aber es handelt sich eben um numerische Lösungen der nichtlinearen Feldgleichungen, die die Möglichkeit eröffnen, alle Phänomene der Gravitation eines Tages im Sinne von Abschnitt 2.5 allein mit der ART erklären zu können. Nun wurden andererseits zu Beginn der Ausführungen über Erklärungen mit der Allgemeinen Relativitätstheorie die Einsteinschen Feldgleichungen vorgestellt und darauf hingewiesen, dass diese zu kompliziert sind, als dass sie sich auf kanonische Weise lösen ließen: Es gibt keinen allgemein gültigen Weg, zu vorgegebenen Problemen eine Lösung zu finden, wozu ein Lehrbuch mit „one guesses as best one can“ zitiert wurde. Auch Misner et al. 1973 wurde später zu Phänomenen zitiert, deren Erklärung die Lösung der nichtlinearen Feldgleichungen erfordern würde: „Moreover, there is no formalism available today which can handle effectively and in general the fast-motion case or the strong-field case“ (S.989). Allerdings ist die Komplexität eines Systems von Differentialgleichungen allein noch kein Argument gegen die prinzipielle Möglichkeit, dieses für konkrete Fälle zu lösen. Ähnliche Probleme gibt es schließlich auch schon in der Newtonschen Theorie. Dort wird zwar das Zwei-Körper-Problem, für das es keine analytische, also exakte Lösung der Einsteinschen Feldgleichungen gibt, direkt durch das Gravitationsgesetz gelöst, aber schon das Drei-Körper-Problem ist seinerseits nicht analytisch lösbar, von dem Mehrkörperproblem des Sonnensystems ganz zu schweigen. Es gibt aber dennoch einen deutlichen Unterschied zu der Komplexität der Feldgleichungen der ART, worauf Stöltzner 2002 aufmerksam macht: „[Die Newtonsche Mechanik] wird durch gewöhnliche Differentialgleichungen beschrieben. Dies erlaubt für praktisch alle mechanischen Systeme die Eindeutigkeit der Lösung zu beweisen und in manchen Fällen sogar einen algorithmischen Lösungsweg anzugeben. Bis auf die Anfangs- und Endbedingungen und allfällige Konstanten ist somit die Lösung innerhalb des axiomatischen Rahmens möglich [...]. Dies sichert auch die üblichen störungstheoretischen Verfahren zur Berechnung komplexer mechanischer Systeme wie des Sonnensystems.“ (a.a.O., S.297f.)

Der Akzent dieser Betrachtung liegt hier insbesondere darauf, dass auch für Phänomene, die nur numerisch beschrieben werden können, diese numerischen Erklärungen mit der Newtonschen Mechanik allein möglich sind, alle notwendigen Hilfsmittel befinden sich „innerhalb des axiomatischen Rahmens“. Anders verhält es sich in dieser Hinsicht mit den nichtlinearen 30 Auf

das Problem, dass man auf diese Weise überhaupt nur Gravitationswellen findet, deren Quelle vorher simuliert wurde, wodurch diese Simulationen gewissermaßen automatisch verifiziert würden, da die Wellen von Quellen, die sich anders als die der Simulation verhalten, gar nicht gemessen werden und möglicherweise gar nicht gemessen werden können, sei hier nur hingewiesen.

156

Feldgleichungen der ART: „Die Einsteingleichungen stellen hingegen einen Satz nichtlinearer gekoppelter partieller Differentialgleichungen dar. Hier rechtfertigt jede Lösung größte Anerkennung, da sie nicht automatisch gewonnen werden kann und auch kein Eindeutigkeitssatz gilt. Die Auswahl der unserem Universum tatsächlich entsprechenden Lösung kann nur von außen, also in einer Metatheorie erfolgen“ (S.298). Diese Betrachtung bezieht sich vor allem auf die von Gödel gefundene exakte Lösung eines rotierenden Universums, eine Lösung, die zwar in den Feldgleichungen enthalten ist, aber nicht unsere Welt beschreibt: Sie lässt sich nicht mit dem Beobachtungsbefund der kosmischen Rotverschiebung vereinbaren und muss daher als unphysikalisch ausgeschlossen werden.31 Während sich daher dieser Ausschluss einer Lösung leicht begründen lässt, führt Stöltzner auch aus, wie allgemein im Rahmen einer solchen „Metatheorie“ Entscheidungen darüber getroffen werden könnten, ob eine Lösung zulässig ist oder nicht: „Dabei wäre das anzustrebende Ziel, dass die Lösungsmenge durch einen oder mehrere Parameter strukturiert wird, so dass die Auswahl [der physikalisch sinnvollen Lösungen] durch Messung dieses Parameters geschehen kann. Wie zuvor gezeigt, ist man in der allgemeinen Relativitätstheorie weit von diesem Ziel entfernt. Nur für einzelne Modelle ist dies möglich. So entscheidet etwa in der Friedmann-Robertson-Walker Kosmologie die mittlere interstellare Materiedichte, ob das Universum wieder rekollabieren wird oder nicht.“ (ebd.)

Nun hat man natürlich bei rein numerischen Auswertungen solche „inhaltlichen Fragen“, die über einen Parameter geklärt werden könnten, noch viel weniger unter Kontrolle als in den Modellen der exakten Lösungen, so dass es leicht passieren kann, dass man an der Realität vorbeirechnet. Numerische Simulationen mit den Feldgleichungen können daher nur mit Hilfe zusätzlicher Überlegungen erfolgen, die eher einer „Metatheorie“ zugehören und jedenfalls nicht aus der ART allein gewonnen werden können. Es wird daher nun zu untersuchen sein, ob solche Zusatzüberlegungen im Rahmen legitimer D-N-Randbedingungen möglich sind, die unser Universum charakterisieren, oder ob dabei Wissen der Newtonschen Theorie eine Rolle spielen muss. Dabei ist zu bedenken, dass es nicht nur um Entscheidungen über gefundene Lösungen geht, sondern auch darum, die Feldgleichungen überhaupt erst numerisch zu lösen – um nämlich allein qualifiziert „raten“ zu können, werden schon zusätzliche heuristische Mittel 31

Diese Lösung wurde vor allem deshalb viel diskutiert, weil es in ihr geschlossene zeitartige Kurven gibt und damit dort Zeitreisen möglich sind. Deshalb kann man sie aber noch nicht als unphysikalisch disqualifizieren (vgl. etwa Bartels 2002), auch wenn zum Beispiel Einstein sich das wünschte und wenn dies in populärwissenschaftlicher Literatur oft so dargestellt wird.

157

benötigt. Es gibt schließlich nicht nur keinen Eindeutigkeitssatz für Lösungen, sondern diese können auch nicht automatisch gewonnen werden, wie zitiert wurde. Mit dem letztgenannten Punkt soll nun begonnen werden. Dazu sei zunächst festgehalten, dass eine numerische Simulation ein „physikalisch blinder“ Rechenvorgang ist, der physikalisch erst noch zu deutende Zahlenwerte ergibt. Selbst bei der Ableitung der exakten Schwarzschildlösung bedurfte es zur Rechtfertigung der Interpretation einer Integrationskonstanten eines Vergleichs mit der Lösung der linearisierten Gleichungen (bzw. mit der Newtonschen Physik selbst), weshalb Interpretationen dieser Art bei bloß numerischen Lösungen unerlässlich sind. Nicht weiter problematisiert werden soll nun der Umstand, dass bei der Auswertung der numerischen Ergebnisse etwa bei Pollney et al. 2007 von Größen wie Rückstoßgeschwindigkeit, Drehimpuls und linearem Impuls (auch bezeichnet als „Kick“, vgl. a.a.O., Introduction) die Rede ist, womit die Interpretation der Zahlenwerte in Begriffen der Newtonschen Mechanik erfolgt, die nicht aus der ART stammen. Diese Anreicherung der ART mit Newtonschen Begrifflichkeiten sei zugestanden, da es hier um die Newtonsche Gravitationstheorie geht und um deren Reduzierbarkeit auf die ART. Physikalische Interpretationen sind nun aber auch schon vor jeder Simulation als heuristisches Hilfsmittel notwendig, wenn es nämlich darum geht, die Startwerte der Berechnung festzulegen. Da hier nun doch die Newtonsche Gravitation ins Spiel kommt, soll dies etwas detaillierter verfolgt werden. Eine numerische Simulation des Zweikörperproblems zweier schwarzer Löcher kann nur eine Zeitentwicklung dieses Systems gemäß den Feldgleichungen liefern und muss von einer Startsituation ausgehen, die sie selbst nicht liefern kann. Da es keine exakte Lösung der Feldgleichungen gibt (es ist ein mathematischer Tatbestand, dass hier numerisch gerechnet werden muss), die Startsituation aber den Gesetzen der ART genügen soll, ist es schwierig, Startwerte festzulegen, die eine physikalisch realistische Situation wiedergeben. Man behilft sich hierbei nun mit der Newtonschen Gravitationstheorie, indem man davon ausgeht, dass die beteiligten schwarzen Löcher vor ihrer nichtlinearen Interaktion so weit getrennt sind, dass sie zunächst newtonsch und dann Post-Newtonsch beschrieben werden können. Genauer heißt es dazu in Schutz 2004: „Nevertheless, it is one of the remarkable consequences of general relativity that, during the orbital phase before coalescence, the black holes follow orbits that are described to first order by Newtonian gravity: their interaction when separated by a significant distance does not reflect the enormously strong gravity inside and near them. Only when they come within a few tens of gravitational radii do we require full general relativity to describe the dynamics. Before that, the post-Newtonian

158

approximation – an asymptotic approximation to general relativity valid for small orbital velocity (v/c 1) in gravitationally bound systems – provides a systematic approach to studying the orbital inspiral phase, where orbits shrink and lose eccentricity through the radiation of energy and angular momentum in gravitational waves.“ (a.a.O., S.1)

Eine solche Beschreibung ist also möglich, aber eben auch notwendig, um zu realistischen Anfangswerten einer numerischen Simulation kommen zu können. Die Verwendung der Newtonschen Gravitationstheorie zu diesem Zweck wird innerhalb der Physik nicht eigens problematisiert – sie wird schließlich als in der ART enthalten angesehen. So leicht ist es aber nicht, wie hier gezeigt wurde, und dies spiegelt sich in dem vorliegenden Fall darin wider, dass man an dieser Stelle von Startwerten der Newtonschen Theorie ausgeht, sie dann mit Mitteln der ART behandeln muss, und dieser Übergang alles andere als trivial ist. In den vorherigen Abschnitten wurde herausgearbeitet, dass es sich um zwei zwar benachbarte, aber doch verschiedene Theorien mit jeweils eigenständigen Konzepten handelt. Dies zeigt sich hier in dieser Schwierigkeit des Übergangs von einer Theorie zur anderen: „A numerical simulation must start with a representation of the black holes at some point late in their inspiral phase. Since our knowledge of their location at this time is a result of solving the post-Newtonian approximation, we do not have a complete description of the spacetime metric at this initial time. [...] There is thus the possibility that the initial configuration for the numerical integration does not represent two black holes after a long inspiral phase.“ (S.9)

Damit wurde zum einen auf eine besondere Schwierigkeit solcher Simulationen aufmerksam gemacht – „But this problem is far from being solved, and until we have a better understanding of it, it will be difficult to trust any waveform predictions“ (S.10) heißt es a.a.O. abschließend zu diesem Problem –, aber vor allem gezeigt, dass die Post-Newtonsche Näherung eine entscheidende Rolle bei numerischen Lösungen spielt: Das Problem der Startwerte bleibt aufgrund der Übergangsfrage zwar noch bestehen, kann aber überhaupt nur mit Hilfe der Post-Newtonschen Näherung angegangen werden. Bei dieser Verwendung der Post-Newtonschen Näherung geht es nun nicht nur um das physikalische Problem, realistische Anfangswerte zu finden, sondern es wird auch schon die Deutung numerischer Größen vorgegeben – da man das zu beschreibende Phänomen gewissermaßen von der Newtonschen Theorie übernimmt, beginnt die Simulation mit gedeuteten Zahlenwerten: Der sonst zu deren Deutung nötige Vergleich mit der Newtonschen Physik findet hier sozusagen schon vor der Rechnung statt. Aber auch sonst bleibt

159

das Interpretieren numerischer Größen, insbesondere auftretender Integrationskonstanten, ein zentrales Problem, wofür ein Beispiel aus Pollney et al. 2007 zitiert werden soll: „A time-integration of those equations is needed in order to compute the recoil and this obviously opens the question of determining an integration constant which is in practice a vector. Fortunately, this integration constant has here a clear physical meaning and it is therefore easy to compute. In essence it reflects the fact that at the time the simulation is started, the binary system has already accumulated a non-vanishing net momentum as a result of the slow inspiral from an infinite separation.“ (a.a.O., S.10)

Diese Interpretation stützt sich damit wiederum auf die Zeit vor der Simulation und mithin nicht auf die ART, sondern auf die in „an infinite separation“ gültige Post-Newtonsche Näherung und newtonsche Überlegungen zum Impuls. Damit wurde gezeigt, dass numerische Lösungen entscheidend von der Newtonschen Gravitationstheorie Gebrauch machen. Ähnliches gilt nun auch für den oben herausgearbeiteten Punkt, dass Lösungen der Feldgleichungen nicht unbedingt unsere Welt wiedergeben müssen, so dass zu einer Lösung der Feldgleichungen auch immer die Beurteilung ihrer physikalischen Relevanz gehört. Oben wurde zitiert, dass dies schon für exakte Lösungen nicht leicht ist. Was es für numerische Lösungen noch schwerer macht, ist das Problem der Interpretation der Zahlenwerte, das aber mit Hilfe der Post-Newtonschen Näherung umgangen wurde. Allerdings kann man dann mangels Beobachtungsdaten32 die Vorhersagen nicht mit der Welt, wie sie ist, vergleichen, sondern wiederum nur mit den Vorhersagen der Post-Newtonschen Näherung. Dazu sei ein weiteres Zitat wiedergegeben, das sich ebenfalls auf obige Integrationskonstante bezieht und zusammenfassend beschreibt, wie sie unter Berücksichtigung ihres Einflusses auf die Berechnungen so gewählt wurde, dass eine Interpretation der Ergebnisse und ein Vergleich mit der Post-Newtonschen Näherung ermöglicht wird: „We remark that a proper choice of this constant is essential not only because it influences the final recoil velocity with differences of 10% and more, but also because it allows for a systematic interpretation of the results. Without it, in fact, the correct functional dependence of the final recoil velocity on the spin ratio is irremediably lost and a comparison with the PN [Post-Newtonian] prediction impossible.“ (a.a.O., S.19)

Damit deutet sich sogar eine wechselseitige Abhängigkeit der beiden 32

Die numerischen Berechnungen sollen schließlich das Detektieren von Gravitationswellen überhaupt erst ermöglichen, vgl. auch die Fußnote oben zu diesem Problem.

160

hier diskutierten Fragestellungen an: Die oben erwähnte Metatheorie sollte als heuristisches Mittel Berechnungen ermöglichen und die Ergebnisse mit der Welt vergleichen. Hier wird nun die richtige Wahl einer die Simulation ermöglichenden Integrationskonstante damit begründet, dass durch sie der Vergleich mit der Post-Newtonschen Näherung überhaupt erst möglich wird. Damit hängt deren Deutung sogar zweifach von der Newtonschen Theorie ab: Zum Ersten von der Post-Newtonsch beschriebenen Situation vor der Simulation und zum Zweiten von der Ermöglichung eines Vergleichs mit der Post-Newtonschen Näherung. Nun wurden die Probleme numerischer Lösungen der nichtlinearen Feldgleichungen an einem Beispiel herausgearbeitet, das schon von Vorhersagen der ART ausgeht, von der Existenz schwarzer Löcher nämlich. Für die vielen Fälle, die oben als Erklärungsgrenzen der ART aufgezählt wurden, gibt es allerdings auch gar keine Versuche, sie numerisch zu beschreiben, und zwar aus dem gutem Grund, dass sie sich auch newtonsch beschreiben lassen. Das gilt für die Verschmelzung zweier schwarzer Löcher nicht mehr und so konnten anhand dieses Problems die Schwierigkeiten numerischer Lösungen exemplarisch aufgewiesen werden: Es zeigte sich, dass selbst bei einer Erklärung mit der ART auf ihrem ureigensten Gebiet in erheblichem Maße von der Newtonschen Gravitationstheorie Gebrauch gemacht wird. Und das ist nun zweifelsohne auch für die numerische Beschreibung der oben angeführten Phänomene notwendig, da sich die Schwierigkeiten der numerischen Lösung der nichtlinearen Feldgleichungen analog auf diese Fälle übertragen: Auch hier müssen die numerischen Größen und Integrationskonstanten gedeutet, Startwerte festgelegt und die Ergebnisse mit der Welt verglichen werden, wozu als einzige Hilfe die Newtonsche Gravitationsphysik zur Verfügung steht. Man könnte zwar entgegenhalten, die Verwendung der Post-Newtonschen Näherung zu diesen Zwecken bei dem diskutierten Fall zweier schwarzer Löcher war vor allem deshalb notwendig, weil es im Gegensatz zu den hier zur Debatte stehenden Phänomenen keine Beobachtungen gibt und man daher nur mit deren Vorhersagen arbeiten konnte. Aber die vorhandenen Beobachtungen obiger Phänomene beruhen nun auch auf der Newtonschen Theorie: Erstens, da sich die Welt gravitativer Phänomene nicht theoriefrei beschreiben lässt und es nicht ohne weiteres klar ist, ob eine solche Beschreibung in Begriffen einer numerisch verwendeten ART möglich ist. Und zweitens, da notwendige Parameter sowohl für Startwerte als auch für Vergleiche, wie zum Beispiel die Massenverteilung einzelner Phänomene, nicht direkt beobachtet werden können, sondern mit der Newtonschen Theorie erschlossen werden müssen – man denke nur an die Massenbestimmung mittels Keplerbahnen. Und insbesondere bei der Festlegung realistischer Startwerte einer Simulation und

161

damit einhergehend bei der Interpretation der numerischen Größen ist man schließlich von vornherein auf die Newtonsche Theorie angewiesen, da eine Simulation irgendwo beginnen muss und ihre Startwerte und Deutungen selbst nicht liefern kann. Startwerte könnte man lediglich mit Hilfe einer exakten Lösung vorgeben, die es für diese Fälle aber gerade nicht gibt. Und das Interpretationsproblem bleibt selbst bei exakten Lösungen bestehen, wie bei der Deutung der Integrationskonstanten M der Schwarzschildlösung gesehen wurde. Wenn dies alles nun offenbar zeigt, dass die Newtonsche Gravitationstheorie nicht nur nicht in der ART enthalten ist, sondern als Theorie der Gravitation in einem handfesten Sinne nach wie vor benötigt wird, so widerspricht dies zunächst der Intuition, dass die ART die bessere Gravitationstheorie ist und daher die Newtonsche Physik ablösen sollte. Dieser Intuition verdanken sich schließlich all die Bemühungen, zu zeigen, dass die Newtonsche Gravitation als Grenzfall in der ART enthalten ist. Wenn dies nun nicht so ist und die ART allein nicht in der Lage ist, eine Vielzahl gravitativer Phänomene zu erklären, so heißt dies nicht, dass sie für diese Phänomene nicht gelten würde. Es gibt den schon in Abschnitt 2.5 benannten Unterschied zwischen der Tatsache, dass ein Phänomen bestimmten Gesetzen unterliegt, und der Möglichkeit, mit einem Gesetz dieses Phänomen im Sinne einer Vorhersage auch zu erklären. Die Gesetze der ART bilden natürlich die bessere Gravitationstheorie, sind aber so komplex und abstrakt, dass sie nur im Wechselspiel mit der Newtonschen Gravitationstheorie angewendet werden können. Für das Erstellen numerischer Modelle wird, wie gesehen, in erheblichem Maße Newtonsche Physik benötigt, was natürlich ein völlig legitimes Vorgehen ist und schließlich auch durch Nachbarschaftsbetrachtungen gut begründet werden kann. Aber es zeigt eben, dass hier eine Mischtheorie mit Konzepten zweier verschiedener Theorien notwendig ist. Was nun endlich die Frage nach der prinzipiellen Möglichkeit einer Reduktion der Newtonschen Gravitationstheorie auf die Allgemeine Relativitätstheorie betrifft, so wurde gezeigt, dass die Behauptung, man könne die bisher von der ART nicht erklärten Phänomene prinzipiell numerisch mit der ART allein erklären, nach dem Stand der Dinge nicht haltbar ist. Allerdings soll hier nicht der Anspruch erhoben werden, diese Frage endgültig entschieden zu haben. Es sollte aber klar geworden sein, dass es im Moment jedenfalls nicht so aussieht, als könne man im Prinzip alle diese Phänomene mit der ART allein erklären, so dass die Beweislast hier der Reduktionist trägt, der zum Beleg der gegenteiligen Behauptung zeigen müsste, wie solche Erklärungen dennoch im Prinzip möglich sind. Ohne einen solchen Nachweis steht es so, dass die Newtonsche Physik nicht eliminativ auf die ART reduziert ist, da eine solche Reduktion der Newtonschen Physik auf die Allgemeine Relativitätstheorie nur dann vorläge, wenn letztere in der Lage

162

wäre, die von der Newtonschen Theorie erklärten Phänomene ebenfalls vorherzusagen, was aber aus den genannten Gründen in erheblichem Maße nicht der Fall zu sein scheint.

3.6 Ausblick und Zusammenfassung

Die Untersuchung der Möglichkeit, von der Newtonschen Theorie erklärte Phänomene auch mit der ART zu erklären, war nun lediglich dieser prinzipiellen Frage geschuldet und scheint ohne praktischen Belang zu sein, wenn man zuzugestehen bereit ist, dass die Physik zur Erklärung von Phänomenen Konzepte verschiedener Theorien heranzieht. Dies ist jedenfalls gängige physikalische Praxis, die im Rahmen von Nachbarschaftsbetrachtungen gut begründet und somit voll gerechtfertigt ist. Dass nun möglicherweise dennoch Bedarf bestehen könnte für numerische Berechnungen von bisher mit guten Gründen lediglich newtonsch erklärten Phänomenen, sei abschließend als Ausblick am Beispiel des Problems der Dunklen Materie erläutert. Es wurde schon bei der Diskussion der Schwarzschildlösung darauf hingewiesen, dass sich auch bei im Vergleich zu schwarzen Löchern schwachen Gravitationsfeldern qualitativ ganz andere Vorhersagen ergeben können. Da eine qualitativ andere Vorhersage also immerhin denkbar und die Newtonsche Erklärung hier eben nicht schlüssig ist, könnte sich der Versuch einer rein allgemein-relativistischen, numerischen Erklärung bei dem Problem der Dunklen Materie durchaus lohnen. Bei der Dynamik von Galaxien ist man, von der exakten Lösung der unendlich dünnen Scheibe, die allerdings nicht ohne weiteres auf die komplizierte Gestalt realer Galaxien anwendbar ist, abgesehen, zunächst darauf angewiesen, newtonsch zu rechnen. Dabei hat man in der Astrophysik üblicherweise die Vorstellung, legitimerweise einen Grenzfall der ART zu verwenden, was etwa so gerechtfertigt wird: „The gravitational fields (outside galactic centers at least) are weak and the velocities are very much lower than the speed of light, so relativistic effects ought not have any important contribution to the overall dynamics“ (Vanderburgh 2003, S.820). Wenn die Newtonsche Theorie auch nicht als Grenzfall in der ART enthalten ist, begründet dieser Hinweis dennoch die Nachbarschaft dieser Theorien für diesen Fall und rechtfertigt somit die Verwendung der Newtonschen Theorie. Allerdings geht diese Rechnung insofern nicht auf, als ihr Ergebnis nicht mit den Beobachtungen übereinstimmt. Um den Zusammenhalt der Sterne einer Galaxie im Rahmen der Newtonschen Gesetze erklären zu können, ist eine viel größere Masse erforderlich, als beobachtet wird – letztere beträgt nur 10% (!) der Masse, die nach Newton eine Galaxie zusammenhalten könnte. Als

163

Ausweg aus diesem Dilemma werden zwei Möglichkeiten diskutiert: Zum einen die Forderung der Existenz Dunkler Materie, die sich gerade dadurch auszeichnet, nicht beobachtet werden zu können (und in der Tat auch noch nicht beobachtet wurde)33 und die für die fehlende Masse verantwortlich zeichnet. Oder zum anderen eine ad-hoc-Modifizierung der – notabene – Newtonschen Gesetze so, dass Galaxien ohne das Postulat zusätzlicher Masse beschrieben werden können.34 Es wird nun zwar nicht ernsthaft diskutiert, aber man könnte es immerhin als dritte Möglichkeit erwägen, dass man es sich mit dem Newtonschen „Grenzfall“ einfach zu leicht macht und dass eine echte Untersuchung mit der ART im Sinne einer numerischen Modellierung im Rahmen einer Mischtheorie, ausgehend vielleicht von der Einsteinschen Scheibe, ebenfalls eine Lösung des Dilemmas liefern könnte. In diese Richtung äußert sich zum Beispiel Vanderburgh 2003: „[...] no one has produced galaxy models by ,patching together’ Schwarzschild-type solutions representing distinct stars and then shown that a Newtonian description holds in the limit“ (a.a.O., S.816). Damit wird die Möglichkeit des besagten dritten Auswegs eröffnet: „In the strictest sense, then, the astrophysical evidence undercuts the warrant for GR [General Relativity = ART] only insofar as GR reduces to Newtonian gravity in the appropriate limit for galaxy-scale and larger mass distributions. [...] To put it another way, the evidence may show that the correct weak-field, low-velocity limit of gravity at galactic and greater scales is not the Newtonian limit but something else“ (ebd.). Nun sollen hier keine Spekulationen über das Problem der Dunklen Materie erfolgen, es sollte lediglich noch einmal deutlich gemacht werden, dass in der Astrophysik in der Tat oft newtonsch gerechnet wird, und eine Erklärung mit der ART selbst – etwa durch Kombination von Schwarzschildlösungen oder durch eine Lösung der Feldgleichungen für komplexe Gebilde – etwas ganz anderes wäre. Allerdings könnten numerische Lösungen, die hier zur Behandlung der prinzipiellen Frage nach den Möglichkeiten der Erklärungen mit der ART ins Feld gebracht wurden, und die mit den genannten Einschränkungen denkbar sind, durchaus auch interessante Ergebnisse in Gebieten erhoffen lassen, die bisher rein newtonsch behandelt 33 Dazu

heißt es a.a.O. lapidar „[...] and dark matter particles have been remarkably persistently undetected despite almost a quarter century of concerted efforts to detect them“ (S. 825). 34 Diese Modifizierungen firmieren unter der Bezeichnung MOND – „Modification of Newtonian Dynamics“. Es handelt sich nicht um Post-Newtonsche Korrekturen, sondern um Veränderungen wie zum Beispiel die Hinzunahme einer r14 -Abhängigkeit zu der r12 Abhängigkeit des Gravitationsgesetzes.

164

werden.35 Denn wenn sich die Newtonsche Physik möglicherweise bei der Beschreibung von Galaxien nicht als Grenzfall der Allgemeinen Relativitätstheorie herausstellen würde, wäre dies aus Sicht dieser Arbeit nicht erstaunlich: Zum einen hat dies auch Scheibe 1999 im Zusammenhang mit den Planetenbahnen erwogen, wo nicht nur eventuell, sondern tatsächlich ganz andere Vorhersagen zustande kommen (Rosetten- vs. Ellipsenbahn). Und zum anderen wurde in der Grenzfalldiskussion schon viel allgemeiner gezeigt, dass es sich tatsächlich um keinen Grenzfall handelt, sondern um zwei verschiedene Theorien, die höchstens benachbart zueinander sind – und dass die Newtonsche Physik daher auch nicht als Grenzfall, sondern, wenn überhaupt, eliminativ nur qua besserer Erklärungsleistungen auf die ART reduziert werden kann. Auch im Falle der Beschreibung von Galaxien könnten selbst gänzlich verschiedene Vorhersagen im Rahmen von Nachbarschaftsbetrachtungen miteinander verglichen werden, wohingegen die Vorstellung des eliminativen Grenzfalls hier schon längst verabschiedet wurde. Zusammenfassend sei nun festgehalten, dass die Allgemeine Relativitätstheorie zwar ein besseres und tieferes Verständnis der Gravitation liefert, aber allein Erklärungen nur in den ausgewählten Fällen zulässt, in denen sich die Feldgleichungen lösen lassen (wobei sie in diesen Fällen auch ihre empirische Bewährung zeigt). Daher gibt es trotz allem viele Phänomene, die nur mit der Newtonschen Physik erklärt werden können und auch erklärt werden: Dies beginnt schon bei der Erklärung etwa der Gezeiten, die durch das Zwei-Körper-Problem Erde-Mond bedingt sind, setzt sich fort bei den Wechselwirkungen zwischen Planeten, und führt über Doppelsterne und Sternhaufen zu Galaxien und Galaxienclustern – alles Phänomene, für die zwar die Gesetze der ART gelten, die sich aber aus den Gesetzen der ART allein nicht 35 Es

gibt eine bemerkenswerte Parallele zu dem Problem der Dunklen Materie im 19. Jahrhundert: Damals stellte die schon besprochene Abweichung der Periheldrehung des Merkur von der Newtonschen Vorhersage eine erhebliche Herausforderung an die Newtonsche Gravitationstheorie dar – und es wurden die gleichen Auswege wie heute bei der Dunklen Materie diskutiert. Zum einen wurde eben die Existenz zusätzlicher Materie postuliert, zunächst in Form eines weiteren Planeten (der sogar schon einen Namen, „Vulkan“, erhalten hatte), nachdem dieser nicht gefunden wurde in Form einer Gruppe von Asteroiden und schließlich gar als fein verteilter und daher nicht sichtbarer Staub. Zum anderen wurden ganz ähnliche ad-hoc Modifizierungen der Newtonschen Gesetze vorgeschlagen (vgl. Gähde 2007, S.46ff.). Die in 3.4 besprochene Lösung des Problems erfolgte dann erst 1915 mit der Allgemeinen Relativitätstheorie Einsteins – und es ist nun zwar etwas spekulativ (es geht schließlich um eine erhebliche Abweichung zwischen der beobachteten Masse und der für die Newtonsche Beschreibung benötigten), aber immerhin denkbar, dass die ART auf besagtem Weg ein weiteres Mal ein Problem der Newtonschen Gravitationstheorie lösen kann.

165

vorhersagen lassen, da selbst für eine bloß numerische Vorhersage mit dem Wechselspiel von Newtonscher Physik und Allgemeiner Relativitätstheorie eine Mischtheorie aus beiden notwendig ist. Alle diese Phänomene werden also mit der Newtonschen Theorie erklärt und lassen sich ohne das Wissen um die Newtonsche Theorie von der Allgemeinen Relativitätstheorie nicht erklären. Dies gilt auch für die Phänomene, die von der linearisierten ART und der Post-Newtonschen Näherung erklärt werden, wie zum Beispiel Gravitationswellen, da auch bei Erklärungen mit ersterer Newtonsche Physik verwendet wird und da zweitere ganz im Rahmen der Newtonschen Physik bleibt und lediglich um Korrekturterme angereichert wurde. Und nicht zuletzt wurde an dem Beispiel der Verschmelzung zweier schwarzer Löcher gezeigt, dass selbst numerische Simulationen mit der ART in ihrem eigenen Gebiet in erheblichem Maße auf die Newtonsche Theorie angewiesen sind. Damit kann an dieser Stelle als Zwischenergebnis konstatiert werden, dass die Newtonsche Gravitationstheorie zwar zu der Allgemeinen Relativitätstheorie benachbart ist, aber nicht im Sinne von 2.4 eliminativ auf diese reduzierbar. In einem weiteren Rahmen wird dieses Ergebnis im sechsten Kapitel ausgewertet – das nächste Kapitel wird nun zunächst in dieser Hinsicht die Erklärungsleistungen der Quantenmechanik untersuchen.

166

Kapitel 4 Newtonsche Mechanik und Quantenmechanik Im letzten Kapitel wurde untersucht, inwiefern die Newtonsche Gravitationstheorie auf die Allgemeine Relativitätstheorie zurückgeführt werden kann. Nun soll es um das Verhältnis zwischen Newtonscher Mechanik und Quantenmechanik gehen und neben Betrachtungen zu deren direktem Verhältnis (Abschnitt 4.2) insbesondere um die Möglichkeiten, mit letzterer im Sinne einer denkbaren indirekten Reduktion Phänomene zu erklären, die typischerweise von der Newtonschen Physik behandelt werden (Abschnitte 4.3 und 4.4). Anders als im Fall der ART steht hierbei nun die gesamte Newtonsche Mechanik zur Debatte, da es sich bei der Quantenmechanik um eine Theorie über Elementarteilchen handelt, aus denen die makroskopische Welt der Newtonschen Physik schließlich zusammengesetzt ist – und Wissen um die Gesetze der Elementarteilchen könnte sich dann fortsetzen zu Wissen über Objekte, die aus solchen zusammengesetzt sind, und über deren Gesetze. Dass dies möglich ist, entspricht jedenfalls der üblichen Auffassung innerhalb der Physik, was in einem Lehrbuch so ausdrückt wird: „Die klassische Newtonsche Mechanik muss als Grenzfall in der Quantenmechanik enthalten sein“ (Schwabl 1998, S.29). Auch wenn die direkten und indirekten Beziehungen zwischen diesen Theorien gleich in aller Ausführlichkeit behandelt werden, sei hier schon erwähnt, dass gerade indirekte Phänomenerklärungen im Sinne von 2.5 hier nicht leicht zu haben sein werden: Die Quantentheorie findet ihr Haupteinsatzgebiet bei Fragen der Kern- und Elementarteilchenphysik, bei denen sie der klassischen Physik makroskopischer Körper widerspricht, so etwa bei Fragen zur Struktur und Stabilität der Atomkerne, der Größe und Struktur von Elementarteilchen, ihrer mechanischen und elektromagnetischen Eigenschaften und ihrer Wechselwirkungen. Die Antworten der Quantenphysik widersprechen nun aber nicht nur der Newtonschen Mechanik, sondern beruhen auf einem „[...] erheblichen Bruch mit grundlegenden

168

Begriffsbildungen und Annahmen der klassischen Physik“ (Stöckler 2007, S.245) und gehen einher mit fundamentalen Deutungsschwierigkeiten. Die Quantenmechanik wirft zahlreiche philosophische Fragen auf, bei denen insbesondere ihr eigenwilliges Verhältnis zur newtonsch beschriebenen makroskopischen Welt eine erhebliche Rolle spielt, was hier natürlich noch thematisiert wird. Von diesen Deutungsproblemen zunächst abgesehen, hat sie jedenfalls eine ganz andere Herangehensweise an die Welt als die klassische Mechanik und ähnelt darin der ART: Während bei dieser etwa das Konzept der Kraft gewissermaßen „geometrisiert“ wurde, befindet sich hier zum Beispiel die Materie in quantenmechanischen Zuständen, die durch die Wahrscheinlichkeitsinterpretation einer formalen Wellengleichung beschrieben werden. Während die Materie im makroskopischen Bereich der Newtonschen Mechanik insbesondere lokalisiert ist, sich also stets an einem bestimmten Ort befindet, gilt innerhalb der Quantenmechanik für Objekte auf mikroskopischer Ebene, dass sie, solange ihr Ort nicht durch eine Messung bestimmt wird, an keinem festen Ort sind und sich gewissermaßen in einem über den Raum „verschmierten“ Zustand befinden. Dies betrifft aber letztlich doch schon die Deutungsprobleme und diese werden zwar im Folgenden eine Rolle spielen, können hier aber angesichts der uferlosen und vor allem offenen Diskussion darüber bei weitem nicht angemessen wiedergegeben werden.1 Hier wird nur so weit darauf eingegangen, wie es für den Zweck der Untersuchung notwendig ist: So werden zum Beispiel die Bewegungsgesetze für klassische Materie, die in der Quantentheorie so gar nicht vorkommt, nur schwer rekonstruierbar sein, auch wenn dies von den zu besprechenden Ehrenfestschen Sätzen nahegelegt wird. Kurzum, die Quantenmechanik zeichnet sich in noch viel stärkerem Maße als die ART dadurch aus, der klassischen Newtonschen Mechanik zu widersprechen und mit völlig anderen Konzepten als diese zu arbeiten. Sie liefert dabei viel bessere Vorhersagen für die Mikrowelt und ist innerhalb dieser der klassischen Physik deutlich überlegen. Ob sich aber in einem weiteren Schritt auch die Makrowelt der klassischen Mechanik mit einer solchen „Mikrotheorie“ beschreiben lässt, am Ende sogar in solchem Umfang, dass die klassische Mechanik dadurch, wenn auch nur im Prinzip, im Sinne von 2.4 auf diese eliminativ reduziert würde, soll in diesem Abschnitt untersucht werden. Dabei wird sich nicht nur zeigen, dass die bewährte klassische Theorie über die Makrowelt ihre Autonomie behält, da sich die typischen Phänomene, die sie beschreibt, einer Erklärung durch die spezifisch in kleinen Verhältnissen arbeitende Quantentheorie entziehen, sondern auch, dass selbst schon bei Erklärungen innerhalb dieser Mikrowelt auf die klassische Theorie zurückgegriffen werden muss. Und letzteres in zweifacher Hinsicht: 1

Vgl. zum Beispiel Stöckler 2007 für einen Überblick.

169

Zum Ersten ganz handfest, wenn es um den Aufbau komplexer Atome oder gar Moleküle geht, und zum Zweiten im Zusammenhang der besagten Deutungsprobleme, die unter anderem mit der Frage zu tun haben, ob die Quantenmechanik allein zu ihrer Formulierung klassischer Begriffe bedarf.2 Zu diesem Problemkreis gehört insbesondere das sogenannte Messproblem, das in besonderer Weise das Verhältnis zwischen Quantenmechanik und klassischer Physik betrifft. Während es also der besondere Charakter der Quantenmechanik mit all ihren Schwierigkeiten nur schwer erwarten lässt, dass die klassische Newtonsche Mechanik selbst im Prinzip durch indirekte Phänomenerklärungen eliminativ auf sie reduzierbar ist, wird sich weiterhin zeigen, dass es bei zwei sich derart widersprechenden Theorien nicht leicht ist, allein eine direkte Nachbarschaftsrelation zu etablieren. In diese Richtung äußern sich schon Kemeny/Oppenheim 1956, die in Abschnitt 1.3 als Vertreter einer der ersten Reduktionstheorien überhaupt besprochen wurden: „And while some attempts have been made to show that something like biconditional translation does exist, this certainly is not the case if quantum mechanics is taken to be the reducing science“ (S.16). Dies wird über die Frage nach „biconditional translation“, also der Möglichkeit von Brückengesetzen, hinaus auch für das Konzept der Nachbarschaft durch Vergleich gelten, und auch Scheibe 1999 sieht hier Schwierigkeiten für sein direktes Reduktionskonzept: „Die im Laufe dieser Entwicklung bekannt gewordenen Anomalien der Quantenmechanik – Anomalien im Sinne der Denkweise der klassischen Physik – stehen nun naturgemäß Versuchen im Wege, die klassische Mechanik auf die Quantenmechanik zu reduzieren. Denn jede gelungene Reduktion rückt die reduzierte Theorie irgendwie in die Nähe der reduzierenden Theorie, und alle Abweichungen der ersteren gegenüber letzterer müssen besonders dann, wenn es um drastische Abweichungen geht, die Einsicht, dass eine Reduktion gleichwohl möglich ist, erschweren bis hin zu der Einsicht, dass sie unmöglich ist. Jedenfalls wird ein Reduktionsversuch nur dann wirklich überzeugen, wenn zusätzlich gezeigt wird, wie die betreffende Reduktion mit den bekannten Anomalien fertig wird.“ (a.a.O., S.163)

Allerdings handelt es sich trotz allem um zwei benachbarte Theorien – diese Relation muss schließlich nicht Scheibes eliminativen Ansprüchen genügen und retentive Vergleiche sind hier durchaus möglich. Dies soll zur Einführung genügen, im Folgenden wird der Ablauf des Kapi2 In

Landau/Lifshitz 1977 heißt es zum Beispiel dazu: „Thus quantum mechanics occupies a very unusual place among physical theories: it contains classical mechanics as a limiting case, yet at the same time it requires this limiting case for its own formulation“ (a.a.O., S.3).

170

tels über die ART übernommen und es werden also zunächst kurz die grundlegenden Gesetze der Quantenmechanik wiedergegeben (Abschnitt 4.1), dann wird gezeigt, dass die Newtonsche Physik nicht im Sinne einer direkten eliminativen Reduktion als Grenzfall in ihr enthalten ist (Abschnitt 4.2), und schließlich auf die Möglichkeiten (Abschnitt 4.3) und vor allem Grenzen (Abschnitt 4.4) indirekter Phänomenerklärungen mit der Quantenmechanik eingegangen. Abschließend wird das Ergebnis dieser Untersuchungen in den Zusammenhang der Interpretationsprobleme gestellt (Abschnitt 4.5). 4.1 Die Gesetze der Quantenmechanik

Auch wenn klassische Konzepte bei den Deutungsproblemen der Quantenmechanik, insbesondere bei der sogenannten Kopenhagener Interpretation, eine große Rolle spielen, können ihre Gesetze im Rahmen der sogenannten Minimalinterpretation weitgehend unabhängig von der Newtonschen Physik formuliert werden. Es sollen also zunächst die Interpretationsprobleme außer Acht gelassen und die Gesetze der Quantenmechanik im Rahmen dieser Minimalinterpretation wiedergegeben werden, die für alle Vorhersagen und Berechnungen mit der Quantenmechanik in Physik und Chemie ausreichend ist und in der alle weitergehenden Interpretationen übereinstimmen müssen. Anschließend werden auch die Deutungsprobleme diskutiert, insofern sie für die Fragestellung dieser Untersuchung relevant sind. Als Grundgesetz der Quantenmechanik3 kann die Schrödingergleichung gelten: In der Quantenmechanik geht man davon aus, dass ein Teilchen der Masse m zu jedem Zeitpunkt t durch eine Wellenfunktion ψ : R3 × R → C beschrieben wird, die sich zeitlich gemäß der Wellengleichung

∂ 2 i ψ (x,t) = − (∆ψ )(x,t) +V (x)ψ (x,t), ∂t 2m der Schrödingergleichung, verändert, wobei V (x) das Potential ist, in dem sich das Teilchen bewegt, und  = 2hπ das reduzierte Plancksche Wirkungsquantum. Nun ist es natürlich höchst unklar, was es heißen soll, dass sich Teilchen mit Wellengleichungen beschreiben lassen, die auch noch komplexe Werte annehmen – solche Deutungsprobleme sollen hier aber, wie gesagt, zunächst nicht vertieft werden. Es sei an dieser Stelle lediglich darauf 3

Es soll hier ausschließlich die nichtrelativistische Quantenmechanik betrachtet werden – aus Gründen der Einfachheit und da Theorien wie die relativistische Quantenmechanik oder gar die Quantenfeldtheorie nur noch weiter von der Newtonschen Physik abbringen, als es die nichtrelativistische Quantenmechanik ohnehin schon tut. Solche noch allgemeineren Theorien und die noch zu findende Theory of Everything werden im sechsten Kapitel kurz besprochen.

171

hingewiesen, dass die Unklarheit darüber, was da eigentlich schwingt, auch schon in der Elektrodynamik (ohne Äther) steckt, und dass es keine einstimmig etablierte Deutung der Funktion ψ über ihre Rolle im mathematischen Formalismus hinaus gibt. Diese Rolle aber besteht nun darin, dass sie zur Berechnung der Wahrscheinlichkeit P(G, ψ ,t) dient, das Teilchen zur Zeit t in einem Gebiet G ⊂ R3 zu finden. Zu der Schrödingergleichung, die das Bewegungsgesetz der Quantenmechanik darstellt, tritt nämlich noch die auf Max Born zurückgehende Gleichung P(G, ψ ,t) =



G

|ψ (x,t)|2 dx,

wobei der Integrand ρ (x,t) = |ψ (x,t)|2 auch Wahrscheinlichkeitsdichte oder -verteilung genannt wird.4 Hat die Wellenfunktion also insbesondere aufgrund ihrer Komplexwertigkeit zunächst nur symbolischen Charakter, kann sie innerhalb des Formalismus der Quantenmechanik mit dieser Gleichung instrumentell zur Vorhersage von Aufenthaltswahrscheinlichkeiten und mithin von Ergebnissen von Messvorgängen dienen. Damit wurde nun der wesentliche Unterschied zur klassischen Mechanik herausgestellt. Während in dieser Ort und Geschwindigkeit eines Teilchens bei vorliegenden Anfangsdaten eindeutig bestimmt sind, erhält man hier lediglich Aufenthaltswahrscheinlichkeiten. Damit muss für die Deutung der Quantenmechanik auch die Philosophie des Wahrscheinlichkeitsbegriffs eine Rolle spielen, da zunächst nicht klar ist, in welchem Sinne hier von Wahrscheinlichkeit die Rede ist. Dazu kommt nun, dass es in der Quantenmechanik darüber hinaus gar keinen festen Ort eines Teilchens gibt, über den man nur Wahrscheinlichkeitsaussagen machen kann, sondern dass sich das Teilchen erst durch eine Messung lokalisiert. Hierin liegt eine der Schwierigkeiten, die bei dem Versuch einer eliminativen Reduktion der Newtonschen Mechanik bzw. bei der bloßen Stiftung einer Nachbarschaftsrelation mit der Newtonschen Mechanik auftreten, denn es ist fraglich, ob Bewegungsgleichungen über klassische Teilchen aus Wahrscheinlichkeitsaussagen über Teilchen in solchen quantenmechanischen Zuständen abgeleitet werden können (vgl. Abschnitt 4.2). Hier soll zunächst noch als weitere wesentliche Grundannahme der Quantenmechanik ergänzt werden, dass den klassischen physikalischen Größen, 4 Aus

dieser Gleichung ergibt sich eine weitere Forderung an die Wellenfunktionen ψ . Diese müssen nämlich nicht nur Lösungen der Schrödingergleichung sein, sondern auch quadratisch integrierbar: Die Wahrscheinlichkeit, das Teilchen irgendwo im gesamten R3 zu finden, muss schließlich 1 betragen, womit sich mit der angegebenen  Gleichung gerade die Bedingung R3 |ψ (x,t)|2 dx = 1 für quadratische Integrierbarkeit ergibt. Funktionen, die dieser Bedingung genügen, bilden einen Vektorraum, woher die Sprechweise vom Zustandsvektor statt Wellenfunktion rührt, die man häufig findet.

172

wie zum Beispiel Energie und Impuls, Differentialoperatoren zugeordnet werden, wobei der Wert dieser Größen bei einem bestimmten Zustand ψ eines Teilchens durch den Erwartungswert des jeweiligen Operators festgelegt wird.5 Dies und der Umstand, dass mit dieser Ersetzung den klassischen Relationen zwischen bestimmten Größen quantenmechanische Relationen zwischen den zugehörigen Operatoren entsprechen, firmiert unter der Bezeichnung des quantenmechanischen Korrespondenzprinzips. So entspricht etwa der klassischen Größe der kinetischen Energie in der 2 Quantenmechanik der Differentialoperator − 2m ∆, der auch in der Schrödingergleichung auftaucht. Fasst man den Operator der kinetischen Energie mit dem Potential V (x) zu dem sogenannten Hamiltonoperator H = 2 − 2m ∆ +V (x) zusammen, der der Hamiltonfunktion der klassischen Mechanik entspricht, lässt sich die Schrödingergleichung auch schreiben als i

∂ ψ (x,t) = H ψ (x,t). ∂t

Erklärungen mit der Quantenmechanik bestehen nun im Wesentlichen darin, zuerst für ein gegebenes Problem den entsprechenden Hamiltonoperator aufzustellen, wobei man sich mittels des Korrespondenzprinzips an der Hamiltonfunktion des entsprechenden klassischen Problems orientiert. Dieser so gefundene Operator wird dann in die Schrödingergleichung eingesetzt, die es schließlich zu lösen gilt. Inwiefern diese Verwendung klassischer Konzepte für das Reduktionsproblem relevant ist, wird im nächsten Abschnitt noch besprochen. Ein wichtiger Spezialfall bei quantenmechanischen Erklärungen ist nun der des zeitunabhängigen Hamiltonoperators, da sich in diesem die Schrödingergleichung in einen zeit- und einen ortsabhängigen Teil zerlegen lässt. Der ortsabhängige Teil wird dabei gerade von den Eigenfunktionen des jeweiligen Hamiltonoperators gelöst, womit Erklärungen in diesem Fall mit dem Lösen des entsprechenden Eigenwertproblems beginnen.6 Der zeitabhängige Teil ergibt dann für jeden Eigenwert einen Zeitentwicklungsoperator, der nur auf die zugehörige Eigenfunktion angewendet zu werden braucht, um zu einer Lösung der allgemeinen Schrödingergleichung zu führen. Durch diesen Prozess laufen Erklärungen mit der Quantentheorie in vielen Fällen (in denen eines zeitunabhängigen 5 Der

Erwartungswert A eines Operators A für ein Teilchen im Zustand ψ ist defi niert als A = R3 ψ (x,t)Aψ (x,t)dx. 6 Das Eigenwertproblem für einen Operator A besteht darin, Zahlen a zu finden, für die es eine von Null verschiedene Funktion ϕ gibt mit Aϕ = aϕ . Wenn diese Gleichung erfüllt ist, ist a ein Eigenwert und ϕ die zugehörige Eigenfunktion des Operators. In der Quantenmechanik werden hermitesche Operatoren für Observable verwendet, deren Eigenwerte reell sind.

173

Hamiltonoperators) letztlich auf das Finden der Eigenwerte des jeweiligen Hamiltonoperators hinaus, wobei diese Energieeigenwerte genannt werden und die zugehörigen Eigenfunktionen vor der Anwendung des Zeitentwicklungsoperators stationäre Zustände. Mit den (in vielen Fällen) diskreten Eigenwerten kommt nun auch die Diskretheit der Lösungen der Quantenmechanik ins Spiel, etwa im Falle der diskreten Energieniveaus in der Atomhülle mit ihren jeweils typischen Bahnkurven. Letztere sind genauer Orbitale, also Aufenthaltswahrscheinlichkeitsverteilungen von Elektronen in diesen Niveaus, wie sie sich als Lösungen der Schrödingergleichung zu dem jeweiligen Eigenwert des Hamiltonoperators ergeben.7 Auf weitere Besonderheiten der Quantenmechanik abseits der Deutungsprobleme, wie etwa den inneren Drehimpuls von Teilchen, den Teilchenspin, für den es keine Entsprechung in der klassischen Mechanik gibt,8 soll hier nicht eingegangen werden. Im Wesentlichen bestehen Erklärungen mit der Quantenmechanik, wie eben beschrieben, im Lösen der Schrödingergleichung (bzw. meist in der Lösung von Eigenwertproblemen in den „einfacheren“ Fällen eines zeitunabhängigen Hamiltonoperators), so wie es sich bei Erklärungen mit der Allgemeinen Relativitätstheorie um das Lösen der Feldgleichungen handelt. Nun ist die Schrödingergleichung im Gegensatz zu diesen linear – sie wurde von vornherein als lineare Wellengleichung aufgestellt. Es handelt sich um eine lineare partielle Differentialgleichung zweiter Ordnung, die aber dennoch je nach Struktur des jeweils einzusetzenden Potentials trotz ihrer Linearität beliebig kompliziert werden kann9 und sich jedenfalls nur für wenige konkrete Fälle exakt lösen lässt (vgl. Abschnitt 4.3), so dass Erklärungen mit der Quantenmechanik in erheblichem Maße auf numerischen Methoden beruhen. Dabei besteht bei komplizierteren Potentialen zeitunabhängiger Probleme die Schwierigkeit nicht so sehr im Lösen der Schrödingergleichung, sondern darin, die Eigenwerte des sich ergebenden Hamiltonoperators zu finden. Damit wurden die Gesetze der Quantenmechanik und die Art und Weise ihrer Erklärungen so weit wiedergegeben, wie sie für praktisch alle Anwendungen verwendet werden, wobei der Rahmen besagter Minimalinterpretation nicht verlassen wurde. Selbst der Umstand, nur Wahrscheinlichkeiten 7

Das Problem der Atomhülle trug wesentlich zum Auffinden der Quantenmechanik bei, da sich die gemessenen Atomspektren klassisch nicht erklären lassen. 8 Wodurch Erklärungen mit der Quantenmechanik oft komplizierter werden, als eben angegeben, da der Hamiltonoperator nicht mehr einfach mit dem Korrespondenzprinzip bestimmt werden kann, wenn tatsächlich Wechselwirkungen mit diesem Spin, den es in der klassischen Physik nicht gibt, vorliegen. 9 Dazu kommt, dass sie in der obigen Form nur für ein Teilchen gilt. Für n-Teilchensysteme stellt man dieselbe Schrödingergleichung für Wellenfunktionen ψ (x1 , x2 , ..., xn ,t) : R3n+1 → C auf.

174

zu erhalten, wirft in der physikalischen Praxis keine Fragen auf, denn „[...] bei Streuexperimenten, wie sie mit Teilchenbeschleunigern durchgeführt werden, misst man sowieso fast immer viele Teilchen und damit relative Häufigkeiten, die in der Quantentheorie auch im quantitativen Detail berechnet werden können“ (Stöckler 2007, S.249). Auf einige Aspekte der angesprochenen Deutungsprobleme sei hier gleichwohl noch kurz eingegangen, da sie für die Reduktionsproblematik durchaus relevant sein werden, womit nun also Probleme jenseits der Minimalinterpretation besprochen werden. Dazu gehört zunächst das Problem des schon erwähnten quantenmechanischen Zustands von Teilchen, die mit Wellenfunktionen beschrieben werden. Wenn darüber letztlich auch keine Einigkeit herrscht, geht man in der üblicherweise orthodox genannten Auffassung davon aus, dass es sich bei den Wahrscheinlichkeitsaussagen der Quantenmechanik, etwa über den Ort eines Teilchens, nicht um solche über einen uns nicht bekannten, wahren Ort des Teilchens handelt, sondern dass sich das Teilchen vor einer Messung tatsächlich an keinem fest definierten Punkt befindet. Man sagt, die Quantenmechanik sei in dem Sinne vollständig, dass es über solche Wahrscheinlichkeiten hinaus nichts zu wissen gibt. Dies gilt nicht nur für den Ort, sondern für alle Observablen, also etwa auch für Geschwindigkeit, Impuls oder Teilchenspin – alle diese Größen haben vor einer Messung keinen festen Wert, der nur unbekannt wäre, sondern mehr, als die vollständige Quantenmechanik mit ihren Wahrscheinlichkeitsaussagen weiß, gibt es hier nicht zu wissen. Wir haben kein unscharfes Bild von der Welt, sondern ein scharfes Bild von einer unscharfen Welt: Teilchen in Quantenzuständen sind gewissermaßen örtlich „verschmiert“, was auch für die besagten anderen Größen gilt. Dies ist natürlich eine herausfordernde Vorstellung. Wenn man zum Beispiel eine Größe betrachtet, für die es nur zwei mögliche Messwerte gibt, wie etwa den Teilchenspin, und die Wahrscheinlichkeit, bei einer Messung einen der beiden Werte zu erhalten, laut Quantenmechanik bei jeweils 50% liegt, so befindet sich das Teilchen vor einer Messung gewissermaßen in beiden Zuständen gleichzeitig. Diese Art von Zustand wird auch Superposition zweier Zustände genannt und es gilt allgemein das Superpositionsprinzip für Lösungen der Schrödingergleichung: Wenn Ψ1 und Ψ2 zwei Lösungen der Schrödingergleichung sind, dann sind zunächst rein mathematisch aufgrund der Linearität dieser Gleichung auch Ψ = aΨ1 + bΨ2 Lösungen, die aber nun den gleichen Anspruch darauf haben, einen möglichen Realzustand zu beschreiben. Die Schwierigkeit solcher „Zwischenzustände“ zeigt sich besonders deutlich, wenn man es, wie in Schrödingers Gedankenexperiment der Schrödingerschen Katze, auf die Spitze treibt: Man kann sich einen

175

Mechanismus denken, der abhängig von dem Zustand einer zweiwertigen, quantenmechanischen Größe (etwa: ein Atom zerfällt oder nicht) eine Katze in einem verschlossenen Kasten tötet oder nicht. Die Messung dieser Größe würde in dem Öffnen des Kastens bestehen, so dass vor der „Messung“ nicht nur das Quantenobjekt in einem Quantenzustand wäre, sondern die Katze selbst gleichzeitig tot und lebendig. Wenn nun Schrödinger damit die Unplausibilität solcher Quantenzustände zeigen wollte, ist es im Zusammenhang des Reduktionsproblems wichtig festzuhalten, dass Katzen natürlich immer tot oder lebendig sind – in unserer makroskopischen Welt werden keine solchen Quantenzustände beobachtet, obwohl die Quantenmechanik sie zulassen würde: „However, the superposition principle allows far more states than can be called ,classical‘“ (Joos 1996, S.54). Dieser fundamentale Unterschied zwischen der mikroskopischen Welt der Quantenmechanik mit solchen Quantenzuständen und der makroskopischen Welt, in der es nur „klassische“ Zustände, also jedenfalls keine Zwischenzustände gibt, wird in Abschnitt 4.4 noch besprochen, hier sei aber bereits darauf aufmerksam gemacht, dass die Grenze zwischen mikro- und makroskopisch nicht klar gezogen werden kann und sich damit die für das Reduktionsproblem interessante Frage stellt, bis wohin Objekte quantenmechanisch beschrieben bzw. ob makroskopische Objekte überhaupt mit der Quantenmechanik erklärt werden können: „Die Abgrenzungsfrage zwischen groß und klein stellt sich auch noch bei der Anwendbarkeitsgrenze der Quantenphysik. Ab welcher Größenordnung zeigen die Objekte Superpositionseffekte, wie sie für die Komponenten des reinen Zustands charakteristisch sind? Ab wann muss man Wellenfunktionen verwenden, welche aus Gemischen von beobachtbaren Zuständen bestehen?“ (Kanitscheider 1979, S.263). Makroskopisch ist höchstens eine statistische Beschreibung für Gemische aus klassischen Zuständen denkbar, Quantenzustände jedenfalls gibt es nicht – der Ansatz des Dekohärenzprogramms, dass uns dies nur so vorkommt, während sich tatsächlich auch makroskopische Objekte in Superpositionen befinden, wird allerdings in Abschnitt 4.4 auch noch besprochen. Eine Grenze jedenfalls, die möglicherweise auch eine Erklärungsgrenze darstellt, ist schwer zu ziehen, denn es gibt zum einen durchaus makroskopische Quanteneffekte, wie etwa Laser, Supraleitung oder Neutronensterne, und zum anderen auch in der Mikrowelt klassische Zustände: „For example, all molecules except the smallest ones are always found with their nuclei in definite (possibly slowly moving) positions in space [...] – but hardly ever in superpositions thereof“ (Zeh 1996, S.8). Während es also einen Übergangsbereich gibt, in dem sowohl klassische als auch quantenmechanische Konzepte eine Rolle spielen, wird in den folgenden Abschnitten untersucht, ob die Quantenmechanik allein makroskopische Phänomene in ihren klassischen Zuständen erklären kann,

176

wie es eine eliminative Reduktion im Sinne von 2.4 mit ihrem indirekten Anteil verlangen würde. Zunächst sei aber abschließend zu den quantenmechanischen Zuständen noch hervorgehoben, dass es sich hierbei tatsächlich um ein Deutungsproblem handelt: Es wurde eingangs darauf hingewiesen, dass über die Interpretation der Wellenfunktion keine Einigkeit herrscht und hier die orthodoxe Auffassung wiedergegeben wird, nach der die Quantenmechanik in obigem Sinne vollständig ist. Diese Auffassung hatte aber prominente Gegner, etwa Schrödinger selbst, der mit seinem Katzengedankenexperiment die orthodoxe Auffassung bloßstellen wollte, oder auch Einstein, der mit dem Gedankenexperiment des EPR-(Einstein-Podolsky-Rosen)Paradoxons zu zeigen versuchte, dass die Quantenmechanik unvollständig ist. Zusammen mit seinen Princetoner Kollegen B. Podolsky und N. Rosen veröffentlichte er 1935 einen Aufsatz, in dem beschrieben wird, wie bei der Messung eines quantenmechanisch verschränkten Systems gleichzeitig zwei komplementäre Observablen gemessen werden können, was nach der Heisenbergschen Unschärferelation unmöglich ist: Wenn etwa ein Molekül in zwei Komponenten zerfällt, befinden sich diese nach wie vor in einem gemeinsamen quantenmechanischen Zustand (man spricht von ihrer Verschränkung), so dass die Messung eines bestimmten Parameters an einer der beiden auch den entsprechenden Parameter der anderen Komponente festlegt. Da aber an dieser Komponente unabhängig von der Messung an der anderen eine zu diesem Parameter komplementäre Messgröße gemessen werden kann, erlaubt dieses Gedankenexperiment, was die Heisenbergsche Unschärferelation verbietet, nämlich die gleichzeitige Bestimmung komplementärer Größen (wie etwa Ort und Impuls). Daraus und der Forderung des sogenannten lokalen Realismus, nach der sich räumlich getrennte Systeme nicht direkt beeinflussen und Eigenschaften unabhängig von einer Beobachtung und insbesondere schon vor einer Messung objektiv vorhanden sind, zieht Einstein den Schluss, dass die Quantenmechanik unvollständig ist und nur statistische Aussagen über in Wirklichkeit definite, aber uns unbekannte Zustände macht, die üblicherweise als verborgene Parameter bezeichnet werden. Allerdings zeigte J.S. Bell dann 1964, dass umgekehrt die Existenz verborgener Parameter unvereinbar mit der Annahme des lokalen Realismus ist: Die experimentell gut bestätigten Bellschen Ungleichungen zeigen, dass lokale Theorien mit verborgenen Parametern insofern falsch sein müssen, als sie die entsprechenden Beobachtungsbefunde nicht erklären können. Während dies oft als Nachweis dafür betrachtet wird, dass die Quantenmechanik gemäß ihrer orthodoxen Auffassung vollständig ist, lässt es streng genommen noch den Ausweg offen, dass man gegen Einstein die Lokalitätsforderung des lokalen Realismus aufgeben und dann doch in einer nichtlokalen Theorie von verborgenen Parametern sprechen kann. Es wurde

177

aber schon festgehalten, dass die Frage nicht zu Ende diskutiert ist und als Deutungsproblem bestehen bleibt. Diese Arbeit wird sich jedenfalls an die orthodoxe Auffassung halten, nach der in einer Messung nicht ein vorher bloß unbekannter aber schon festgelegter Wert bestimmt wird, sondern Teilchen erst in einer Messung von ihrem quantenmechanischen Zustand bezüglich der jeweiligen Messgröße in einen definiten Zustand übergehen, wobei als Problem im Auge behalten werden muss, dass in der Welt der klassischen Physik keine solchen Quantenzustände beobachtet werden. Und zuletzt sei noch einmal hervorgehoben, dass sich dieses Deutungsproblem innerhalb der Physik gar nicht stellt, solange dort im Rahmen der oben vorgestellten Minimalinterpretation Vorhersagen innerhalb der Mikrowelt gewonnen werden. Dass sich in diesem Bereich Teilchen in Quantenzuständen befinden, muss nicht weiter bedenklich sein, und ist es auch nur für das Reduktionsproblem, da es solche Zustände in der Makrowelt nicht gibt. Das spielt aber in der Physik, die dort newtonsch rechnet, keine Rolle. Gleichwohl gibt es natürlich physikalische Betrachtungen über die Zusammenhänge zwischen diesen Theorien, insbesondere etwa das Dekohärenzprogramm (vgl. Abschnitt 4.4), nach dem es in der makroskopischen Welt nur scheinbar keine Quantenzustände gibt. Jetzt sei aber noch auf ein weiteres der Interpretationsprobleme der Quantenmechanik kurz eingegangen, und zwar auf das Messproblem. Ein Teilchen geht durch eine Messung von seinem quantenmechanischen Zustand bezüglich des gemessenen Parameters (von einer Superposition) in den definiten, klassischen Zustand eben des gemessenen Wertes (in einen Eigenzustand der Observablen) über. Dabei ist es nun nicht ausgemacht und wird jedenfalls diskutiert, ob es sich hier wirklich um eine Zustandsänderung handelt,10 aber es ist zumindest eine naheliegende Annahme und innerhalb der orthodoxen Auffassung ist in der Tat von zwei Arten der Zustandsänderung die Rede: Erstens von der zeitlichen Entwicklung des quantenmechanischen Zustands gemäß der Schrödingergleichung und zweitens von dem unstetigen Übergang dieses Zustands in den gemessenen, definiten Zustand im Laufe einer Messung. Bei dieser zweiten Art der Zustandsänderung spricht man auch vom Kollaps der Wellenfunktion, von Zustandsreduktion oder vom Zusammenbruch des Wellenpakets, da der „verschmierte“ quantenmechanische Zustand in den definiten Zustand des gemessenen Wertes übergeht. An dieser Stelle zeigt sich auch der viel besprochene Indetermininsmus der Quantenmechanik. Während sich der 10 In

der Viele-Welten-Interpretation der Quantenmechanik wäre dies etwa nicht so, ebenso in einer Interpretation, die verborgene Parameter annimmt. Und bei Stöckler 1986 heißt es dazu: „Umstritten ist allerdings schon, ob es sich dabei um einen realen Vorgang oder um einen Artefakt der Statistik handelt“ (S.73).

178

quantenmechanische Zustand deterministisch gemäß der Schrödingergleichung entwickelt, ist das genaue Ergebnis einer Messung prinzipiell nicht vorhersagbar – es gibt nur Wahrscheinlichkeitsaussagen. Wichtiger ist hier aber unabhängig von der Indeterminismusfrage, dass man (mit von Neumann) von zwei Dynamiken innerhalb der Quantenmechanik spricht: von der zeitlichen Veränderung gemäß der Schrödingergleichung und den (indeterministischen) Veränderungen bei Messprozessen. Für die vorliegende Arbeit sind daran zwei, und, wie sich gleich zeigen wird, eng zusammenhängende Aspekte interessant: „Kann man zwei verschiedene Dynamiken in einer Theorie akzeptieren? Wenn die Quantenmechanik eine universelle Theorie ist, warum stoßen wir in der makroskopischen Welt normalerweise nicht auf die Merkwürdigkeiten der quantenmechanischen Zustandsbeschreibung?“ (Stöckler 2007, S.249). Zu dem zweiten Punkt heißt es im Zusammenhang mit dem Messprozess genauer bei Kanitscheider 1979: „Diese irreversible Veränderung, welche mathematisch einer nicht-unitären Transformation entspricht, ist ohne klassisches Gegenstück, weil hier die Hamilton-Gleichungen jeden Prozess regieren, also auch die Messung“ (a.a.O., S.295). Dies leitet direkt zu dem ersten Aspekt über, da man sich auch für die Quantenmechanik wünscht, alle Vorgänge mit ihrer grundlegenden Gleichung, der Schrödingergleichung, beschreiben zu können, also auch den Messprozess. Dass es hier aber zunächst zwei verschiedene Dynamiken gibt und der Messvorgang mit der Schrödingergleichung nicht ohne weiteres beschrieben werden kann, ist die Herausforderung des Messproblems. Es geht gewissermaßen darum, den unstetigen Übergang des Messvorgangs, den Kollaps der Wellenfunktion, quantenmechanisch zu verstehen, wobei aber alle Veränderungen gemäß der Schrödingergleichung stetig sind und insbesondere keinen Kollaps beinhalten. Für das hier vorliegende Reduktionsproblem ist es nun von besonderem Interesse, dass es mit der auf Bohr zurückgehenden sogenannten Kopenhagener Interpretation der Quantenmechanik eine Umgehung dieses Problems gibt, bei der die klassische Physik zu Hilfe genommen wird. Nach dieser Interpretation müssen alle Experimente und Ergebnisse in der Sprache der klassischen Physik beschrieben werden, womit insbesondere klassische, makroskopische Messgeräte zur Verfügung stehen und genauer gilt: „Das Mikrosystem und das Messgerät sind nur zusammen als sogenanntes Quantenphänomen der Erfahrung zugänglich“ (Stöckler 1986, S.74). Damit gibt es keine „reine“ Quantenmechanik, sondern Quantenphänomene sind immer nur im Wechselspiel mit klassischer Physik und insbesondere mit Hilfe von aus Sicht der Quantenmechanik externen Messgeräten zugänglich. Bohr spricht von einem komplementären Zugang, und innerhalb dessen stellt sich das besagte Messproblem gar nicht erst. Bevor diese Lösung aufgegriffen

179

wird, die ganz im Fahrwasser der Argumentation von benachbarten, aber verschiedenen Theorien liegt, die zusammen in Form von Mischtheorien verwendet werden, sollen aber auch die Versuche diskutiert werden, das Messproblem rein quantenmechanisch zu lösen. Das Messproblem wird ausführlich erst in Abschnitt 4.4 über die Erklärungsgrenzen besprochen und die Kopenhagener Interpretation erst im Ausblick in Abschnitt 4.5 wieder aufgegriffen. Hier sei lediglich schon vorweggenommen, dass eine Lösung innerhalb der Quantenmechanik nicht leicht zu haben sein wird: „Die Versuche, die die Zustandsreduktion (den Zusammenbruch des Wellenpakets) durch die quantenmechanische Beschreibung des Messgeräts und die detaillierte Verfolgung der Messwechselwirkung zwischen System und Messapparat zu verstehen, haben sich bisher als erfolglos erwiesen“ (Stöckler 1986, S.73). Zum Abschluss dieses Abschnitts soll nun noch erwähnt werden, dass es auch den Vorschlag gibt, den Messprozess im Bewusstsein des Beobachters zu situieren. Dies ist eine Reaktion darauf, dass selbst, wenn es gelänge, einen Messvorgang quantenmechanisch zu beschreiben, auch das neue Gesamtobjekt aus dem ursprünglichen Objekt und dem Messgerät mit einem Messgerät gemessen werden muss, was wiederum zunächst nur „von außen“, also außerhalb der Quantenmechanik der Schrödingergleichung, in der zweiten Dynamik möglich ist. Dies wird deutlich in der Sprechweise vom sogenannten Heisenbergschen Schnitt zwischen Mikround Makrowelt, also vor allem zwischen gemessenem Quantenphänomen und Messgerät. Wenn man Dinge jenseits eines solchen Schnittes messen möchte, muss man diesen entsprechend verlegen. Wenn man zuletzt aber eine Schrödingergleichung für das ganze Universum aufstellt, kann man dieses nicht mehr von außen messen, was dazu verleitet hat, diesen Schnitt im Bewusstsein eines Beobachters anzusiedeln. Der auch noch vorgeschlagene Ausweg der Viele-Welten-Interpretation, gemäß der jeder mögliche Ausgang einer Messung in einer eigenen Welt stattfindet, so dass es gar keinen Kollaps gibt, sei hier nur noch genannt – die „Bewusstseinslösung“ und die „Schnittsprechweise“ wurden nur aufgeführt, um zu zeigen, dass es sich beim Messproblem um eine Frage handelt, die nicht nur viel diskutiert, sondern vor allem offen ist. Diese Frage soll hier natürlich nicht umfassend behandelt werden und wird hier auch nur insofern interessieren, als sie für das Reduktionsproblem von Belang ist: Die Frage dieser Arbeit ist, ob dieses Deutungsproblem innerhalb der Quantenmechanik gelöst werden kann oder ob die klassische Physik im Sinne der Kopenhagener Interpretation dazu nötig ist (vgl. Abschnitt 4.5). Dabei gilt hier wie beim Deutungsproblem des quantenmechanischen Zustands selbst, dass sich solche Fragen für den Physiker, der innerhalb der präsentierten Minimalinterpretation arbeitet, gar nicht stellen: „As John S.

180

Bell has made the point, despite more than seventy years of interpreting QM [Quantenmechanik] and resolving the measurement problem, the Bohr interpretation in its more pragmatic, less metaphysical forms remains the ,working philosophy‘ for the average physicist“ (Krips 2007, Abschnitt 4). Wenn hier zunächst auch solche Erklärungen des „average physicist“ untersucht werden, ist diese Fragestellung aber wegen der Bohrschen Interpretation auch für das Reduktionsproblem relevant und wird daher an entsprechender Stelle wieder aufgegriffen. Bevor aber dies und die Frage, inwiefern die Quantenmechanik Erklärungsgrenzen hat, diskutiert wird, soll jetzt zunächst gegen die gängige Vorstellung, die Newtonsche Mechanik sei als Grenzfall eliminativ in der Quantenmechanik enthalten, Einspruch erhoben werden.

4.2 Ist die Newtonsche Mechanik als Grenzfall in der Quantenmechanik enthalten?

Bei den Interpretationsproblemen der quantenmechanischen Zustände und des Messproblems spielt das Verhältnis zwischen Quantenmechanik und klassischer Physik eine entscheidende Rolle, weshalb es nicht übertrieben ist zu sagen: „Obviously, the problem of the ,classical limit‘ is at the heart of the interpretation problem“ (Joos 1996a, S.1). Innerhalb der Physik wird nun auf der Lehrbuchebene der Vorstellung, die Newtonsche Mechanik müsse in der Quantenmechanik enthalten sein, durch das übliche und in Abschnitt 2.3 allgemein diskutierte Verfahren der „Ableitung durch Grenzübergang“ entsprochen – auch in diesem Beispiel wird sich dagegen mit Scheibe 1999 zeigen, dass dies nicht zu einer direkten eliminativen Reduktion führt. Mit ganz anderen Gründen, als sie hier verwendet werden, wird nun inzwischen auch innerhalb der Physik die Möglichkeit einer solchen Grenzfallableitung bestritten, und zwar innerhalb des Forschungsprogramms der Dekohärenz, wobei es sich um ein Konzept handelt, das auf ganz eigenem Wege zeigen möchte, wie die klassische Physik aus der Quantenmechanik erwächst. Aus dieser Perspektive wird der ältere Weg der Grenzfallableitung lapidar als „common prejudice“ abgetan, genauer als das „[...] common prejudice that quantum theory should reproduce classical mechanics in the limit where the typical wavelength (formally λ ∼  → 0) is smaller than all relevant length scales“ (Joos 1996b, S.125). Die Gründe aber, die damit zusätzlich zu den hier gegen die Ableitung durch Grenzübergang vorgebrachten sprechen, ebenso wie die Vorschläge der Dekohärenzprotagonisten, werden behandelt, nachdem der übliche Weg eigens kritisiert wurde.

181

Mit der Kritik dieses üblichen Weges sei nun begonnen. Dazu gehört zunächst der Hinweis, dass die klassische Mechanik und die Quantenmechanik nicht nur durch die Kopenhagener Interpretation und das Messproblem, sondern auch schon innerhalb der oben vorgestellten Minimalinterpretation durch das Korrespondenzprinzip eng miteinander zusammenhängen: Zur Auffindung des quantenmechanischen Hamiltonoperators ersetzt man, wie ausgeführt, für physikalische Größen (Observablen) die klassische Hamiltonfunktion des jeweiligen Problems durch entsprechende Differentialoperatoren. Ob man mit diesem Vorgehen aber umgekehrt wieder die klassischen Gleichungen aus den quantenmechanischen im Sinne einer direkten eliminativen Reduktion mit Hilfe eines Grenzübergangs ableiten kann, ist die hier zu untersuchende Frage. Dazu soll zunächst wiedergegeben werden, wie eine solche „Ableitung“ tatsächlich in Physiklehrbüchern dargestellt wird,11 um sie dann kritisch zu untersuchen. Wenn man den Mittelwert eines Operators A mit A bezeichnet, lässt sich aus der Definition des Mittelwerts und der Schrödingergleichung für die zeitliche Änderung dtd A dieses Mittelwerts die Beziehung   d ∂A i A = [H, A] + dt  ∂t ableiten, wobei [·, ·] der Kommutator für Operatoren und H der Hamiltonoperator ist (vgl. etwa Schwabl 1998, S. 29ff.). Identifiziert man nun in der Manier des Korrespondenzprinzips die Poissonklammer {·, ·} der klassischen Mechanik mit dem Term i [·, ·], so ähnelt diese Gleichung formal der Zeitentwicklung einer Phasenraumfunktion f im Hamiltonformalismus der klassischen Mechanik mit der klassischen Hamiltonfunktion H d ∂f f = {H, f } + . dt ∂t Weiterhin lässt sich ein quantenmechanisches Analogon zur Newtonschen Bewegungsgleichung aufstellen. Dazu leitet man zunächst für den Orts- und den Impulsoperator12 die Kommutatoren [H, xi] = 11 Die

−ipi m

Literatur zu den Beziehungen zwischen Quantentheorie und klassischer Mechanik ist natürlich äußerst reichhaltig und es sei hier lediglich für einen Überblick auf Scheibe 1999, S.163-250, verwiesen. 12 Der Ortsoperator x angewendet auf eine Funktion ϕ ist definiert als das Produkt xϕ , der Impulsoperator lautet i ∇.

182

und

∂V ∂ xi ab, mit denen sich, wenn man weiterhin für die Kraft den Operator F(x) = −∇V (x) einführt, aus obiger Gleichung für die zeitliche Änderung des Mittelwerts die Beziehungen d 1 x = p dt m und d p = F(x) dt ergeben. Kombiniert man diese beiden Gleichungen, ergibt sich schließlich mit d2 m 2 x = F(x) dt das besagte quantenmechanische Analogon zur Newtonschen Bewegungsgleichung F = m · a (vgl. a.a.O., S.29f.). Diese beiden Ergebnisse werden dann als Ehrenfestsches Theorem so gedeutet, dass die klassischen Gleichungen für die Mittelwerte der quantenmechanischen Operatoren gelten (vgl. a.a.O., S.30). Schließlich existiert noch eine Ableitung, bei der sich aus der Schrödingergleichung durch Separierung von Real- und Imaginärteil für  = 0, was als Grenzübergang  → 0 gedeutet wird, die (übrigens nichtlineare) Hamilton-Jacobi-Gleichung der klassischen Mechanik ergibt (vgl. etwa Yoshida 1977, S.51f.). Diese Überlegungen werden üblicherweise als Nachweis dafür betrachtet, dass die Newtonsche Physik als Grenzfall in der Quantenmechanik enthalten ist. Gegen eine solche Deutung lassen sich nun die aus dem zweiten Kapitel bekannten Einwände ins Spiel bringen, wobei hier wie dort zuerst der begriffliche und dann der mathematische Aspekt besprochen sei. Zunächst verwenden diese beiden Theorien also völlig verschiedene Konzepte: In der klassischen Physik werden die Observablen mit Funktionalen beschrieben und in der Quantenmechanik mit Differentialoperatoren, die zwar mit Analogiebetrachtungen im Rahmen des Korrespondenzprinzips aus ersteren gewonnen werden, aber im Ergebnis dann etwas gänzlich anderes sind. Während nämlich Funktionale direkt eine Abbildung vom Phasenraum in die reellen Zahlen sind, handelt es sich bei den Differentialoperatoren um Abbildungen von dem Funktionenraum der Wellenfunktionen in sich selbst, so dass man zum Auffinden der eigentlich das Teilchen beschreibenden Funktion erst das Eigenwertproblem des Operators lösen muss. Zusätzlich gibt es einen fundamentalen Unterschied darin, was jeweils beschrieben wird: Die Wellenfunktionen beschreiben die oben behandelten [H, pi] = i

183

quantenmechanischen Zustände, während es die klassische Physik mit durch Phasenraumdichten beschriebenen klassischen Zuständen zu tun hat. Dies ist die Stelle, an der sogar Scheibe 1999 an die Kuhn-Feyerabendsche Inkommensurabilität gemahnt, wenn er auf die Schwierigkeiten der Schaffung einer gemeinsamen Vergleichsbasis innerhalb seines Reduktionskonzepts aufmerksam macht: „Es wird sich dann vor allem zeigen, dass die für jede Reduktion so entscheidende Herstellung einer den Reduktionspartnern gemeinsamen Plattform im vorliegenden Fall auf besonders große Schwierigkeiten stößt [...]. Sie sind bei den Begriffen der Observablen und des Zustands eines physikalischen Systems konzentriert. Hier stehen sich selbstadjungierte Operatoren [besagte Differentialoperatoren] und Vektoren eines Hilbertraums [des besagten Funktionenraums mit den Wellenfunktionen als Vektoren] einerseits, sowie Funktionen auf einem Phasenraum und Phasenraumdichten andererseits als jeweilige Standardbeschreibung von Observablen und Zuständen scheinbar unversöhnlich, im Kuhnschen Sinne inkommensurabel, einander gegenüber.“ (a.a.O., S.164)

Von dem Problem der Zustände zunächst ganz abgesehen, lässt sich allein das der Observablen nicht ohne weiteres lösen: „Aber der Begriff etwa der Observablen fällt in CM/CSM [in der klassischen (statistischen) Mechanik] und QM [in der Quantenmechanik] derart verschieden aus und diese Verschiedenheit infiziert, da es um einen Grundbegriff geht, gnadenlos jeden weiteren Vergleich, dass man, wenn irgendwo, dann hier von echter Inkommensurabilität sprechen möchte“ (a.a.O., S.174). Nun wurde zwar in Abschnitt 2.2 gezeigt, dass sich solche begrifflichen Barrieren umgehen lassen, indem man auf eine Ableitung verzichtet und sich mit dem Vergleich verschiedener Konzepte im Rahmen einer Nachbarschaftsrelation begnügt. Aber selbst dafür gibt es hier Schwierigkeiten, wie Scheibe dann weiter ausführt, da bei der oben beschriebenen Zuordnung von Hamiltonfunktional zu Hamiltonoperator Mehrdeutigkeitsprobleme auftreten, was er als Diracproblem zitiert. Es stellt sich sogar heraus, dass es gar keine eindeutige Zuordnung geben kann, so dass es sich bei den Zuordnungen in Lehrbüchern um „stillschweigende Vereinbarungen“ (S.176) handelt. Diese müssen als „Standardidentifikationen für Observablen“ (S.178) letztlich auch für Scheibes Reduktionsgeschäft, also für die hier verwendete Nachbarschaftsrelation, genügen. Um eine logische Ableitung, durch die die klassische Theorie direkt eliminativ reduziert würde, kann es sich also bei den Ehrenfestschen Sätzen nicht handeln, da die verschiedenen Konzepte der quantenmechanischen Operatoren bzw. der klassischen Observablen nicht miteinander identifiziert werden können, was, wie mit Nagel in Abschnitt 2.2 gesehen, für eine solche Ableitung notwendig wäre. Stattdessen kann es sich lediglich um

184

einen Vergleich verschiedener Konzepte handeln, der aber nicht zu einer direkten eliminativen Reduktion führt, was in Abschnitt 2.4 besprochen wurde. Weiterhin werden in den Ehrenfestschen Sätzen nicht die Operatoren selbst, sondern deren Mittelwerte verwendet, womit das Brückengesetzproblem noch verschärft wird, wie Scheibe herausstellt: „Insbesondere ist der Versuchung zu widerstehen, die Mittelwerte als exakte Werte für klassische Teilchen umzuinterpretieren“ (S.198), und noch genauer: „Eine (noch dazu genäherte) Newtonsche Mechanik der Wellenpakete ist begrifflich etwas anderes als eine klassische Mechanik einzelner Teilchen“ (ebd.). Es mag nun insgesamt zwar sein, dass sich mit dem Ehrenfestschen Theorem für die Mittelwerte quantenmechanischer Operatoren Gleichungen ableiten lassen, die den klassischen Gleichungen formal ähneln, dies besagt aber noch nicht, dass letztere dadurch eliminativ reduziert wären. Im Gegenteil gehören die Gleichungen trotz formaler Ähnlichkeiten zu völlig verschiedenen Theorien, und wenn man die klassischen Gleichungen für die Beschreibung makroskopischer Vorgänge verwendet, verwendet man insbesondere nicht die quantenmechanischen Gleichungen. Durch bloße Vergleichsbeziehungen werden die klassischen Gleichungen nicht überflüssig und es gibt hier insbesondere keine logische Ableitung, wozu es im Zusammenhang des oben angesprochenen Dekohärenzprogramms übrigens einfach heißt: „[...] mean values are of course insufficient to derive classical behavior from quantum mechanics“ (Joos 1996b, S.77). Dazu kommt nun noch, dass sich die Auffassungen über Teilchen bzw. Materie fundamental unterscheiden. Während man klassisch von punktförmigen Teilchen auf klassischen, also fest definierten Teilchenbahnen ausgeht, hat man es in der Quantenmechanik der Minimalinterpretation mit Teilchen zu tun, die durch eine Wellenfunktion beschrieben werden, und an der Stelle von Bahnen finden sich Aussagen über Aufenthaltswahrscheinlichkeiten. Und diese Wellenfunktionen bzw. Aufenthaltswahrscheinlichkeiten handeln auch gar nicht von klassischen Teilchen, sondern geben quantenmechanische Zustände wieder, wie es sie klassisch nicht gibt. Es handelt sich auch darin um völlig verschiedene Konzepte, die natürlich nicht, wie für eine logische Ableitung notwendig, miteinander identifiziert werden können, da es selbst schon problematisch ist, inwiefern im Rahmen mathematischer Näherungsbeziehungen Vergleiche zwischen derart unterschiedlichen Konzepten gerechtfertigt sind. Nicht umsonst hatten schon Kemeny/Oppenheim 1956 für den Fall der Quantenmechanik starke Bedenken, was die Möglichkeit von Brückengesetzen betrifft, wie eingangs zitiert wurde. Dass die oben angegebenen direkten Reduktionsbeziehungen nicht eliminativ sind, zeigt sich, wie schon im zweiten Kapitel herausgearbeitet, nicht nur in diesen begrifflichen Problemen, sondern auch in mathematischen, die sich hier vor allem in der Frage nach dem Grenzübergang  → 0 manifestieren.

185

Ähnliches wurde gerade im Fall der ART diskutiert, weshalb dieser Aspekt hier nur kurz besprochen sei: Das Einsetzen von  = 0 in eine Gleichung mag zwar mathematisch formal eine Ableitung ergeben, bleibt aber physikalisch sinnlos, da es sich bei  um eine Naturkonstante handelt, die weder variieren kann (also gegen Null gehen), noch gleich Null ist. Dies ließe sich höchstens im Rahmen eines Vergleichs rechtfertigen. Und das Vernachlässigen einzelner Größen führt lediglich zu einer physikalischen Herleitung, nicht aber zu einer logischen Ableitung: Wenn zwei Theorien sich widersprechen, kann dies durch einen Grenzübergang zwar eskamotiert, aber nicht aufgehoben werden, rechtfertigen lässt sich nur ein Theorienvergleich. Scheibe hält für diesen Fall fest: „Dass die obige quantenmechanisch modifizierte Hamilton/Jacobi Gleichung [die hier nicht zitiert wurde] für  = 0 in die klassische Hamilton/Jacobi Gleichung übergeht, besagt gar nichts, und ist streng genommen nicht einmal wahr“ (S.182).13 Auf eine weitere Besonderheit in diesem Zusammenhang macht Scheibe 1997 aufmerksam, wenn es dort heißt: „So oder so wird die Quantenmechanik auf keinen Fall die volle Kontinuumsmechanik reproduzieren können“ (a.a.O., S.206) – während die Quantenmechanik meist diskrete Zustände liefert, handelt es sich klassisch um „kontinuierliche“ Materie, die mit einer „diskreten Physik“ nicht ohne weiteres zu erklären ist. Hier kann man nun selbst rein formal mathematisch keinen Grenzübergang von „endlich“ auf „unendlich“ durchführen, wie er in der Formulierung λ → 0 steckt, die die Diskretheit zu umgehen versucht, da ein Kontinuum überabzählbar unendlich ist. Zu seinem Reduktionskonzept führt Scheibe 1999 jedenfalls aus: „Dazu gehört natürlich auch, dass wir nicht in irgendwelchen Gleichungen  gleich 0 setzen und dann von Grenzfällen sprechen. Wir werden vielmehr zur Gewinnung eines Reduktionsbegriffs unsere bewährte Methode befolgen, nicht die Formen der Gleichungen zu vergleichen, sondern ihre Lösungsmengen“ (a.a.O., S.182), was auch die einzige Möglichkeit ist, mathematisch sauber physikalisch gehaltvolle Verbindungen herzustellen. Diese Fragen wurden im zweiten Kapitel und am Beispiel der ART schon besprochen und die dort erhaltenden Ergebnisse gelten auch für diesen Fall: Man kann aus begrifflichen und mathematischen Gründen verschiedene Theorien nur miteinander vergleichen, wie es zum Beispiel Scheibe innerhalb seines Reduktionsprogramms unternimmt, nicht jedoch in eine deduktive Beziehung setzen. Und dass solche Vergleiche, die hier lediglich formale Ähnlichkeiten zwischen Gleichungen über Erwartungswerte von 13 Der

Nachsatz, dass dieser Übergang nicht einmal wahr wäre, deutet schon auf die weitere Schwierigkeit innerhalb Scheibes Reduktionsunternehmen, dass man nicht pauschal die ganze Quantentheorie approximativ mit der Newtonschen Mechanik vergleichen kann, was gleich besprochen wird.

186

Operatoren und solchen über klassische Größen herausstellen können, allein keine direkte eliminative Reduktion liefern, wurde auch schon allgemein in Abschnitt 2.4 besprochen: Für eine eliminative Reduktion bedarf es über solche Vergleiche hinaus noch einer indirekten Reduktion über die Erklärung von Phänomenen. Wenn sich nämlich mit den quantenmechanischen Konzepten auch die makroskopischen Phänomene der Newtonschen Physik beschreiben lassen, sind die Gleichungen letzterer tatsächlich überflüssig, wohingegen dafür Vergleiche mathematischer Strukturen zu wenig sind – das Problem der indirekten Reduktion für diesen Fall wird aber erst in den Abschnitten 4.3 und 4.4 diskutiert. Was nun also zunächst die direkte Beziehung zwischen diesen Theorien betrifft, so kann die starke Intuition von Physikern, dass die Newtonsche Physik in der Quantenmechanik als Grenzfall enthalten sein muss,14 immerhin ersatzweise durch das Aufstellen einer Nachbarschaftsrelation befriedigt werden, was ebenfalls ein schwieriges Unternehmen ist, wie es Scheibe 1999 zeigt. Eine solche Theorienbeziehung liefert dabei keine eliminative Reduktion, ergibt aber differenziertere Vergleiche, als die oben zitierten Ableitungen. Scheibes Untersuchung geht also davon aus, sich mit einem approximativen Vergleich bescheiden zu müssen, der als Grenzfallreduktion bzw. asymptotische Reduktion durchzuführen ist. Hier kommt nun zusätzlich das im zweiten Kapitel nur kurz erwähnte Konzept der partiellen Reduktion ins Spiel, das ebenfalls im Rahmen approximativer Vergleiche möglich ist und bei dem nicht ganze Theorien miteinander verglichen werden, sondern jeweils einzelne Gesetze. Scheibe versucht, alle drei Wege zu beschreiten, wobei aber allein schon bei der für alle drei Konzepte notwendigen vorherigen gegenseitigen Anpassung des mathematischen Apparats ungelöste Schwierigkeiten auftreten: „Wir werden dafür [für eine solche Anpassung] diverse partielle Strukturisomorphien ins Spiel bringen, die dann einen nachfolgenden approximativen Vergleich ermöglichen. Dabei werden Lücken bleiben, die einer geschlossenen allgemeinen Reduktionsbehauptung zur Zeit noch im Wege stehen“ (S.164). Ansonsten gilt wieder die allgemeine Maxime der Scheibeschen Reduktionen, dass topologische Vergleiche zwischen Lösungsmengen von Gleichungen angestellt und nicht die Formen der Gleichungen selbst verglichen werden (wie es etwa obige „Ableitung“ mit Hilfe des Ehrenfestschen Theorems unternimmt): „Demgegenüber kommt es für uns darauf an zu beurteilen, ob die klassischen Lösungen der Hamil14 Mit

„Die klassische Newtonsche Mechanik muss als Grenzfall in der Quantenmechanik enthalten sein“ wurde eingangs schon Schwabl 1998 (S.29) zitiert. Untersuchungen dazu gibt es schon so lange wie die Quantenmechanik selbst und die Ehrenfestschen Theoreme trugen wesentlich zur Akzeptanz der ungewohnten Quantenmechanik bei.

187

ton/Jacobi Gleichung Näherungen der quantenmechanischen Gleichungen sein können und unter welchen Bedingungen sie es sind“ (S.204). Dieses Vorgehen, bei dem insbesondere Lösungen der reduzierenden Theorie von solchen der zu reduzierenden angenähert werden, mag nun zwar subtile Vergleiche liefern, führt aber, wie schon im zweiten Kapitel herausgestellt, nicht zu einer direkten eliminativen Reduktion. Auch Scheibe verwendet jedenfalls den Grenzübergang  → 0, erhebt aber nicht den Anspruch, damit eine Ableitung zu erhalten: „Natürlich gilt auch für den Grenzfall  → 0 das grundsätzliche Bedenken, das wir seinerzeit schon für c → ∞ erörtert haben. In beiden Fällen geht es nach dem jetzigen Stande der Physik um universelle Naturkonstanten, zu denen uns keine Alternativen empirisch bekannt sind. Daher ist die Annahme dieser Konstanten als Variablen in empirischer Hinsicht eine reine Fiktion“ (S.181), die aber zu Vergleichszwecken durchaus gerechtfertigt ist. Allerdings bleiben selbst bei diesem Vergleich, als der Scheibes Reduktionskonzept hier betrachtet wird, noch Fragen offen, wodurch allein schon das Konzept der Theoriennachbarschaft für diesen Fall mit Schwierigkeiten konfrontiert wird. So liefert er zum Beispiel keine Reduktion auf bzw. genauer keinen Vergleich mit den Gesetzen der eigentlichen klassischen Mechanik, sondern verwendet als Vergleichspartner die klassische statistische Mechanik, die wie die Quantenmechanik Wahrscheinlichkeitsaussagen macht – allerdings über klassische Zustände. Und selbst damit spricht er eher von einer „Spekulation über eine allgemeine Reduktion“ (S.248) als von einer gelungenen Unternehmung. Neben den Vergleichen der ganzen Theorien unternimmt Scheibe aber auch individuelle Grenzfalluntersuchungen, bei der ART etwa den der Planetenbahnen, hier zum Beispiel den eines Elektrons im Magnetfeld oder den des harmonischen Oszillators. Im Falle der ART zeigten sich auch im Einzelfall deutlich verschiedene Ergebnisse der zu vergleichenden Theorien (Rosetten- vs. Ellipsenbahn), was hier nun ganz ähnlich eintritt: Im ersten Fall erhält man für  → 0 nicht die klassische Funktion einer Bahnkurve, sondern eine δ -Distribution (vgl. S.219), das Gleiche gilt für den zweiten Fall: „Als klassischen Grenzfall erhalten wir eine δ -Funktion entlang der klassischen Bahn“ (S.248). Eine solche δ -Funktion nun mit den klassischen Bahnen zu identifizieren, würde einen zur Grenzfallprozedur zusätzlich hinzukommenden Schritt darstellen, der als solcher gänzlich ad hoc wäre. Es handelt sich damit selbst im Grenzfall noch um völlig verschiedene Konzepte – dennoch spricht aber letztlich nichts dagegen, dass die beiden Theorien zueinander benachbart sind. Scheibes eliminative Ansprüche lassen sich zwar auf dem Weg des direkten Theorienvergleichs nicht einlösen, aber von einer Nachbarschaft im Sinne von 2.4 kann hier durchaus die Rede sein. Aufgrund dieser kurzen Zusammenfassung lässt sich sagen, dass es sich

188

zwar um zwei gänzlich verschiedene Theorien handelt, weshalb insbesondere die Newtonsche Mechanik nicht einfach als Grenzfall eliminativ in der Quantenmechanik enthalten ist, es aber nichtsdestotrotz zahlreiche verschiedene Vergleichsmöglichkeiten gibt, die, wenn auch für Scheibe noch Wünsche offen bleiben, eine Nachbarschaftsrelation zwischen diesen Theorien etablieren können. Gegen die Vorstellung der direkten eliminativen Reduktion spricht nicht zuletzt, dass es hier verschiedene Vergleichsmöglichkeiten gibt (bei Scheibe etwa Grenzfallreduktion, asymptotische Reduktion, partielle Reduktion und individuelle Vergleiche) – die Frage nach den Möglichkeiten für „intertheoretic relations“, also für Beziehungen bzw. Vergleiche zwischen zwei unterschiedlichen Theorien, ist schon kompliziert genug und lässt sich jedenfalls nicht pauschal damit beantworten, dass es eigentlich nur eine Theorie gibt, in der die andere enthalten wäre. Nun wurde eingangs schon erwähnt, dass der Anspruch, derartiges zu zeigen, in der Physik auch so gar nicht mehr erhoben wird, wohingegen mit dem Programm der Dekohärenz ganz andere Argumente ins Spiel kommen, die auf ihre Weise zeigen sollen, wie die klassische Physik aus der Quantenmechanik hervorgeht. Diese Argumente zeigen auch, dass die Newtonsche Mechanik nicht im Sinne einer eliminativen, direkten Reduktion in der Quantenmechanik enthalten sein kann, womit obige Überlegungen dazu bestätigt werden, wenn auch aus einer anderen Perspektive. Ob der Dekohärenzansatz allerdings über die Stiftung einer Nachbarschaftsrelation hinaus eine indirekte eliminative Reduktion ermöglicht, wird erst in Abschnitt 4.4 untersucht. Um sich dagegen abzusetzen, rekapituliert etwa Joos 1996a übliche Lehrbuchableitungen, wie sie auch hier kritisiert wurden, wie folgt: „Most textbooks suggest that classical mechanics is in some sense contained in quantum mechanics as a special case, similar to the limit of small velocities in relativity. Then, for example, the center-of-mass motion of a macroscopic body would be described by a narrow wave packet, well localized in both position and momentum. The spreading of the wave packet according to the Schrödinger equation is indeed negligible for large masses, so that the Ehrenfest theorems seem to allow a derivation of Newtonian dynamics as a limiting case.“ (a.a.O., S.1f.)

Nun wurde gerade gezeigt, dass dies so leicht nicht ist: Die Ehrenfestschen Sätze liefern zwar gewisse formale Analogien zwischen den Theorien, aber keine direkte eliminative Reduktion, wie es dieses Zitat mit der Formulierung von der „derivation of Newtonian dynamics as a limiting case“ nahelegt – es handelt sich stattdessen um sich widersprechende Theorien, die darüber hinaus auch gänzlich verschiedene Konzepte verwenden, so dass als direkte Beziehung einzig ein retentiver Vergleich,

189

also eine Nachbarschaftsrelation, möglich ist. Der Sache nach kommt aber auch Joos 1996a zu diesem Schluss. Dazu führt er zunächst einen Punkt an, auf den hier mit Scheibe schon aufmerksam gemacht wurde: „These standard arguments are insufficient for several reasons. It remains unexplained why macro-objects come only in narrow wave packets, even though the superposition principle allows far more ,nonclassical‘ states (while micro-objects are usually found in energy eigenstates)“ (S.2). Das bedeutet letztlich, dass die üblichen Ableitungen den Unterschied zwischen klassischen und quantenmechanischen Zuständen einfach überbrücken und dabei insbesondere das Superpositionsprinzip ignorieren. Nun kommt aber ein weiteres Argument hinzu, das bisher noch nicht verwendet wurde und das den Kern des Dekohärenzansatzes ausmacht: „It is now increasingly being realized that the conventional treatments of the classical limit are flawed for a simple reason: they do not represent any realistic situation. The assumption of a closed macroscopic system (and thereby the applicability of the Schrödinger equation) is by no means justified in the situations which we find in our present universe. Objects we usually call ,macroscopic‘ are interacting with their natural environment in such a strong manner that they cannot even approximately be considered as isolated, even under extreme conditions. Large molecules, for example, are already ,macroscopic‘ in this dynamical sense.“ (ebd.)

Wegen Wechselwirkungen mit ihrer Umgebung können makroskopische Objekte nicht als isolierte Systeme behandelt werden, womit die Schrödingergleichung auf sie nicht direkt anwendbar ist. Mit diesem Punkt erhofft man sich gleichzeitig ein neues Verständnis für das Verhältnis zwischen klassischer Physik und Quantenmechanik: „This observation opens up a new approach to the understanding of classical properties within the framework of quantum theory“ (ebd.). Bei den Versuchen, zu verstehen, warum es in der makroskopischen Welt keine quantenmechanischen Zustände gibt, spielen diese Wechselwirkungen mit der Umgebung eine Schlüsselrolle: „This process is called ,decoherence‘. For example, the position of a dust particle becomes ,classical‘ through scattering of a vast number of air molecules and photons, acting together like a continually active postion monitor“ (ebd.). Durch solche Wechselwirkungen finden gewissermaßen Messungen statt, womit die Dynamik der Schrödingergleichung nicht mehr gilt und es mithin keine quantenmechanischen Zustände mehr gibt, die schließlich auf dem Superpositionsprinzip für Lösungen der Schrödingergleichung beruhen. Dies ist aber nur eine stark verkürzte und vor allem vereinfachte Wiedergabe des Dekohärenzansatzes, da dieser insbesondere davon ausgeht, dass sich Quantenzustände nur scheinbar auflösen. In Abschnitt 4.4 wird dieser Ansatz wieder aufgegriffen, während hier nur noch kurz der Nä-

190

herungscharakter der Dekohärenz betont werden soll, um zu zeigen, dass man auch damit lediglich eine (retentive) Vergleichsbeziehung zwischen Newtonscher Physik und Quantenmechanik erhält. Die Idee der Dekohärenz beinhaltet nämlich, dass die klassische Mechanik jedenfalls nicht so, wie in den sonst üblichen Ableitungen, als Grenzfall in der Quantenmechanik der Schrödingergleichung enthalten ist, sondern dass sich das Verhältnis zwischen den beiden Theorien komplizierter darstellt. So wird dieses Programm etwa in Kiefer 1996 charakterisiert als Versuch, „[to] explain [...] the fact that certain superpositions are never observed in Nature – in spite of their natural occurrence in the formalism of quantum mechanics“ (a.a.O., S.186). Dieser Tatbestand „[...] can be dynamically understood by the irreversible mechanism of decoherence“ (ebd.), wobei dieser Vorgang lediglich eine näherungsweise Erklärung liefert: „By its very nature, decoherence is only approximate, since phase relations are never destroyed [...]“ (ebd.). Auf diesen Näherungscharakter macht auch Stöckler 2007 aufmerksam: „Der Dekohärenzprozess macht plausibel, wie Verschränkungen des betrachteten Systems (insbesondere des aus Messobjekt und Messapparat zusammengesetzten Systems) in einer makroskopischen Umgebung jedenfalls näherungsweise aufgelöst werden“ (a.a.O., S.259). So versucht man also, mit Dekohärenz zu verstehen, wie aus der Superposition quantenmechanischer Zustände durch Umgebungswechselwirkungen annähernd eine Mischung scheinbar („phase relations are never destroyed“) klassischer Zustände entsteht. Was genau damit gemeint ist, scheinbar klassische Zustände annähernd zu erhalten, wird in Abschnitt 4.4 noch besprochen. Aber dieses „annähernd“ und „scheinbar“ zeigt hier schon, dass man innerhalb der Quantenmechanik bleibt, was man schließlich auch gerade möchte, wodurch aber eben der Sprung in die klassische Beschreibung der makroskopischen Welt nicht gelungen ist. Dies bringt Krips 2007 auf den Punkt, wenn dort hervorgehoben wird, dass die Schrödingersche Katze im Rahmen von Dekohärenzüberlegungen zwar annähernd tot oder lebendig ist, sich streng genommen aber innerhalb der quantenmechanischen Beschreibung immer noch in einem Zwischenzustand befindet: „A serious difficulty [des Dekohärenzprogramms] remains, however. It may well be true that S + M [quantenmechanische Superposition zweier Zustände] is approximately in a mixed state [Mischung klassischer Zustände]. But this does not solve the cat paradox. That is, although it may be true that to a good approximation Schrödinger’s cat is either dead or alive, the air of paradox remains if, when we examine in detail the microcorrelations between the measured and measuring systems, we see that the cat is in a zombie like dead-and-alive state.“ (a.a.O., Abschnitt 4)

Der Rahmen der Quantenmechanik (in dem sich Schrödingers Katze „in

191

a zombie like dead-and-alive state“ befindet) wird bei Dekohörenzansätzen eben nicht verlassen und eine „Annäherung“ an die klassische Beschreibung mag einen Vergleich mit dieser ermöglichen und Theoriennachbarschaft stiften, liefert aber nicht die klassische Beschreibung selbst (in der die Katze „either dead or alive“ ist). Wenn es darum ginge, unmittelbar mit Dekohärenzargumenten näherungsweise Phänomene zu erklären, könnten diese Näherungsüberlegungen ausreichen (die Grenzen derartiger Erklärungen werden in Abschnitt 4.4 diskutiert), es geht hier aber um die klassische Theorie, und diese wird durch Näherungsargumente nicht abgeleitet. Dies zeigt also, dass auch der Dekohärenzansatz die Newtonsche Physik nicht als Grenzfall der Quantenmechanik, der in dieser eliminativ enthalten wäre, etablieren kann – es bleiben zwei verschiedene Theorien, die lediglich durch Näherungsbetrachtungen miteinander vergleichbar sind. Wenn auch bei den Versuchen, die klassische Welt mit Hilfe von Dekohärenz aus der Perspektive der Quantenmechanik zu erklären, Grenzübergänge für Bewegungsgleichungen verwendet werden, lässt sich damit nicht die Überflüssigkeit der Newtonschen Physik zeigen, da diese Grenzübergänge eben nur Vergleiche zwischen diesen verschiedenen Theorien liefern. Soll die prinzipielle Überflüssigkeit der Newtonschen Physik gezeigt werden, müsste man dagegen im Rahmen des Dekohärenzansatzes mit Methoden der Quantenmechanik und Überlegungen zu Wechselwirkungen mit der Umgebung makroskopische Phänomene direkt erklären, wobei sich aber in Abschnitt 4.4 zeigen wird, dass auf diese Weise zwar plausibel gemacht werden kann, dass wir in der Makrowelt keine Quantenzustände beobachten, womit viel für die Nachbarschaft von Newtonscher Physik und Quantenmechanik gewonnen ist, aber nicht, warum sich klassische Objekte gemäß den Newtonschen Gleichungen bewegen. Dies wird aber erst in Abschnitt 4.4 untersucht, wenn es um die Grenzen der Möglichkeiten geht, im Rahmen einer indirekten Reduktion und unter Berücksichtigung der Überlegungen dazu in Abschnitt 2.5 mit der Quantenmechanik allein makroskopische Phänomene zu erklären. Zunächst sei als Zwischenstand festgehalten, dass insgesamt das Ergebnis des zweiten Kapitels für den Fall der Quantenmechanik rekapituliert und damit – und zusätzlich mit den Argumenten des Dekohärenzprogramms – gezeigt wurde, dass die Newtonsche Mechanik nicht als Grenzfall eliminativ in der Quantenmechanik enthalten ist. Nun soll also geprüft werden, wie Erklärungen mit der Quantenmechanik allein beschaffen sind, und ob sich mit Hilfe solcher indirekter Erklärungen die Newtonsche Mechanik im Sinne von 2.4 eliminativ auf die Quantenmechanik reduzieren lässt. Dazu werden im nächsten Abschnitt zunächst die erfolgreichen Erklärungen der Quantenmechanik der Minimalinterpretation innerhalb der mikroskopischen

192

Welt besprochen und anschließend in Abschnitt 4.4 die Erklärungsgrenzen diskutiert, wobei dann auch wieder die Dekohärenzansätze und die Interpretationsfragen in den Blick genommen werden. 4.3 Erklärungen mit der Quantenmechanik

Der letzte Abschnitt hat gezeigt, dass es eine direkte eliminative Reduktion der Newtonschen Mechanik auf die Quantenmechanik nicht gibt. Wenn erstere also eliminativ auf letztere reduziert werden soll, kann dies nur mit einer Reduktion im Sinne von 2.4 geschehen, bei der die indirekte Erklärung von Phänomenen gefordert wird. Bei solchen Erklärungen darf nun gemäß den Ausführungen dazu in Abschnitt 2.5 die Newtonsche Mechanik nicht verwendet werden: Diese ist nicht als Grenzfall in der Quantenmechanik enthalten und ist also eine andere Theorie als die Quantenmechanik, die man nun bei Erklärungen mit der Quantenmechanik allein nicht verwenden darf, wenn diese Erklärungen gerade die Überflüssigkeit der Newtonschen Mechanik zeigen sollen. Dies gilt nicht zuletzt für die Bewegungsgleichungen: Wenn die Hamilton-Jacobi-Gleichung für makroskopische Körper angesetzt wird, rechnet man newtonsch und nicht quantenmechanisch – Erklärungen mit der Quantenmechanik allein müssen auch in der makroskopischen Welt mit der Schrödingergleichung zu Rande kommen, indem man diese etwa für alle betroffenen Teilchen aufstellt. Aber die Physik der makroskopischen Welt wird erst im nächsten Abschnitt über die Erklärungsgrenzen betrachtet. Zunächst sollen typische Erklärungen der Quantenmechanik in der Mikrowelt15 untersucht werden. Auch dabei soll nun darauf geachtet werden, inwiefern Newtonsche Konzepte eine Rolle spielen: Wenn die Newtonsche Mechanik in einer indirekten Reduktion eliminativ auf die Quantenmechanik reduziert werden soll, muss letztere bei ihren diesbezüglichen Erklärungen gänzlich ohne erstere auskommen. Nun gehören aber klassische Konzepte in gewissem Sinne genuin zur Quantenmechanik dazu: Erklärungen mit der Quantenmechanik bestehen, wie in Abschnitt 4.1 gesehen, im Wesentlichen darin, den Hamiltonoperator für das jeweilige Problem aufzustellen, der dann in die Schrödingergleichung eingesetzt wird, die es schließlich zu lösen gilt – und es wurde oben ausgeführt, dass der Hamiltonoperator im Rahmen des quantenmechanischen Korrespondenzprinzips in Analogie zu dem Hamiltonfunktional des entspre15 Dass

diese Abgrenzung freilich so leicht nicht zu ziehen ist, wurde schon in 4.1 erwähnt. So gibt es auch typische makroskopische Phänomene der Quantenmechanik, wie etwa Supraleitung oder Neutronensterne. Die folgende Untersuchung wird sich aber auf wirkliche Mikrophänomene, also in Atomen und Molekülen, beschränken.

193

chenden klassischen Problems gebildet wird. Man verwendet damit Wissen über klassische Potentiale für Erklärungen mit der Quantenmechanik, das über bloß heuristische Anleihen hinausgeht, und es gibt also überhaupt keine eigenständigen Erklärungen der Quantenmechanik. Eigenständig an ihr ist ihre spezifische Herangehensweise an die Welt und ihre Annahmen über die Welt, wie sie in Abschnitt 4.1 herausgestellt wurden, aber für Erklärungen anwenden lässt sie sich nur im Wechselspiel mit der Newtonschen Mechanik. Dies und insbesondere der Punkt, dass überhaupt zur Formulierung der Quantenmechanik klassische Begrifflichkeiten verwendet werden, gehört allerdings auch zu den besagten Deutungsproblemen und wird daher in Abschnitt 4.5 in einem weiteren Rahmen noch einmal aufgegriffen. Im Folgenden sollen nun, von diesen Deutungsproblemen zunächst abgesehen, Erklärungsgrenzen gesucht werden, die nach der Übersetzung klassischer Potentiale in die Operatorform der Quantenmechanik auftreten. Damit wird die Quantenmechanik, die schließlich mehr ist als die bloße Schrödingergleichung, von vornherein als Mischtheorie angesehen und es ist zu untersuchen, ob immerhin diese Mischung aus Quantentheorie und klassischer Mechanik Phänomene erklären kann, die sonst von der klassischen Mechanik allein behandelt werden, ob also die Verbindung der klassischen Mechanik mit quantenmechanischen Konzepten produktiv auf solche Phänomene anwendbar ist. Auch dafür wird es Grenzen geben, die an anderer Stelle ins Spiel kommen und auf ihre Weise die Nichtüberflüssigkeit der Newtonschen Physik zeigen – bei diesen Schwierigkeiten kann man sich den jeweiligen Hamiltonoperator durchaus als unabhängig von der Newtonschen Mechanik aufgefunden denken16 (vgl. Abschnitt 4.4). Aber selbst wenn hier eine indirekte Reduktion möglich sein sollte, wäre sie nicht eliminativ, da es sich so oder so nur um eine Reduktion auf besagte Mischtheorie aus Quantenmechanik und klassischer Mechanik handeln kann. Dass die Aufstellung des Hamiltonoperators natürlich ein Problem für sich ist, zeigt sich auch an dem in Abschnitt 4.2 erwähnten Mehrdeutigkeitsproblem bei der Zuordnung von klassischer Hamiltonfunktion zu dem entsprechenden Operator – das zu Erklärungen mit der Quantenmechanik wesentlich gehörende Finden des dem jeweiligen Problem entsprechenden Operators ist kein trivialer Vorgang. Dieser Findungsprozess soll aber, wie gesagt, im Rahmen der folgenden Untersuchung, die immer von schon gefundenen Operatoren ausgeht, nicht problematisiert werden. Es geht gewissermaßen darum, zu zeigen, dass sich eine klassische Bewegungs16

In den Fällen, in denen Wechselwirkungen mit dem Teilchenspin eine Rolle spielen, muss die Quantenmechanik ohnehin ohne die Analogie zur klassischen Physik auskommen, da es dort keinen Spin gibt.

194

gleichung, die man mit einer klassischen Hamiltonfunktion erhält, nicht ohne weiteres quantenmechanisch rekonstruieren lässt, indem man diese Hamiltonfunktion als Hamiltonoperator in die Schrödingergleichung einsetzt: Der Prozess der „Quantisierung von Observablen“ mittels des Korrespondenzprinzips ist nicht so leicht rückgängig zu machen, wie es in Lehrbüchern gerne dargestellt wird. Um diese Erklärungsgrenzen geht es aber erst im nächsten Abschnitt, hier sollen zunächst typische Erklärungen mit der Quantenmechanik der Minimalinterpretation des Physikers bzw. Chemikers untersucht werden. Dazu ist zunächst zu sagen, dass ein wesentlicher Anteil solcher quantenmechanischer Erklärungsvorgänge in numerischen Näherungsverfahren besteht, da es exakte Lösungen der Schrödingergleichung nur für sehr ausgewählte Fälle gibt. Diese werden gleich besprochen, zuvor seien aber drei solcher Näherungsverfahren genannt. Es gibt zum Beispiel die sogenannte Störungstheorie, die Variationsmethode und die WKB-(Wentzel-Kramer-Brillouin)Methode, die jeweils für bestimmte Konstellationen geeignet sind und entsprechend verwendet werden. Dabei ist es eine Besonderheit des letztgenannten Verfahrens, in Situationen eines „quasi-klassischen“ Grenzfalles angewendet zu werden (vgl. Schwabl 1998, S.208ff.), wobei dieser dadurch charakterisiert wird, „[...] dass die typische Wellenlänge des Zustandes klein ist gegenüber der charakteristischen Distanz, über die sich das Potential merklich ändert“ (ebd.). Dies rechtfertigt unter anderem das Vernachlässigen bestimmter Terme, die den Faktor 2 beinhalten (vgl. S.208f.), was zwar als Näherung innerhalb der Quantenmechanik angesehen werden kann, allerdings explizit mit dem Verweis auf die klassische Physik begründet wird, worin man von dieser profitiert und auf ähnliche Weise wie bei der linearisierten ART zwar im Rahmen der Quantenmechanik bleibt, aber Konzepte der klassischen Physik hinzuzieht. Nun soll hier auf diese Näherungsverfahren nicht weiter eingegangen werden – dass aber selbst für Erklärungen innerhalb der Quantenmechanik mit der WKB-Methode ein Verfahren verwendet wird, das „im nahezu klassischen Grenzfall anwendbar“ ist (a.a.O., S.203) und dort von klassischen Beschreibungen profitiert, wird in Abschnitt 4.4 wieder aufgegriffen, wenn es nämlich um die Frage einer im Prinzip möglichen eliminativen Reduktion geht: Gegen die prinzipielle Möglichkeit einer numerischen Erklärung makroskopischer Phänomene mit vielleicht erst noch zukünftig verfügbaren hohen Rechnerkapazitäten spricht nämlich, dass numerische Verfahren selbst schon im Mikrobereich der Beschreibung einzelner Atome auf klassische Anleihen angewiesen sind. Bei allen drei Methoden geht es jedenfalls weiterhin lediglich darum, Eigenwerte eines zeitunabhängigen Hamiltonoperators und die dazugehörigen sta-

195

tionären Zustände zu bestimmen. In Abschnitt 4.1 wurde schon ausgeführt, dass sich in diesen Fällen die Schrödingergleichung in einen orts- und einen zeitabhängigen Teil zerlegen lässt, wobei das zeitabhängige Problem leicht zu lösen ist und das ortsabhängige auf das Eigenwertproblem des jeweiligen Hamiltonoperators hinausläuft. Nun sollen im Folgenden ausschließlich Erklärungen mit solchen zeitunabhängigen Hamiltonoperatoren untersucht werden, da es sich bei Fragen mit zeitabhängigen Operatoren, für die es wieder eigene Näherungsverfahren gibt, um Probleme innerhalb der Mikrowelt handelt, die nicht näher an die „klassischen“ Phänomene der Makrowelt heranführen, um die es hier schließlich doch geht. Zeitabhängige Hamiltonoperatoren kommen nämlich ins Spiel bei Effekten wie Streuung, Emission bzw. Absorption und Zerfall, die bei typischen Objekten der klassischen Physik nicht auftreten. Diese Phänomene sind natürlich wichtig für das Verständnis des Aufbaus von Materie, von Elementarteilchen bis Festkörpern, und deshalb letztlich auch für das Reduktionsproblem relevant, führen aber von diesem zunächst zu weit weg – wenn hier auch typische Erklärungen innerhalb der Mikrowelt untersucht werden, soll gleichwohl die Frage nach der Möglichkeit, makroskopische Phänomene quantenmechanisch zu erklären, nicht aus den Augen geraten. Nun sollen also Lösungen der Schrödingergleichung mit zeitunabhängigen Hamiltonoperatoren in den Blick genommen werden. Hier gibt es zunächst exakte Lösungen für freie Teilchen, also solche, die sich nicht in einem Potential V (x) befinden. Man erhält einfache Wellengleichungen, die übrigens umgekehrt sogar Pate standen bei der Aufstellung der Schrödingergleichung, bei der es eine Forderung war, dass sie eben diese Wellengleichungen als Lösungen beinhalten muss. Interessant wird es also erst, wenn man mit der so aufgestellten Schrödingergleichung Lösungen findet, die nicht von vornherein intendiert waren. Solche exakten Lösungen gibt es nun auch für (einzelne) Elektronen in einem konstanten Magnetfeld, wobei bei diesen als experimenteller Befund der Zeeman-Effekt hinzutritt, der zur Einführung des inneren Drehimpulses von Teilchen, des Teilchenspins, führte. Weiterhin lässt sich das Problem des harmonischen Oszillators exakt lösen, bei dem sich ausgehend vom klassischen Potential ergibt, dass das Teilchen nur in bestimmten (diskreten), angeregten Zuständen schwingt, die den jeweiligen Eigenwerten des Hamiltonoperators entsprechen,17 wobei diese „Schwingung“ auf einer je nach Eigenwert charakteristischen „Bahn“, also genauer gemäß einer bestimmten Aufenthaltswahrscheinlichkeit erfolgt – es sei an den quantenmechanisch „verschmierten“ Zustand erinnert. Diese Wahrscheinlichkeitsverteilung wird jedenfalls von der jeweiligen Eigenfunktion vorgegeben, die ihrerseits mit Hilfe der sogenannten Hermite-Polynome ex17

Der nte Eigenwert lautet (n + 1/2)ω , wobei ω die Frequenz ist.

196

akt darstellbar ist. An dieser Stelle soll noch einmal betont werden, dass es sich bei diesen und den folgenden Erklärungen um Phänomene innerhalb der mikroskopischen Welt handelt: Ein makroskopischer harmonischer Oszillator schwingt nicht auf verschiedene Weisen in verschiedenen angeregten Zuständen, die sich aus der diskreten Verteilung von Eigenwerten ergeben, sondern, salopp gesagt, immer nur hin und her – und dies auf einer klassischen Bahn und nicht in einem Quantenzustand. Versuche, diese klassische Bahn aus der Quantenmechanik zu rekonstruieren, führen zunächst nur, wie oben mit Scheibe gesehen, zu einer δ -Funktion entlang der klassischen Bahn, wobei es noch unklar ist, inwiefern sich der Quantenzustand auflöst.18 Wenn man von dem letzten Punkt zunächst absieht und sich auch mit δ -Funktionen zufrieden gibt – die klassische Bahn selbst kann man laut Scheibe nicht bekommen –, könnte man dieses Ergebnis nun aber immerhin als ein erfolgreiches Beispiel für eine näherungsweise quantenmechanische Erklärung klassischer Vorgänge verbuchen. Allerdings kommen unten kompliziertere Konstellationen und deren Potentiale ins Spiel, bei denen eine solche Erklärung nicht in Sicht ist. Der nächste wichtige Fall einer exakten Lösung ist nun der des CoulombPotentials, bei dem sich ein Teilchen in einem gemäß dieses Potentials anziehenden Feld befindet. Auch hier lassen sich die stationären Zustände, also die Eigenfunktionen des Hamiltonoperators, mit Hilfe der sogenannten Kugelfunktionen und Laguerre-Polynome exakt angeben. Diese Lösung ist nun besonders interessant, da sie sich auf das Wasserstoffatom anwenden lässt. Bei diesem handelt es sich um ein Zwei-Körper-Problem, um die Bewegung eines Elektrons um den Atomkern nämlich, das sich aber auf ein Ein-Körper-Problem in einem Coulomb-Potential zurückführen lässt. Dazu werden Relativ- und Schwerpunktkoordinaten eingeführt, da das Potential des Zwei-Körper-Problems nur vom Relativabstand abhängt, und die sogenannte reduzierte Masse, die die Rolle der Teilchenmasse des eigentlichen Coulomb-Problems übernimmt. Mit dieser Zurückführung des ZweiKörper-Problems auf das Ein-Körper-Problem des Coulomb-Potentials können die Energieniveaus des Wasserstoffatoms mit ihren jeweiligen Orbitalen vollständig und exakt angegeben werden. Die Eigenwerte des CoulombHamiltonoperators19 lassen sich in Beziehung setzen zu den sogenannten Quantenzahlen, mit denen der Aufbau der Atomhülle beschrieben wird, und es lässt sich die Übergangsenergie für ein zwischen verschiedenen Energieniveaus wechselndes Elektron angeben, womit man die Spektralserien des Wasserstoffatoms erhält. 18 Die 19 Zur

werte.

Dekohärenzargumente werden im nächsten Abschnitt diskutiert. Erinnerung: die Eigenwerte des Hamiltonoperators heißen auch Energieeigen-

197

Nach diesem großen Erfolg für das Wasserstoffatom20 soll nun das nächst schwierigere Problem des Heliumatoms betrachtet werden, bei dem es sich um die Bewegung zweier Elektronen um einen Atomkern handelt. Dies lässt sich zwar wieder als das Problem diesmal zweier Teilchen in einem Coulomb-Potential behandeln, das aber nur dann exakt lösbar ist, wenn man die Wechselwirkung zwischen diesen Teilchen, die elektrostatische Abstoßung der Elektronen, vernachlässigt. Mit dieser Vernachlässigung hat man ein ähnliches Problem wie beim Wasserstoffatom, wobei jetzt die Schrödingergleichung für zwei Teilchen angesetzt werden muss – ohne diese Vernachlässigung wird es komplizierter und lässt sich nur noch mit Hilfe der oben schon genannten Näherungsverfahren der Störungstheorie und Variationsmethode lösen – mit jeweils verschiedenen, aber gut abstimmbaren Ergebnissen. Auch die Energieniveaus des Heliumatoms lassen sich damit, wenn auch nur näherungsweise, mit der Quantenmechanik bestimmen. Gänzlich auf Näherungsverfahren ist man angewiesen, wenn es sich um Atome mit mehr als zwei Elektronen handelt. Es lässt sich zwar wieder eine zeitunabhängige Schrödingergleichung für n-Elektronen-Wellenfunktionen aufstellen, aber „Nach unserer Erfahrung mit dem Heliumatom ist eine exakte Lösung der Schrödingergleichung für mehr als zwei Elektronen aussichtslos“ (Schwabl 1998, S.242). Für solche Atome (die meisten also) wurde ein eigenes Verfahren, die sogenannte Hartree-Fock-Näherung, entwickelt. Leicht lassen sich damit noch wasserstoffähnliche Atome behandeln, bei denen man vereinfachend annimmt, „[...] dass ein beliebiges Elektron des Atoms neben dem Kernpotential effektiv ein zusätzliches Potential durch die übrigen Elektronen verspürt, so dass jedes der Elektronen durch eine Ein-Teilchen-Schrödingergleichung beschrieben werden kann“ (ebd.). Schwieriger wird es für Atome mit vielen Elektronen, für deren Berechnung weitere Vereinfachungen notwendig werden – und an dieser Stelle wird nun expressis verbis in halbklassischer Näherung gerechnet: „Wir können dann eine halbklassische Näherung verwenden und annehmen, dass innerhalb von Volumenelementen, in denen das Potential nahezu konstant ist, viele Elektronen sind, deren Zustände lokal ebene Wellen sind“ (a.a.O., S.247). Dies heißt genauer, dass hier vereinfachend viele Teilchen, die innerhalb einer quantenmechanischen Beschreibung zusammen einen komplizierten quantenmechanischen Zustand bilden würden, als jeweils einzelne, insbesondere untereinander nicht wechselwirkende Teilchen beschrieben werden, womit insgesamt diese Konstellation als statistische Mischung quasiklassischer Zustände aufgefasst wird. Damit muss für diesen Teilchenverband die Schrödingergleichung nicht gelöst werden, womit aber das genuine Erklärungsverfahren 20

Das Problem des Atomaufbaus spielte bei der Entwicklung der Quantenmechanik eine entscheidende Rolle.

198

der Quantenmechanik, das in der Lösung der Schrödingergleichung für alle am zu erklärenden Phänomen beteiligten Teilchen besteht, verlassen wird. Dies ist mehr als eine bloße Vereinfachung innerhalb der Quantenmechanik, da es in dieser auch für viele Teilchen nur quantenmechanische Zustände und keine statistischen Mischungen quasiklassischer Zustände gibt. Mit letzteren kommt eine Anleihe aus der klassischen Physik ins Spiel, womit darin zu dem oben schon erwähnten Näherungsverfahren der WKB-Methode, die in „quasi-klassischen“ Grenzfällen verwendet wird, ein weiterer Fall einer quantenmechanisch-klassischen Mischerklärung tritt – und dies selbst dann, wenn man von dem oben besprochenen prinzipiellen Mischcharakter quantenmechanischer Erklärungen, der durch das Aufstellen des Hamiltonoperators in Analogie zu entsprechenden klassischen Hamiltonfunktionalen bedingt ist, absieht. Mit solchen Mischerklärungen und weiteren vereinfachenden Annahmen lässt sich nun schließlich auch der Aufbau von größeren Atomen beschreiben, indem die Energieeigenwerte näherungsweise mit den sogenannten HartreeFock-Gleichungen bestimmt werden – man erhält wieder die verschiedenen Orbitale in den aufeinander folgenden Schalen der Atomhülle. Zuletzt soll nun noch etwas ausführlicher die quantenmechanische Beschreibung von Molekülen diskutiert werden, wobei folgende Feststellung aus Schwabl 1998 vorausgeschickt sei: „Die Bestimmung der Energieniveaus und selbst des Grundzustandes von Molekülen ist erheblich komplizierter als bei Atomen. Die Elektronen bewegen sich in einem von mehreren Kernen erzeugten, anziehenden, nicht rotationssymmetrischen Potential“ (a.a.O., S.271). Nun lässt sich das Problem für das einfachste Molekül, das ionisierte Wasserstoffmolekül H2+ , bei dem sich ein Elektron im Potential zweier als feststehend gedachter Protonen bewegt, tatsächlich exakt lösen. Aber schon beim nichtionisierten Wasserstoffmolekül H2 mit zwei Elektronen kann man nur noch näherungsweise rechnen, wobei für komplexere Moleküle wie schon bei der Beschreibung von Atomen halbklassische Methoden verwendet werden, so zum Beispiel die gleich noch einmal auftauchende sogenannte Born-Oppenheimer-Näherung (vgl. a.a.O., S.273ff.). Bei Molekülen kommt nun noch hinzu, dass nicht nur klassische Annahmen zur vereinfachenden Beschreibung benötigt werden, sondern dass sie sich zum Teil sogar in klassischen Zuständen befinden. Es wurde schon in Abschnitt 4.1 darauf hingewiesen, dass die Grenze zwischen Objekten in klassischen bzw. quantenmechanischen Zuständen nicht leicht zu ziehen ist, und es sowohl quantenmechanische Makroobjekte als auch Mikroobjekte in klassischen Zuständen gibt. Daher muss schon innerhalb der Mikrowelt ein Übergangsbereich zwischen klassischer Physik und Quantenmechanik konstatiert werden. So weist Zeh 1996 für die „[...] transition region between classical and quantum theory“ (S.8) darauf hin, dass „Chemists know that a

199

border line does in fact seem to exist deep in the microscopic world“ (ebd.). Genauer heißt es: „Even the simple two-state system representing the chiral states of a sugar molecule behaves ,classically‘ in never occurring in parity eigenstates [...]. This sugar molecule appears therefore very different from the otherwise essentially analogous ammonia molecule that may be observed in its maser mode eigenstates“ (ebd.). Auf die klassischen Zustände von Molekülen macht auch Joos 1996b aufmerksam: „Most molecules are considered by chemists to exist in certain well-defined ,configurations‘, that is, with their atomic nuclei localized ,classically‘ in certain relative positions. [...] Only molecules consisting of only a few atoms are known to occur in energy and angular momentum eigenstates“ (a.a.O., S.89), woran sich der Hinweis anschließt, dass man zur Beschreibung größerer, quasiklassischer Moleküle die gerade erwähnte Born-Oppenheimer-Näherung verwendet: „The classical configurations are usually derived by using the Born-Oppenheimer approximation, that is, by an expansion in terms of the electron-to-nucleon mass ratio m/M“ (ebd.). Diese und obige Ausführungen stehen im Zusammenhang mit dem Dekohärenzprogramm, dass sich angesichts dieser Befunde der Frage „Does this now mean that quantum mechanics breaks down fundamentally even for relatively small numbers of particles?“ (Zeh 1996, S.8) stellt und zu zeigen versucht, wie man solche klassischen Zustände innerhalb der Mikrowelt quantenmechanisch verstehen kann. Dies wird aber erst im nächsten Abschnitt genauer besprochen, da es im Zusammenhang mit Erklärungen der Quantenmechanik der Minimalinterpretation genügt, festzuhalten, dass schon im Mikrobereich klassische Zustände faktisch auftreten, so dass solche Erklärungen in diesem Bereich nicht nur halbklassische Näherungen verwenden, sondern sogar mit klassischen Zuständen selbst konfrontiert sind. Dies weist schon auf mögliche Erklärungsgrenzen der Quantenmechanik hin, die im nächsten Abschnitt herausgearbeitet werden sollen. Zuvor sei zum Abschluss dieses Abschnittes noch etwas genauer die quantenmechanische Beschreibung von Molekülen untersucht, da es für diese mit der Quantenchemie ein eigenes Fachgebiet gibt. Hier wird nun der Übergangsbereich zur Chemie betreten – und obwohl sich die vorliegende Arbeit auf die Frage des Reduktionismus innerhalb der Physik beschränken soll, sei ein kurzer Exkurs zu dieser Wissenschaft gestattet, da er nämlich zeigt, inwiefern die Quantenmechanik numerisch in der Lage ist, größere Objekte zu beschreiben, was schließlich für die Frage nach der quantenmechanischen Beschreibung der Makrowelt durchaus von Interesse ist. Die Quantenchemie wird von Primas 1985 wie folgt charakterisiert: „Die numerische Lösung von molekularen Schrödinger-Gleichungen ist das Hauptarbeitsgebiet der Quantenchemiker“ (a.a.O., S.112). Es wurde schon zu Beginn dieses Abschnitts darauf aufmerksam gemacht, dass man bei Erklä-

200

rungen mit der Quantenmechanik wesentlich auf Näherungsverfahren angewiesen ist, da es nur wenige exakte Lösungen der Schrödingergleichung gibt (die im Laufe dieses Abschnitts auch vorgestellt wurden). Darin ähnelt die Schrödingergleichung den Feldgleichungen der Allgemeinen Relativitätstheorie, die ebenfalls nur wenige exakte Lösungen haben und für die Beschreibung einer Vielzahl von Phänomenen nur numerisch gelöst werden können. Dies gilt hier nun insbesondere für die Beschreibung von Molekülen. Dabei wurde allgemein in Abschnitt 2.5 und speziell in Abschnitt 3.5 herausgestellt, dass die Ergebnisse solcher numerischen Verfahren erst noch gedeutet werden müssen. War dazu im Falle der ART die Newtonsche Gravitationsphysik in Form der Post-Newtonschen Näherung nötig, so sind es im Falle der quantenmechanischen Beschreibung chemischer Sachverhalte Begriffe der Chemie, die zur Deutung benötigt werden. So gilt etwa, „[...] dass die Begriffe Bindungs- oder Gruppenorbitale in der absoluten Quantenchemie [also im rein numerischen Verfahren] nicht vorkommen. In dieser Theorie sind Orbitale lediglich nützliche mathematische Hilfsgrößen, welche nur dazu dienen, eine rechentechnisch brauchbare Darstellung der elektronischen Zustandsfunktion einer Molekel zu erzeugen“ (a.a.O., S.116). Das numerische Lösen der Schrödingergleichung erlaubt es noch nicht, sinnvoll Chemie zu betreiben, da dazu chemische Begriffe notwendig sind, die numerische Methoden nicht liefern können. Ohne Deutung aus der Perspektive der Chemie lässt sich mit Zahlenwerten nicht viel anfangen: Allein für eine „rechentechnisch brauchbare Darstellung der elektronischen Zustandsfunktion einer Molekel“ wird der Begriff des Orbitals als aus der Chemie stammende „Hilfsgröße“ benötigt. Die Unmöglichkeit, mit numerischen Verfahren Chemie zu betreiben, zeigt sich weiterhin darin, „[...] dass die heutige Quantenchemie bei allen Problemen versagt, die nicht in natürlicher Weise auf die Lösung einer molekularen Schrödinger-Gleichung zurückgeführt werden können. Als Beispiel sei die chemische Systematik erwähnt“ (S.112). Genauer heißt es dazu noch: „Die absolute Quantenchemie kann zwar einzelne Ketone wie etwa das Propanon, das Butanon, [...] usw. richtig beschreiben, aber der mit dem Begriff ,Keton‘ gemeinte strukturelle Klassenzusammenhang kann in der absoluten Quantenchemie nicht in Evidenz gesetzt werden“ (S.116) – die Systematik der Chemie kann durch numerische Lösungen der Schrödingergleichung nicht reproduziert werden. Argumente dieser Art wurden schon bei der entsprechenden Diskussion der ART vorgestellt und werden im nächsten Abschnitt eine Rolle spielen, wenn es – wieder ganz abgesehen von der Chemie – um die Frage nach der prinzipiellen Möglichkeit der Beschreibung der makroskopischen Welt mit der Quantenmechanik allein geht, da die Behauptung, solche Beschreibungen

201

seien im Prinzip möglich, auf numerische Verfahren verweisen kann.21 Während aber hier numerische Verfahren auf Deutungen aus der Perspektive der Chemie angewiesen sind, bleiben solche Verfahren bei Fragestellungen der makroskopischen Welt ohne Deutungen von dafür zuständigen Theorien (also insbesondere der Newtonschen Physik) „physikalisch blind“. Von besonderer Relevanz für die ganze Fragestellung, prinzipiell oder nicht, wird dabei der Unterschied zwischen klassischem und quantenmechanischem Zustand sein, der, wie gesehen, schon in der Mikrowelt begegnet und auch für den letztgenannten Fall der Chemie eine Rolle spielt. Klassische Zustände gehen einher mit anderen Begrifflichkeiten, die zu deren Beschreibung notwendig sind und bei denen es fraglich ist, ob man sie aus der Quantenmechanik allein (der „absoluten Quantenchemie“) gewinnen kann. Dies zeigt sich in der Chemie laut Primas 1985 zum Beispiel am Begriff des Kerngerüsts: „Im Grenzfall [...] sind die Kernbewegungen klassisch und als qualitativ neue Eigenschaft tritt in dieser Beschreibung das Kerngerüst auf. Ohne diesen Begriff wäre eine chemisch relevante Diskussion von Molekülen nicht möglich“ (a.a.O., S.116). Zusammenfassend lässt sich sagen, dass Mischerklärungen mit Konzepten aus Quantenmechanik und klassischer Physik schon im Mikrobereich auftreten: Es gibt halbklassische Näherungen, tatsächliche klassische Zustände und mit der Quantenchemie eine ganze Mischtheorie aus quantenmechanischen und chemischen Konzepten22 – dass die Quantenmechanik damit bei wirklich makroskopischen Problemen allein, selbst wenn man von den klassischen Anleihen bei der Aufstellung der Hamiltonoperatoren absieht, nicht weit kommen wird, drängt sich an dieser Stelle schon auf. Diese Frage wird nun untersucht. 4.4 Erklärungsgrenzen der Quantenmechanik

Zu Beginn dieses Abschnitts soll noch einmal an den Beginn des letzten erinnert werden, und zwar an den Umstand, dass es eigenständige Erklä21 Im

Rahmen von Mischtheorien können diese natürlich äußerst erfolgreich sein. So heißt es in Primas 1985 auch: „Dass es gelungen ist, mit Hilfe der Quantenmechanik wichtige Aspekte chemischer Phänomene wirklich zu verstehen und technologisch zu beherrschen, ist ein Triumph der modernen Forschung. Ohne Quantenmechanik sind chemische Phänomene nicht zu verstehen“ (S.112). Nur reicht für dieses Verständnis die Quantenmechanik allein nicht aus. 22 Dass es sich um eine Mischtheorie handelt, steckt schon im Namen Quantenchemie. Die Chemie soll hier allerdings nicht diskutiert werden, sie sollte hier lediglich veranschaulichen, dass numerische Lösungen der Schrödingergleichung noch der Deutung bedürfen – und dass solche Deutungen numerischer Größen schon innerhalb der Mikrowelt der Chemie notwendig sind.

202

rungen der Quantenmechanik ohnehin nicht gibt: Es handelt sich immer um Erklärungen im Wechselspiel mit der Newtonschen Mechanik, da die zum Aufstellen einer Schrödingergleichung benötigten Hamiltonoperatoren gemäß des jeweiligen Hamiltonfunktionals des entsprechenden klassischen Problems gebildet werden. Dass die Quantenmechanik möglicherweise im Rahmen ihrer Deutungsprobleme auch noch in einem weiteren Sinne von der klassischen Physik abhängt, wird im nächsten Abschnitt noch diskutiert. Die Erklärungsgrenzen jedenfalls, die nun aufgezeigt werden sollen, sind Grenzen solcher Mischerklärungen mit Newtonscher Physik und Quantenmechanik, so dass, selbst wenn mit solchen Erklärungen eine indirekte Reduktion möglich ist, diese nicht eliminativ wäre, da schon in diesen Erklärungen Newtonsche Physik steckt. Aber dieses Argument wird gar nicht benötigt, um zu zeigen, dass die Newtonsche Physik durch die Quantenmechanik nicht überflüssig geworden ist, denn selbst mit dem Zugeständnis der klassischen Anleihe bei der Aufstellung der Hamiltonoperatoren gibt es Erklärungsgrenzen für makroskopische Phänomene, die nun besprochen werden. Nachdem im letzten Abschnitt erfolgreiche Erklärungen mit der in obigem Sinne mit klassischen Anleihen versehenden Quantentheorie und die Schwierigkeiten, die dabei auftreten, betrachtet wurden, sollen jetzt die Grenzen der Erklärungsmöglichkeiten mit der Quantenmechanik herausgestellt werden, die sich bei der Beschreibung der Erklärungserfolge auch schon abzeichneten: Lassen sich selbst einzelne Moleküle nur unter Zuhilfenahme klassischer Konzepte beschreiben, wird es bei der Interaktion zwischen zwei oder gar mehreren solcher Moleküle in dieser Hinsicht nicht anders sein. Nicht zuletzt dient die besagte quasiklassische Beschreibung dabei nicht nur als heuristisches Hilfsmittel, da sich nämlich große Moleküle tatsächlich in klassischen Zuständen befinden, womit allein schon eine Anwendungsgrenze der Quantenmechanik markiert zu sein scheint. Die Antwort der Dekohärenz, die das Auftreten klassischer Zustände näherungsweise erklärt, wird allerdings auch zu besprechen sein. Darüber hinaus gibt es nun schließlich noch aus solchen Molekülen aufgebaute Festkörper, deren mikroskopische Eigenschaften, wie zum Beispiel Magnetismus oder elektrische Leitfähigkeit, quantenmechanisch besser erklärt werden als klassisch, deren makroskopische Wechselwirkungen untereinander aber, die den klassischen Bewegungsgleichungen gehorchen, aus der Perspektive des Befundes für einzelne Moleküle kaum mit der Quantenmechanik allein erfasst werden können. Von der Nichtexistenz quantenmechanischer Zustände in der makroskopischen Welt zunächst ganz abgesehen: Dass sich etwa die Navier-Stokes-Gleichungen der Strömungslehre quantenmechanisch durch das Lösen der Schrödingergleichung für alle beteiligten Moleküle begründen lassen werden, ist nur schwer vorstellbar, ganz zu schweigen von

203

der Hamilton-Jacobi-Gleichung der klassischen Mechanik – und dass selbst die Behauptung, solche Erklärungen seien numerisch im Prinzip möglich, ohne weiteres nicht haltbar ist, wurde am Ende des letzten Abschnitts im Zusammenhang mit der Quantenchemie schon besprochen und wird auch in diesem Abschnitt noch einmal eigens diskutiert. An dieser Stelle soll nun in aller Deutlichkeit daran erinnert werden, was für eine Art quantenmechanischer Erklärung für etwa die HamiltonJacobi-Gleichung hier gemeint ist, da in Abschnitt 4.2 schließlich eine quantenmechanische „Ableitung“ für diese zitiert wurde. Es geht hier nämlich nicht um eine direkte Erklärung dieser Gleichung, sondern indirekt um Erklärungen von Bewegungsvorgängen, die man klassisch mit der Hamilton-Jacobi-Gleichung beschreibt und für die eine eigenständige quantenmechanische Beschreibung zu finden wäre. Dazu soll noch einmal an den Unterschied zwischen der direkten Nachbarschaftsrelation zwischen zwei Theorien und der eliminativen Reduktion im Sinne von 2.4 erinnert werden, die in einem indirekten Anteil die Erklärung von Phänomenen fordert. So wurde im Falle der Allgemeinen Relativitätstheorie gesehen, dass eine Newtonsche Beschreibung von Galaxien etwas ganz anderes ist als eine genuin allgemeinrelativistische Erklärung, die etwa in einer Lösung der Feldgleichungen für alle beteiligten Sterne oder für das komplexe geometrische Gebilde einer Galaxie bestünde – auch wenn der Vergleich der beiden Theorien durchaus deren Nachbarschaft aufzeigt. Die mathematischen Strukturen dieser beiden Theorien sind gewissermaßen miteinander vergleichbar. Aber um sagen zu können, dass man die Newtonsche Theorie nicht mehr benötigt, müsste man in einer indirekten eliminativen Reduktion alle Phänomene, für die sie zuständig ist, auch mit der reduzierenden Theorie selbst erklären, nicht nur mit der Newtonschen Theorie als vermeintlichem Grenzfall. So verhält es sich auch in dem vorliegenden Beispiel der Quantenmechanik: Quantenmechanische Erklärungen makroskopischer Phänomene sind etwas anderes als Erklärungen mit Newton unter Berufung auf die Nachbarschaft dieser Theorien, wie wohlbegründet letztere auch sein mag – sie zeigt sich zum Beispiel in der oben aufgeführten Existenz des quantenmechanischen Analogons zur klassischen Hamilton-JacobiGleichung. Aber wenn man diese Gleichung selbst verwendet, rechnet man newtonsch, und es wurde oben gezeigt, dass die Newtonsche Theorie nicht als Grenzfall in der Quantentheorie enthalten ist, sondern dass es sich um zwei eigenständige Theorien mit jeweils spezifischen Konzepten handelt, die zwar miteinander vergleichbar sind, dadurch aber ihre Eigenständigkeit nicht verlieren. Eine quantenmechanische Erklärung makroskopischer Bewegung darf die Hamilton-Jacobi-Gleichung daher nicht verwenden, sondern müsste dagegen bei der Schrödingergleichung für Teilchen ansetzen und mit großem Aufwand diese äußerst komplexe Situation aus sehr vielen

204

Teilchen numerisch in den Griff bekommen. Dabei kann sie über Aussagen zur Aufenthaltswahrscheinlichkeit prinzipiell nicht hinauskommen. Allein eine noch zu findende quantenmechanische Beschreibung der Wechselwirkungen zwischen Molekülen erinnert dabei schon an die Kombination von Schwarzschildlösungen aus dem ART-Beispiel, die auch noch niemand unternommen hat. Möchte man aber die Überflüssigkeit der Newtonschen Theorie begründen, muss man genau solche eben beschriebenen und ans Abenteuerliche grenzenden Erklärungen angeben, die gänzlich ohne die Newtonsche Physik auszukommen haben. Bevor nun die Besonderheit besprochen wird, dass keine makroskopischen Quantenzustände beobachtet werden,23 seien die hier geforderten quantenmechanischen Erklärungen für makroskopische Phänomene noch etwas ausbuchstabiert. Im Rahmen der Minimalinterpretation würde man durch das Lösen einer Schrödingergleichung für alle beteiligten Teilchen für die makroskopische Welt Erklärungen zwar in Begriffen von Wahrscheinlichkeiten erhalten, da man aus diesem Konzept, wie mit Scheibe gesehen, innerhalb der Quantenmechanik nicht herauskommt, aber das könnten durchaus plausible Erklärungen sein (von dem Problem der Quantenzustände sei, wie gesagt, zunächst abgesehen) – in der Mikrowelt sind sie es schließlich auch, und nicht zuletzt gibt es auch in der Makrowelt statistische Erklärungen, innerhalb der statistischen Mechanik nämlich. Erhebliche Schwierigkeiten sind für solche Erklärungen dennoch zu erwarten, etwa wenn es um das Auffinden makroskopischer Bewegungsgleichungen, wenn auch statistischer, geht: Wenn sich auch zeigen lässt, dass etwa die Ortsunschärfe der quantenmechanischen Unbestimmtheitsrelation für bewegte makroskopische Körper vernachlässigbar klein ist,24 wird die Bewegung solcher Körper dennoch ausschließlich newtonsch beschrieben. Eine quantenmechanische Erklärung ohne Verwendung Newtonscher Bewegungsgleichungen wäre etwas anderes, vorstellbar wären zum Beispiel Vorhersagen in Form der in Abschnitt 4.2 erwähnten δ -Funktionen, die dann auch für Fälle gefunden werden müssten, die bisher rein newtonsch behandelt werden, und nicht nur für die in Abschnitt 4.3 aufgeführten Beispiele aus der Mikrowelt. Dass es für Erklärungen mit derartigen Ansprüchen, bei 23 Von den schon erwähnten Beispielen der Supraleitung, Neutronensterne etc. sei hier

abgesehen: Gemeint ist die Makrowelt der klassischen Mechanik, in der es keine quantenmechanischen Überlagerungen gibt. Dass uns letzteres aus Sicht des Dekohärenzprogramms allerdings nur so erscheint, wird unten noch besprochen. 24 Für ein Geschoss der Geschwindigkeit v = 1000m/s und einer Masse von ledig1 g = 1µ g beträgt die Unschärfe der Ortsbestimmung 10−14 Atomradien (!), vgl. lich 1000 Schwabl 1998, S.22. Die Unschärferelation, die auf der Nichtkommutativität der beteiligten Operatoren beruht, ist nur in der Mikrowelt relevant, etwa für Elektronen im Atom.

205

denen also Phänomene der makroskopischen Welt allein mit Methoden der für die mikroskopische Welt zuständigen Quantenmechanik erklärt werden sollen, Grenzen geben wird, liegt auf der Hand. Zunächst ist es nun natürlich noch so, dass für derartige Erklärungen gar kein Bedarf besteht: Was die Bewegung makroskopischer Körper betrifft, kommt man mit der klassischen Mechanik gut zurecht. Grenzen gibt es bei den mikroskopischen Eigenschaften makroskopischer Festkörper – auf diesem Gebiet hat sich die Quantenmechanik bewährt und ist der Newtonschen Mechanik überlegen. Aber was Bewegungsgleichungen, Statik oder Strömungslehre angeht, ist nicht zu erkennen, welcher Erkenntnisgewinn hier von der Quantenmechanik zu erwarten wäre.25 Während im Falle der Allgemeinen Relativitätstheorie im Zusammenhang mit dem Problem der Dunklen Materie durchaus bessere Erklärungen durch eine – wenn auch nur numerische – nichtnewtonsche Beschreibung von Galaxien mit den Feldgleichungen selbst denkbar sind, steht dergleichen hier nicht zu erwarten, es sind keine zu klärenden Widersprüche aufgetaucht. Es gibt eine Theorie für die Makrowelt und eine für die Mikrowelt, die grundlegend verschieden, dabei aber benachbart sind,26 wobei insbesondere das Dekohärenzprogramm zeigt, inwiefern die quantenmechanischen Überlagerungen makroskopisch „scheinbar“ verschwinden. Wenn hier darüber hinaus über quantenmechanische Erklärungen makroskopischer Vorgänge spekuliert wird, dann nur zur Klärung der prinzipiellen Frage nach der Überflüssigkeit der Newtonschen Theorie im Rahmen einer Reduktion im Sinne von 2.4. Und im Rahmen solcher Spekulationen steht nun durchaus die Möglichkeit im Raum, dass numerische Erklärungen mit der Quantenmechanik allein – bei vielleicht noch zukünftigen, deutlich größeren Rechnerkapazitäten – auch für makroskopische Vorgänge eines Tages möglich sind. Dies könnte (und, wie gezeigt, müsste!) jedenfalls ein Reduktionist behaupten, der auf der prinzipiellen Überflüssigkeit der Newtonschen Mechanik besteht und diese nur als ein pragmatisches Werkzeug für zur Zeit noch zu komplexe Phänomene betrachtet. Diese Position ist nun zwar aufgrund der Verwendung klassischer Physik bei der Aufstellung der Hamiltonoperatoren ohnehin nicht haltbar, sie soll im Folgenden aber auch durch Erklärungsgrenzen widerlegt werden, die es selbst mit diesem Zugeständnis noch gibt. Zunächst sollen, von dem Problem der Quantenzustände abgesehen, 25

Es gibt, von den wenigen schon benannten makroskopischen Quantenphänomenen abgesehen, höchstens indirekte Konsequenzen für die Makrowelt, man denke nur an die Kernspaltung. 26 Dass eine solche Auffassung angesichts der Deutungsprobleme und insbesondere des Messproblems wiederum für das Selbstverständnis der Quantenmechanik höchst relevant ist, wird in Abschnitt 4.5 noch besprochen.

206

Erklärungen innerhalb der Minimalinterpretation untersucht werden. Solche Erklärungen wurden in Abschnitt 4.3 betrachtet und dabei nicht ohne Grund die existierenden exakten und näherungsweisen Lösungen der Schrödingergleichung, also bestehende erfolgreiche Erklärungen mit der Quantenmechanik allein, aufgeführt. Dadurch wurden nicht nur die zur Zeit bestehenden Erklärungsgrenzen deutlich, sondern auch der Umstand, dass es exakte Lösungen nur für die allereinfachsten Atome bzw. Moleküle gibt, und man schon bei zweiatomigen Molekülen mit mehr als einem Elektron näherungsweise rechnen muss. Dies sollte ein Gespür dafür vermitteln, was es bedeutet zu behaupten, man könne auch Bewegungen makroskopischer Objekte, bei denen Myriaden größerer Moleküle mit jeweils zahlreichen Elektronen beteiligt sind, mit der Bewegungsgleichung der Quantenmechanik, also der Schrödingergleichung, beschreiben. Außerdem wurde darauf hingewiesen, dass sich unter den einschlägigen Näherungsverfahren der Quantenmechanik mit der WKB-Methode eine befindet, die explizit im „quasi-klassischen“ Grenzfall angewendet wird, womit selbst schon in der Mikrowelt Anleihen aus der Newtonschen Physik verwendet werden. Letzteres ist auch der Fall, wenn es allein schon um die Hülle eines Atoms geht, in der sich Elektronen befinden, deren Anzahl in der Größenordnung von vielleicht 50 bis 100 liegt, wobei, wie in Abschnitt 4.3 unter dem Stichwort der Hartree-Fock-Näherung erwähnt, ebenfalls halbklassische Näherungen zum Einsatz kommen: Hier werden, um die Rechnung zu vereinfachen, viele Teilchen ohne Berücksichtigung der Schrödingergleichung als statistisches Gemisch klassischer Teilchen behandelt. Und bei der Beschreibung größerer Moleküle bedarf es nicht nur solcher halbklassischer Verfahren, wie etwa der oben erwähnten Born-Oppenheimer-Näherung, sondern es handelt sich um tatsächliche klassische Zustände, für die die Schrödingergleichung gar nicht zuständig ist. Erklärungen mit der Quantenmechanik allein funktionieren hingegen so, wie es in Abschnitt 4.3 vorgeführt wurde – durch das Ansetzen und Lösen einer Schrödingergleichung für alle beteiligten Teilchen. Die Rolle der Dekohärenz in diesem Zusammenhang, die das scheinbare Auftreten klassischer Zustände quantenmechanisch erklärt, wird gleich besprochen, hier kommt es darauf an, dass selbst schon bei Berechnungen innerhalb eines Atoms halbklassische Näherungsverfahren eine Rolle spielen, was bei Problemen, bei denen Myriaden solcher Atome involviert sind, nicht anders sein wird. Aber diese Überlegung führt an der prinzipiellen Frage nach der Möglichkeit solcher Erklärungen nicht vorbei, man könnte sogar sagen, dass in der Quantenmechanik ohnehin wesentlich Näherungsrechnungen verwendet werden, so dass es nur ein gradueller Unterschied wäre, solche auch für die Erklärung makroskopischer Vorgänge heranzuziehen. Auch wenn gezeigt wurde, inwiefern dies eine herausfordernde Behauptung ist, bleibt

207

sie dennoch bestehen. Es soll hier aber auch etwas gegen diese Vorstellung vorgebracht werden, dagegen, dass man im Prinzip die Newtonsche Mechanik nicht mehr braucht, auch wenn dabei auf zukünftige größere Rechnerkapazitäten verwiesen werden kann. Dass die Newtonsche Physik mehr ist als nur ein pragmatisches Werkzeug für komplexe Gebilde, bedarf schließlich einer eigenen Begründung. Dazu ist zunächst zu sagen, dass rein numerische Verfahren, die hier ohne Zweifel verwendet werden müssten, immer der Deutung der darin auftauchenden Zahlenwerte bedürfen. So zeigte sich bei den numerischen Simulationen mit den Feldgleichungen der Allgemeinen Relativitätstheorie, dass numerische Verfahren realistische Startwerte und Deutungen benötigen, die sie selbst nicht liefern können. Nun gibt es allerdings für die hier vorliegende Fragestellung keine Versuche, numerische Simulationen durchzuführen: Während in der Astrophysik Bedarf für solche Simulationen besteht, um Material für die Detektion von Gravitationswellen zu bekommen, gibt es keinen Anlass, makroskopische Phänomene numerisch mit der Quantenmechanik zu beschreiben, weshalb die Ausführungen dazu nun abstrakt bleiben müssen und höchstens auf die schon diskutierte Quantenchemie verweisen können. Da sich also die Verfahren und Erklärungsmethoden der Quantenmechanik mit ihrem Konzept der Aufenthaltswahrscheinlichkeit grundlegend von denen der klassischen Mechanik unterscheiden, die üblicherweise zur Beschreibung der makroskopischen Welt verwendet werden, sind auch quantenmechanische Simulationen makroskopischer Vorgänge ohne Verwendung der klassischen Mechanik nur schwer vorstellbar. Wenn nämlich Phänomene, die typischerweise von der klassischen Mechanik mit deren gänzlich anders gearteten Begrifflichkeiten beschrieben werden, in einem numerischen Verfahren quantenmechanisch erfasst werden sollen, kann es ganz analog zu dem in Abschnitt 4.3 besprochenen Fall der Quantenchemie, bei der chemische Deutungen numerischer Größen im Rahmen numerischer Lösungen der Schrödingergleichung eine wesentliche Rolle spielen, nicht ausbleiben, dass die besagten notwendigen physikalischen Deutungen auf Wissen der Newtonschen Physik zurückgreifen müssen. Die Quantenmechanik wurde schließlich ihrer Konzeption nach gar nicht für diesen Bereich geschaffen und geht eben auch auf eine spezifisch für die Mikrowelt geeignete Weise vor, die von den für die Makrowelt adäquaten klassischen Methoden weit entfernt ist. Für die Beschreibung der Makrowelt fehlen ihr die geeigneten Begrifflichkeiten, die ein numerisches Verfahren allein nicht liefern kann, so dass also Startwerte und Deutungen für quantenmechanische numerische Simulationen makroskopischer Vorgänge von einer Beschreibung der Welt in Newtonschen Begriffen ausgehen müssen – Deutungen in Begriffen einer „höheren“ Theorie werden nicht zuletzt

208

schon innerhalb der Quantenchemie bei der Simulationen mikroskopischer Vorgänge benötigt. Wie in Abschnitt 2.5 schon allgemein herausgearbeitet, sprechen neben diesen begrifflichen auch mathematische Gründe gegen die Möglichkeit solcher Simulationen: Bei einem hochkomplexen Problem, um das es sich angesichts der vielen beteiligten Teilchen hier zweifellos handelt, kann man nämlich gerade nicht einfach rechnen. Gerade die Interaktion von Teilchen ist schon bei kleinen Anzahlen komplex (man denke nur an das Dreikörperproblem) bzw. verhält sich sogar chaotisch, und man benötigt zur Beschreibung eigene Theorien komplexer Systeme, die aber auch keine exakten Bahnen liefern, sondern nur qualitative Aussagen etwa über das Langzeitverhalten eines komplexen Systems erlauben. Solche Theorien müssen in diesem Fall zwar nicht notwendig auf die Newtonsche Theorie zurückgreifen, gehen aber jedenfalls über die reine Quantenmechanik hinaus – und sprechen so oder so gegen die Behauptung, man könne im Prinzip „alles“ numerisch berechnen. Dass die klassische Physik nun wiederum ganz andere Begriffe als die Quantenmechanik verwendet, hängt auch damit zusammen, dass makroskopisch keine quantenmechanischen Zustände beobachtet werden (von den ebenfalls schon besprochenen wenigen Ausnahmen – Neutronensterne etc. – abgesehen), wobei die Eigenwilligkeit der Konzepte der Quantenmechanik mit der Bornschen Deutung der Ψ-Funktion als Maß für Aufenthaltswahrscheinlichkeiten ihre Ursache gerade in den in Abschnitt 4.1 besprochenen Merkwürdigkeiten des quantenmechanischen Zustands von Teilchen in der Mikrowelt findet. Dieser Unterschied in den Konzepten spielt natürlich bei der Deutung numerischer Größen innerhalb zunächst denkbarer quantenmechanischer Simulation makroskopischer Vorgänge eine erhebliche Rolle – spricht aber weiterhin erst einmal gegen die bloße Möglichkeit solcher Simulationen. Könnte man nämlich, wie hier vorgeschlagen, makroskopische Vorgänge durch das Lösen einer Schrödingergleichung für alle beteiligten Teilchen innerhalb der Quantenmechanik der Minimalinterpretation beschreiben, hätte man damit gleichzeitig gezeigt, dass es quantenmechanische Überlagerungen auch in der makroskopischen Welt geben muss: Es gehört essentiell zur Quantenmechanik, dass sich Lösungen der Schrödingergleichung überlagern können und dabei Superpositionen bilden, wobei die Merkwürdigkeit solcher Superpositionszustände in Abschnitt 4.1 mit dem Gedankenexperiment der Schrödingerschen Katze erläutert wurde. Diese Merkwürdigkeiten können nun in der Mikrowelt der Elementarteilchen akzeptiert werden, da die äußerst erfolgreichen Vorhersagen der Quantenmechanik in diesem Bereich auf der Zugrundelegung dieser Merkwürdigkeiten beruhen und da diese dort gewissermaßen nicht ins Auge fallen. In der Makrowelt hingegen würden diese Merkwürdigkeiten nicht nur

209

ins Auge springen, dort werden sie einfach nicht beobachtet: „Macroscopic objects are always observed in spatially well-localized states, quite in contrast to micro-objects, which are usually found in energy eigenstates“ heißt es etwa in Joos 1996b (S.54) dazu. Könnte man dagegen makroskopische Objekte im Sinne einer Erklärung mit der Quantenmechanik allein, also rein quantenmechanisch beschreiben, müssten auch diese gemäß dem Superpositionsprinzip in quantenmechanischen Zuständen auftreten und wären insbesondere nicht „spatially well-localized“, was aber nicht beobachtet wird: „If the center-of-mass coordinate of a macroscopic body were described by a Hamiltonian H = p2 /2m [im Rahmen einer quantenmechanischen Beschreibung, vgl. 4.2], energy eigenstates would be represented by plane waves, in sheer contradiction to what is observed!“ (ebd.). Genauer heißt es dazu noch, dass es mit den quantenmechanischen Superpositionen viel mehr Lösungen der Schrödingergleichung gibt, als makroskopisch beobachtet werden, was mit der Quantenmechanik allein offenbar nicht erklärt werden kann: „Obviously, macroscopic objects never occur in energy eigenstates, but only in time-dependent wave packets. This means that only a small subset of all possible states of macro-objects is realized in nature. This fact cannot be understood from the quantum mechanics of mass points alone, as was repeatedly stressed by Einstein in his correspondence with Max Born“ (ebd.). Diese Aussage steht wieder im Zusammenhang mit dem Dekohärenzprogramm, das das Auftreten klassischer Zustände quantenmechanisch verstehen will. Für das Reduktionsproblem bedeutet sie aber zunächst, dass numerische Erklärungen für makroskopische Vorgänge mit der Quantenmechanik allein, deren prinzipielle Möglichkeit erwogen und mit dem Deutungsproblem numerischer Verfahren konfrontiert wurde, sich der weiteren Schwierigkeit stellen müssen, dass gemäß solcher Erklärungen makroskopisch nie beobachtete Zustände auftreten würden, deren Nichtvorhandensein aus Sicht der „quantum mechanics of mass points alone“ nicht zu verstehen ist. Das faktische Nichtauftreten makroskopischer Quantenzustände mit Hilfe von Zusatzüberlegungen quantenmechanisch zu plausibilisieren, ist nun aber erklärtes Ziel des Dekohärenzprogramms, womit dieses seinerseits die in einer indirekten eliminativen Reduktion geforderten Erklärungen liefern könnte. Das Ziel des Dekohärenzprogramms27 wird von H. D. Zeh, einem seiner Hauptprotagonisten, wie folgt angegeben: „Therefore, the theory of decoherence is to explain the difference in appearance between the quantum and the 27

Vgl. etwa Giulini et al. 1996 für einen Überblick. Erich Joos betreibt die Internetseite www.decoherence.de, auf der man sich ebenfalls umfassend über das Dekohärenzprogramm informieren kann.

210

classical under the assumption of a universally valid quantum theory“ (Zeh 1996, S.8f.). Es geht also darum, zu verstehen, wie es angesichts einer für alle Phänomene gültigen Quantenmechanik zu dem Auftreten klassischer Zustände kommt bzw. warum es makroskopisch keine Superpositionszustände gibt. Dies ist eine besondere Herausforderung, da die universelle Anwendbarkeit der Quantenmechanik auch für makroskopische Vorgänge schließlich die Existenz makroskopischer Superpositionen impliziert. Es wurde nun in Abschnitt 4.2 schon ausgeführt, dass die wesentliche Idee des Dekohärenzprogramms darin besteht, das Auftreten klassischer Zustände durch Wechselwirkungen mit der Umgebung zu erklären. Diese Wechselwirkungen übernehmen dabei, zunächst vereinfacht gesagt, die Rolle von Messvorgängen, die zum Kollaps der beteiligten Wellenfunktionen führen, womit diese, wie in Abschnitt 4.1 beschrieben, in einen klassischen Zustand übergehen. Auf die Frage, warum ein System etwa immer nur in den Zuständen Ψ1 bzw. Ψ2 auftritt und nie in der Superposition Ψ = aΨ1 + bΨ2 , wird also geantwortet: „[...] a measurement-like interaction with the environment can lead to precisely such a behavior. This is indeed the explanation offered by decoherence“ (Joos 1996b, S.49). Wichtig ist dabei nun, dass es sich lediglich um einen „measurement-like“-Vorgang handelt und nicht um eine Messung selbst. Es geht nämlich bei der Dekohärenz nur darum zu zeigen, wie der Anschein klassischer Zustände entsteht, es geht um „the difference in appearance“ zwischen quantenmechanischen und klassischen Zuständen, wobei eben die universelle Gültigkeit der Quantenmechanik vorausgesetzt wird, die streng genommen immer Superpositionszustände zulässt. Streng genommen schließen sich daher eine universell gültige Quantenmechanik und die Nichtexistenz makroskopischer Superpositionszustände gegenseitig aus, weshalb das Dekohärenzprogramm lediglich den Eindruck des Verschwindens von Superpositionszuständen erklärt. Somit handelt es sich auch um keinen wirklichen Kollaps der Wellenfunktion, bei dem die jeweils nicht gemessenen Superpositionszustände verschwinden, sondern nur um den Anschein eines Kollapses. Darauf macht etwa Zeh 1996 aufmerksam: „This consequence of the Schrödinger equation (if only assumed to be universally valid) must, therefore, lead to the impression that all but one of the independent components have ,hurried out of existence‘ as soon as decoherence has become practically irreversible“ (a.a.O., S.25). Ob dieser Vorgang auch als tatsächlicher Kollaps angesehen werden kann, wird nicht weiter diskutiert, da es dem Dekohärenzprogramm genügt, den Anschein eines Kollapses zeigen zu können: „Fortunately, the dynamics of decoherence can be discussed without having to answer this fundamental question of principle [...]. A collapse (real or apparent) has to be taken into account regardless of its interpretation for describing the history of that quantum state which describes our observed quasiclassical world“

211

(ebd.). Wenn es also in der „observed quasiclassical world“ offenbar keine Superpositionszustände gibt, so müssen zwar einerseits die entsprechenden Wellenfunktionen kollabiert sein, anderseits wäre dann aber die als „universally valid“ angenommene Quantenmechanik nicht mehr anwendbar, weshalb man sich mit dem Anschein eines solchen Kollapses begnügt, der durch Wechselwirkungen mit der Umgebung entsteht. In diesem Sinne wird das Dekohärenzprogramm auch von Stöckler 2007 resümiert: „Das Ergebnis eines solchen Dekohärenz-Prozesses ist also der Eindruck eines Kollapses der Zustandsfunktion. Ein solcher Kollaps hat aber nicht tatsächlich stattgefunden, sondern erscheint lediglich dadurch, dass sich die quantenphysikalischen Verschränkungen irreversibel in die Umgebung ausgebreitet haben“ (a.a.O., S.259). Damit wird aber lediglich gezeigt, dass Superpositionszustände „näherungsweise aufgelöst werden“ (ebd.), worauf schon in Abschnitt 4.2 aufmerksam gemacht wurde. Das Dekohärenzprogramm behauptet damit also, dass es uns nur so vorkommt, als gebe es in der makroskopischen Welt keine Superpositionszustände.28 Makroskopische Objekte befinden sich demnach nur scheinbar in klassischen Zuständen und bilden in Wirklichkeit komplizierte Verschränkungen mit ihrer Umgebung, die uns das Objekt insgesamt klassisch lokalisiert erscheinen lassen.29 Dies heißt nun zwar, dass die Dekohärenzargumente keine direkte eliminative Reduktion der Newtonschen Gesetze liefern können, da die klassische Welt nur näherungsweise erklärt wird, was eben und schon in Abschnitt 4.2 herausgearbeitet wurde, und es also direkt höchstens eine vergleichende, retentive Nachbarschaftsrelation geben kann. Denkbar ist aber damit nun wieder, dass die Quantenmechanik im Rahmen des Dekohärenzprogramms unmittelbar in der Lage ist, unabhängig von der Newtonschen Physik in einer indirekten eliminativen Reduktion makroskopische Vorgänge zu beschreiben, wenn diese sich tatsächlich in quantenmechanischen Zuständen befinden, für die die Schrödingergleichung schließlich gültig ist, und uns nur klassisch erscheinen. Bevor damit wieder das Problem numerischer Lösungen besprochen wird, 28 Dabei

ist zu beachten, dass es sowohl makroskopische Quantenzustände als auch mikroskopische klassische Zustände gibt. Das scheinbare Auftreten klassischer Zustände erklärt sich also nicht aus der Größe des jeweiligen Objekts oder der Anzahl seiner Teilchen, sondern ist ein komplizierterer Vorgang: „This demonstrates again that the number of particles alone does not explain the quantum or classical behavior of a system. Instead, various kinds of coupling to the environment have to be taken into account in an essential way“ (Joos 1996b, S.39). Wenn hier und im Folgenden also von scheinbar klassischen Zuständen makroskopischer Objekte die Rede ist, muss immer mitbedacht werden, dass solche Zustände auch schon in der Mikrowelt auftreten. 29 Für die Schrödingersche Katze heißt dies, dass sie sich tatsächlich in einem Totund-lebendig-Zustand befindet und uns nur so erscheint, als wäre sie tot oder lebendig.

212

sei noch einmal deutlich herausgestellt, dass der Weg, makroskopische Vorgänge quantenmechanisch über die Ableitung der Newtonschen Gesetze in einer direkten eliminativen Reduktion zu erklären, wie gerade gesagt, versperrt ist – auch wenn dieser innerhalb des Dekohärenzprogramms eingeschlagen wird. So heißt es zwar zunächst etwa in Joos 1996b: „The applicability of this method [WKB-Näherung], corresponding to the use of rays in optics, does of course not explain classical motion. Since in realistic situations the system no longer obeys a Schrödinger equation, the Ehrenfest relations are not valid anymore“ (a.a.O., S.77). Die Nichtanwendbarkeit der Schrödingergleichung wird hier aber, worauf schon in Abschnitt 4.2 hingewiesen wurde, damit begründet, dass makroskopische Systeme nicht isoliert von ihrer Umgebung betrachtet werden können. Wird dies nun berücksichtigt und die Umgebung in die Schrödingergleichung einbezogen, lassen sich „new Ehrenfest relations“ (S.78) angeben – die aber aus den ebenfalls in Abschnitt 4.2 angegebenen Gründen der gänzlich verschiedenen Konzepte wiederum nur ein quantenmechanisches Analogon klassischer Gleichungen abgeben können. Diese Ansätze direkter Reduktionen sollen also nicht weiter verfolgt werden. Stattdessen sei die nun wieder denkbare numerische Beschreibung makroskopischer Vorgänge unmittelbar mit der Schrödingergleichung in den Blick genommen. Den Anspruch auf die Möglichkeit derartiger indirekt eliminativer Erklärungen erhebt das Dekohärenzprogramm zunächst gar nicht, da es diesem lediglich darum geht aufzuzeigen, wie der Anschein klassischer Zustände aus der Perspektive der Quantenmechanik erklärt werden kann und wie sich daraus weitere Annäherungen an die Newtonsche Physik im Sinne solcher „new Ehrenfest relations“ ergeben – die aber, wie gesagt, nach den allgemeinen Ausführungen dazu in Abschnitt 4.2 auch mit Hilfe von Dekohärenzargumenten lediglich retentive Vergleichsbeziehungen bleiben. Wenn hier im Gegensatz dazu an das Dekohärenzprogramm das Problem numerischer Simulationen herangetragen wird, dann lediglich um der prinzipiellen Frage willen, ob die Quantenmechanik allein makroskopische Vorgänge, bzw. das, was uns als klassischer, makroskopischer Vorgang erscheint, erklären kann. Da uns also makroskopische Vorgänge lediglich klassisch erscheinen, sind solche Erklärungen nun wieder, im Gegensatz zu obigem ersten Eindruck, denkbar. Man kann also durchaus eine Schrödingergleichung für alle beteiligten Teilchen eines makroskopischen Vorgangs ansetzen, muss dabei aber im Sinne des Dekohärenzprogramms auch die Teilchen der Umgebung berücksichtigen, da erst dadurch erklärt wird, warum uns der so beschriebene Vorgang klassisch erscheint. Damit werden nun aber die oben aufgeführten Schwierigkeiten des numerischen Vorgehens noch verschärft, da durch die Berücksichtigung der Umgebung deutlich mehr

213

Teilchen eine Rolle spielen als ohnehin schon, und es sogar unklar ist, wo dabei eine Grenze gezogen werden kann. Während man nämlich etwa zum Verständnis eines Messprozesses lediglich das zu messende Objekt und den Messapparat quantenmechanisch beschreiben müsste, weitet sich die Berücksichtigung der Umgebung bei allgemeinen Vorgängen im Rahmen des Dekohärenzprogramms ins Unbestimmte aus: „Given that everyday macroscopic objects are particularly subject to decoherence interactions, this raises the question of whether quantum mechanics can account for the appearance of the everyday world even beyond the measurement problem in the strict sense. To put it crudely: if everything is in interaction with everything else, everything is entangled with everything else, and that is a worse problem than the entanglement of measuring apparatuses with the measured probes.“ (Bacciagaluppi 2007, Abschnitt 3.2)

Ist schon die Möglichkeit einer numerischen Beschreibung von makroskopischen Vorgängen, bei denen Myriaden von Teilchen berücksichtigt werden müssen, mit den Problemen der mathematischen Komplexität und der Deutung numerischer Größen konfrontiert, stellt sich angesichts der laut Dekohärenz notwendigen Einbeziehung der Umgebung die Frage, ob eine solche Beschreibung überhaupt möglich sein kann, wenn letztlich „everything is entangled with everything else“ und man also eine Schrödingergleichung für das ganze Universum aufstellen müsste, was schließlich alle denkbaren Rechnerkapazitäten sprengen würde. Insgesamt wurde damit nun die zunächst denkbare Möglichkeit einer indirekten eliminativen Reduktion der Newtonschen Mechanik auf die Quantenmechanik über das Problem der der klassischen Physik entlehnten Hamiltonoperatoren hinaus mit erheblichen Schwierigkeiten konfrontiert. Bevor aber dieser Abschnitt in dieser Hinsicht zusammengefasst werden soll, sei nun noch ein kurzer Blick auf das Verhältnis des Dekohärenzansatzes zu dem eben erwähnten Messproblem geworfen. Dabei geht es darum, dass Messungen einen Kollaps der Wellenfunktion beinhalten (vgl. Abschnitt 4.1), der insbesondere zu der sogenannten zweiten Dynamik der Quantenmechanik gehört und bei einer Erklärung innerhalb der Quantenmechanik als irreversibler Prozess innerhalb der Dynamik der reversiblen Schrödingergleichung beschrieben werden müsste. Die Möglichkeit einer solchen Erklärung ist zwar denkbar und wird als Herausforderung etwa von Kanitscheider 1979 wie folgt charakterisiert: „Das bedeutet konkreter, dass die in der Standardinterpretation beziehungslos nebeneinander herlaufenden zeitlichen Veränderungen der quantenmechanischen Systeme, einerseits der reversible Schrödinger-Prozess, andererseits die irreversible Messung, stetig aneinander angeschlossen werden müssen“ (a.a.O., S.326). Ein solches quantenmechanisches Verständnis des Messpro-

214

zesses wäre die eleganteste Lösung des Messproblems und überdies auch wünschenswert – „Gerade weil alle Messgeräte aus atomaren Bestandteilen aufgebaut sind, muss der Schrödinger-Prozess als Makrogrenzfall den Messprozess enthalten“ (ebd.) –, aber es ist bislang keine Erklärung in Sicht, die den dafür notwendigen stetigen Anschluss des Messvorgangs an die Schrödingerdynamik liefert. Dies gilt nun auch für Beschreibungen makroskopischer Vorgänge im Rahmen des Dekohärenzprogramms: Es wird zwar in der Tat auch bei einer Messung erklärt, wie es kommt, dass uns der makroskopische Zeiger des Messgerätes klassisch erscheint, aber den Übergang zu einem Messwert selbst bzw. das Auftreten eines konkreten mikroskopischen Ereignisses, wie etwa den Zerfall eines Atoms, kann auch der Dekohärenzansatz nicht plausibel machen: „Diese Ableitung klassischer Eigenschaften aus der Quantenmechanik bleibt jedoch in einem entscheidendem Punkt unvollständig: Die Ambiguität der quantenmechanischen Dynamik (unitäre Schrödinger-Dynamik versus indeterministischem Kollaps) bleibt unaufgelöst“ (Joos 1990, S.40). Unabhängig davon nämlich, was bei den Dekohärenzargumenten mit dem „scheinbaren“ Kollaps der Wellenfunktion genau gemeint ist, handelt es sich jedenfalls nicht um den Kollaps eines Messvorgangs: „This ,apparent collapse‘ should not be confused, however, with the collapse in von Neumann’s theory of measurement“ (Joos 1996b, S.42). Während es für die Beschreibung der makroskopischen Welt genügen mag, die näherungsweise Auflösung von Superpositionszuständen zu zeigen,30 handelt es sich bei einem Messvorgang um ein Problem, dass auch dem Dekohärenzprogramm unzugänglich ist. Für das Messproblem wird nun in der Literatur ganz unabhängig vom Dekohärenzansatz sogar ein „Unlösbarkeitstheorem“ („insolubility theorem“, vgl. Krips 2007, Abschnitt 2) diskutiert: „[...] by sticking to the Schrödinger linear31 dynamics we are stuck also with the result that at the end of the measurement process, there must be superpositions of macroscopically distinct states of the apparatus, and in general of a macro-system [...]. And this result [...] is contrary to experience, since, at the end of the measurement process, although we may be uncertain of the position of the pointer, the pointer itself is never in an indeterminate superposition of different positions.“ (ebd.)

Selbst wenn Dekohärenzargumente zeigen können, warum uns ein 30

Was im Fall der Schrödingerschen Katze eine Herausforderung darstellt, auf die hier aber nicht weiter eingegangen sei. 31 Die Superpositionszustände beruhen gerade auf der Linearität der Schrödingergleichung.

215

solcher Zeiger klassisch erscheint, kann es nicht innerhalb der Quantenmechanik den Zusammenbruch der Schrödingergleichung erklären: „We are left with the following choice, whether or not we include decoherence: either the composite system [aus zu messendem Elektron, Messapparat und Umgebung] is not described by such a sum [Superpositionszustand], because the Schrödinger equation actually breaks down and needs to be modified, or it is, but then we need to understand what that means, and this requires giving an appropriate interpretation of quantum mechanics. Thus, decoherence as such does not provide a solution to the measurement problem, at least not unless it is combined with an appropriate interpretation of the wave function.“ (Bacciagaluppi 2007, Abschnitt 3.1)

Das Messproblem wird also vom Dekohärenzansatz nicht gelöst, was im nächsten Abschnitt wieder aufgegriffen wird und wozu es a.a.O. noch heißt: „Unfortunately, naive claims of the kind above are still somewhat part of the ,folklore‘ of decoherence“ (ebd.).32 Nun soll aber zunächst das Ergebnis des vorliegenden Abschnitts zusammengefasst werden. Es wurde daran erinnert, dass rein quantenmechanische Erklärungen makroskopischer Vorgänge nicht die Newtonschen Gesetze verwenden dürfen, da diese zwar zu der Quantenmechanik benachbart, aber in dieser nicht als Grenzfall eliminativ enthalten sind. Daher müssen solche Erklärungen in dem Aufstellen und Lösen einer Schrödingergleichung für alle an dem betreffenden Vorgang beteiligten Teilchen bestehen, was aber implizieren würde, dass sich auch makroskopische Vorgänge in Superpositionszuständen befinden – das Superpositionsprinzip für Lösungen der Schrödingergleichung, die man mit einem solchen Vorgehen auch für makroskopische Vorgänge erhielte, gehört wesentlich zur Quantenmechanik dazu und kann nicht einfach für die Makrowelt ausgeschlossen werden. Damit scheinen aber solche Erklärungen zunächst gar nicht möglich zu sein, da makroskopische Superpositionszustände nicht beobachtet werden. An dieser Stelle bot nun der Ansatz der Dekohärenz einen Ausweg, da dieser durch Einbeziehung der Teilchen der Umgebung und deren Wechselwirkung mit dem betreffenden makroskopischen Objekt zeigen kann, dass es makroskopische Superpositionszustände nur scheinbar nicht gibt. Damit ist der erste Einwand gegen die Möglichkeit solcher rein quantenmechanischen Erklärungen entkräftet, da man also für einen makroskopischen Vorgang eine Schrödingergleichung für alle beteiligten Teilchen und die entsprechenden Teilchen der Umgebung aufstellen könnte, wodurch sich gleichzeitig zeigt, 32 Ähnlich

äußert sich Zeh 1996, wenn dort nämlich „[...]the claim that the resulting decoherence through the environment [...] be able or intended to ultimately solve the measurement problem“ (S.29) lapidar als „misunderstanding“ (ebd.) bezeichnet wird.

216

dass es uns nur so vorkommt, als befände der sich so beschriebene Vorgang in einem klassischen Zustand. Tatsächlich bildet er komplizierte Superpositionen mit seiner Umgebung und ist daher durchaus quantenmechanisch beschreibbar (bzw. muss streng genommen sogar quantenmechanisch beschrieben werden). Nun sind derartige numerische Erklärungen zwar denkbar, ihre Möglichkeit muss aber dennoch bezweifelt werden, da zum Ersten Unmengen von Teilchen beteiligt sind, und es zum Zweiten unklar ist, inwiefern bei der Berücksichtigung der Umgebung überhaupt eine Grenze gezogen werden kann – oder ob am Ende sogar eine Schrödingergleichung für das ganze Universum aufgestellt werden müsste. In Abschnitt 4.3 wurde dagegen herausgearbeitet, dass selbst bei der quantenmechanischen Beschreibung einzelner Moleküle oder sogar Atome, bei der die Anzahl der beteiligten Teilchen im Vergleich zu den hier verhandelten Problemen sehr übersichtlich ist, klassische Hilfsmittel verwendet werden. Dazu kommt das Problem der Deutung numerischer Größen, das auch schon in der Mikrowelt der Quantenchemie, wenn es um die numerische Lösung der Schrödingergleichung für einzelne Moleküle geht, eine rein quantenmechanische Erklärung undenkbar erscheinen lässt, von der mathematischen Komplexität solcher Systeme ganz zu schweigen. Damit sind solche prinzipiellen Erwägungen zwar nicht endgültig von der Hand zu weisen, es wurden aber Gründe aufgeführt, mit denen sich die prinzipielle Möglichkeit solcher eliminativer Erklärungen bezweifeln lässt. Wenn hier also wiederum nicht der Anspruch erhoben werden soll, damit endgültig gezeigt zu haben, dass die Newtonsche Physik nicht indirekt eliminativ auf die Quantenmechanik reduzierbar ist, trägt die Beweislast auch in diesem Fall der Reduktionist, der für die gegenteilige Behauptung plausibel machen müsste, inwiefern man trotz der Komplexität und vor allem der Deutungsprobleme solcher numerischer Verfahren makroskopische Vorgänge beschreiben kann, und inwiefern sich dabei das Einbeziehen der Umgebung einschränken lässt. Für das Dekohärenzprogramm heißt dies nun schließlich, dass es sich um ein wunderbares Beispiel für die Stiftung einer Nachbarschaftsrelation zwischen zwei Theorien handelt: Sind klassische Physik und Quantenmechanik streng genommen unvereinbar, zeigen die Dekohärenzargumente, inwiefern aus der Sicht letzterer der Eindruck der Gültigkeit ersterer entsteht. Während die Dekohärenzargumente insbesondere zeigen, dass die makroskopische Welt aus quantenmechanischen Zuständen aufgebaut ist, kann die Quantenmechanik gleichwohl nicht die damit eingeforderten Erklärungsleistungen liefern, sondern lediglich verständlich machen, warum uns die makroskopische Welt klassisch erscheint, und man daher berechtigt ist, klassisch zu rechnen – dies stellt also wieder ein Beispiel für die in Abschnitt 2.4 allgemein definierte Nachbarschaftsrelation dar.

217

Nun wurde am Anfang dieses Abschnitts darauf hingewiesen, dass die Erklärungen, gegen deren Möglichkeit hier Gründe angegeben wurden, ohnehin nicht eliminativ wären, da sie so oder so auf dem Anreichern der Quantenmechanik um das Wissen um die Hamiltonfunktionale für klassische Konstellationen, die den zu untersuchenden quantenmechanischen entsprechen, beruhen. In diesem Zusammenhang wurde auch auf die Deutungsprobleme der Quantenmechanik verwiesen, zu denen nun schließlich weiterhin zählt, dass das Dekohärenzprogramm mit dem Messproblem ein internes Problem der Quantenmechanik nicht lösen kann. Inwiefern die Verwendung klassischer Größen und das Messproblem mit dem hier verhandelten Reduktionsproblem zusammenhängen, wird nun im abschließenden und zusammenfassenden Abschnitt besprochen. 4.5 Ausblick und Zusammenfassung

In den vorhergehenden Abschnitten hat sich herausgestellt, dass Quantenmechanik und klassische Physik zwar zueinander benachbart sind, aber letztere nicht eliminativ auf erstere reduzierbar ist: Sollen die Phänomene der klassischen Physik mit der Quantenmechanik beschrieben werden, ist man auf numerische Verfahren angewiesen, die zur Deutung der darin auftretenden Größen klassischer Physik bedürfen – von der kaum zu bewältigenden Komplexität und der möglicherweise nötigen Beschreibung gleich des ganzen Universums im Rahmen des Dekohärenzansatzes ganz zu schweigen. Und nicht zuletzt beruhen Erklärungen mit der Quantenmechanik ohnehin auf einem Wechselspiel mit der Newtonschen Mechanik. Diese Sichtweise einer Nachbarschaft der beiden Theorien, ohne dass die eine eliminativ auf die andere reduziert würde, ist nun wiederum relevant für die Interpretationsprobleme der Quantenmechanik. So gab es in deren Geschichte mit der auf Niels Bohr zurückgehenden Kopenhagener Interpretation schon ein ganz ähnliches Konzept, das nämlich von der Komplementarität klassischer und quantenmechanischer Beschreibungen ausgeht. Diese Auffassung drängt sich allein schon durch den eben zuletzt genannten Punkt auf, dass zur Formulierung der Quantenmechanik klassische Begriffe verwendet werden, worauf in Abschnitt 4.1 mit dem Korrespondenzprinzip hingewiesen wurde: Der Hamiltonoperator für die Beschreibung eines quantenmechanischen Systems wird in Analogie zur klassischen Hamiltonfunktion desselben Problems aufgestellt. Und in der Komplementaritätsauffassung der Kopenhagener Interpretation stellt sich nun auch insofern das Messproblem nicht, als Messungen als Wechselwirkung eines Quantensystems mit einem Messgerät, das ein klassisches physikalisches System darstellt, beschrieben werden und der Anspruch, die-

218

sen Vorgang mit der Quantenmechanik allein zu verstehen, innerhalb dieser Auffassung nicht erhoben wird33 – während es allerdings auch hier fraglich bleibt, an welcher Stelle der Heisenbergsche Schnitt bzw. der Wechsel von der klassischen Physik zur Quantenmechanik vollzogen werden muss. Jedenfalls wird offenbar zur Formulierung quantenmechanischer Konzepte und zum Verständnis des Messvorgangs die klassische Physik benötigt, deren gleichberechtigte Existenz in der Kopenhagener Interpretation nicht problematisiert wird. Dies kann man natürlich als unbefriedigend empfinden, da die klassische Physik aus Sicht der Quantenmechanik falsch ist: „Dort, wo sich die Theorien widersprechen, ist die Quantenmechanik die richtige, die klassische Physik die falsche Theorie. Wie kann es dann aber sein, dass die richtige Theorie, um überhaupt anwendbar zu sein, die falsche Theorie voraussetzt?“ (Drieschner 2004, S.215). Dazu kommt noch, dass bei einem Messvorgang alle beteiligten Apparate schließlich aus atomaren Bestandteilen bestehen, für die die Quantenmechanik gültig ist: Es gilt, „[...] dass die Mikrobestandteile des Messgerätes als physikalische Körper den Gesetzen der QM [Quantenmechanik] gehorchen“ (Kanitscheider 1979, S.255), und es mutet merkwürdig an, dass das für den Messapparat selbst nicht mehr zutrifft und mithin der Messvorgang klassisch beschrieben werden muss: „Diese klassisch-quantenmechanische Doppelnatur der Makroapparate war immer schon der dunkelste Zug in Bohrs Deutung des quantenmechanischen Messvorganges“ (ebd.).34 Dass diese Situation unbefriedigend ist, bringt auch Stöckler 1986 zum Ausdruck: „Als Angehörige des nachkuhnschen Zeitalters sind wir an Revolutionen gewöhnt, und so fragt man sich, warum es nicht neue Beschreibungsweisen geben soll, die den Quantenobjekten angepasst sind und die ohne klassische Wurzeln auskommen. Das genaue Verhältnis von Mikro- und Makrophysik, von Quantenmechanik und klassischer Physik ist nicht hinreichend geklärt“ (a.a.O., S.74f.). Auch darin sprechen sich Vorbehalte gegen die Bohrsche Komplementaritätsauffassung aus, was dann auch wie folgt auf den Punkt gebracht wird: „Die Komplementaritätsphilosophie ist sicher ein respektabler Lösungsvorschlag. Man kann ihr aber den Vorwurf machen, dass sie den Messprozess nicht erklärt, sondern die Festschreibung eines fehlenden Wissens legitimiert“ (S.75), 33

Das ist allerdings nur eine vereinfachende Rekonstruktion der Kopenhagener Interpretation – was Bohr und seinen Mitstreitern tatsächlich vorschwebte, ist nicht ganz klar und änderte sich jedenfalls mit der Zeit, vgl. etwa Faye 2008 für einen Überblick. 34 Im Zusammenhang mit solchen mereologischen Argumenten sei am Rande darauf hingewiesen, dass im Rahmen der Quantenfeldtheorie der ontologische Status der Quantenobjekte höchst unklar ist und versucht wird, diese als Prozesse oder Tropen zu interpretieren. Wie aus solchen Entitäten wiederum unsere klassische Welt zusammengesetzt sein kann, ist eine offene Frage.

219

bzw. „Solche Interpretationen lösen nicht die Probleme, sondern werfen sie einfach nicht mehr auf“ (S.89). Laut diesen Autoren sollen die besagten Probleme offenbar mit der Quantenmechanik selbst gelöst werden. So heißt es etwa bei Stöckler 1986 zum Messproblem: „Wenn es gelänge, diesen Vorgang als einen ,normalen‘ Prozess zu verstehen, der durch die Schrödingergleichung beschrieben werden kann, dann wäre das natürlich die eleganteste Lösung des Grundlagenproblems“ (S.73). Wenn aber der innerhalb der klassischen Physik beschriebene Prozess einer Messung quantenmechanisch erklärt und erst dadurch verständlich wird, würde die Quantenmechanik die zu ihrer Formulierung nötigen Grundlagen, zu denen die klassische Physik als eine andere Theorie als die Quantenmechanik zählt, selbst schaffen und damit einen Kreis schließen, der ebenso merkwürdig anmutet, wie das bemängelte Offenbleiben dieser Probleme: „The question of explaining the classicality of the everyday world becomes the question of whether one can derive from within quantum mechanics the conditions necessary to discover and practise quantum mechanics itself, and thus [...] closing the circle“ (Bacciagaluppi 2007, Abschnitt 3.3). Es wäre seltsam, wenn sich mit Konzepten, die mit Hilfe der klassischen Physik formuliert werden, die klassische Physik selbst erklären ließe, um damit schließlich den Messprozess verstehen zu können. Nun soll die sich damit auftuende Zirkularität nicht weiter problematisiert werden, es genügt, in Abschnitt 4.4 gesehen zu haben, dass es solche rein quantenmechanischen Lösungen des Messproblems zur Zeit einfach nicht gibt. Über diesen Umstand ist sich zum Beispiel auch Stöckler 1986 im Klaren: „Die Versuche, die Zustandsreduktion (den Zusammenbruch des Wellenpakets) durch die quantenmechanische Beschreibung des Messgeräts und die detaillierte Verfolgung der Messwechselwirkung zwischen System und Messapparat zu verstehen, haben sich bisher als erfolglos erwiesen“ (S.73) – und dabei ist es bis heute geblieben, was in Abschnitt 4.4 am Scheitern auch des Dekohärenzprogramms am Messproblem gesehen wurde. Nun wurde dort zitiert, dass eine Lösung des Messproblems im Rahmen des Dekohärenzprogramms eine Frage der Deutung des quantenmechanischen Zustands ist – und in der Tat wird die Auffassung vertreten, dass etwa mit der Viele-Welten-Interpretation, nach der bei einer Messung kein Kollaps stattfindet, sondern für jeden möglichen Ausgang der Messung eine eigene Welt entsteht, alle Fragen geklärt sind: „Einige der Hauptprotagonisten der Dekohärenztheorie vertreten den Standpunkt, dass Dekohärenz kombiniert mit einer Viele-Welten-Interpretation der Wellenfunktion eine vollständige Lösung bietet“ (Stöckler 2007, S.259). Nun soll hier auf diese und andere Deutungen, wie etwa diejenige, nach der für eine Messung das Bewusstsein des Beobachters ausschlaggebend ist, nicht weiter eingegangen

220

werden.35 Stattdessen sei noch kurz der im Gegensatz dazu rein physikalische Ansatz von Drieschner 2004 erwähnt, der schließlich wieder zu der Nachbarschaftsauffassung führt. Dieser Ansatz besteht darin, „[...] eine Näherung ganz ernsthaft zugrunde[zu]legen [...] [und] die genaugenommen falsche klassische Physik dazu heranzuziehen, der Quantenmechanik eine physikalische Semantik zu verschaffen, da sie in der unvermeidlichen ,physikalischen Näherung‘ mit der Quantenmechanik übereinstimmt“ (a.a.O., S.216). Mit diesem Näherungsargument ist gemeint, dass die klassische Physik näherungsweise in der Quantenmechanik enthalten sei36 und deshalb wiederum zur Formulierung der Quantenmechanik selbst verwendet werden kann. Nach den Ergebnissen des vorliegenden Kapitels ist die klassische Physik aber gerade nicht als Grenzfall in der Quantenmechanik enthalten, wohingegen solche Näherungsaussagen die Nachbarschaft beider Theorien zeigen können. Damit läuft Drieschners Ansatz doch wieder darauf hinaus, eine andere, wenn auch mit der Quantenmechanik benachbarte Theorie, zu Hilfe zu nehmen – wobei in dieser Sichtweise der sich sonst auch wieder anbahnende Zirkel der Grundlegung der Quantenmechanik durch sich selbst vermieden wird, den Drieschner offenbar durch den Abstand des bloß näherungsweise Enthaltenseins zu vermeiden sucht. Er charakterisiert seinen Vorschlag auch folgendermaßen: „Aber die Ergebnisse der beiden Theorien sind im Gegenstandsbereich der klassischen Physik so nah beieinander, dass man im Prinzip aufrechterhalten kann, die Quantenmechanik gelte universell, ohne irgendwelche Ausnahmen – nur dass man für bestimmte Anwendungsgebiete, nämlich unter anderem die Messgeräte, keinen Fehler macht, wenn man die Quantenmechanik genähert durch die klassische Physik ersetzt. Dazu muss man allerdings den prinzipiellen Näherungscharakter der Physik akzeptiert haben.“ (S.217)

Diesen Näherungscharakter kann man zwar akzeptieren, allerdings zeigt er gerade, dass die klassische Physik eine andere Theorie als die Quantenmechanik ist, die zu ihr im Rahmen solcher Näherungen lediglich benachbart ist. Damit zieht Drieschner eben doch eine andere Theorie als die Quantenmechanik hinzu, womit er schließlich selbst die Beschreibungstrennung der Kopenhagener Deutung nahelegt, die er glaubt, mit seinem Ansatz vermieden zu haben. Zu der von ihm geforderten Akzeptanz des Näherungscharakters der Physik sagt er: „Wenn man dies nicht tut 35

Für einen Überblick sei auf Stöckler 2007 verwiesen, vgl. auch die Ausführungen dazu in Abschnitt 4.1. 36 Wobei sich Drieschner auch explizit auf die Dekohärenzansätze beruft, vgl. a.a.O., S.216.

221

[akzeptiert], bleibt nur die Meinung, dass zur Kopenhagener Deutung die Trennung der Welt in einen quantenmechanisch beschreibbaren und einen klassisch beschreibbaren Teil gehöre“ (ebd.). Diese Trennung kann aber durch Näherungsargumente nicht überwunden werden, womit als Ergebnis stehen bleibt, dass klassische Physik und Quantenmechanik benachbart zueinander sind und letztere nur im Wechselspiel mit ersterer formuliert und angewendet werden kann. Dieser Nachbarschaftsauffassung kann man nun genau die Vorwürfe machen, die oben gegen die Kopenhagener Interpretation erhoben wurden.37 Allerdings wird dieses Nachbarschaftskonzept hier nun aus dem Grund vertreten, dass eine rein quantenmechanische Lösung besagter Probleme, wie sie den zitierten Autoren offenbar vorschwebt, einfach nicht in Sicht ist – wenn man sich also nicht auf die oben erwähnten, über die übliche Physik hinausgehenden Interpretationen einlassen möchte,38 bleibt einem gar nichts anderes übrig, als bloße Nachbarschaft zu konstatieren. Damit soll nun Bilanz gezogen werden. Bei Erklärungen von Phänomenen innerhalb der Mikrowelt, die sich sowohl klassisch als auch quantenmechanisch behandeln lassen, ist der Quantenmechanik – das war nicht anders zu erwarten – klar der Vorzug zu geben. Dies gilt für den Aufbau von Atomen und Molekülen und überhaupt für die mikroskopischen Eigenschaften von Materie, aber auch für Phänomene wie die eines Elektrons im Magnetfeld oder für mikroskopische harmonische Oszillatoren, wie in Abschnitt 4.3 gezeigt wurde. Für alle diese Fälle gilt, dass die klassische Physik verbessert wurde (bzw. sich als falsch herausgestellt hat) und sogar überflüssig geworden ist. Aber auch schon in dieser Mikrowelt werden Anleihen aus der klassischen Mechanik verwendet, was ebenfalls in Abschnitt 4.3 besprochen wurde: Die WKB-Methode geht von einem quasiklassischen Grenzfall aus und bei der näherungsweisen Berechnung von Energieniveaus in Atomhüllen mit vielen Elektronen wird mit einer halbklassischen Näherung gearbeitet. Auch die Quantenchemie verwendet mit der Chemie schon in der Mikrowelt bei der Deutung von Größen im Rahmen numerischer Lösungen 37 Die

damit möglicherweise auch einhergehende verletzte Vorstellung einer Einheit der Physik muss sich hier wie im Fall der ART mit dieser Theoriennachbarschaft zufrieden geben: Die Nachbarschaft beider Theorien stellt zwar etwas schwächer, als es eine quantenmechanische Erklärung makroskopischer Vorgänge könnte, aber nichtsdestotrotz auf gewisse Weise die Einheit der Physik sicher – womit also insbesondere solche hier in Frage gestellten numerischen Erklärungen nicht nur nicht möglich, sondern auch nicht nötig sind, und die hier zur Debatte stehende Komplementaritätsauffassung so schlimm nicht sein muss. 38 Und ob man mit solchen Interpretationen über bloße Nachbarschaft hinauskäme, ist schließlich noch offen.

222

der Schrödingergleichung Begriffe einer anderen Theorie. Die letzten Abschnitte haben nun ergeben, dass darüber hinaus für Erklärungen innerhalb der makroskopischen Welt trotz aller Erfolge der Quantenmechanik in der mikroskopischen Welt die Newtonsche Mechanik weiterhin benötigt wird. In Abschnitt 4.2 wurde gezeigt, dass die Newtonsche Physik nicht eliminativ als Grenzfall in der Quantenmechanik enthalten ist, so dass alle Erklärungen, die die Newtonsche Physik verwenden, keine Erklärungen der Quantenmechanik sind.39 Es wurde weiterhin in Abschnitt 4.3 herausgearbeitet, dass dies, zur Zeit jedenfalls, für alle Erklärungen innerhalb der makroskopischen Welt zutrifft, da die Erklärungen mit der Quantenmechanik allein, soweit sie untersucht wurden, dorthin nicht reichen: Die Quantenmechanik allein kann die Interaktionen zwischen aus zahllosen Molekülen bestehenden Körpern nicht beschreiben. Und zum Abschluss wurde in Abschnitt 4.4 begründet, dass dies nicht nur zur Zeit gilt, sondern systematische Gründe gegen solche Erklärungen sprechen: Man denke nur an die Deutungsprobleme der Numerik, die notwendige und möglicherweise uferlose Berücksichtigung der Umgebung im Rahmen des Dekohärenzprogramms und dabei an das mathematische Komplexitätsproblem. Nicht zuletzt beruhen quantenmechanische Erklärungen ohnehin auf der Aufstellung des Hamiltonoperators in Analogie zur klassischen Hamiltonfunktion im Rahmen des Korrespondenzprinzips und verwenden also klassische Mechanik, wobei im vorliegenden Abschnitt darüber hinaus auch im Zusammenhang des Messproblems die Notwendigkeit der Hinzuziehung der klassischen Physik zur Anwendung der Quantenmechanik überhaupt herausgestellt wurde. Es gibt jedenfalls mit den Vorgängen innerhalb der makroskopischen Welt zahlreiche Phänomene, die von der Newtonschen Physik erklärt werden und von der Quantenmechanik allein nicht erklärt werden können, insbesondere ist letztere überhaupt nur im Wechselspiel mit der Newtonschen Mechanik anwendbar, womit die Autonomie der klassischen Physik tiefer begründet ist als nur dadurch, pragmatisches Werkzeug zu sein. Sie ist nicht eliminativ auf die Quantenmechanik reduzierbar, auch nicht im Prinzip. Die Quantenmechanik ermöglicht ein viel besseres Verständnis für den Aufbau der Materie, als es die klassische Physik liefern könnte, dies bringt uns aber in unserem Wissen über die Gesetze der makroskopischen Welt nicht weiter. Dies gilt jedenfalls zur Zeit, und, wie aufgezeigt, nicht ohne Grund, sondern sogar aus prinzipiellen Gründen, für deren Widerlegung der Reduktionist die Beweislast trägt. Und so lange schließlich die philosophischen Probleme der Interpretation nicht geklärt sind, ist die klassische Physik nicht überflüssig. 39

Wäre die Newtonsche Mechanik einfach als Grenzfall in der Quantenmechanik enthalten, wäre es erstaunlich, dass die Quantenmechanik allein nicht so leicht in der Lage ist, Phänomene der Newtonschen Mechanik zu erklären.

223

Was also, wie im dritten Kapitel aufgezeigt, im Beispiel der Allgemeinen Relativitätstheorie für eine ganze Klasse von Gravitationsphänomenen gilt, hat hier seine Entsprechung in den Phänomenen der makroskopischen Welt – von den grundlegenden Deutungsproblemen, die ebenfalls mit Hilfe einer Komplementaritäts- bzw. Nachbarschaftsauffassung gelöst werden könnten, mal ganz abgesehen. Es lässt sich daher analog zu dem Beispiel der ART als Zwischenergebnis festhalten, dass die Newtonsche Physik zwar zu der Quantenmechanik benachbart ist, aber nicht im Sinne von 2.4 eliminativ auf diese reduzierbar. Für die weitere Auswertung dieses Ergebnisses sei auf das sechste Kapitel verwiesen – im nächsten Kapitel geht es zunächst um das Verhältnis zwischen Thermodynamik und statistischer Mechanik.

224

Kapitel 5 Thermodynamik und statistische Mechanik Das Verhältnis zwischen Thermodynamik und statistischer Mechanik ist in Nagel 1961 das Standardbeispiel für eine erfolgreiche Reduktion einer Theorie auf eine andere. Trotz der fundamentalen Kritik an dieser Auffassung für eben dieses Beispiel durch Feyerabend 1962 ist es etwa in Physiklehrbüchern nach wie vor üblich, das Nagelsche Brückengesetz der Identifizierung der Temperatur eines Gases mit der mittleren kinetischen Energie seiner Moleküle als eine Definition der Temperatur anzugeben, ohne darauf hinzuweisen, dass man damit ein Konzept erhält, das dem der phänomenologischen Temperatur nur in etwa entspricht.1 Nahegelegt wird eine solche Vorgehensweise durch die enge Verzahnung dieser Theorien, die viel stärker ausgeprägt ist als in den beiden vorherigen Beispielen. Wenn auch in diesen die Konzepte der jeweils reduzierenden Theorie (Allgemeine Relativitätstheorie bzw. Quantenmechanik) in einem heuristischen Prozess ausgehend von der schließlich zu reduzierenden Theorie (Newtonsche Gravitationstheorie bzw. klassische Mechanik) überhaupt erst aufgestellt wurden, so unterscheiden sich diese Konzepte im Ergebnis doch erheblich von denen der ursprünglichen Theorie. Es ist in diesen Fällen leicht zu sehen, dass es sich jeweils um zwei gänzlich verschiedene Theorien handelt, zwischen denen Verbindungen herzustellen nicht leicht ist. Bei den jetzt vorliegenden Theorien gilt dies in mindestens gleichem Maße, fällt aber nicht so leicht ins Auge, da es sich hier von Anfang an um die gemeinsame Entwicklung dieser beiden Theorien im Rahmen einer Mischtheorie gehandelt hat. Werden auch bei den Beispielen der vorherigen Kapitel Phänomene oftmals in einem Wechselspiel aus Konzepten verschiedener Theorien erklärt, ist dies im vorliegenden Beispiel viel ausgeprägter 1 Es

gibt natürlich auch lobenswerte Ausnahmen. In Alonso/Finn 1992 heißt es zum Beispiel: „The temperature of a system of particles is a quantity related to the average kinetic energy of the particles [...] However, the precise relation between temperature and average particle kinetic energy depends on the nature of the system“ (S.385).

226

der Fall: Thermodynamik und statistische Mechanik sind seit den Untersuchungen von Maxwell, Boltzmann und Gibbs im 19. Jahrhundert in der explizit als statistische Thermodynamik bezeichneten Theorie eng miteinander verbunden – „What exists is a curious mixture of phenomenological and statistical elements, and it is this mixture which has received the name ,statistical thermodynamics‘“ heißt es in Feyerabend 1962 dazu (a.a.O., S.78). Wenn in der vorliegenden Untersuchung also zwischen diesen beiden Theorien streng unterschieden wird, handelt es sich um eine aus Sicht der Physik künstliche Betrachtung, die aber dazu dient, eben den Charakter der Mischtheorie aus zwei Theorien herauszustellen und zu zeigen, dass es sich bei dem Verhältnis zwischen den beiden Theorien allein schon aufgrund der Existenz einer solchen Mischtheorie um eine Nachbarschaft handelt, aber gleichwohl nicht um ein eliminatives Reduktionsverhältnis, wie es in Abschnitt 2.4 definiert wurde. Wenn man die beiden Theorien trennt und sich einzeln vor Augen führt, stellt ein solches Ergebnis allerdings keine Überraschung dar, da es sich um zwei ganz unterschiedliche Theorien handelt. Zu der Unabhängigkeit der Thermodynamik von der Mechanik hält bereits Nagel 1961 fest: „[...] thermodynamics employs a number of distinctive notions such as temperature, heat, and entropy, as well as general assumptions that are not corollaries to the fundamental principles of mechanics. Accordingly, though many laws of mechanics are constantly used in the explorations and explanations of thermal phenomena, thermodynamics was regarded for a long time as a special discipline, plainly distinguishable from mechanics and not simply a chapter of the latter. Indeed, thermodynamics is still usually expounded as a relatively autonomous theory; and its concepts, principles, and laws can be understood and verified without introducing any reference to some postulated microscopic structure of thermal systems and without assuming that thermodynamics can be reduced to some other theory such as mechanics.“ (a.a.O., S.343)2

Als einen besonderen Akzent dieser Unterschiedlichkeit hebt Sklar 1993 weiterhin hervor, dass die Konzepte der Thermodynamik den Rahmen üblicher dynamischer Betrachtungen der Physik sprengen: „The basic concepts of equilibrium states as attractor states, with its teleological flavor, and the basic rules of irreversible monotonic approach to these states for isolated systems, are quite unlike what we expect from ordinary dynamical considerations“ (a.a.O., S.345). Als noch merkwürdiger wird dort dann wiederum die statistische Mechanik charakterisiert, da sie von sonst in der klassischen Physik unüblichen Wahrscheinlichkeitsbegriffen Gebrauch macht: „[Die sta2 Nagel

wurde schon in Abschnitt 2.1 als Vertreter eines retentiven Reduktionskonzepts herausgestellt, das sich auch in diesem Zitat ausspricht und das er mit seiner Reduktionsdefinition allerdings verfehlte.

227

tistische Mechanik] is even odder from the point of view of most other physical theory in its aim of providing ,probabilistic‘ accounts of phenomena rather than ,deterministic‘ accounts“ (S.347). Genauer heißt es dazu noch: „For the first time, statistical mechanics introduced into physics the idea that the aim of a physical theory could be not to provide an account of what must happen, but of what might happen“ (ebd.) und „So this theory will differ in significant ways from most other theories of physics both in what it takes to be its fundamental explanatory goals and in the resources it will avail itself to achieve those goals“ (S.348). Damit fallen beide Theorien auf je ihre Weise aus dem Rahmen der „üblichen Physik“ heraus und entsprechend lässt sich eine Reduktionsbeziehung nicht ohne weiteres etablieren. In der wissenschaftstheoretischen Debatte um das Verhältnis zwischen Thermodynamik und statistischer Mechanik ist man sich dieser Probleme schon lange bewusst, wobei insbesondere die statistische Definition der Entropie und damit zusammenhängend das Phänomen der makroskopischen Irreversibilität viel diskutiert wird – ein, wie sich in Abschnitt 5.4 zeigen wird, noch heute herausforderndes Problem, das schon von Boltzmann selbst bearbeitet wurde. Im zweiten Kapitel wurde gezeigt, dass Nagels deduktives Reduktionskonzept nicht haltbar ist und überhaupt direkte Reduktionen im Allgemeinen nicht eliminativ sind. Daraufhin wurde bei dem Verhältnis zwischen Theorien etwas differenzierter zwischen (direkter) Nachbarschaft und einer neuen Form von Reduktion unterschieden, bei der zusätzlich zu einem direkten Nachbarschaftsverhältnis eine indirekte Reduktion über die Erklärung von Phänomenen gefordert wird. Der vorliegende Abschnitt soll nun ausgehend von den gerade angedeuteten Schwierigkeiten zeigen, dass das Beispiel von Thermodynamik und statistischer Mechanik, das in Nagels Darstellung als erfolgreiche Reduktion durchging, lediglich eines für Theoriennachbarschaft ist und die Kriterien einer eliminativen Reduktion im Sinne von 2.4 nicht erfüllt. Das bedeutet insbesondere, dass die Konzepte der phänomenologischen Thermodynamik zwar zu solchen der statistischen Mechanik fruchtbar in Beziehung gesetzt werden können, dadurch aber nicht überflüssig geworden sind und zu einer vollständigen physikalischen Beschreibung der Welt nach wie vor benötigt werden: In den Abschnitten 5.3 und 5.4 wird gezeigt, dass sich etwa das thermodynamische Gleichgewicht, Phasenübergänge, kritische Punkte und deren universelle Eigenschaften und vor allem das makroskopische Phänomen der Irreversibilität nicht mit der statistischen Mechanik allein erklären lassen. Das Vorgehen dieses Kapitels hält sich dabei an das der beiden vorangehenden Beispiele: Zunächst werden beide Theorien kurz vorgestellt (Abschnitt 5.1), worauf unter Berücksichtigung des begrifflichen und mathematischen Aspekts gezeigt wird, dass die Thermodynamik nicht direkt aus der statisti-

228

schen Mechanik abgeleitet werden kann und man eine eliminative Reduktion höchstens durch die indirekte Erklärung der Phänomene, die von der Thermodynamik erklärt werden, mit Mitteln der statistischen Mechanik erhält (Abschnitt 5.2). Nach dieser Rekapitulation des zweiten Kapitels an diesem konkreten Beispiel sollen dann Grenzen für solche Erklärungen an den gerade aufgeführten Phänomenen aufgezeigt werden (Abschnitte 5.3 und 5.4), so dass sich schließlich besagtes Bild von Nachbarschaft ohne eliminative Reduzierbarkeit im Sinne von 2.4 ergeben wird. Abschließend wird noch auf das Gibbssche Paradoxon eingegangen (Abschnitt 5.5), das bei der Formulierung eines der Entropie entsprechenden Konzepts innerhalb der statistischen Mechanik auftritt. 5.1 Statistische Thermodynamik

Zu Beginn der Untersuchungen dieses Kapitels seien die beiden Theorien kurz charakterisiert, wobei auch deren enge Verzahnung herausgestellt werden soll, die zu der Bezeichnung statistische Thermodynamik Anlass gibt. Es stehen sich zunächst, vereinfacht gesagt, Wärmelehre und Mechanik gegenüber, letztere angereichert um statistische Konzepte in Form der statistischen Mechanik. Erstere untersucht nun als phänomenologische Thermodynamik das Verhalten von Materie, insbesondere von Flüssigkeiten und Gasen, in Begriffen von Temperatur, Druck, Wärme, Arbeit und Entropie. Dabei spielt das Konzept des thermodynamischen Gleichgewichts, mit dem der Zustand eines Systems bezeichnet wird, in dem die eben aufgeführten Parameter näherungsweise konstant sind, eine erhebliche Rolle, wobei sogar mit Hilfe dieses Gleichgewichtskonzepts die benannten Größen allererst definiert werden. So besagt der Nullte Hauptsatz der phänomenologischen Thermodynamik, dass der Gleichgewichtszustand in folgendem Sinne transitiv ist: Befinden sich zwei Systeme jeweils mit einem dritten im Gleichgewicht, so auch untereinander.3 Erst dieser Umstand erlaubt die Einführung der sogenannten empirischen Temperatur in dem Sinne, dass zwei Systeme genau dann die gleiche Temperatur haben, wenn sie sich untereinander im thermischen Gleichgewicht befinden. Die absolute Temperatur erhält man daraus mit Hilfe des Wirkungsgrades von Wärmekraftmaschinen (etwas des Carnotprozesses), wobei diese Definition wiederum auf dem Zweiten Hauptsatz der Thermodynamik beruht. Weiterhin wird die Wärme über den Energietransfer bei thermodynamischen Prozessen und für solche Prozesse die Entropie über den Austausch von 3

Dabei handelt es sich um einen Gleichgewichtszustand, der entsteht, wenn zwei Systeme in thermischem Kontakt miteinander stehen und sich dieses Gesamtsystem zeitlich nicht mehr ändert.

229

Wärmemengen relativ zur absoluten Temperatur definiert, wobei es eine zentrale Annahme bei der Definition beider Größen ist, dass die involvierten Prozesse quasistatisch sind, also eine Abfolge von Gleichgewichtszuständen bilden. Diese Konzepte sind nun im Wesentlichen unabhängig von denen der klassischen Mechanik definiert und es haftet ihnen insbesondere nichts Statistisches an. Auch die mechanischen Konzepte Volumen und Druck haben innerhalb der phänomenologischen Thermodynamik zunächst nichts mit der Annahme zu tun, dass Flüssigkeiten und Gase aus Molekülen bestehen, was auch Scheibe 1999 herausstellt: „Darüber hinaus hat die Temperatur mit Druck und Volumen gemeinsam, dass alle drei Größen in ihrer primären, phänomenologischen Auffassung keinen Bezug nehmen auf die Mikrobeschreibung des betreffenden Gases als eines Aggregats von vielen Teilchen“ (a.a.O., S.116). Außerdem sei darauf hingewiesen, dass die obigen Konzepte, deren Definitionen auf Gleichgewichtszuständen bzw. deren Abfolge beruhen, sich zwar auch innerhalb der statistischen Mechanik ohne Zugrundelegung solcher Gleichgewichtszustände definieren lassen, dass man damit aber andere Konzepte als die der phänomenologischen Thermodynamik erhält. Für diese gilt nämlich: „For non-equilibrium states, therefore, the concepts of entropy, temperature, etc., simply do not apply. To talk of the entropy of the gas while it passes between equilibrium states [...] is, from the perspective of classical thermodynamics, a misuse of concepts“ (Callender 2001, S.542). Das heißt nicht, dass sich diese Konzepte für Nichtgleichgewichtszustände nicht erweitern ließen: „Another theory, for instance, nonequilibrium statistical mechanics, might well define a concept similar or interestingly related to the entropy of classical thermodynamics“ (ebd.). Aber damit erhält man Konzepte innerhalb einer anderen Theorie, die zu denen der phänomenologischen Thermodynamik „similar or interestingly related“ sind. Diese Fragen werden im folgenden Abschnitt zur Grenzfallproblematik noch diskutiert, hier sei zunächst weiterhin festgehalten, dass man mit dem Konzept des thermodynamischen Gleichgewichts dynamische Beschreibungen der zeitlichen Entwicklung von physikalischen Systemen erhält, die ohne den mechanischen Begriff der inneren bzw. äußeren Kräfte auskommen und stattdessen gemäß den Hauptsätzen der Thermodynamik erfolgen. Insbesondere lässt sich zum Beispiel das Verhalten eines in gewisser Weise idealisierten Gases allein mit den Begriffen Volumen V , Druck p und Temperatur T beschreiben: Es genügt der allgemeinen Gasgleichung pV = cT mit einer für die jeweilige Gasmenge und -art spezifischen Proportionalitätskonstante c. Hierbei handelt es sich um ein Gesetz, das sich aus den je-

230

weils empirisch gefundenen Gesetzen von Boyle-Mariotte (für T = const gilt p ∼ 1/V ), von Charles (für p = const gilt V ∼ T , auch bekannt als erstes Gesetz von Gay-Lussac) und von Amontons (für V = const gilt p ∼ T , auch bekannt als zweites Gesetz von Gay-Lussac) ergibt. An dieser Stelle zeigt sich bereits die besagte enge Verzahnung mit der statistischen Mechanik. Während für die Auffindung dieser Gesetze die in der statistischen Mechanik zugrundegelegte Annahme, dass das Gas aus einer Vielzahl von Molekülen besteht, nicht nötig ist, und die jeweiligen Proportionalitätskonstanten experimentell bestimmt werden können, wird die allgemeine Gasgleichung üblicherweise unter eben dieser Annahme formuliert, indem die Anzahl N der Teilchen der Gasmenge in diese übliche Formulierung einfließt. Mit der Boltzmannkonstante kB lautet diese nämlich pV = NkBT. Dabei kann die Teilchenanzahl N natürlich zunächst nur indirekt über Experimente zu den jeweiligen Proportionalitätskonstanten erschlossen werden: Die phänomenologische Thermodynamik geht der statistischen Mechanik gewissermaßen voraus und ihre Gesetze werden von letzterer nachholend rekonstruiert. Dieses Vorgehen ist nun aber durchaus erfolgreich, was sich anhand einer Erklärung der Gasgleichung aus der Perspektive der statistischen Mechanik gleich zeigen wird. Bei diesem Beispiel wird insbesondere die allgemeine Gasgleichung in der zuletzt zitierten statistischen Form für beliebige Mengen eines (idealen) Gases anwendbar, wobei nicht mehr für jede Menge erst eine Proportionalitätskonstante c bestimmt werden muss, sondern diese sich aus der Boltzmannkonstante kB und der jeweiligen Teilchenanzahl N, die man aus der Masse der Gasmenge erhält, bestimmen lässt, womit die Gasgleichung durch den statistischen Ansatz besser verstanden und verbessert wird.4 4 Genauer

gilt für die Proportionalitätskonstante c der Gasgleichung in der oben zitierten Form c = m · Rs mit der Masse m des Gases und der spezifischen Gaskonstante Rs , die sich aus der allgemeinen Gaskonstante R mittels Rs = R/M ergibt, wobei M die molare Masse der jeweiligen Gasmenge bezeichnet. Mit dieser kommt ein Konzept ins Spiel, das auf der besagten Teilchenauffassung beruht. Wenn man berücksichtigt, dass für die Masse m der Gasmenge und die Anzahl ihrer Teilchen N die Gleichung m/M = N/NA mit der Avogadrokonstante NA ≈ 6 · 1023mol −1, der Anzahl der Teilchen pro Mol, gilt, und dass die allgemeine Gaskonstante R über R = NA · kB mit der Boltzmannkonstante kB zusammenhängt, und wenn man dies alles zusammenfügt, erhält man mit c = N · kB den Zusammenhang zwischen den beiden Formulierungen der Gasgleichung. Die letztgenannte Beziehung liefert dann auch den Zusammenhang zwischen der experimentell bestimmbaren Proportionalitätskonstante c und der direkt ohne weiteres nicht zugänglichen Teilchenanzahl N der Gasmenge. Allerdings steckt eine solche Teilchenanzahlbestimmung auch schon in der Avogadrokonstante, deren Wert unabhängig von der Gasgleichung durch Röntgenbeugungsversuche bestimmt werden kann, so dass

231

Neben diesem vergleichsweise einfachen Beispiel gehören zur phänomenologischen Thermodynamik unter anderem die Theorie der Wärmekraftmaschinen, der Wärmeleitung und Diffusion, der thermodynamischen Gleichgewichte, der Aggregatzustände und damit der Phasenübergänge. In der physikalischen Fachliteratur sind nun auch diese Theorien so eng mit Konzepten der statistischen Mechanik verwoben, dass sich eine klare Trennlinie innerhalb der etablierten statistischen Thermodynamik kaum ziehen lässt. Diese Theorien werden hier aber als solche der Wärmelehre behandelt, da sie von den genuin mechanischen Konzepten der statistischen Mechanik allein weit entfernt sind – und, wie sich im Abschnitt zu den Erklärungsgrenzen zeigen wird, sind Erklärungen der Phänomene, die von diesen Theorien beschrieben werden, mit der statistischen Mechanik allein, im Gegensatz zu der gleich vorzuführenden Erklärung der Gasgleichung, nicht so leicht zu haben. Die statistische Mechanik ist nun zunächst nichts weiter als die klassische Mechanik, die um statistische Konzepte angereichert wird, um Systeme aus vielen Teilchen angemessen beschreiben zu können, wobei eine exakte Beschreibung zugunsten einer Beschreibung in Wahrscheinlichkeiten aufgegeben wird. Entwickelt wurde diese Theorie im Wesentlichen, um wiederum dynamische Beschreibungen der zeitlichen Entwicklung thermodynamischer Systeme zu erhalten, allerdings diesmal mit Hilfe mechanischer Konzepte – man kann sagen, dass es Boltzmann als seine Lebensaufgabe betrachtet hat, die eben grob charakterisierte Wärmelehre in dieser Weise auf die klassische Mechanik zurückzuführen. Ein solches Vorhaben geht von dem Zusammengesetztsein der Materie aus Molekülen aus und betrachtet die mechanischen Interaktionen zwischen diesen, um dann mit statistischen Methoden Aussagen über das Verhalten großer Mengen solcher Moleküle zu treffen. Während genauer die Beschreibungen der klassischen Mechanik auf der Hamilton-Jacobi-Gleichung beruhen, ist die Grundgleichung der statistischen Mechanik die Liouvillegleichung: Ein Ensemble von Realisierungen eines physikalischen Systems kann im Phasenraum durch eine Wahrscheinlichkeits- bzw. Phasenraumdichte ρ charakterisiert werden, für deren zeitliche Entwicklung die Liouvillegleichung

N ∂ρ ∂ρ dρ ∂ ρ q˙i + p˙i = 0 = +∑ dt ∂ t i=1 ∂ qi ∂ pi gilt, wobei qi und pi die kanonischen Orts- und Impulskoordinaten des i-ten Teilchens im Phasenraum bezeichnen. Die Gleichung besagt, dass die Phasich die Teilchenanzahl N tatsächlich aus der Masse m der Gasmenge, deren ebenfalls unabhängig von der Gasgleichung experimentell bestimmbarer molarer Masse und der Avogadrokonstante ergibt.

232

senraumdichte bei einer zeitlichen Änderung des Systems konstant bleibt, wobei es sich um eine statistische Aussage über eine Vielzahl von Realisierungen eines physikalischen Systems handelt, die damit, von eben diesem Wahrscheinlichkeitskonzept abgesehen, ganz auf dem Boden der klassischen Mechanik steht. Anders verhält es sich darin mit der Boltzmanngleichung der sogenannten kinetischen Gastheorie, die die zeitliche Änderung der Verteilungsdichte von Ort x und Geschwindigkeit v der beteiligten Teilchen, der sogenannten Boltzmannfunktion5 f , beschreibt:

∂f = δFluss f + δKoll f . ∂t Dabei bezeichnet δFluss f = −v∇x f − F/m∇v f den nur auf die freie Bewegung und die äußere Kraft F zurückgehenden sogenannten Flussterm und δKoll f den von Boltzmann aufgestellten Stoßterm, durch den diese Gleichung irreversibel wird (vgl. Abschnitt 5.4). Damit geht die Boltzmanngleichung über die „reine“ statistische Mechanik der Liouvillegleichung hinaus und die von ihr beschriebenen Prozesse sind in folgendem Sinne irreversibel: Während für eine Lösung der Liouvillegleichung auch deren zeitinverse Funktion eine Lösung ist, gilt dies für Lösungen der Boltzmanngleichung im Allgemeinen nicht, was den Tatbestand widerspiegelt, dass innerhalb der Mechanik alle Prozesse reversibel sind, während es in der Thermodynamik irreversible Prozesse gibt. Die genauen Zusammenhänge zwischen statistischer Mechanik und Thermodynamik bzw. Liouville- und Boltzmanngleichung werden in den Abschnitten 5.2 und 5.4 noch diskutiert, wobei insbesondere zu untersuchen sein wird, inwiefern die Boltzmanngleichung und damit die kinetische Gastheorie noch zur „reinen“ statistischen Mechanik gezählt werden können: Da in der klassischen Mechanik alle Vorgänge reversibel sind, scheint die Boltzmanngleichung und mithin die kinetische Gastheorie schon auf der thermodynamischen Aussage über die Existenz irreversibler Vorgänge zu beruhen. Zunächst sei noch kurz jenseits dieser abstrakten Gleichungen eine Erklärung der experimentell gewonnenen Gasgleichung der phänomenologischen Thermodynamik aus der statistischen Mechanik wiedergegeben, ohne dass die Probleme berücksichtigt werden, die sich aus der Verwendung unterschiedlicher Konzepte etwa der Temperatur ergeben, deren genaue Definitionen und Verhältnis zueinander erst in Abschnitt 5.2 besprochen werden. So geht man also in der kinetischen Gastheorie davon aus, dass Gase aus 5

Diese gibt die relative Anzahl der Teilchen an, die sich zu einem bestimmten Zeitpunkt in einem bestimmten Ortsvolumen befinden und dabei eine Geschwindigkeit innerhalb eines bestimmten Geschwindigkeitsbereichs besitzen.

233

vielen einzelnen Molekülen bestehen, die jeweils eine Masse m und eine Geschwindigkeit v haben. Für ein solches Gas wird die mittlere kinetische Energie mit der Temperatur über die Gleichung 1 3 E kin = mv2 = kBT 2 2 identifiziert6 (vgl. auch Abschnitt 2.2). Ist nun ein Gas in einem Behälter mit dem Volumen V eingeschlossen, so stoßen die Gasmoleküle gegen dessen Wand und erzeugen auf diese Weise einen Druck p, der proportional zu der Anzahl der Teilchen pro Volumen N/V und zu deren mittlerer kinetischer Energie E kin ist. Aus derartigen Überlegungen7 erhält man für diesen Druck die Gleichung 2N p= E kin, 3V die zusammen mit obiger Identifizierung die schon zitierte allgemeine Gasgleichung in der Form pV = NkBT ergibt. Bei dieser Erklärung handelt es sich aber streng genommen nicht um eine Ableitung der phänomenologischen Gleichung pV = cT selbst, da die Begriffe der Thermodynamik durch Konzepte der statistischen Mechanik ersetzt wurden. Es handelt sich eher um die Erklärung eines thermodynamischen Phänomens direkt mit der statistischen Mechanik, ein Vorgang, der in Abschnitt 5.3 noch genauer besprochen wird, wobei insbesondere zu untersuchen sein wird, inwiefern in solche Erklärungen Wissen um die phänomenologische Theorie einfließt. Neben diesem vergleichsweise einfachen Fall der Gasgleichung, bei dem sich leicht zwischen der oben angegebenen rein phänomenologischen Fassung und deren Reproduktion innerhalb der statistischen Mechanik unterscheiden lässt, sind nun auch alle anderen der oben aufgezählten thermodynamischen Theorien (über Wärmekraftmaschinen, Wärmeleitung, Aggregatzustände etc.) im Rahmen der statistischen Thermodynamik von Überlegungen aus der statistischen Mechanik durchsetzt, so dass bei diesen die Unterscheidung zwischen reiner Wärmelehre und statistischer Mechanik zwar künstlich erscheint, sie aber zum Zwecke der Untersuchung dennoch vorgenommen sei: Es soll gezeigt werden, dass es sich bei der statistischen Thermodynamik tatsächlich um eine Mischtheorie aus zwei eigenständigen Theorien handelt und nicht etwa um bloße statistische Mechanik, die lediglich Begriffe einer im Prinzip eliminativ reduzierten und daher überflüssigen 6 Dabei

ist E kin die mittlere kinetische Energie aller Teilchen, v2 deren mittlere quadratische Geschwindigkeit und kB die Boltzmannkonstante. 7 Und unter der vereinfachenden Annahme, dass es sich um ein ideales Gas handelt – dieser Vorstellung kommen Wasserstoff und Helium noch am nächsten, ideale Gase gibt es aber streng genommen nicht und für reale Gase wird die ebenfalls genäherte Van-der-Waals-Gleichung verwendet.

234

Wärmelehre verwendet. Dafür ist zunächst zu zeigen, dass die Wärmelehre nicht in einer direkten Reduktion eliminativ aus der statistischen Mechanik abgeleitet werden kann, und dann, dass man mit letzterer allein nicht imstande ist, innerhalb einer indirekten Reduktion die Erklärungsleistungen der ersteren zu reproduzieren. Nach dieser kurzen Vorstellung der beteiligten Theorien wird nun also das Grenzfallproblem der direkten eliminativen Reduktion untersucht. 5.2 Ist die Thermodynamik als Grenzfall in der statistischen Mechanik enthalten?

Die Untersuchung dieser Fragestellung hält sich wieder an das in den beiden vorangehenden Beispielen bewährte Vorgehen, das im zweiten Kapitel herausgearbeitet wurde, und diskutiert also zunächst den begrifflichen Aspekt dieses Reduktionsproblems, um anschließend auf dessen mathematische Besonderheiten einzugehen. Zunächst gilt es also zu untersuchen, inwiefern bzw. ob sich Begriffe der Thermodynamik mit solchen der statistischen Mechanik wiedergeben lassen. Dass die Begriffe sich dabei nicht als identisch herausstellen, liegt natürlich auf der Hand, soll aber hier in den einzelnen Fällen genau nachvollzogen werden, da sich gerade darin zeigt, dass eine logische Ableitung der Thermodynamik nicht möglich ist, und man sich auf einen Vergleich verschiedener Begriffe beschränken muss. Es wurden nun eingangs schon Nagel 1961 und Sklar 1993 damit zitiert, dass die beiden Theorien in der Tat gänzlich verschiedene Begrifflichkeiten verwenden, die außerdem aus dem Rahmen der sonst in der klassischen Physik üblichen Konzepte herausfallen. Dabei spielt es nun eine besondere Rolle, dass im Gegensatz zur phänomenologischen Thermodynamik die statistische Mechanik in Begriffen von Wahrscheinlichkeiten formuliert ist, was das Herstellen von Begriffsrelationen zwischen diesen Theorien zu einer besonders komplizierten Angelegenheit macht. Dazu heißt es genauer bei Sklar 1999: „One of the theories is framed in fundamentally probabilistic terms and the other, at least in its standard form, is not. So even when we are pointed to an immediate association of concepts at the two theoretical levels, that association can in no way be mediated by some simple notion of alleged synonymy of terms or even of property identification“ (a.a.O., S.192). Es kann sich also bei den Relationen zwischen den verschiedenen Termen weder um Synonyme noch um einfache Identifizierungen handeln, sondern höchstens um Begriffsvergleiche, womit natürlich allein schon klar ist, dass es sich bei der Beziehung zwischen diesen Theorien nicht um eine Deduktion handeln kann, was aber im Folgenden auch an den konkreten

235

Begriffen gezeigt werden soll. Schwierigkeiten bei der Beziehung zwischen den verschiedenen Konzepten gibt es nun allein schon bei der Größe des Volumens V , da diese in der statistischen Mechanik, die mit statistischen Methoden immer nur eine Vielzahl von Systemen betrachtet, sowohl als Randbedingung für alle diese Systeme, als auch als Mittelwert des Volumens der einzelnen Systeme definiert werden kann. Letzteres würde aber heißen, dass „[...] volume will be subject to all the probabilistic aspects of statistical mechanics. That is observations of volume will be connected to such things as mean or most probable values of volume and fluctuations of volume as a measurable quantity will be tolerated“ (Sklar 1999, S.191). Ein solches Volumen wäre damit im Gegensatz zum Volumen der Thermodynamik, das keinen statistischen Schwankungen unterliegt, eine statistische Größe – und allein damit ist streng genommen schon eine Kuhn/Feyerabendsche Inkommensurabilität gegeben, wobei aber in diesem Fall noch leicht zu sehen ist, inwiefern die beiden Konzepte denselben Tatbestand meinen und sich im Sinne eines Vergleichs unkompliziert miteinander in Beziehung setzen lassen. Ein solcher Begriffsvergleich wird hier auch dadurch erleichtert, dass es sich nicht um eine spezifisch thermodynamische Größe handelt, sondern um eine der klassischen Physik ganz allgemein. Ähnliches gilt auch für die Größe des Drucks p, die zwar auch keine spezifische Größe der Thermodynamik ist, aber dennoch in ihrer statistischen Definition nicht ohne weiteres mit ihrem Gebrauch innerhalb der Thermodynamik in Verbindung gebracht werden kann. Der Druck wird in der Wärmelehre verwendet als die Kraft, die pro Einheitsfläche etwa von einem Gas auf einen Zylinderkolben ausgeübt wird. Der Ansatz der statistischen Mechanik beruht nun auf der Annahme, dass ein solches Gas aus vielen sich schnell bewegenden Molekülen besteht, die wiederum einzeln auf die Wände ihres Behältnisses prallen und dadurch auf diese einen gewissen Druck ausüben (vgl. die oben wiedergegebene Erklärung des Gasgesetzes). Der Druck p wird daher innerhalb der statistischen Mechanik definiert als der (durch besagte Aufpralle) an die Wand abgegebene Impuls pro Fläche und Zeit. Da dieser Impuls aber aufgrund der ungeordneten Molekülbewegung schwankt, muss für diese Definition der mittlere Impuls verwendet werden, womit also erneut ein Konzept der Wahrscheinlichkeitstheorie Einzug hält, das in der makroskopischen Beschreibung des Drucks nicht auftaucht. Damit unterscheiden sich aber die beiden Konzepte des Drucks wiederum fundamental. Der makroskopische Druck schwankt nicht, während sich der Druck in der mikroskopischen Beschreibungsebene tatsächlich ständig leicht verändert, so dass nur dessen Mittelwert stabil ist. Auch hier kann es also nur eine vergleichende Beziehung zwischen verschiedenen Konzepten geben.

236

Die Größe der Energie sei nun nur noch erwähnt: Während insbesondere der Energieübergang von einem thermischen System zu einem anderen innerhalb der phänomenologischen Thermodynamik in Begriffen von (mechanischer) Arbeit und Wärme verstanden wird, ist die Beschreibung desselben Vorgangs innerhalb der statistischen Mechanik in Begriffen von Wahrscheinlichkeitsverteilungen erheblich komplizierter und kann wiederum nicht ohne weiteres mit der thermodynamischen Beschreibung in Beziehung gesetzt werden. Während es bei den drei bis hier besprochenen Größen, die unabhängig von der Thermodynamik aus der klassischen Physik stammen, noch verhältnismäßig einfach ist, eine vergleichende Beziehung aufzustellen, ist dies bei den rein thermodynamischen Größen der Temperatur oder gar der Entropie bei weitem nicht so leicht. Dazu heißt es wiederum bei Sklar 1999: „In these cases we have much less guidance from the outside about which concepts available at the statistical mechanical level to associate with some purely thermodynamic concept at the thermodynamic level. Among other things this sometimes leaves us with a situation where a multiplicity of concepts that reside at the statistical mechanical level, and that are certainly not equivalent at that level, can each be argued to be appropriately associated with a single thermodynamic concept.“ (a.a.O., S.193)

Das Aufstellen eines analogen Konzepts innerhalb der statistischen Mechanik wird also zu einem nichttrivialen Auswahlvorgang, da ohne weiteres nicht klar ist, welches von einer Reihe unterschiedlicher zur Verfügung stehender Konzepte geeignet ist, einen entsprechenden thermodynamischen Begriff wiederzugeben. Auch wenn diese einschränkende Vorbemerkung etwas anderes suggeriert, handelt es sich bei der Identifizierung der Temperatur T eines Gases mit der mittleren kinetischen Energie seiner Moleküle bei Nagel 1961 um das Standardbeispiel für Brückengesetze. Diese beiden Größen werden aber nicht nur bei Nagel, sondern auch in gängigen Physiklehrbüchern über die Gleichung 3 1 kB T = mv2 = E kin 2 2 miteinander identifiziert. Dieses Beispiel wurde bereits in Abschnitt 2.2 diskutiert und es sei hier lediglich daran erinnert, dass Feyerabend 1962 genau dieses Brückengesetz mit Hinweis auf den statistischen Charakter der statistischen Mechanik angegriffen hat. Wie beim Druck gibt es auch bei der Temperatur im Gegensatz zur makroskopischen Beschreibungsebene in der mikroskopischen Ebene Schwankungen, auch hier ist lediglich der Mittelwert stabil.8 Sklar 1999 macht in diesem Zusammenhang darauf 8 Dazu

kommt der Hinweis vom Ende des Abschnitts 2.2, dass selbst mit dem Kon-

237

aufmerksam, dass aufgrund solcher Schwankungserscheinungen durchaus auch Wärme von kalten auf warme Körper übertragen werden kann: „One role temperature can play in statistical mechanics is as a measure of some property instantiated in individual systems. In that guise it is an ordinary sort of physical property. And it is subject to the probabilistic, fluctuational behavior of most properties of individual systems. The regularities in which it appears will now be statistical regularities, and the association of these new laws with the traditional laws of thermodynamics will be less immediate than any simple identification of the latter with the former. Heat, for example, most certainly can, and does, flow from a colder to a warmer body in an isolated system in this new probabilistic framework.“ (S.194f.)

Das Verhältnis einer solchen Temperaturdefinition zu der Temperatur der phänomenologischen Thermodynamik kann damit keinesfalls das einer Identifizierung sein. Feyerabend argumentiert nun auch so, dass solche Schwankungen (kurzzeitige) Entropieabnahmen mit sich bringen, wie es bei der Wärmeübertragung von kalten auf warme Körper der Fall ist, womit die statistische Mechanik insbesondere dem zweiten Hauptsatz der (phänomenologischen) Thermodynamik widerspricht und obige Identifizierung nicht gerechtfertigt ist, da die miteinander identifizierten Größen zu sich widersprechenden Theorien gehören und da insbesondere die phänomenologische Definition der Temperatur gerade auf dem zweiten Hauptsatz beruht (vgl. Abschnitt 5.1). Darauf aufbauend wurde in Abschnitt 2.2 herausgearbeitet, dass es sich hier weder um eine Identifikation, noch um ein empirisches Gesetz, noch um eine neue Definition der ursprünglichen Größe handeln kann – es bleibt lediglich die Möglichkeit, zwei verschiedene Konzepte im Rahmen einer Nachbarschaftsrelation zwischen zwei selbständigen Theorien miteinander zu vergleichen. Dies kann an dieser Stelle mit Sklar 1993 noch deutlicher gemacht werden, der darauf hinweist, dass mit der Temperaturdefinition der statistischen Mechanik zwar auch die Temperatur der Thermodynamik gemeint ist (womit eine Nachbarschaftsrelation begründet werden kann), aber doch auch noch mehr und anderes: „Once we fix on the formal surrogate for the thermodynamic temperature in our statistical dynamical picture, we find that this concept can be extended to new situations for which the original thermodynamic concept was never intended“ (S.354). So ist in der phänomenologischen Thermodynamik die (absolute) Temperatur immer nichtnegativ und endlich, wohingegen sich mit der Definition der zept des Mittelwerts eine statistische Gleichverteilung der Moleküle des Gases gefordert werden muss, da weder bei einem einzelnen Molekül, noch bei einer Schar von Molekülen, die sich in genau eine Richtung bewegen, sinnvoll von Temperatur gesprochen werden kann, auch wenn die mittlere kinetische Energie in beiden Fällen definiert ist.

238

statistischen Mechanik auch negative Temperaturen sinnvoll definieren lassen – es können im Zusammenhang mit dem Spin von Atomen in einem magnetisierten Kristall sogar die Temperaturen „minus unendlich“ und „plus unendlich“ auftreten (vgl. a.a.O., S.353f.). Weiterhin macht Sklar 1999 darauf aufmerksam, dass das thermodynamische Konzept der Temperatur auf mikroskopischer Ebene multipel realisiert sein kann, weshalb ebenfalls keine einfache Identifizierung von Temperatur und mittlerer kinetischer Energie möglich ist: „Systems with wildly divergent physical kinds can all have equilibrium states and, when allowed to transfer energy to one another, be in equilibrium with respect to each other. The moving molecules in a blob of matter, for example, can form a system in equilibrium with electromagnetic radiation. [...] this multiple realizability makes a too naïve claim of the identity of the thermodynamic property with some single variant of one of its realizing physical properties misleading. We must move to some subtler notion of context-relative identifications or determinable-determinate relations. So much for ,temperature just is mean kinetic energy of molecules‘.“ (a.a.O., S.194)

Diesem Punkt der multiplen Realisierbarkeit wird nun üblicherweise das Konzept der funktionalen Reduktion entgegengehalten, nach dem mit der reduzierenden Theorie die funktionale Rolle von Phänomenen wiedergegeben wird. Während dieses indirekte Reduktionskonzept aber seinerseits nicht eliminativ ist (vgl. Abschnitt 2.5), zeigt unabhängig davon das Argument der multiplen Realisierbarkeit in dem hier diskutierten Zusammenhang direkter Theorienverbindungen, dass ein begrifflicher Vergleich zwischen statistischen Konzepten der Temperatur und deren phänomenologischer Definition keine pauschale Identifizierung sein kann, sondern in verschiedenen Zusammenhängen jeweils erst erarbeitet werden muss. Noch viel verwickelter als bei der Temperatur ist die Situation im Fall der Entropie S, zu dessen Herausforderung es bei Callender 1999 heißt: „The goal, which has become the Holy Grail of modern research in the foundations of SM [statistische Mechanik], is to find an entropy function that strictly mirrors the thermodynamic entropy“ (a.a.O., S.359). In der phänomenologischen Thermodynamik wird die Entropie als Entropiedifferenz zwischen zwei nahe benachbarten Zuständen definiert, indem man sich einen reversiblen Übergang zwischen diesen denkt und dann die innerhalb dieses Übergangs vom System aufgenommene Wärmemenge dQ misst (bzw. theoretisch bestimmt). Da der dabei faktisch statthabende Übergang zwischen den Zuständen in allen interessanten Fällen irreversibel ist,9 muss zur Bestimmung der Entropiedifferenz ein analoger reversibler Vor9 Bei

reversiblen Prozessen bleibt die Entropie konstant.

239

gang konstruiert werden, der insbesondere aus einer Abfolge von Gleichgewichtszuständen besteht. In Gerthsen 1995 wird für die Bestimmung der Entropie eines irreversiblen Prozesses das Beispiel der Ausdehnung eines Gases durch eine kleine Öffnung angegeben, bei dem man sich das Ergebnis als analog erhalten durch langsame Bewegung eines Kolbens denken kann: Dieser analoge Prozess ist reversibel und die dabei aufgenommene Wärmemenge lässt sich (experimentell) bestimmen (vgl. a.a.O., S.245). Die (infinitesimale) Entropiedifferenz dS ist dann definiert als diese Wärmemenge geteilt durch die absolute Temperatur T des Systems,10 dS = dQ/T . Mit dieser Definition für das Differential dS ergibt sich für die Änderung ∆S der Zustandsfunktion S bei dem Übergang zwischen zwei Zuständen die sogenannte Clausiusformel  dQ ∆S = . T In der statistischen Mechanik wird die Entropie nun üblicherweise ausgehend von der Wahrscheinlichkeit P der Molekülverteilung eines Gases definiert: Man findet in Lehrbüchern die folgende Definition zusammen mit dem Hinweis, dass man mit dieser Definition dieselbe Größe wie in der phänomenologischen Thermodynamik erhält (kB ist wieder die Boltzmannkonstante): S = kB ln P. Nun lässt sich hier wieder der gleiche Einwand wie schon bei Temperatur, Druck und Volumen geltend machen, dass nämlich mit dem Wahrscheinlichkeitsbegriff ein der phänomenologischen Thermodynamik gänzlich fremdes Konzept verwendet wird, so dass die definierten Größen höchstens in gewisser Weise miteinander korrelieren können, keinesfalls aber identisch sind. Hier tritt nun noch das Phänomen der makroskopischen Irreversibilität hinzu, das im zweiten Hauptsatz mit Hilfe des thermodynamischen Entropiebegriffs so formuliert wird, dass in der von selbst ablaufenden Entwicklung eines thermisch abgeschlossenen Systems die Entropie niemals abnimmt und ihren größten Wert in Gleichgewichtszuständen annimmt, womit die thermodynamische Entropie insbesondere eine (in der Zeit) streng monoton wachsende Funktion ist. Dem Problem der Irreversibilität wird in 5.4 ein eigener Abschnitt gewidmet, es sei hier aber schon vorweggenommen, dass die mechanischen Vorgänge zwischen den Molekülen eines Gases innerhalb der mikroskopischen Beschreibung thermodynamischer Vorgänge immer reversibel sind, und dass das Scheitern der Versuche, die Irreversibilität solcher Vorgänge auf makroskopischer Ebene statistisch zu 10

Die während dieses Prozesses natürlich nur in infinitesimalen Zeitabschnitten konstant sein muss.

240

begründen, schon von Boltzmann eingesehen wurde. Für die hier vorliegende Fragestellung ist dabei insbesondere von Interesse, dass die zeitliche Entwicklung eines mechanischen Systems immer zu ihrem Ausgangspunkt zurückkehren kann – und selbst, wenn dies zunächst unwahrscheinlich erscheint, ist es doch nur eine Frage der Zeit, bis eine solche Umkehrung tatsächlich einmal stattfindet: „[...] if the system in question is a mechanical system it can recur (and will recur, given enough time)“ (Callender 1999, S.366).11 Und selbst innerhalb kleinerer Zeiteinheiten kann es aufgrund der prinzipiellen Reversibilität mechanischer Vorgänge die schon erwähnten Schwankungserscheinungen geben, die dazu führen, dass die statistisch definierte Entropie eben doch abnimmt. Dieser Punkt „strongly suggests that no monotonically increasing function of time should be identified as the reduction basis of the thermodynamic entropy“ (a.a.O., S.365) – eine statistisch definierte Entropie kann keine streng monoton wachsende Funktion sein und unterscheidet sich darin immer von der thermodynamischen Entropie, so dass das Verhältnis zwischen diesen Begriffen auch wieder bei einem Begriffsvergleich bleiben muss. Weiterhin gibt es, wie im Fall der Temperatur, nicht nur eine statistische Definition der Entropie, wie es obige Lehrbuchdefinition nahelegt, sondern wiederum eine Vielzahl von Konzepten, die jeweils in bestimmten Zusammenhängen mit der thermodynamischen Entropie verglichen werden können: „What functions as the correlate of entropy in statistical mechanics? The only correct answer is: ,Lots of different things.‘ For different purposes, in different contexts, with different presuppositions, many quite distinct concepts can all be identified as the statistical mechanical entropy“ (Sklar 1999, S.196). Um nun in den jeweiligen Zusammenhängen einen geeigneten statistischen Entropiebegriff definieren zu können, wird insbesondere sehr viel konkretes Wissen über Eigenschaften der thermodynamischen Größe der Entropie benötigt, um unter den zahlreichen Kandidaten innerhalb der mikroskopischen Beschreibungsebene einen geeigneten zu finden, wie Sklar 1993 ausführt. So gibt es „[...]a wide variety of ,entropies‘ to correlate with the thermodynamic concept, each functioning well for the specific purposes for which it was introduced“ (a.a.O., S.354) und „[...] the choice of the appropriate statistical mechanical correlate of this kind for thermodynamic entropy is fixed by a multitude of considerations, including the additivity of entropy for independent systems in thermodynamics and, most importantly, the demand that the function be maximized for the equilibrium 11 Dies

ist die Aussage des sogenannten Poincaréschen Wiederkehrsatzes, der genauer besagt, „that an isolated system of finite size, number of parts, and energy will return in finite time to an arbitrarily small neighborhood of almost any state from which it begins“ (Liu 2001, S.341).

241

configuration of the microcomponents and that this configuration obey some kind of stationarity under the kinetic equation.“ (S.355)

Bei direkten Reduktionen darf nun natürlich Wissen der zu reduzierenden Theorie verwendet werden, in dem Zusammenhang aber, dass direkte Reduktionen nicht eliminativ sein müssen und im Allgemeinen lediglich vergleichenden Charakter haben, zeigt das für das Aufstellen einer statistischen Entropiedefinition benötigte Wissen aus der Thermodynamik insbesondere wieder, dass einem solchen Begriffsvergleich zwei eigenständige Partner zugrunde liegen. Auf weitere Einzelheiten der statistischen Entropiedefinitionen soll hier nicht eingegangen werden,12 da es wiederum genügen soll, gezeigt zu haben, dass das, was in Abschnitt 2.2 allgemein ausgehend von den Argumenten Feyerabends diskutiert wurde, sich nun auch am Beispiel der Entropie zeigt: Es handelt sich bei Größen, die innerhalb sich widersprechender Theorien definiert sind, nicht um dieselben, sondern um verschiedene Konzepte, die höchstens in eine vergleichende Beziehung zueinander gesetzt werden können. Feyerabends Folgerung der Inkommensurabilität geht dabei zu weit, da man solche vergleichenden Überlegungen, wie sie zum Beispiel eben bei Sklar zitiert wurden, durchaus anstellen kann, aber von einer deduktiven Reduktionsbeziehung kann gleichwohl keine Rede sein, da sich eben diese vergleichenden Überlegungen nicht kanonisch ergeben, sondern in jedem Einzelfall bei einer jeweils spezifischen Ausgangslage erst erarbeitet werden müssen. Und solche Vergleiche allein liefern keine direkten eliminativen Reduktionen (vgl. Abschnitt 2.4). Die konkreten Vergleichsbeziehungen sind nun allerdings sogar von größerem Interesse als diese allgemeinen Überlegungen. Während hier nur gezeigt wurde, dass man sich schon aus begrifflichen Gründen zunächst mit Theoriennachbarschaft bescheiden muss, ist das genaue Ausbuchstabieren dieser Relation die eigentlich interessante Frage. Dies deutet auch Sklar 1999 an: „It would be deeply misleading to ask which of the many entropies of statistical mechanics is the right one, or even to ask which one corresponds or can be identified with the familiar entropy of thermodynamics“ (a.a.O., S.197). Statt diese geradezu müßige Frage zu verfolgen sei es lohnender, im Rahmen der hier so genannten Nachbarschaftsüberlegungen die genauen Beziehungen zwischen diesen Konzepten auszuloten. Allgemein besteht Sklar 1999 für die hier vorliegenden Theorien gegen 12 Es

gibt insbesondere verschiedene Konzepte von Gibbs und Boltzmann, vgl. Lavis 2005 für einen Überblick. Das mit der statistischen Entropiedefinitionen zusammenhängende Problemfeld der makroskopischen Irreversibilität wird in Abschnitt 5.4 besprochen. Und um eine weitere Besonderheit der statistischen Entropiedefintion, das Gibbssche Paradoxon, geht es in Abschnitt 5.5.

242

Feyerabendsche Inkommensurabilitätsargumente auf der Möglichkeit solcher vergleichenden Überlegungen und weist darauf hin, dass man erst auf deren Grundlage differenzierte Aussagen zu einem vermeintlichen Reduktionsverhältnis machen kann: „It is not the absence of meaning relations between the theoretical terms of the two theories we are talking about. To the contrary, it is just the richness and complexity of such meaning relations that require our attention if we are to make any kind of reasonable appraisal of the vague claims that the one theory is or is not reducible to the other or to the effect that there is some kind of emergence going on“ (S.197f.). Allerdings zeigt die Argumentation dieser Arbeit, dass die Notwendigkeit solcher Vergleiche gegen die direkte eliminative Reduzierbarkeit der Thermodynamik auf die statistische Mechanik spricht: Für eine eliminative Reduktion im Sinne von 2.4 bedarf es dagegen nicht nur des Vergleichs zwischen Begriffen, sondern auch eines Vergleichs zwischen Erklärungen von Phänomenen, und die Möglichkeit einer solchen indirekten Reduktion für den vorliegenden Fall wird in den Abschnitten 5.3 und 5.4 noch untersucht. Abschließend sei zum begrifflichen Aspekt dieses Reduktionsproblems noch einmal deutlich festgehalten, dass besagte Begriffsvergleiche nicht leicht zu haben sind13 und insbesondere das Auffinden der jeweils zu einer thermodynamischen innerhalb der statistischen Mechanik äquivalenten Größe kein kanonischer Vorgang ist, sondern in allen besprochenen Fällen zahlreicher Zusatzüberlegungen bedarf, wie Sklar 1993 festhält: „When we move from thermodynamics to statistical mechanics, a much richer set of conceptual possibilities is opened to us. We need to find concepts at this new reducing level to associate with the concepts at the reduced level. We are directed in our search for the appropriate concepts by the place played by the concepts at the reduced level in the general thermodynamic laws, in the constituent equations, and by the standard measuring processes invoked to determine magnitudes in the reduced-level theory.“ (S.360)

Insbesondere spielt also die Thermodynamik eine eigenständige Rolle bei diesen Vergleichen und es wird sich in Abschnitt 5.3 sogar zeigen, dass auch Erklärungen thermodynamischer Phänomene mit der statistischen Mechanik allein auf heuristische Hilfen durch die Thermodynamik angewiesen sind, 13

Dass die Situation insbesondere im Fall der Thermodynamik schwieriger ist, als es Nagels identifikatorische Brückengesetzkonzeption suggeriert, war Sklar 1993 zufolge auch schon Gibbs bewusst: „It should not surprise us that Gibbs, when he came to associate ensemble quantities with thermodynamic quantities [...], spoke of the ,thermodynamic analogies‘ when he outlined how thermodynamic functional interrelations among quantities were reflected in structurally similar functional relations among ensemble quantities. He carefully avoided making any direct claim to have found what the thermodynamical quantities ,were‘ at the molecular dynamical level“ (S.350).

243

die den Rahmen legitimer D-N-Randbedingungen sprengen. Damit soll nun der mathematische Aspekt dieses Reduktionsproblems diskutiert werden, zu dem einleitend dessen Charakterisierung in Scheibe 1999 wiedergegeben sei: „[es geht] um die Reduktion einer phänomenologischen Kontinuumstheorie auf eine atomistische Theorie [...]: Kontinuierliche Dichtefunktionen werden durch diskrete Teilchenanzahlen erklärt. Man kann sich von vornherein denken, dass dies nicht ohne Approximationen geht. Und in gewissem Sinne ist die Reduktion auch nur partiell, da ein Kontinuum gerade nicht aus endlich vielen Teilchen besteht“ (a.a.O., S.129). Bevor nun gleich auf die Besonderheiten der hier notwendigen Näherungen und das auf diesen beruhende Konzept der approximativen Reduktion durch Grenzübergänge eingegangen wird, das in Abschnitt 2.3 schon allgemein kritisiert wurde, soll noch darauf hingewiesen werden, dass sich die mathematischen Beziehungen zwischen diesen Theorien allein dadurch kompliziert darstellen, dass sich keine kanonischen Grenzübergänge angeben lassen, die die Thermodynamik als Ganze aus der statistischen Mechanik erstehen ließen. Dieser Tatbestand, der mit Scheibe 1999 auch schon in den vorherigen beiden Beispielen konstatiert wurde, bei denen es insbesondere mehrere Möglichkeiten gibt, approximative Beziehungen zwischen zwei jeweils eigenständigen Theorien herzustellen, sei hier noch etwas genauer ausgeführt. Dazu sollen mit Ernst 2003 zwei Schritte innerhalb des Unternehmens der kinetischen Gastheorie, die phänomenologischen Gleichungen aus solchen der klassischen Mechanik abzuleiten, unterschieden werden: In einem ersten Schritt geht es um die Ableitung der in Abschnitt 5.1 aufgeführten Boltzmanngleichung aus der ebenfalls dort wiedergegebenen Liouvillegleichung, und in einem zweiten um die Ableitung der phänomenologischen Gleichungen14 aus der Boltzmanngleichung (vgl. a.a.O., S.86). Der erste Schritt wird mit Scheibe noch genauer untersucht, und während dieser sich vergleichsweise kanonisch durchführen lässt, gilt dies nicht für die Entwicklung der phänomenologischen Gleichungen aus der Boltzmanngleichung, weshalb zuerst dieser Vorgang kurz besprochen sei. Die Boltzmanngleichung wurde schon in Abschnitt 5.1 als die Grundglei14

Mit den phänomenologischen Gleichungen sind hier Gleichungen der Nichtgleichgewichtsthermodynamik, wie zum Beispiel das Ficksche Diffusionsgesetz und die Gleichungen der Fourierschen Wärmeleitung und der Newtonschen Viskosität, gemeint (vgl. Ernst 2003, S.33). Während die Größen der Thermodynamik, wie sie oben beschrieben wurden, zunächst nur für Gleichgewichtszustände definiert sind, behandelt die phänomenologische Nichtgleichgewichtsthermodynamik als Kontinuumstheorie makroskopische Prozesse jenseits quasistatischer Zustandsänderungen (vgl. a.a.O., S.32) und soll hier als auf die Boltzmanngleichung zu reduzierende Theorie zugrunde gelegt werden.

244

chung der kinetischen Gastheorie bezeichnet. Letztere zeichnet sich dadurch aus, dass sie, wie die statistische Mechanik, von dem Zusammengesetztsein von Gasen aus vielen, als klassisch aufgefassten Teilchen ausgeht, und beschreibt dabei aber die zeitliche Entwicklung von aus solchen Teilchen zusammengesetzten Systemen, während die statistische Mechanik eher statistische Aussagen über den Gleichgewichtszustand solcher Systeme macht. Insbesondere beinhaltet die Boltzmanngleichung dabei schon eine zeitliche Asymmetrie (vgl. Abschnitt 5.1), worauf gleich bei deren Ableitung aus der Liouvillegleichung kurz und ausführlicher in Abschnitt 5.4 im Zusammenhang mit dem Problem der Irreversibilität eingegangen wird. Wenn es an dieser Stelle darum geht, die phänomenologischen Gleichungen aus der Boltzmanngleichung zu erhalten, tritt jedenfalls „[d]as Problem, wie man von zeitsymmetrischen Gesetzen zu zeitasymmetrischen Gesetzen kommt“ (Ernst 2003, S.87), nicht auf. Dafür gibt es andere Schwierigkeiten. Zunächst macht die Boltzmanngleichung eine Aussage über die zeitliche Entwicklung der sogenannten Boltzmannfunktion f , die in Abschnitt 5.1 als eine Funktion der Verteilungsdichte von Ort x und Geschwindigkeit v der beteiligten Teilchen charakterisiert wurde. Es ist nun aber alles andere als klar, wie eine solche Funktion wahrscheinlichkeitstheoretisch genau zu deuten ist, worauf Scheibe 1999 hinweist: „Schon jetzt sei aber betont, dass die Boltzmann Funktion f streng genommen weder eine auf ein Einzelsystem bezogene Anzahldichte, noch eine auf ein Ensemble rekurrierende Wahrscheinlichkeitsverteilung ist. Nachdem einmal das materielle Kontinuum als eine reale Möglichkeit aufgegeben und durch die Atomistik ersetzt ist, wird erst eine große Teilchenzahl zur Voraussetzung der Anwendbarkeit von f – ob nun im Einzelsystem oder im Ensemble.“ (a.a.O., S.132)

Entsprechend spielt bei der Ableitung der Boltzmanngleichung aus der Liouvillegleichung der Grenzübergang N → ∞ für die Anzahl N der beteiligten Teilchen, der sogenannte thermodynamische Limes, eine zentrale Rolle. Nun ist schon aus den Überlegungen dazu in Abschnitt 2.3 und den beiden vorhergehenden Beispielen klar geworden, dass derartige Grenzübergänge, die kontrafaktische Annahmen beinhalten – die Anzahl der Moleküle eines Gases ist immer endlich, echte Raumgebiete sind immer ausgedehnt, die Lichtgeschwindigkeit ist immer endlich und das Plancksche Wirkunsquantum immer größer als Null –, keine logischen Ableitungen liefern können, sondern höchstens in der Lage sind, Vergleiche zwischen mathematischen Strukturen zu etablieren. Die Schwierigkeiten eines solchen „N → ∞“-Grenzübergangs zeigen sich nun schon bei der Deutung der darauf beruhenden Boltzmannfunktion,

245

wie Scheibe weiter ausführt: „Der Begriff einer ,großen‘ Teilchenzahl ist aber kein scharfer Begriff. Um einen solchen zu erhalten, muss man zum Limes übergehen. Damit kann man f präzise einführen, erhält aber diese Funktion dann nur als Näherung für Anzahlen bzw. Wahrscheinlichkeiten: Die Boltzmannfunktion ist streng genommen nicht selbst etwas physikalisch Bedeutsames, sondern nur Näherung für solches“ (ebd.). Daher können nun auch alle weiteren „Ableitungen“ phänomenologischer Gleichungen aus der Boltzmanngleichung im Rahmen einer solchen Näherungskonzeption nur mathematische Vergleiche mit Konzepten der statistischen Mechanik liefern, da dies schon für die Boltzmannfunktion selbst gilt. Und selbst diese weitergehenden „Ableitungen“ aus der Boltzmanngleichung sind nun nicht ohne weiteres zu haben, wie Ernst 2003 ausführt: „Funktioniert die Ableitung der phänomenologischen Gleichungen aus der Boltzmanngleichung tatsächlich? Zunächst ist hier auf die immensen mathematischen Schwierigkeiten hinzuweisen, auf die wir bei der Lösung der Boltzmanngleichung stoßen. Die Boltzmanngleichung liefert in vielen physikalischen Situationen eine hinreichend gute Näherung. Sie ist allerdings analytisch schlecht zu handhaben. Die Fragen der Existenz und Eindeutigkeit der Lösung können nur schwer beantwortet werden. Zur Lösung der Gleichung macht man deshalb [...] bestimmte Annahmen über die Form der Lösung, die man aus den abzuleitenden Gleichungen abliest. Insofern man die Form der Lösung bereits voraussetzen muss, kann man aber sicherlich nicht von einer völlig befriedigenden nomologischen Reduktion sprechen.“ (a.a.O., S.87)

Zeigt allein schon der hier angesprochene Näherungscharakter der Lösungen, dass es sich statt logischer Ableitungen phänomenologischer Gleichungen um Vergleiche mathematischer Strukturen handelt, fällt dieser Vergleichscharakter spätestens angesichts der Tatsache ins Auge, dass das Aufstellen solcher Näherungen (und ergo Vergleiche) auf dem Wissen um die Form der erst abzuleitenden Gleichungen beruht. Es handelt sich also um zwei eigenständige Theorien, und nur, wenn man beide kennt, können Näherungsbeziehungen zwischen ihnen hergestellt werden, während eine streng logische Ableitung der einen aus der anderen aufgrund des zitierten Befundes undenkbar ist. Es handelt sich hier nicht um eine „nicht völlig befriedigende nomologische Reduktion“, sondern um eine Vergleichsbeziehung zwischen zwei Theorien, die (als direkte Beziehung) daher nicht eliminativ ist. Während man sich bei Erklärungen von Phänomenen im Rahmen einer indirekten Reduktion (vgl. die Abschnitte 5.3 und 5.4 für den vorliegenden Fall) durchaus mit Näherungen zufrieden geben kann, gilt dies nicht, wenn es um die Ableitung von Gleichungen geht: Entweder, man leitet diese streng logisch ab und erhält die exakten Gleichungen, oder man stellt Näherungen und mithin Vergleiche an.

246

Abschließend sei zu dem „Ableiten“ der phänomenologischen Gleichungen aus der Boltzmanngleichung noch auf weitere Schwierigkeiten hingewiesen. Wenn eingangs gesagt wurde, dass es keine kanonische Ableitung der phänomenologischen Thermodynamik als Ganze aus der statistischen Mechanik gibt, zeigte sich dies schon an den Ausführungen von eben zu dem schwierigen Prozess des Auffindens von Lösungen der Boltzmanngleichung, wird aber auch aus den folgenden Ausführungen von Ernst 2003 evident: „Weiterhin ist auf den eingeschränkten Gültigkeitsbereich der Boltzmanngleichung zu achten. Diese gilt nämlich nur für hochverdünnte, ideale Gase. [...] Obwohl die exakte Fundierung der Nichtgleichgewichtsthermodynamik15 nur für diesen Spezialfall möglich ist, gibt es vielfache Versuche, ähnlich auch für Flüssigkeiten zu verfahren“ (S.87). Wenn sich also gleich mit Scheibe zeigen wird, inwiefern die Boltzmanngleichung der kinetischen Gastheorie zu der Liouvillegleichung der statistischen Mechanik in Beziehung gesetzt werden kann, ist erstere zunächst nur für hochverdünnte, ideale Gase anwendbar und es bedarf zu einer näherungsweisen Ausweitung ihrer exakten Anwendbarkeit, die eine Beziehung zur gesamten Thermodynamik herstellen könnte, noch zusätzlicher Überlegungen. Dieser Punkt zeigt, ganz allgemein gesprochen, dass die Thermodynamik nicht eliminativ als Grenzfall in der statistischen Mechanik enthalten ist, soll aber nicht weiter verfolgt werden. Stattdessen sei nun das Verhältnis zwischen den beiden besagten Grundgleichungen in den Blick genommen. Die Grenzbeziehungen zwischen diesen beruhen wesentlich darauf, dass man die Anzahl N der beteiligten Teilchen (also meist Moleküle) unendlich groß werden lässt – man betrachtet die Liouvillegleichung in dem Grenzfall N → ∞: „Nur im ,thermodynamischen Limes‘, in dem die Teilchenzahl N gegen Unendlich geht, kommt man hier zu Makrozuständen. Und diese entsprechen dann auch nicht mehr eindeutig den Mikrozuständen, nämlich den üblichen mechanischen Daten für ein Mehrteilchensystem – weder sie, die Makrozustände, selbst, noch ihre zeitlichen Entwicklungen denen der Mikrozustände. Komplizierte, approximative Verhältnisse treten an die Stelle [...] einfache[r] Beziehung[en].“ (Scheibe 1999, S.136)

Der Übergang von Mikrozuständen zu solchen Makrozuständen ist auch von den hier angesprochenen Zuordnungsproblemen abgesehen alles andere als trivial. Zunächst ist es nämlich fragwürdig, wie man von einer Beschreibung mit diskreten Teilchen zu Aussagen über kontinuierliche Gasmengen kommen kann. Scheibe 1999 hält dazu fest: „Man mag sich gerade hier wundern, 15 Vgl.

die Fußnote oben dazu.

247

wie der diskrete Teilchenaspekt – die Atomistik – einerseits und das Kontinuum einer Anzahldichte andererseits überhaupt durch Konvergenz zu überbrücken ist. Insbesondere bleibt ja die Teilchenzahl selbst in der Grenze abzählbar unendlich, während das Kontinuum überabzählbar ist“ (S.142).16 Weiterhin ist es innerhalb der Teilchenbeschreibung natürlich so, dass jede Gasmenge der realen Welt immer nur aus endlich vielen Teilchen besteht, worauf auch schon in Abschnitt 2.3 aufmerksam gemacht wurde. Es handelt sich also um zwei verschiedene Einwände: Einerseits ist das Verwenden eines Grenzübergangs N → ∞ physikalisch nicht gerechtfertigt, da alle Systeme, für die die im Grenzprozess gewonnenen Gleichungen schließlich Gültigkeit beanspruchen, immer nur aus endlich vielen Teilchen bestehen, womit einer Voraussetzung des Herleitungsvorgangs eben dieser Gleichungen widersprochen ist, und andererseits bleibt es selbst mit dieser Schwäche unklar, ob es überhaupt möglich ist, aus einem diskreten Modell Gleichungen für ein Kontinuum abzuleiten. Diese Vorstellung von unendlich vielen Teilchen als thermodynamischer Limes wird nun nicht nur für die „Ableitung“ der Boltzmanngleichung herangezogen, sondern auch bei der Erklärung konkreter Phänomene mit Mitteln der statistischen Mechanik (vgl. Abschnitt 5.3). An dieser Stelle sei aber zunächst noch eine weitere typische Beschreibung dieses Vorgehens und eine Rechtfertigung dessen zitiert: „The key idea is both simple and radical: take the volume and number of parts of a bulk system to infinity, while keeping the density finite – a maneuver now known as ,taking the thermodynamical limit (TL)‘. [...] TL is generally justified as an idealization of bulk systems whose size and number of parts are so large that compared to their individual parts they are ,approximately‘ infinite“ (Liu 2001, S.331f.). Diese Rechtfertigung kann aber gleichwohl keine logische Ableitung von Gleichungen der phänomenologischen Thermodynamik begründen, da diese bei Zugrundelegung des thermodynamischen Limes streng genommen nur für Systeme aus unendlich vielen Teilchen gültig wären, wohingegen diese Gleichungen zwar „kontinuierliche“ Gasmengen beschreiben, die aber aus der Perspektive der statistischen Mechanik immer nur aus endlich vielen Teilchen bestehen – und das Appellieren an die Vorstellung einer „annähernd unendlichen“ Anzahl liefert wiederum keine logische Ableitung. Was als physikalisch sinnvolle mathematische Relation zwischen diesen Theorien einzig gerechtfertigt bleibt, ist, wie schon in Abschnitt 2.3 herausgearbeitet, ein Vergleich mathematischer Strukturen im Sinne Scheibes. In Scheibe 1999 werden auch am vorliegenden Beispiel der Beziehung von Thermodynamik zu statistischer Mechanik topologische Vergleiche 16

Auf diesen Unterschied wurde auch schon in der Diskussion des Beispiels der Quantenmechanik hingewiesen.

248

zwischen den Lösungsmengen der benannten Grundgleichungen angestellt, womit sich, wie in den vorherigen Beispielen, Ähnlichkeiten aufzeigen lassen, die für eine Nachbarschaft der beiden Theorien im Sinne von 2.4 sprechen: „Um das Verhältnis der Lösungsmengen Gmi [mi für mikroskopisch] und Gma [ma für makroskopisch] der diese Gesetze [die dynamischen Gesetze der beiden Theorien] repräsentierenden Gleichungen dreht sich wie immer das Spiel“ (a.a.O., S.136). Genauer setzt Scheibe hier drei Gleichungen miteinander in Beziehung: ein System von Hamiltongleichungen der klassischen Mechanik für N Teilchen, die entsprechende N-Teilchen-Liouville Gleichung der statistischen Mechanik und schließlich die Boltzmanngleichung der Thermodynamik, in der nicht mehr von einzelnen Teilchen die Rede ist. Allerdings gibt es sowohl bei dem Übergang von der klassischen zur statistischen Mechanik als auch bei dem von letzterer zur Thermodynamik der Boltzmanngleichung erhebliche Schwierigkeiten. Zum einen lässt sich die Lücke zwischen klassischer und statistischer Mechanik aufgrund der Wahrscheinlichkeitskonzepte der letzteren nicht überbrücken und zum anderen kann die Irreversibilität der Boltzmanngleichung nicht aus der reversiblen Liouvillegleichung abgeleitet werden. Wenn Scheibe, was zunächst das zweite Problem betrifft, dennoch im Rahmen seines vergleichenden Reduktionskonzepts die Boltzmanngleichung auf die Liouvillegleichung reduziert, beruht dies auf zusätzlichen Bedingungen, die zu der Liouvillegleichung hinzutreten und die in Abschnitt 5.4 im Zusammenhang mit dem Irreversibilitätsproblem noch besprochen werden. Davon hier also zunächst abgesehen, besteht Scheibes Reduktion nun darin, dass er zeigt, inwiefern Folgen von Lösungen der Liouvillegleichung gegen einzelne Lösungen der Boltzmanngleichung unter bestimmten Grenzfallannahmen konvergieren, wobei insbesondere ein Ergebnis von Oscar E. Lanford verwendet wird, nach dem aus einer solchen Konvergenz für den Zeitpunkt t = 0 die entsprechende Konvergenz für ein kleines, echt positives Zeitintervall folgt. Allerdings handelt es sich dabei tatsächlich nur um kleine Intervalle, worauf etwa Hellman 1999 hinweist: „Yet the Lanford theorems [...] only tell us what happens for much less than 1 second of time“ (a.a.O., S.205). Ohne hier in die Einzelheiten17 gehen zu müssen, ist klar, dass mit solchen Konvergenzbetrachtungen, die innerhalb einer approximativen Reduktion zeigen, dass Lösungen der Boltzmanngleichung durch solche der Liouvillegleichung angenähert werden können, der Rahmen von topologischen Vergleichen nicht verlassen wird – und nur dadurch können die benannten Aporien eines bloßen Grenzübergangs N → ∞ glücklich umschifft werden. 17

Für diese sei auf Scheibe 1999, S.146-158, verwiesen, zu Lanford vgl. zum Beispiel Ernst 2003, S.97f.

249

Dabei gelingt es nun selbst in Scheibes Reduktionskonzept nicht, die klassische Mechanik sinnvoll in ein approximatives Verhältnis zur statistischen Mechanik zu setzen: „Fragen wir uns abschließend, was wir insgesamt erreicht haben, so muss als erstes betont werden, dass die Reduktion der Boltzmann Gleichung auf die Liouville Gleichung keine Reduktion auf die (exakte) klassische Mechanik ist. Hierzu wäre als letzter Schritt noch eine Reduktion der Liouville Gleichung auf die Hamilton Gleichungen erforderlich, und diese Reduktion ist unmöglich: Die Liouville Gleichung betrifft die zeitliche Änderung der Wahrscheinlichkeitsdichte, die Hamiltongleichungen betreffen die zeitliche Änderung des exakten Zustands im Sinne der CM [klassischen Mechanik]. [...] Aber noch niemand hat jemals Wahrscheinlichkeiten aus etwas anderem herausdefiniert als aus Wahrscheinlichkeiten. Solche aber treten in der CM [klassischen Mechanik] nicht auf.“ (Scheibe 1999, S.158)18

Der Gedanke, die Thermodynamik auf die klassische Mechanik selbst reduzieren zu können, ist demnach nicht haltbar. Aber zwischen statistischer Mechanik und Thermodynamik führt Scheibes Verfahren zum Erfolg, indem es zeigt, wie ein Vergleich dieser beiden Theorien auf physikalisch und mathematisch sauberem Wege genau ausbuchstabiert werden kann. Dass ein solcher Vergleich etwas anderes ist als ein Nachweis der Behauptung, die Thermodynamik wäre eliminativ als Grenzfall in der statistischen Mechanik enthalten, sollte dabei klar geworden sein. Damit wurden zum dritten Mal die Ergebnisse des zweiten Kapitels an einem konkreten Beispiel rekapituliert: Die Untersuchung des begrifflichen wie des mathematischen Aspekts hat ergeben, dass es sich hier, wie in den beiden vorangehenden Beispielen, um zueinander benachbarte Theorien handelt, die sich sinnvoll ergänzen können, ohne dass es sich dabei um eine direkte eliminative Reduktion handelt. Um aber sagen zu können, dass man die Wärmelehre aufgrund ihrer zweifellos engen Beziehung zur Mechanik nicht mehr benötigt, reicht diese retentive Nachbarschaft, die sich gerade in der fruchtbaren Zusammenarbeit dieser beiden Theorien innerhalb der statistischen Thermodynamik zeigt, nicht aus. Man müsste für eine eliminative Reduktion im Sinne von 2.4 wiederum zeigen, dass sich mit der statistischen Mechanik allein alle Phänomene, für deren Erklärung Konzepte der Thermodynamik verwendet werden, auch ohne Verwendung 18 Dieser

Einwand trifft auch auf das Verhältnis zwischen den Wahrscheinlichkeitsaussagen der Quantenmechanik und den exakten Aussagen der klassischen Mechanik zu: Wie sich hier die Boltzmanngleichung lediglich mit der Liouvillegleichung sinnvoll in Beziehung setzen lässt, so muss man sich dort ebenso auf Vergleiche mit der statistischen Mechanik beschränken, vgl. Abschnitt 4.2.

250

dieser Konzepte erklären lassen. Nur dann ließe sich sagen, dass man in der statistischen Mechanik zwar Begriffe und Konzepte der Thermodynamik verwendet, dies aber nur aus pragmatischen Gründen bei ihrer prinzipiellen Überflüssigkeit. Ein Ansatz zu dieser Unterscheidung zwischen Theoriennachbarschaft und „echter“ Reduktion findet sich im Zusammenhang mit der Thermodynamik auch in Callender 2001. Dort wird zunächst darauf hingewiesen, dass man als Reduktion einer Theorie üblicherweise die logische Deduktion einer zu der zu reduzierenden analogen Theorie ansieht: „The main idea shared by many theories of reduction is that one theory reduces to another if we can in the reducing theory construct an analogue of the laws and concepts of the theory to be reduced“ (a.a.O., S.541). Dieser Ansatz, der auf Schaffner 1967 zurückgeht, wurde in Abschnitt 2.4 besprochen: Wie auch hier gerade gezeigt wurde, können die Gesetze der ursprünglich zu reduzierenden Theorie nicht logisch abgeleitet werden, logisch ableiten lassen sich allenfalls zu diesen ähnliche und mithin analoge Konzepte: „By specifying boundary conditions and other conditions we can logically deduce the analogue from the reducing theory, but we do not expect to be able to logically deduce from the reducing theory the theory to be reduced itself“ (ebd.). Wenn nun aber eine analoge Theorie logisch abgeleitet wird, zeigt die Möglichkeit dieses Vorgangs auch, dass auf diese Weise mit der reduzierenden Theorie selbst Phänomene erklärt werden können, deren Erklärung zunächst der zu reduzierenden Theorie vorbehalten war: „The point of constructing an analogue of the theory to be reduced is to show that the reducing theory can account for the phenomena covered by the reduced theory“ (ebd.). Dies wurde ebenfalls schon in Abschnitt 2.4 herausgestellt, genauso wie der Punkt, dass insbesondere innerhalb dieser analogen Theorie der Rahmen der reduzierenden Theorie nicht verlassen wird, so dass der Theorienvergleich, der zum Aufweis der Analogie der beiden Theorien notwendig ist, streng genommen zwischen der zu reduzierenden und der reduzierenden Theorie selbst stattfindet, wozu der Umweg über die analoge Theorie gar nicht nötig ist, da sich solche Vergleiche auch unmittelbar im Rahmen von Nachbarschaftsbetrachtungen anstellen lassen. Insbesondere lässt sich durchaus sinnvoll von einer Nachbarschaft sprechen, ohne dass man in der Lage ist, auch mit der reduzierenden Theorie die Phänomene der zu reduzierenden erklären zu können, da ein Vergleich zwischen Begriffen und mathematischen Strukturen dafür ausreicht. Callender 2001 macht nun für das vorliegende Beispiel geltend, dass das Beharren auf der Aufstellung einer zur Thermodynamik analogen Theorie nicht nur nicht nötig ist, sondern dem Geschäft der direkten Phänomenerklärung sogar im Wege steht. Der Aufsatz ist überschrieben mit „Taking Thermodynamics Too Seriously“ und zeigt an mehreren Beispielen, dass

251

der Umweg über das Aufstellen von Konzepten innerhalb der statistischen Mechanik, die sich an solchen der Thermodynamik orientieren, für die Erklärung makroskopischer Phänomene hinderlich sein kann. Dieser Punkt und überhaupt die Erklärung thermodynamischer Vorgänge mit der statistischen Mechanik allein soll nun diskutiert werden.

5.3 Erklärungsgrenzen der statistischen Mechanik

In den vorherigen Beispielen der Allgemeinen Relativitätstheorie bzw. der Quantenmechanik zeigte sich, dass erstere eine Reihe von Gravitationsphänomenen nicht beschreiben kann, die von der Newtonschen Gravitationstheorie erklärt werden, und letztere keinen Zugang zu den Phänomenen der makroskopischen Welt hat, wie sie von der klassischen Newtonschen Mechanik beschrieben werden, weshalb zum einen die Newtonsche Gravitationstheorie nicht durch die ART und zum anderen die klassische Mechanik der makroskopischen Welt nicht durch die Quantenmechanik überflüssig geworden ist (die Newtonsche Theorie der Planetenbewegung und die Newtonsche Mechanik innerhalb der Mikrowelt der Quantenmechanik hingegen schon, die dort jeweils aus Sicht der ART bzw. Quantenmechanik sogar falsch sind). In dem jetzt vorliegenden Fall sind nun entsprechende Erklärungsgrenzen bei all den Phänomenen der Wärmelehre zu suchen, zu deren Beschreibung Konzepte der phänomenologischen Thermodynamik verwendet werden. Bei der Behauptung nämlich, diese Phänomene könnten auch von der statistischen Mechanik allein erklärt werden, handelt es sich zunächst wiederum um eine bloß denkbare Möglichkeit, die von der Praxis der gängigen Physik, die Phänomene sowohl mit Konzepten der Thermodynamik als auch der statistischen Mechanik erklärt, nicht nahegelegt wird. Die statistische Thermodynamik war von Anfang an in diesem Sinne eine Mischtheorie, so dass ähnlich wie im Fall der Quantenmechanik mit einer solchen Behauptung Erklärungen makroskopischer Vorgänge mit einer mikroskopischen Theorie gefordert werden, die insofern unnötig sind, als auf diesem Weg keine neuen Erkenntnisse über die makroskopische Physik zu erwarten stehen. So können etwa Phasenübergänge mit einer Mischtheorie aus Thermodynamik und statistischer Mechanik gut verstanden werden und der Ansatz, sie ausschließlich mit letzterer zu beschreiben, ist allein dem Versuch eines Nachweises der prinzipiellen Möglichkeit einer solchen Erklärung geschuldet.19 Dabei ist es natürlich denkbar, dass sich die 19 Allerdings

gibt es mit der Universalität kritischen Verhaltens im Zusammenhang mit Phasenübergängen ein Phänomen, das wiederum von der Thermodynamik allein

252

Phänomene der Wärmelehre tatsächlich rein mechanisch erklären lassen, und dieser Behauptung soll nun nachgegangen werden. Dazu soll noch einmal an die Diskussion in Abschnitt 2.5 erinnert werden: Es geht hier nicht um eine direkte Reduktion der Thermodynamik, da eine solche allein, wie im letzten Abschnitt gesehen, zunächst nur retentiv ist. Stattdessen soll durch eine indirekte Reduktion über die Erklärung von Phänomenen die Thermodynamik eliminativ reduziert werden. Wenn es darum ginge, in einer direkten Reduktion die Gesetze der Thermodynamik aus solchen der statistischen Mechanik zu gewinnen, dürfen erstere natürlich vorausgesetzt werden, da schließlich bei jedem Erklärungsvorgang das Explanandum bekannt ist. Allerdings geht es hier um eine indirekte Reduktion, also um die Erklärung von Phänomenen und gerade nicht um die Reproduktion thermodynamischer Gesetze. Da letztere indirekt eliminativ reduziert werden sollen, muss darauf bestanden werden, dass sie bei einer solchen Reduktion nicht verwendet werden dürfen: Die im Folgenden zu untersuchenden Phänomenerklärungen, die indirekt die Überflüssigkeit der Thermodynamik zeigen sollen, dürfen kein thermodynamisches Wissen hinzuziehen. Dies betrifft insbesondere Erklärungen, in denen thermodynamische Konzepte mit Begriffen der statistischen Mechanik nachgeahmt werden, Erklärungen, die Callender 2001 untersucht, und die nach ihm ohnehin unproduktiv sind. Dieser Vorgang des Nachahmens steckt allerdings in vielen Erklärungen thermodynamischer Phänomene mit der statistischen Mechanik. So lassen sich etwa innerhalb der statistischen Mechanik formal beliebig viele Mittelwerte bilden, Sklar spricht zum Beispiel von „a wide variety of ,entropies‘“ (vgl. das Zitat in Abschnitt 5.2), und auch für Druck, Volumen und Temperatur sind auf der mechanischen Ebene viele verschiedene Konzepte denkbar. Solche Konzepte bedürfen nun einer physikalischen Deutung mit Hilfe der Thermodynamik, um sinnvoll angewendet werden zu können, denn erst mit Hilfe solcher Deutungen zeigt sich, dass bei weitem nicht alle Mittelwerte produktiv verwendbar sind. Welche thermodynamischen Systeme einer statistischen Beschreibung zugänglich sind und wie diese erfolgen kann, kann die statistische Mechanik allein nicht klären – dazu bedarf es der Erfahrungen der thermodynamischen Beschreibung dieser Systeme: „It is only in already established thermodynamic (and hydrodynamic) description of experimentally tractable systems that we find our guidance about which systems can even get a statistical mechanical description and our guidance as to what that description will be like“ (Sklar 1999, nicht verstanden werden kann und bei dem die Hinzuziehung der statistischen Mechanik essentiell ist. Dies wird unten noch diskutiert, wobei sich zeigen wird, dass die statistische Mechanik allein auch nicht ausreicht und tatsächlich beide Theorien benötigt werden.

253

S.202). Mittelwerte lassen sich zwar innerhalb der statistischen Mechanik bilden, man weiß aber nur mit Hilfe der Thermodynamik, was sie bedeuten und welche Definitionen von Eigenschaften großer Teilchenysteme sinnvoll zur Beschreibung makroskopischer Vorgänge verwendet werden können. Gesetze mit Hilfe der zunächst nur formalen Mittelwerte aufzustellen, die sich als mechanisch-statistische Äquivalente von Druck, Temperatur oder Entropie erwiesen haben, wird von den Gesetzen der statistischen Mechanik allein nicht nahegelegt. Erklärungen thermodynamischer Phänomene ohne Mittel der Thermodynamik aber sind nun durchaus denkbar und überhaupt sollen hier die Erklärungsleistungen der statistischen Mechanik nicht geschmälert werden, wozu Sklar 1999 zitiert sei: „Of course once the new level of statistical mechanical description has been imposed, we gain new insights unattainable at the purely thermodynamic level. In particular, whereas the thermodynamic description relies on the assignment of values of parameters (such as thermal conductivity, viscosity, etc.) obtained by experiment, in the fuller statistical mechanical account these may be derivable by theory from the underlying constitution of the system and the dynamics of the micro-constituents.“ (a.a.O., S.202)

Allerdings soll zu bedenken gegeben werden, dass solche Erklärungen nicht notwendig solche der statistischen Mechanik allein sein müssen, sondern auf einem Wechselspiel von Konzepten sowohl der statistischen Mechanik als auch der Thermodynamik beruhen können. Dies scheint nun sogar in erheblichem Maße der Fall zu sein: Zunächst scheint es sich etwa bei der in Abschnitt 5.1 wiedergegebenen Erklärung der Gasgleichung um eine rein statistisch-mechanische Erklärung zu handeln, wenn man sie nicht als eine Erklärung der Gasgleichung selbst auffasst, sondern als eine für die zeitliche Entwicklung einer (makroskopischen) Gasmenge in Begriffen von Druck, Volumen und mittlerer kinetischer Energie der beteiligten Moleküle. Allerdings wird in der Verwendung des Konzepts der mittleren kinetischen Energie von der phänomenologischen Temperatur Gebrauch gemacht, da diese dessen Verwendung motiviert: Die statistische Mechanik allein kann zunächst nicht entscheiden, inwiefern die mittlere kinetische Energie sinnvoll für eine Erklärung dieses Phänomens zu gebrauchen ist. Allgemeiner heißt es dazu wieder bei Sklar 1999: „But the fact that when the statistical mechanical treatments exists, and how they are to be framed when they do, is guided solely by the existing thermodynamics and experiment, and has no derivation from fundamental theory, makes a claim of reducibility of thermodynamics to statistical mechanics dubious in a fundamental way“ (ebd.). Daher handelt es sich streng genommen selbst bei der statistischen Er-

254

klärung der zeitlichen Entwicklung einer Gasmenge um keine eigenständige Erklärung der statistischen Mechanik, wie sie für eine eliminative Reduktion notwendig wäre. Allerdings lässt sich einwenden, dass die Verwendung des Temperaturkonzepts in diesem Fall nicht innerhalb von D-N-Randbedingungen stattfindet, sondern lediglich eine heuristische Anleihe darstellt, und dass man, etwa durch Versuch und Irrtum, doch mit der statistischen Mechanik allein die zeitliche Entwicklung einer Gasmenge beschreiben kann. So wird in der entsprechenden Erklärung in der Physik zwar das phänomenologische Temperaturkonzept benutzt, aber es könnte im Prinzip möglich sein, ohne dieses auszukommen, so dass es sich im Prinzip doch um eine eliminative Erklärung im Sinne von 2.5 handeln könnte. In dieser Untersuchung geht es explizit um solche im Prinzip möglichen eliminativen Reduktionen, und bei der Gasgleichung ist tatsächlich eine solche Reduktion im Sinne von 2.4 denkbar: Das von ihr beschriebene Phänomen (die zeitliche Entwicklung einer Gasmenge) könnte sich im Prinzip von der statistischen Mechanik allein erklären lassen. Im Folgenden werden aber etliche Phänomene vorgestellt, bei denen dies sicher nicht der Fall ist. So etwa bei einem derart grundlegenden Phänomen, wie dem des thermodynamischen Gleichgewichts (auf das letztlich auch die zeitliche Entwicklung einer Gasmenge hinausläuft), das sich auf makroskopischer Ebene dadurch charakterisieren lässt, dass ein physikalisches System in einem solchen Gleichgewichtszustand unter festgelegten äußeren Bedingungen zeitlich nahezu konstante makroskopische Eigenschaften aufweist. Aus der Perspektive der statistischen Mechanik wird nun ein solcher Zustand üblicherweise dadurch beschrieben, dass die Wahrscheinlichkeitsverteilung der dem makroskopischen Zustand entsprechenden Mikrozustände stationär ist. Allerdings wurde schon in Abschnitt 5.2 darauf hingewiesen, dass innerhalb der dynamischen, zeitlichen Entwicklung eines mechanischen Systems dieses immer zu seinem Ausgangspunkt zurückkehren kann, wobei der Poincarésche Wiederkehrsatz sogar besagt, dass es nur eine Frage der Zeit ist, bis dies auch geschieht. Und jedes System in einem Gleichgewichtszustand befand sich natürlich vor diesem in einem anderen Makrozustand, wird diesen also aus Sicht der mechanischen Beschreibung auch wieder annehmen, so dass es stationäre Wahrscheinlichkeitsverteilungen in der statistischen Mechanik gar nicht geben kann. Pointiert bringt dies Callender 2001 wie folgt auf den Punkt: „Even if left to itself, the microstate underlying the cup of coffee at room temperature next to my computer cannot remain in this macrostate forever, and so cannot be strictly stationary“ (a.a.O., S.546). Man muss aber gar nicht an den Poincaréschen Wiederkehrsatz appellieren, um die Unzulänglichkeit der angegebenen statistischen Definition des Gleichgewichtszustands einzusehen, da diese den Umstand übersieht, dass

255

sich jedes System immer nur aus einem Ungleichgewichtszustand in einen Gleichgewichtszustand entwickelt. Eine Wahrscheinlichkeitsverteilung ist dagegen entweder stationär oder nicht, und es gibt insbesondere keinen Übergang aus einer nichtstationären in eine stationäre, was aber gelten würde, wenn man die dynamische Entwicklung eines physikalischen Systems aus einem Ungleichgewichtszustand in einen Gleichgewichtszustand auf die entsprechende Wahrscheinlichkeitsverteilung überträgt. Dazu heißt es wiederum bei Callender 2001: „Temporarily ignoring non-equilibrium may be okay, but still, the theory should not make claims that contradict to the fact that equilibrium states evolved from non-equilibrium states. But this is precisely what is going on“ (S.547). Angesichts dieser Schwächen muss man nun natürlich nicht auf der angegebenen statistischen Definition des Gleichgewichtszustands beharren, was auch die Stoßrichtung der Argumentation bei Callender ist, der die Entwicklung einer neuen Definition fordert (vgl. S.547) – es handelt sich dabei um eines seiner oben schon angekündigten Beispiele dafür, dass das zu starke Festhalten an thermodynamischen Konzeptionen auf der Ebene der statistischen Mechanik kontraproduktiv sein kann. Wie die Entwicklung einer neuen Definition aber ausgeht, ist noch offen, und zu dem Schluss, dass das Phänomen des Gleichgewichtszustands in der statistischen Mechanik im Moment jedenfalls nur schlecht verstanden ist, kommt schließlich auch Sklar 1999: „But we have virtually no guides from the underlying mechanical or statistical mechanical theory as to when such local equilibrium conditions will exist or what they will be like“ (a.a.O., S.202). Diese Aussage steht nun im Zusammenhang mit der Frage, wie sich physikalische Systeme einem Gleichgewichtszustand annähern – und auch dieses Phänomen ist aus der Perspektive der statistischen Mechanik nur schwer nachzuvollziehen. Der Kern dieses Problems liegt in der Schwierigkeit, eine geeignete Anfangswahrscheinlichkeitsverteilung als Grundlage einer solchen Zeitentwicklung aufzustellen: „It is in the evolution of such an initial probability distribution that the description of the approach to equilibrium resides“ (Sklar 1999, S.201). Und um diese zu finden, bedarf es laut Sklar wiederum des Wissens der phänomenologischen Thermodynamik: „But how can we fix on the appropriate initial probability distribution? For most non-equilibrium conditions of systems we have no idea. There are only a limited class of cases where any plausible proposal can be made about such an initial statistical posit. How are these cases discovered? Basically by a combination of experimental experience with the standard thermodynamic ways of characterizing experience.“ (ebd.)

In Sklar 1993 heißt es zu demselben Punkt: „Frequently, we have little

256

guide as to how to choose this probabilistic posit other than our experience at the macro-level, conceptualized in thermodynamic-hydrodynamic terms“ (S.372). Selbst wenn man nun mit der Boltzmanngleichung eine Gleichung für die dynamische Beschreibung von Nichtgleichgewichtszuständen zur Hand hat, ist diese nicht ohne weiteres zu lösen, was schon in Abschnitt 5.2 erwähnt wurde. Dort wurde auch festgehalten, dass man zur Lösung dieser Gleichung Wissen um die Form der Lösungen verwendet, das von Gleichungen der phänomenologischen Thermodynamik herrührt, worauf nun auch Sklar 1993 hinweist: „Even when we already have the statistical-mechanical kinetic equation at our disposal, we generally cannot hope to find the general solutions of it. Instead, the search for solutions is guided, once again, [...] by the use of what we know, from the macroscopic thermodynamichydrodynamic level, about the structure of the solution we are seeking“ (S.373). Nach dem Stand der Dinge scheint also weder die Annäherung an einen Gleichgewichtszustand, noch dieser selbst mit der statistischen Mechanik allein verstanden zu sein. Als ein weiteres Beispiel für thermodynamische Phänomene, die mit der statistischen Mechanik allein, ohne Zuhilfenahme der Thermodynamik nicht ohne weiteres erklärbar sind, sei nun das der Phasenübergänge diskutiert. Dabei handelt es sich um das vertraute Phänomen, dass Wasser unter normalen Druckverhältnissen bei Null Grad Celsius von seinem eisförmigen (Aggregat-) Zustand in den flüssigen übergeht, also schmilzt, und bei ca. Hundert Grad Celsius von diesem flüssigen Zustand in den gasförmigen, es verdampft – ein ähnliches Verhalten tritt bei fast allen Substanzen auf.20 Dieses Verhalten lässt sich nun innerhalb der phänomenologischen Thermodynamik gut erklären: Man betrachtet sogenannte thermodynamische Potentiale, wie etwa das der freien Energie, von denen sich zeigen lässt, dass sie bei den kritischen Temperaturen der Phasenübergänge unstetig werden und schließlich sogar Singularitäten21 aufweisen. In der Thermodynamik gilt also, dass Phasenübergänge stattfinden, wenn in dem entsprechenden thermodynamischen Potential Singularitäten auftreten. In der statistischen Mechanik wird dieser Ansatz nun übernommen und man versteht auch dort Phasenübergänge als Singularitäten. Die thermodynami20

In gewisser Weise gibt es das Phänomen der Phasenübergänge auch für die Magnetisierung ferromagnetischer Stoffe – die Universalität bestimmter thermodynamischer Vorgänge wird gleich noch diskutiert. Nur erwähnt werden soll hingegen, dass das Konzept des Phasenübergangs sogar bei der Erklärung ökonomischer Sachverhalte verwendet wird: In der sogenannten Econophysics werden Probleme der Ökonomie mit physikalischen Methoden untersucht. 21 Punkte, an denen sich die entsprechende Funktion nicht in einer Taylorreihe entwickeln lässt.

257

schen Potentiale werden hier mit Hilfe der sogenannten Zustandssumme der möglichen Mikrozustände (partition function) wiedergegeben, wobei allerdings eine Singularität der Potentiale nur auftreten kann, wenn diese bereits in der Zustandssumme selbst vorliegt. Das ist aber problematisch, da es bei Zustandssummen endlicher Systeme gar keine Singularitäten gibt: „SM [die statistische Mechanik] represents the abrupt phase-changes of a system as singularities of its partition function. But no partition function of a finite system can have these singularities; only infinite systems can“ (Yi 2003, S.1032). Genauer heißt es dazu in Callender 2001: „The immediate problem is that the partition function is analytic and so can only have singularities when it vanishes [an Nullstellen]“ (a.a.O., S.549). Der übliche Ausweg ist nun an dieser Stelle der schon in Abschnitt 5.2 vorgestellte sogenannte thermodynamische Limes, also ein Grenzübergang N → ∞ für die Anzahl der beteiligten Teilchen: „Mathematical physics avoids this result by taking the thermodynamic limit, for it is possible for systems with infinite N to display singular behavior for non-vanishing partition functions“ (ebd.). Dieser Grenzübergang kann nun allerdings nur zum Zweck eines Theorienvergleichs gerechtfertigt werden, weshalb es höchst fragwürdig ist, ob er auch bei der Erklärung von Phänomenen verwendet werden darf. So heißt es etwa bei Hellman 1999 zu dem sogenannten „[...] ,Boltzmann-Grad limit‘ of infinitely many particles but with zero-density“ (S.205): „Such idealizations can be explanatory of actual phenomena if they at least give a hint of being ultimately droppable; but, discouragingly, that appears here not to be the case“ (ebd.). Kontrafaktische Annahmen ermöglichen zwar Theorienvergleiche, sollten sich aber bei der Erklärung von Phänomenen als wenigstens im Prinzip überflüssige Zusatzannahmen erweisen, was hier klarerweise nicht der Fall ist. Man kann zwar versuchen, diese Annahme als Idealisierung zu rechtfertigen, indem man etwa auf die zweifellos große Teilchenanzahl makroskopischer Systeme (ab etwa 1023 Teilchen, vgl. die Avogadrokonstante NA in Abschnitt 5.1) und die Kontinuumsvorstellung von thermodynamischen Objekten verweist, aber Anzahlen sind immer endlich oder nicht, ein „annähernd unendlich“ gibt es nicht und es gilt daher: „However, even if the thermodynamic limit can be given a full philosophical justification, that justification cannot turn an infinity to a finite quantity. We can grant that it is often fine to substitute finite N with infinite N for the purposes of practical physics. But if the system is really finite N, what we have until we say more is a mathematical proof that it cannot undergo a phase transition“ (Callender 2001, S.550). Mit dem Nachsatz, dieses Problem zeige sogar, dass es – im Gegensatz zur Beobachtung – für endliche Systeme keine Phasenübergänge geben kann, macht Callender auch für diesen Fall geltend, dass ein zu starkes

258

Beharren auf dem Nachahmen thermodynamischer Konzepte bei statistischmechanischen Erklärungen diesen zum Nachteil gereichen kann. Dieser Punkt hat nun zwei Aspekte: Zum Ersten handelt es sich tatsächlich um eine solche Nachahmung, wenn man Phasenübergänge, wie in der Thermodynamik, als Singularitäten von Zustandsfunktionen auffasst und dabei sogar in Kauf nimmt, dass man zum thermodynamischen Limes übergehen muss, um solche für die Zustandssumme überhaupt zu erhalten. Ohne das Konzept solcher Singularitäten wäre die statistische Mechanik nämlich zunächst gar nicht in der Lage, die Existenz von Phasenübergängen zu erklären, und da das Verwenden des thermodynamischen Limes, durch das solche Singularitäten innerhalb der statistischen Mechanik erst auftreten können, durch die Vollendung dieser Nachahmung, die es ermöglicht, gerechtfertigt ist, handelt es sich hier um einen Erklärungsvorgang, der sowohl Konzepte der statistischen Mechanik als auch der Thermodynamik verwendet. Die Anwendbarkeit ersterer wird also durch das Hinzuziehen von Konzepten letzterer im Rahmen einer solchen Mischerklärung verbessert, worauf auch Yi 2003 aufmerksam macht: „Moreover, here, ,taking the thermodynamic limit‘, despite its clear unrealistic posits, actually improves the accuracy of SM [statistische Mechanik] in describing phase transitions. And the addition of this procedure to SM is motivated and justified by TD [Thermodynamik]“ (a.a.O., S.1032). Dies zeigt insbesondere, wie eine fruchtbare Zusammenarbeit zweier Theorien möglich ist, womit in einem weiteren konkreten Beispiel das Zusatzkriterium des in Abschnitt 2.4 allgemein definierten Konzepts der Theoriennachbarschaft erfüllt ist. Der zweite Aspekt von Callenders Punkt besagt nun, dass es auch denkbar ist, eine andere Erklärung von Phasenübergängen mit der statistischen Mechanik allein zu erhalten – und aus der Perspektive dieser Möglichkeit erscheint die eben angegebene Mischerklärung mit ihrer eigenwilligen „N → ∞“-Annahme tatsächlich als unbefriedigend. Genauer heißt es dazu: „After all, the fact that thermodynamics treats phase transitions as singularities does not imply that statistical mechanics must too“ (Callender 2001, S.550). Man könnte etwa versuchen, andere Kriterien für Phasenübergänge aufzustellen und diese in exakten Lösungen von Gleichungen für Systeme aus endlich vielen Teilchen wiederzufinden. Und aus der Sicht Callenders liegt der Grund dafür, dass man stattdessen Erklärungen auf Grundlage des thermodynamischen Limes heranzieht, lediglich in der Schwierigkeit, solche Gleichungen zu lösen: „The equations for actual systems are too difficult to solve. Indeed, this is the very reason why statistical mechanics uses singularities in the partition function as a way of studying phase transitions: singularities can be found using all sorts of general topological and geometric techniques that do not require exact

259

solutions. Fortunately nature is kind to us and allows us to make do with singularities in infinite systems rather than exact solutions to finite systems.“ (a.a.O., S.551)

Dass dieses Vorgehen möglich ist, ist dabei weniger dem Umstand geschuldet, dass „nature is kind to us“, sondern liegt vielmehr gut begründet in der Nachbarschaft der beiden beteiligten Theorien. Gleichwohl bleibt die Möglichkeit bestehen, dass sich auf dem angedeuteten Wege Phasenübergänge mit der statistischen Mechanik allein erklären lassen: „[...] physics is hardly impotent in the face of phase transitions in finite N systems“ (ebd.), wobei allerdings auch Callender nur auf zukünftige Erfolge im Bereich von „computer modelling of phase transitions“ (ebd.) verweisen kann – solche Erklärungen mit numerischen Verfahren stehen noch aus. Nun sind sie zwar durchaus denkbar, indem man etwa von einer HamiltonJacobi-Gleichung für alle an einem Phasenübergang beteiligten Teilchen ausgeht, das Erwägen ihrer Möglichkeit gibt aber angesichts der Teilchenzahl von der Größenordnung von 1023 Teilchen und vor allem der Unklarheit darüber, wie genau sich Phasenübergänge in einer solchen Rechnung ergeben sollen, anhand welcher Kriterien man also ein solches Ergebnis in Begriffen numerischer Werte physikalisch als einen Phasenübergang deuten können wird,22 zunächst die bloße „[...] conviction that phase transitions can be described by mechanics“ (ebd.) wieder. Das bedeutet für die vorliegende Untersuchung, dass sich Phasenübergänge zur Zeit nur mit Hilfe der Thermodynamik beschreiben lassen und erst noch zu zeigen ist, wie es genau möglich sein soll, sie auch mit der statistischen Mechanik allein zu erklären. Ein Nachweis dafür, dass dies möglich ist, wird nun weiterhin durch das Auftreten eines Phänomens erschwert, das im Zusammenhang mit Phasenübergängen steht und kritisches Verhalten genannt wird. Dieses tritt insbesondere auf gleiche Weise bei vielen verschiedenen makroskopischen Systemen unabhängig von deren konkreter mikroskopischer Beschaffenheit auf, was man als die Universalität des kritischen Verhaltens bezeichnet. Dieses Phänomen soll jetzt genauer betrachtet werden. Bei der Beschreibung von Flüssigkeiten spielen sogenannte kritische Punkte eine Rolle, die durch bestimmte Temperatur- und Druckverhältnisse ausgezeichnet sind, und bei deren Vorliegen sich die entsprechende Substanz etwa gleichzeitig nebeneinander in allen drei Aggregatzuständen befinden kann oder, bei einer anderen Konstellation, vom gasförmigen in den flüssigen Zustand übergeht, ohne dabei einen Zustand anzunehmen, in dem sie sowohl Gas als auch Flüssigkeit sein kann. Bei solchen Vorgängen handelt es sich um das besagte kritische Verhalten, das sich innerhalb der Thermodynamik 22 Hier

zeigt sich wieder das Deutungsproblem bei numerischen Verfahren, auf das in den beiden vorhergehenden Beispielen ausführlicher eingegangen wurde.

260

mit Hilfe der sogenannten kritischen Exponenten gut beschreiben lässt: „Behavior around the critical point constitutes CP [critical phenomena] and is thermodynamically accounted for by a set of power laws“ (Liu 2001, S.328), wobei in letzteren die besagten kritischen Exponenten auftauchen. Dazu kommt nun aber ein Phänomen, das die Thermodynamik allein nicht erklären kann, und zwar die erwähnte Universalität dieses kritischen Verhaltens. Dieses tritt nämlich unabhängig von der konkreten chemischen Zusammensetzung der betreffenden Substanz auf und lässt sich sogar bei ganz anderen Materialien, wie etwa ferromagnetischen Stoffen, beobachten: „The critical exponent describes the behavior of the density of the fluid as a function of temperature near the critical point. It describes a universal property in that the same behavior is observed almost without regard for the chemical constitution of the fluid. More remarkable, still, is the fact that the same critical exponent apparently describes the behavior of magnets as they undergo a transition from the ferromagnetic state with positive net magnetization below the critical point to the paramagnetic phase with zero magnetization above the critical point.“ (Batterman 2002, S.38)

Und während thermodynamisch das kritische Verhalten selbst gut verstanden ist, lässt sich dessen Universalität mit der Thermodynamik allein nicht erklären: „[...] the fact that whole classes of radically different systems and phenomena share the same critical exponents is known as the universality of the critical exponents, a feature which has no explanation in TD [Thermodynamik]“ (Liu 2001, S.329). Während es angesichts der Machtlosigkeit der Thermodynamik dieser Universalität gegenüber zunächst so aussieht, als gäbe es hier eine Gelegenheit für die statistische Mechanik, durch eine Erklärung dieses Phänomens ihre Überlegenheit zu zeigen, scheint es eine solche auch mit der statistischen Mechanik allein nicht zu geben. Es handelt sich im Gegenteil um einen Fall, bei dem ein Phänomen erst durch das Wechselspiel beider Theorien angemessen erklärt werden kann, wie sich jetzt zeigen wird. Zunächst ist eine rein mechanische Erklärung universeller Eigenschaften nur schwer vorstellbar, da diesen gerade völlig verschiedene Mikrokonstitutionen zugrunde liegen, weshalb deren gleichartiges Verhalten auf makroskopischer Ebene aus der mikroskopischen Perspektive der statistischen Mechanik ohne weiteres nicht verständlich ist. Das macht weiterhin die eben noch erwogene rein mechanische Erklärung von Phasenübergängen unplausibel, da kritisches Verhalten gerade bei diesen auftritt. Für die Verfechter rein mechanischer Erklärungen von Phasenübergängen gilt daher: „[...] on the one hand they wish to say that these force interactions [der mechanischen Beschreibung] are responsible for the very existence of phase and phase

261

transition; and on the other hand, they have got to admit that the details of these interactions cannot play any role in determining the critical exponents, since the critical features stay the same across different substances within the universality class, whilst the forces [...] change radically from one member of the class to the next.“ (Thalos 2006, S.159)

So erscheint es abwegig, dass man durch das Aufstellen und numerische Lösen einer Hamiltongleichung für etwa 1023 Teilchen die kritischen Exponenten der thermodynamischen Beschreibung gewinnen kann, da diese gleichzeitig für ganz verschiedene Konstellationen solcher Teilchen gelten. Denkbar sind solche Rechnungen natürlich dennoch, wobei man dann für verschiedene Konstellationen die gleichen Exponenten erhielte, ohne eine Erklärung dafür zu bekommen. Während schon generelle Einwände gegen die Möglichkeit solcher Berechnungen sprechen (es ist insbesondere unklar, anhand welcher Kriterien man numerische Ergebnisse physikalisch als einen Phasenübergang deuten kann, siehe oben), wird nun selbst bei deren Gelingen nicht erklärt, wie die Universalität des kritischen Verhaltens zustande kommt – dies würde sich im Gegenteil aus den Rechnungen geradezu zufällig ergeben, wozu es bei Liu 2001 heißt: „Suppose it is logically possible to calculate any partition function if the Hamiltonian is given and there is a computer powerful enough to do the calculation in finite time.23 Then we can precisely calculate the partition functions of systems near their critical points to obtain the exponents; and it turns out that all of them are numerically equal. Do we have an explanation of universality by this result alone? I think not. We know that universality is not a shear coincidence, but we have no idea what is physically responsible for such ,miracles‘.“ (a.a.O., S.338)

Selbst wenn es also derartige numerische Simulationen gäbe, gegen deren Möglichkeit Gründe angegeben wurden, wären sie nicht in der Lage, universelles Verhalten zu erklären. Jenseits der, wie damit gezeigt, unhaltbaren Behauptung, man könne kritisches Verhalten mechanisch mit numerischen Verfahren erklären, gibt es natürlich weitere Versuche für eine solche Erklärung innerhalb der statistischen Mechanik, bei denen das Konzept der sogenannten renormalization group eine Schlüsselrolle spielt. Auf deren Einzelheiten soll aber nicht eingegangen werden,24 da es hier genügt festzuhalten, dass weitgehende Einigkeit darüber besteht, dass man mit dieser Methode zwar innerhalb der statistischen Mechanik Abschätzungen für die kritischen Exponenten bekommt – „What it does tell us is, at a critical point, which features are 23 Die

Durchführbarkeit einer solchen Rechnung muss als logische Möglichkeit erst vorausgesetzt werden, da sie sich aus besagten Gründen nicht von selbst versteht. 24 Vgl. etwa Batterman 2002 für einen Überblick.

262

relevant or irrelevant to the estimation of the critical exponents“ (Liu 2001, S.337) –, aber keine Erklärung für die Universalität des kritischen Verhaltens: „If one is looking for a causal explanation for the critical phenomena, i.e., why we have the same asymptotic behavior [...] near criticalities, the renormalization group does not deliver it. It does not tell us which compositional or structural features are relevant or irrelevant for the asymptotic behavior“ (ebd.) Damit bleibt die Universalität kritischen Verhaltens sowohl aus Sicht der Thermodynamik als auch aus der der statistischen Mechanik ein unerklärtes Phänomen. Nun wurde aber schon angekündigt, dass sich hier eine Zusammenarbeit dieser beiden Theorien bewährt hat. Diese Art der Erklärung geht auf den Physiker Michael Berry zurück und wird in Batterman 2002 als sogenanntes asymptotic reasoning ausbuchstabiert. Genauer zeichnet sich diese Methode dadurch aus, dass bei der Erklärung von Phänomenen an kritischen Punkten, die im Zusammenhang von Phasenübergängen auftauchen und sich ebenso wie diese durch das Auftreten von Singularitäten in der thermodynamischen Beschreibung auszeichnen, der mathematische Übergangsbereich dieser Singularitäten, das sogenannte asymptotic bzw. limiting regime, in den Blick genommen wird, wobei in diesem Übergangsbereich die Beschreibungen beider Theorien eine Rolle spielen. Auf diese Weise endlich lässt sich die Universalität kritischen Verhaltens erklären: „In order to ,see‘ the stable, universal phenomenological structures, one must investigate the appropriate limiting regime. It is, therefore, an essential feature of the method that it describes the relationship between two asymptotically related descriptions of the system“ (Batterman 2002, S.43), wobei mit den letztgenannten Beschreibungen Thermodynamik und statistische Mechanik gemeint sind: „[...] we cannot understand the universality of critical phenomena in fluids [...] without asymptotically sewing statistical aspects of the behavior of the fluids’ components onto singular thermodynamic structures (critical points). These thermodynamic structures are necessary for a complete understanding of the emergent critical phenomena of interest“ (a.a.O., S.127). Auf die Details dieser Erklärung soll hier allerdings wiederum nicht eingegangen werden,25 da rein thermodynamische bzw. mechanische Erklärungen für das Phänomen der Universalität kritischen Verhaltens jedenfalls, wie gesehen, nicht in Sicht sind und Battermans Mischansatz dagegen eine Erklärung verspricht. 25

So deutet Batterman sein Resultat als das Auftreten emergenter Eigenschaften, während sich die vorliegende Arbeit solcher Deutungen enthalten will und sich damit begnügt, gezeigt zu haben, dass es thermodynamische Phänomene gibt, die die statistische Mechanik allein nicht erklären kann. Battermans Argumente, die er auch an ganz anderen Beispielen durchführt (vgl. Abschnitt 1.3), und deren Diskussion in der Literatur, werden im abschließenden Kapitel noch einmal kurz angesprochen.

263

Damit wurde aber ein weiteres Phänomen gefunden, dass sich nicht mit der statistischen Mechanik allein erklären lässt, wobei hier als Besonderheit hinzutritt, dass zu dessen Erklärung Konzepte der statistischen Mechanik auf jeden Fall benötigt werden, da es auch von der Thermodynamik allein nicht verstanden wird. Als Zwischenergebnis sei nun festgehalten, dass es sich bei Wärmelehre und Mechanik um zwei verschiedene Theorien handelt, was in Abschnitt 5.2 gezeigt wurde, und dass die Mechanik die Wärmelehre nicht ersetzen kann, was sich im vorliegenden Abschnitt an den Phänomenen der Gleichgewichtszustände und der Annäherung an diese, der Phasenübergänge und zuletzt der Universalität kritischen Verhaltens gezeigt hat. Dies genügt schon, um sagen zu können, dass eine eliminative Reduktion im Sinne von 2.4 hier nicht vorliegt. Die Zuhilfenahme thermodynamischer Konzepte bei der Erklärung dieser Phänomene übersteigt dabei auch deutlich den Status der bloß heuristischen Anleihe, um die es sich bei der indirekten Erklärung der Gasgleichung handelt: Während letztere im Prinzip durchaus indirekt eliminativ auf die statistischen Mechanik reduziert werden könnte, gilt dies für die hier genannten Phänomene nicht ohne weiteres. Dass es sich dabei, insbesondere bei den Gleichgewichtszuständen, um vergleichsweise zentrale Phänomene handelt, spiegelt nun die enge Verzahnung der beiden Theorien wider – und es sei insbesondere daran erinnert, dass natürlich die Thermodynamik erheblich von der statistischen Mechanik profitiert, und zwar nicht nur bei der Erklärung der Universalität kritischen Verhaltens. Allerdings zeigt die vorliegende Untersuchung, dass es sich bei der statistischen Thermodynamik eben um eine Mischtheorie handelt, da die Konzepte der phänomenologischen Theorie nicht durch die der statistischen Mechanik überflüssig geworden sind. Ein weiteres in dieser Hinsicht relevantes Phänomen überschattet nun alle bis hier diskutierten bei weitem: das Problem der makroskopischen Irreversibilität. Dieses bildet seit den ersten Entwicklungen der statistischen Mechanik im 19. Jahrhundert bis heute eine große Herausforderung, wurde und wird entsprechend viel diskutiert und erhält deshalb, obwohl es sich in die Klasse der Phänomene, die die Erklärungsgrenzen der statistischen Mechanik aufzeigen, einreiht, hier einen eigenen Abschnitt. 5.4 Das Problem der makroskopischen Irreversibilität

Es ist eine einfache Erfahrungstatsache, dass es irreversible makroskopische Vorgänge gibt. Eis schmilzt, Tee kühlt ab und Gase breiten sich aus – alles Vorgänge, die sich von selbst offenbar nicht umkehren und deren

264

Irreversibilität von der Thermodynamik mit dem zweiten Hauptsatz, nach dem die Entropie immer zunimmt, beschrieben wird. Wenn man aber den Reduktionsansatz der statistischen Mechanik zugrunde legt, erscheint dieses makroskopische Verhalten höchst fragwürdig. Alle diese makroskopischen Systeme bestehen schließlich aus mikroskopischen Bestandteilen, die mechanisch beschrieben werden können, und alle mechanischen Vorgänge sind prinzipiell umkehrbar, was sich in den reversiblen Gesetzen der Newtonschen Mechanik spiegelt. Die Herausforderung, die dieser Reduktionsansatz damit annehmen muss, ist zu erklären, warum es angesichts der reversiblen Gesetze in der mikroskopischen Beschreibungsebene makroskopische Irreversibilität geben kann – es ist diese Herausforderung, die mit dem Problem der makroskopischen Irreversibilität gemeint ist. Dabei ist es bemerkenswert, dass dieses Problem erst in der zweiten Hälfte des 19. Jahrhunderts wahrgenommen wurde. Es ergibt sich schließlich nur durch den Reduktionsansatz der statistischen Mechanik und die Thermodynamik galt bis dahin als eigenständige Theorie, die es nicht nötig hat, von einer anderen, grundlegenderen erklärt zu werden. Bei Price 1996 heißt es dazu: „The new theory of thermodynamics enjoyed a brief period of calm around midcentury [gemeint ist das 19. Jahrhundert], during which its conflict with Newtonian mechanics was not yet manifest. At this time it was still a defensible view that thermodynamics described an autonomous range of phenomena, not in need of reduction to mechanics“ (a.a.O., S.24). Aber dieser Reduktionsansatz wurde schließlich an die Thermodynamik herangetragen, es entwickelte sich die schon zitierte statistische Thermodynamik, und seitdem ist das Problem der makroskopischen Irreversibilität virulent, von dem Scheibe 1999 sagt: „Über das Zusammentreffen von zeitlicher Reversibilität und Irreversibilität bei den Versuchen der Reduktion gewisser makroskopischer auf mikroskopische Theorien ist viel herumgerätselt worden. Es widerspricht unserer Intuition, irreversibles Verhalten allein aus reversiblem Verhalten zu ,deduzieren‘“ (S.148). Ob nun die statistische Mechanik, um die es hier geht, diesem Problem gewachsen ist, wird in diesem Abschnitt untersucht. Dazu sei zunächst noch einmal hervorgehoben, dass die Gesetze der Mechanik, zunächst ohne statistische Konzepte, reversibel sind. Wenn man etwa einen Behälter betrachtet, der in der Mitte durch eine Trennwand geteilt ist, und in dessen einer Hälfte sich ein Gas befindet, dann wird sich dieses nach Entfernen der Trennwand gleichmäßig in dem Behälter ausbreiten. Dabei handelt es sich um eine Beobachtungstatsache und noch niemand hat gesehen, dass sich etwa das Gas wieder in seine ursprüngliche Hälfte zurückzieht. Wenn man aber besagten Reduktionsansatz zugrunde legt und die Moleküle dieses Gases mit den Gesetzen der Newtonschen Mechanik

265

beschreibt, lässt sich dieses Verhalten nicht erklären. Um diese Behauptung einzusehen, sei zuerst an das Gedankenexperiment des Maxwellschen Dämons erinnert: Innerhalb der mikroskopischen Beschreibungsebene ist ein Wesen denkbar, das die Moleküle des Gases sehen und durch Öffnen und Schließen der Trennwand sämtlich in die ursprüngliche Gefäßhälfte zurückbringen kann.26 Allerdings bedarf es gar nicht der Annahme eines solchen Wesens, um die Reversibilität der Newtonschen Mechanik deutlich zu machen. Wenn man sich nämlich den Vorgang der Ausbreitung des Gases einfach in seiner Rückrichtung vorstellt, bei der also die Bewegung aller Moleküle gerade umgedreht wird, muss man zugeben, dass auch dieser Prozess allen Gesetzen der Newtonschen Physik genügt:27 Zu allen Lösungen der klassischen Hamilton-Jacobi-Gleichung existiert eine genau zeitinverse Lösung, die damit einen aus Sicht dieser Gleichung ebenfalls möglichen Vorgang beschreibt. Während die zeitinverse Lösung, die den Rückzug des Gases in seine ursprüngliche Hälfte beschreibt, dem zweiten Hauptsatz der Thermodynamik widerspricht, gibt es innerhalb der Mechanik keinen Grund, sie auszuschließen, weshalb man schließlich die Irreversibilität der Ausbreitung des Gases mit diesem mechanischen Ansatz nicht erklären kann.28 Dazu kommt nun noch, dass die besagte Rückrichtung der Gasausbreitung von der Mechanik nicht nur nicht ausgeschlossen werden kann, sondern sogar vorhergesagt wird: Es ist die Aussage des Poincaréschen Wiederkehrsatzes, dass nach genügend langer Zeit jedes (mechanische) physikalische System beliebig nahe zu seinem Ausgangszustand zurückkehrt.29 Dass 26 Maxwell

wollte mit diesem Gedankenexperiment zeigen, dass der zweite Hauptsatz der Thermodynamik nicht ausnahmslos gültig ist: Mit diesem Vorgang, der sich auch zufällig ohne Dämon ereignen kann, würde die Entropie des Systems abnehmen (vgl. Price 1996, S.28). Außerdem ließe sich mit diesem Vorgang ein perpetuum mobile zweiter Art betreiben, also eine Wärmekraftmaschine, die Arbeit nur durch Abkühlung eines Körpers verrichtet und deren Möglichkeit vom zweiten Hauptsatz ausgeschlossen wird. Innerhalb der makroskopischen Theorie mit der Clausiusdefinition der Entropie ist ein solches Wesen nicht denkbar. 27 Auch dieses Argument stammt aus der zweiten Hälfte des 19. Jahrhunderts und errang unter dem Namen Reversibilitätsparadox die Aufmerksamkeit Boltzmanns (vgl. Price 1996, S.28). 28 Dies wirft übrigens ein interessantes Licht auf die oben im Zusammenhang mit dem Phänomen der Phasenübergänge erwogene Erklärung durch Ansetzen und numerisches Lösen einer Hamilton-Jacobi-Gleichung für alle an einem Phasenübergang beteiligten Teilchen. Wenn man nämlich eine solche rein mechanische Lösung findet, hätte man mit deren Zeitinverser auch eine Lösung dieser Gleichung gefunden, die beschreibt, wie sich etwa ein Eiswürfel aus einer Pfütze Wasser bildet, und die sich von dem mechanischen Ansatz allein nicht ausschließen lässt. 29 Es geht hier allerdings um Zeitspannen, die das Alter des Universums um mehrere

266

dieses Ergebnis natürlich unvereinbar mit dem zweiten Hauptsatz der Thermodynamik ist, stellte schon 1896 Ernst Zermelo heraus (vgl. Price 1996, S.33). Das Phänomen der makroskopischen Irreversibilität lässt sich also nicht nur nicht mit der Newtonschen Mechanik erklären, sondern widerspricht dieser sogar. Allerdings ist es nun denkbar, dass sich dieses Problem mit der statistischen Mechanik lösen lässt – und nicht zuletzt ist diese auch der Reduktionspartner der Thermodynamik, um den es in diesem Kapitel geht.30 Bevor sich aber gleich zeigen wird, dass der statistische Ansatz im Gegenteil das Problem sogar noch verschärft, statt es aufzulösen, sei kurz wiedergegeben, inwiefern in Physiklehrbüchern nun durchaus Wahrscheinlichkeitsargumente für das Auftreten irreversibler Vorgänge angeboten werden. So heißt es etwa in Gerthsen 1995, dass ein Zustand von selbst nur in einen gleichwahrscheinlichen oder wahrscheinlicheren übergeht, was mit der in Abschnitt 5.2 angeführten Wahrscheinlichkeitsdefinition der Entropie dem zweiten Hauptsatz der Thermodynamik entspricht. Dabei müssen natürlich Schwankungserscheinungen eingeräumt werden, da die Entropie im mechanischen Bild durchaus abnehmen kann: Das Wahrscheinlichkeitsargument schließt nicht aus, dass ein Zustand faktisch nicht doch, wenn auch nur kurzzeitig, in einen unwahrscheinlicheren übergeht. Daher wird der zweite Hauptsatz in seiner statistischen Fassung wie folgt formuliert: „Ein System geht nie von selbst in einen bedeutend unwahrscheinlicheren Zustand über, d.h. seine Entropie nimmt nie um mehr als einige k ab“ (a.a.O., S.248), wobei k die Boltzmannkonstante bezeichnet. Diese Vorstellung wird von einem Zahlenbeispiel untermauert: Für ein Gas aus N Molekülen, das sich in einem Gefäß befindet, ist die Wahrscheinlichkeit dafür, dass die Moleküle gleichmäßig über beide Gefäßhälften verteilt sind, nahezu eins, während die Wahrscheinlichkeit, alle Moleküle in der linken Gefäßhälfte zu finden, 2−N beträgt, da dies nur einer unter 2N diesbezüglich möglichen Mikrozuständen ist.31 Dies ergibt natürlich zum Beispiel für die 3 · 1022 Moleküle in einem Liter Luft eine irrwitzig kleine Wahrscheinlichkeit, womit der zweite Hauptsatz in der zitierten Fassung gerechtfertigt scheint (vgl. a.a.O., S.243-248). Dieses Wahrscheinlichkeitsargument zählt also die einem Makrozustand zugrundeliegenden möglichen Mikrozustände, wobei die Entropie in diesem Zehnerpotenzen übersteigen – was aber den Gehalt der Aussage, insbesondere in ihrem Widerspruch zum zweiten Hauptsatz, nicht schmälert. 30 Wie in 5.2 gesehen, lassen sich nach Scheibe die Lösungsmengen von Gleichungen der Thermodynamik nicht ohne den Wahrscheinlichkeitsbegriff der statistischen Mechanik approximieren – und dieser lässt sich aus der Mechanik allein nicht gewinnen. 31 Wenn man von der Unterscheidung ausgeht, dass sich ein Molekül entweder in der linken oder rechten Hälfte befindet, gibt es für jedes Molekül zwei Möglichkeiten, insgesamt also 2N .

267

Sinne die Wahrscheinlichkeit eines Makrozustands beschreibt, und geht davon aus, dass sich etwa ein Gas eher in einem Makrozustand befindet, dem viele Mikrozustände entsprechen, als in einem, dem nur wenige zugrunde liegen. Nun hat diese statistische Erklärung der Irreversibilität, wie man sie in Lehrbüchern findet, einen großen Haken: Sie besagt, dass es wahrscheinlich ist, ein Gas in einem wahrscheinlichen Makrozustand zu finden, kann aber keine Aussage über die Zeitrichtung der Entwicklung eines Gases machen. Wenn es daher wahrscheinlich ist, dass ein Gas von seinem momentanen Zustand in einen wahrscheinlicheren übergeht, ist es genauso wahrscheinlich, dass sich das Gas vor seinem momentanen in einem wahrscheinlicheren Zustand befunden hat. Da wir uns aber offenbar momentan in einem Zustand niedriger Entropie befinden, in dem es irreversible Vorgänge mit zunehmender Entropie gibt, wird diese Zunahme von dem statistischen Argument nicht erklärt, sondern erst recht zu einem Rätsel gemacht, da laut eben diesem Argument unser Zustand niedriger Entropie ein unwahrscheinlicher Zustand ist. Aufgrund der statistischen Argumentation ist eine Entropiezunahme sowohl in Richtung Zukunft als auch Vergangenheit zu erwarten – es gilt immer, dass sich ein Gas eher in einem wahrscheinlichen Zustand befindet –, womit es unplausibel erscheint, dass wir uns ausgerechnet jetzt in einem Zustand niedriger Entropie befinden – von der Vorstellung, dass sich dieser Zustand aus einem noch geringerer Entropie entwickelt hat, ganz zu schweigen: „[...] to the extent to which we are entitled to assume that all microstates are equally probable – the foundational assumption of the probabilistic approach – it follows that the current low-entropy state of the world is itself highly improbable (and the lower entropy state we believe it to have had in the past even more so)“ (Price 1996, S.33). Damit erscheint das Auftreten makroskopischer Irreversibilität, das von der Newtonschen Mechanik nicht erklärt wird, aus Sicht der statistischen Mechanik sogar als gänzlich unplausibel, da letztere besagt, dass unser Weltzustand niedriger Entropie extrem unwahrscheinlich ist, und das um so mehr, als er sich offenbar aus einem mit noch niedrigerer Entropie entwickelt hat. Was sich jenseits der statistischen Mechanik angesichts dieses Befundes zu der offenbaren Irreversibilität makroskopischer Vorgänge und zu der allgemeinen Entropiezunahme sagen lässt, wird gleich noch besprochen – schon Boltzmann war sich schließlich über dieses Problem des statistischen Ansatzes im Klaren und suchte nach Auswegen. Zuvor soll hier aber einmal klar ausgesprochen werden, dass die statistische Mechanik das Phänomen der makroskopischen Irreversibilität nicht erklären kann – und es im Gegenteil sogar abwegig erscheinen lässt. Wenn man die Entropiezunahme mit anderen Mitteln erklärt – und darauf ist man angewiesen –, schränkt man gleichzeitig sogar die Anwendbarkeit der statistischen Mechanik ein, da wir

268

uns nach dieser in einem unwahrscheinlichen Zustand befinden, der in einer solchen Erklärung gerade gerechtfertigt werden müsste. Zu diesem allgemeinen Befund gehört nun insbesondere, dass für die Grundgleichung der statistischen Mechanik, die Liouvillegleichung, gilt, was oben schon für die Hamilton-Jacobi-Gleichung konstatiert wurde: Zu jeder Lösung existiert eine zeitinverse Lösung – „Aber trotz deren Begründung auf Wahrscheinlichkeiten ist die Liouville Gleichung genau so reversibel wie die Hamiltongleichungen“, heißt es dazu bei Scheibe 1999 (S.160). Darin spiegelt sich der eben herausgearbeitete Tatbestand wider, dass die statistischen Argumente keine Zeitrichtung auszeichnen. Wenn Scheibe die irreversible Boltzmanngleichung der kinetischen Gastheorie innerhalb seines Reduktionskonzepts dennoch auf die Liouvillegleichung reduziert, kann es sich folglich nicht um eine logische Ableitung handeln, und man fragt sich darüber hinaus, wie er bei seiner Reduktion mit dem Problem der Irreversibilität umgeht: „Die erreichte Reduktion der Boltzmann Gleichung ist mithin eine Reduktion einer irreversiblen auf eine reversible Gleichung. Die Frage ist also nach wie vor: Wie ist so etwas möglich?“ (ebd.). Zur Beantwortung dieser Frage muss Scheibe nun „[...] auf gewisse Forderungen an die Anfangsdaten als Grund für das Auftreten der Irreversibilität [...]“ (ebd.) verweisen, denn zunächst gilt für die in Abschnitt 5.2 besprochene Approximation von Lösungen der Boltzmanngleichung durch solche der Liouvillegleichung: „Wenn man von einer Lösung f der Boltzmann Gleichung ausgeht, diese durch eine Folge von Lösungen µn der Liouville Gleichung [...] approximiert und zu den zeitinversen Lösungen µn− übergeht, so approximieren diese sogar noch die Zeitinverse f − von f im selben Sinne“ (ebd.). Um aber dann ausgehend von der Möglichkeit dieser Approximation darauf schließen zu können, dass die lediglich formal gebildete Funktion f −, die zeitinvers zu einer tatsächlichen Lösung f der Boltzmanngleichung ist, im Falle eines irreversiblen Prozesses zwar auch approximiert werden kann, die Boltzmanngleichung aber nicht erfüllt, muss auf das Nichterfülltsein einer zusätzlich herangetragenen Nebenbedingung verwiesen werden, die Scheibe ganz allgemein hält und die besagt, „[...] dass durch gewisse Anfangsbedingungen eingeschränkte Folgen von Lösungen von Gmi [der Gleichungen der Gesetze in der mikroskopischen Beschreibung] allemal gegen eine Lösung von Gma [der Gleichungen der Gesetze in der makroskopischen Beschreibung] konvergieren“ (S.138), womit Scheibes Forderungen an die Anfangsdaten offenbar darin bestehen, dass die zeitinversen Lösungen ausgeschlossen sind – und womit sein Reduktionskonzept einfach darin besteht, trotzdem von einer Reduktion zu sprechen. Das ist aber ein begrüßenswertes Vorgehen, da auf diesem Wege trotz der Unmöglichkeit, die makroskopische Irreversibilität mit der statistischen

269

Mechanik zu erklären, deren Nachbarschaft zu der Thermodynamik gezeigt werden kann. Die Nachbarschaft bleibt damit in einem Rahmen, dessen Grenze die Irreversibilität bildet, da diese in der Thermodynamik im zweiten Hauptsatz beschrieben wird und darin keinen Vergleichspartner in der statistischen Mechanik findet – außer, man nimmt ihn als thermodynamische Zusatzannahme hinzu, wie es Sklar 1993 beschreibt: „[...] the most crucial features of the thermodynamic aspects of the world, the features like approach to equilibrium and time-asymmetry [also Irreversibilität] that appear as a surprise from the purely mechanical viewpoint of the world, appear at the reducing level only because a basic posit, essentially thermodynamic in nature, is introduced at the reducing level in order to carry out the reduction.“ (a.a.O., S.368)

Dabei handelt es sich, ganz wie bei Scheibes Forderungen an die Anfangsdaten, um eine zusätzliche Annahme, um ein „[...] independent posit of the theory, not derivable from mechanical considerations alone“ (ebd.), die insofern aus der Thermodynamik stammt, als in dieser mit dem zweiten Hauptsatz eine Zeitrichtung ausgezeichnet ist.32 Allerdings wird durch diese Zusatzannahme ein Vergleich der Theorien ohne Beachtung des Irreversibilitätsproblems ermöglicht, durch den sich trotz dieses Problems ihre Nachbarschaft zeigt33 – und solche Betrachtungen sind notwendig, um das übliche Vorgehen der gemeinsamen Erklärung von Phänomenen innerhalb der statistischen Thermodynamik zu rechtfertigen, ein Vorgehen, dessen Legitimität ohne eine solche Rechtfertigung angesichts des Irreversibilitätsproblems in Frage gestellt werden müsste. Insgesamt wurde nun mit der makroskopischen Irreversibilität ein Phänomen diskutiert, das von der statistischen Mechanik nicht erklärt werden kann, wobei es insbesondere nicht nur nicht vorhergesagt wird, sondern dessen Existenz aus Sicht der statistischen Mechanik sogar unplausibel erscheint. Damit handelt es sich um ein Phänomen, das von der Thermodynamik im Rahmen des zweiten Hauptsatzes beschrieben wird und von der stati32 Boltzmann

selbst hat bei seiner Ableitung der Boltzmanngleichung auf ganz ähnliche Weise die Zeitrichtung als Zusatzannahme eingeführt, im Rahmen des sogenannten Stoßzahlansatzes nämlich, der sich hinter dem in 5.1 vorgestellten Boltzmannschen Stoßterm δKoll f verbirgt (vgl. Price 1996, S.26f.). Später hat er allerdings eingesehen, dass es sich dabei um eine, wenn auch versteckte, Zusatzannahme handelt – und hier sollen jetzt auch seine Versuche besprochen werden, die Zunahme der Entropie jenseits der statistischen Mechanik zu erklären. 33 Auch bei Sklar heißt es, dass diese Zusatzannahme eingeführt wird „in order to carry out the reduction“, wobei sich das Reduktionsvorhaben – wie in 5.2 gezeigt – im Aufweisen einer Nachbarschaftsrelation erschöpft.

270

stischen Mechanik nicht beschrieben werden kann, womit über die Beispiele des Abschnitts 5.3 hinaus gezeigt wurde, dass eine eliminative Reduktion im Sinne von 2.4 der Thermodynamik auf die statistische Mechanik nicht vorliegt. Nun soll aber das Problem der Irreversibilität hier nicht im Raum stehen gelassen werden: Bevor im Kapitel weiter vorangeschritten wird, seien also noch einige Worte darüber verloren, wie man es jenseits der statistischen Mechanik zu verstehen versucht. Dazu seien zunächst die diesbezüglichen Erklärungsversuche Boltzmanns kurz angedeutet. Er legte nach wie vor den statistischen Ansatz zugrunde und versuchte, über diesen hinaus zu plausibilisieren, dass wir uns gegen alle Wahrscheinlichkeit tatsächlich in einem Weltzustand niedriger Entropie befinden. Demnach befindet sich das Universum im Ganzen gemäß den Aussagen der statistischen Mechanik durchaus in einem Zustand hoher Entropie, wobei wir uns zum einen in einem abgelegenen Teil des Universums befinden, in dem die Entropie niedrig ist, was zum anderen auch nur für einen schwankungsbedingten kurzen Zeitraum niedriger Entropie gilt: „Boltzmann’s own suggestion [...] was that the low-entropy past in our region of the universe is merely the kind of rare fluctuation which is to be expected occasionally in an infinitely old universe“ (Price 2002, S.101). Allerdings sprechen die Erkenntisse der modernen Kosmologie gegen diese Vorstellung: „Twentieth-century cosmology seems to show that the universe is simply not old enough to produce the kind of massive statistical fluctuations which Boltzmann’s suggestion requires“ (Price 1996, S.36) – damit müssen Boltzmanns Plausibilisierungen abgewiesen werden. Price 1996 argumentiert nun, man müsse für eine Erklärung der Irreversibilität zeigen, dass sich das Universum zu Beginn seiner Entwicklung in einem Zustand niedriger Entropie befunden hat: „The statistical considerations suggest that a future in which entropy reaches its maximum is not in need of explanation [...] In sum, the puzzle is not about how the universe reaches a state of high entropy, but about how it comes to be starting from a low one“ (a.a.O., S.40). Seine Argumentation soll nicht im Einzelnen nachvollzogen werden, es genügt festzuhalten, dass er eine zusätzliche – kosmologische – Erklärung für einen Anfangszustand des Universums mit geringer Entropie fordert, eine Erklärung, die er freilich nicht liefern kann. Das ist natürlich unbefriedigend, und so weist North 2002 darauf hin, dass man, statt sich auf den statistischen Ansatz zu verlassen und eine zusätzliche Erklärung für einen unwahrscheinlichen Anfangszustand zu fordern, ebenso versuchen könnte, eine kausale Erklärung der Entropiezunahme jenseits der statistischen Mechanik zu finden, die das Phänomen der Irreversibilität direkt erklären würde: „[...] we can not rely on statistical reasoning alone in order to rule out a causal explanation of thermodynamic behavior, because

271

a causal mechanism might turn out to be the reason why the behavior we observe happens to conform to such reasoning“ (a.a.O., S.130). Dieser Hinweis steht nun vor dem Hintergrund eines konkreten Vorschlags für einen solchen kausalen Mechanismus der Entropiezunahme und soll diesen Vorschlag gegen die statistischen Argumentationen von Price in Schutz nehmen. Dieser Vorschlag beruht auf der sogenannten GRW-Interpretation der Quantenmechanik und besagt, „[...] that the dynamics of the GRW interpretation of quantum mechanics might be able to account for thermodynamics. The suggestion is that if GRW turns out to be a true theory, then its wavefunction collapses might be the underlying cause of the entropy-increasing tendency of thermodynamic systems“ (a.a.O., S.125). Dieser Gedanke stammt wiederum von David Albert, der die Entropiezunahme mit Hilfe der GRW-Interpretation34 als ein dynamisches Gesetz etablieren möchte. Dazu geht er von zwei Körpern aus, deren Temperaturen sich einander angleichen, und beschreibt diesen Vorgang wie folgt: „[...] if the two bodies [...] were in fact somehow being frequently and microscopically and randomly perturbed, then the temperatures of those two bodies would be overwhelmingly likely to approach each other“ (Albert 2000, S.151). Die Temperaturannäherung beruht demnach auf mikroskopischen Störungen, die Albert nun mit der GRW-Interpretation in Verbindung bringt: „And the suggestion I want to make [...] is that the quantum jumps in the GRW theory turn out to be just the sorts of perturbations we need“ (ebd.). Wenn nun diese Interpretation und sein Vorschlag richtig ist, „[...] then the tendency of the temperatures of [...] two bodies [...] to approach each other over time amounts to a genuin (albeit statistical) dynamical law“35 (S.152), und die Irreversibilität ließe sich als kausaler Mechanismus verstehen. Dazu kommt allerdings, dass sich damit nur die Entropiezunahme erklären lässt – auch dieser Ansatz 34 Diese

wurde in obigem Quantenmechanikkapitel nicht besprochen und ihr Grundgedanke sei hier nur am Rande in den Worten von Albert 2000 wiedergegeben: „Ghirardi, Rimini, and Weber’s idea (the GRW theory) goes (roughly) like this: the wave function of any single-particle system almost always evolves in accordance with the linear deterministic equations of motion; but every now and then (once in something like 109 years), at random, but with fixed probability per unit time, the wave-function is suddenly multiplied by a narrow bell-shaped curve – a curve (more particularly) whose width is something on the order of the diameter of a single atom of one of the lighter elements – which has the effect of localizing it, of setting its value at zero everywhere in space except within a certain small region. [...] Then, until the next such ,jump‘, everything proceeds as before, in accordance with the deterministic differential equations. That’s the whole theory. No attempt is made to explain the occurrence of these ,jumps‘; that such jumps occur, and occur in precisely the way stipulated above, can be thought of as a new fundamental law“ (a.a.O., S.148f.). 35 Der statistische Charakter dieses Gesetzes bezieht sich auf den der GRWInterpretation.

272

muss als sogenannte past-hypothesis die Annahme hinzunehmen, dass sich das Universum am Beginn seiner Entwicklung in einem Zustand niedriger Entropie befand (vgl. a.a.O., S.160f.), zu deren noch ausstehender Begründung nur auf „[...] the normal inferential procedures of cosmology“ (S.161) verwiesen werden kann. Nun ist diese Auffassung der Irreversibilität als dynamisches Gesetz im Rahmen der GRW-Interpretation bei weitem nicht etabliert – Sklar 1999 sagt dazu lapidar: „[...] believing that it is so requires both believing that the GRW theory is true and that it can do the job alloted to it by Albert“ (a.a.O., S.199). Sie zeigt aber, wie weit man gehen muss, um das Phänomen der Irreversibilität jenseits der statistischen Mechanik als kausalen Prozess zu verstehen: Es bedarf einer nur kosmologisch begründbaren Vorannahme und einer ganz besonderen Interpretation der Quantenmechanik. Verzichtet man auf den Anspruch, die Irreversibilität als einen kausalen Mechanismus zu etablieren, muss dennoch zu ihrer Erklärung zusätzlich zu den Aussagen der statistischen Mechanik ein niedrigentroper Anfangszustand des Universums erklärt werden. Dabei braucht es sich natürlich noch nicht um der Weisheit letzten Schluss zu handeln, da sich vielleicht noch eine ganz andere Erklärung finden lässt. Es sollte aber klar geworden sein, dass eine solche ganz sicher nicht mit der statistischen Mechanik allein gewonnen werden kann. Dies ist zwar unbefriedigend, da man damit weit ausholen muss, um etwa zu erklären, warum der Vorgang eines schmelzenden Eises am Stiel irreversibel ist: „[...] do I really have to go back to the big bang and some special kind of primordial low entropy cosmic state; or, alternatively, must I descend to random fluctuations in the evolving quantum wave function, in order to explain why my popsicle [Eis am Stiel] melted?!“ (Hellman 1999, S.209). Aber jede Erklärung der Irreversibilität muss schließlich, wie gesehen, über die statistische Mechanik hinausgehen, und wird sicher deutlich komplizierter als diese sein. Kurzum, bei der Irreversibilität handelt es sich um ein Phänomen, das von der statistischen Mechanik allein jedenfalls nicht erklärt wird – und damit zusätzlich zu den Beispielen in Abschnitt 5.3 noch einmal zeigt, dass die Thermodynamik, die dieses Phänomen beschreibt, nicht eliminativ auf die statistische Mechanik reduzierbar ist. Zu dem möglichen Einwand, sie könnte vielleicht auf statistische Mechanik, Kosmologie und GRWQuantenmechanik reduziert werden, sei hier nur gesagt, dass dann damit auch die anderen aufgeführten Phänomene erklärt werden müssten, deren Nichterklärbarkeit mit der statistischen Mechanik aber ganz andere Ursachen hat als die der Irreversibilität: Man denke nur an die Phasenübergänge und die Universalität kritischen Verhaltens. Dass dieses Ergebnis der Nichtreduzierbarkeit der Thermodynamik auf die statistische Mechanik nun insgesamt so erstaunlich nicht ist, wird klar, wenn

273

man an die Charakterisierung der Thermodynamik am Anfang dieses Kapitels zurückdenkt, nach der sich diese als Theorie der makroskopischen Ebene mit ihren eigenständigen Methoden deutlich von der mechanischen Beschreibung der mikroskopischen Ebene unterscheidet. Dieser stark eigenständige Charakter der Thermodynamik sei an dieser Stelle noch einmal mit Sklar 1993 hervorgehoben: „Given the peculiar place of thermodynamics in the body of physical theory, we will not be surprised to find that its concepts fit rather differently into our general description of the world than do the concepts of more ordinary physical theories“ (S.345). Es treten gerade in der Thermodynamik ganz spezifische Fragestellungen auf, die von den mechanischen Gesetzen der mikroskopischen Ebene nicht adäquat behandelt werden können. Stattdessen werden besondere Methoden und Begrifflichkeiten benötigt, die sich nicht ohne weiteres durch bloße mechanische Gesetze ersetzen lassen – was nun an mehreren konkreten Beispielen gezeigt wurde, und was auch bei der Behauptung einer eliminativen Reduzierbarkeit der Thermodynamik auf statistische Mechanik, Kosmologie und GRWQuantenmechanik bedacht werden sollte. Bevor nun dieses Kapitel in Abschnitt 5.6 abschließend zusammengefasst wird, sei zu dessen Abrundung noch das Problem des Gibbsschen Paradoxons besprochen, das sich im Rahmen der mikroskopischen Beschreibung thermodynamischer Phänomene allein schon bei der Formulierung des Entropiekonzepts stellt. 5.5 Das Gibbssche Paradoxon

In Allahverdyan/Nieuwenhuizen 2006 wird das Gibbssche Paradoxon völlig zu Recht wie folgt charakterisiert: „Since its formulation in the late 1870s, the Gibbs paradox has, lacking a simple solution, become a quest for the understanding of phenomenological thermodynamics from a more fundamental theory“ (S.13). Es handelt sich gewissermaßen um ein Konsistenzproblem des mikroskopischen Ansatzes als solchem, das bei der Formulierung des statistischen Entropiebegriffs auftritt, und ist für die vorliegende Fragestellung insofern interessant, als es damit über die Grenzen der Phänomenerklärung hinaus eine prinzipielle Schwierigkeit dieses Ansatzes zeigt. Es wurde bereits in Abschnitt 5.2 darauf hingewiesen, dass die Aufstellung eines zur Clausiusdefinition der phänomenologischen Thermodynamik analogen Entropiebegriffs innerhalb der statistischen Mechanik kein trivialer Vorgang ist. Eine dabei nicht erwähnte, aber besonders pikante Schwierigkeit ergibt sich nun zusätzlich noch, wenn man allein den Ansatz, die statistische Entropie auf der Grundlage von Wahrscheinlichkeiten der Molekülkonfiguration der beteiligten Gase zu definieren, auf das Mischen ver-

274

schiedener bzw. gleicher Gase anwendet. Um dies zu sehen, denke man sich wieder einen Behälter, der in der Mitte durch eine Trennwand halbiert ist, und in dessen beiden Hälften sich diesmal jeweils ein anderes Gas befindet. Wird die Trennwand entfernt, vermischen sich die beiden Gase, womit gemäß der Vorstellung, die Entropie beruhe auf der Wahrscheinlichkeit von Molekülverteilungen, ihr Wert für das Gesamtsystem zunimmt. Handelt es sich dagegen in beiden Hälften des Gefäßes um dasselbe Gas, kann man nach Entfernen der Trennwand nicht von einer Mischung sprechen, weshalb in diesem Fall die so angesetzte Entropie konstant bleibt. Da aber der Wert des Entropiezuwachses im Fall verschiedener Gase nicht von der konkreten Art der beteiligten Gase abhängt, sondern nur von der Anzahl der Teilchen und dem Umstand, dass es sich um zwei verschiedene Arten handelt, muss es für etwa jeweils N Teilchen in jeder Hälfte einen von der Art der Gase unabhängigen, festen Wert der Entropiezunahme geben. Das Gibbssche Paradoxon besteht nun in dem sich daraus ergebenden Problem, dass damit der Wert der Entropie eine Unstetigkeit aufweist: Für zwei verschiedene Gase, wie klein auch die Differenz sein mag, um die sie sich unterscheiden, nimmt die Entropie bei dem beschriebenen Vorgang um besagten festen Wert zu, bleibt aber gleich für zwei identische Gase. Während die Verschiedenheit zweier Gase stetig verringert werden kann, macht die Größe der Entropiezunahme dieses Mischungsprozesses bei dem Übergang zu zwei identischen Gasen einen Sprung von einem bestimmten festen Wert auf Null. Ganz bewusst wurde zur Aufstellung dieses Paradoxons nicht die oben angegebene konkrete Entropiedefinition verwendet: Es ergibt sich allein aus der Vorstellung, man könne die Entropie auf die Wahrscheinlichkeit von Teilchenkonfigurationen zurückführen. Technische Probleme, die sich im Umfeld des Gibbsschen Paradoxons bei der Aufstellung einer konkreten Entropiedefinition ergeben, werden gleich noch besprochen, vorher sei festgehalten, dass dieses Paradoxon in der phänomenologischen Thermodynamik nicht auftritt, sondern ganz allein ein Problem besagter mikroskopischer Vorstellung ist, ein Problem mithin des mikroskopischen Ansatzes überhaupt. In Abschnitt 5.2 wurde die Entropiedefinition der Wärmelehre, wie sie Clausius formuliert hat, angegeben: Für einen irreversiblen Prozess muss ein analoger reversibler Prozess konstruiert werden, der denselben Anfangs- und Endpunkt hat, und bei dem die aufgenommene Wärmemenge bestimmt werden kann. Die Entropiezunahme wird dann gemäß der Clausiusformel als  dQ ∆S = T berechnet. Ein Entropieunterschied ist daher überhaupt nur zwischen solchen Zuständen definiert, die durch einen reversiblen Prozess miteinander verbunden werden können. Dem gesamten Projekt einer Reduktion der Thermodynamik auf die statistische Mechanik liegt nun nach Sklar 1993 als background reduction (S.348)

275

die Identifizierung (background identification, ebd.) einer Gasmenge mit den Molekülen, aus denen es besteht, zugrunde. Wenn diese Teilchen aber mit den Gesetzen der Mechanik behandelt werden, sind alle Prozesse reversibel, worauf gerade in Abschnitt 5.4 hingewiesen wurde. Zusammen mit der Wahrscheinlichkeitsauffassung lässt sich daher die Clausiussche Entropiedefinition erweitern: Von einer Entropiedifferenz kann nun auch in Fällen gesprochen werden, in denen sich eine solche innerhalb der Wärmelehre nicht definieren lässt. Clausius stellte sich unter der Entropie ein Transformationsäquivalent der irreversiblen Umwandlung von Arbeit in Wärme vor36 und jedenfalls nicht die Wahrscheinlichkeit einer Molekülverteilung. So lässt sich auch seine Definition in dem vorliegenden Beispiel einer Mischung zweier Gase nicht anwenden: Bei der Mischung zweier Gase handelt sich um einen irreversiblen Vorgang, für den in der makroskopischen Beschreibung kein analoger reversibler Prozess denkbar ist, mit dem eine Entropiezunahme bestimmt werden könnte. Darüber hinaus verändert sich aus makroskopischer Sicht, abgesehen von der Ausdehnung der vorher jeweils in eine Gefäßhälfte eingesperrten Gase, auch gar nichts bei diesem Vorgang: Keine Arbeit wird verrichtet und keine Wärmemengen werden ausgetauscht. Es könnte daher Clausius gemeint sein, wenn es in van Kampen 1984 heißt: „If you tell him that ,actually‘ the entropy increased when he opened the channel [durch Entfernen einer Trennwand] he will answer that this is a useless statement since he cannot utilize the entropy increase for running a machine“ (S.306). Innerhalb der makroskopischen Wärmelehre ist es also nicht nur nicht möglich, sondern auch sinnlos, bei der Mischung zweier Gase von einer Entropiezunahme zu sprechen – die Entropie einer Mischung ist, selbst wenn man experimentell den Unterschied zwischen den Gasen einer Mischung bestimmen könnte, irrelevant: „This is precisely what engineers do when they make tables of the entropy of steam, ignoring the fact that it is actually a mixture of normal and heavy water“ (ebd.). Nun soll hier aber nicht mit van Kampen einem begriffstheoretischen Konservatismus das Wort geredet werden: Mit der Vorstellung der Entropie als Wahrscheinlichkeitsmaß vor dem Hintergrund einer background identification von Gasen mit ihren Molekülen und deren Behandlung mit Methoden der klassischen Mechanik lässt sich die Entropiedefinition durchaus erweitern auf die Mischung zweier Gase. Dies ist sinnvoll, da die Wahrscheinlichkeit der Teilchenkonfiguration im Prozess der Durchmischung in der Tat zunimmt, und möglich, da in der statistischen Mechanik alle Vorgänge rever36

Vgl. etwa Bartels 1994, S.142ff.

276

sibel sind.37 Im Gegensatz zu der ebenso möglichen Erweiterung des Temperaturbegriffs, von dem in Abschnitt 5.2 die Rede war, kommt man hier aber sofort in Schwierigkeiten: Wie gezeigt, führt allein dieser Ansatz einer erweiterten Definition zu dem Paradox der Unstetigkeit der Entropie beim Übergang von verschiedenen zu identischen Mischungsgasen. Nach Allahverdyan/Nieuwenhuizen 2006 bleibt diese Unstetigkeit auch erhalten beim Übergang N → ∞ für die Anzahl der Gasteilchen in den Gefäßhälften (vgl. a.a.O., S.3), so dass hier das Programm, die Wärmelehre mechanisch in einem Teilchenbild verstehen zu wollen, selbst im thermodynamischen Limes auf ein Inkonsistenzproblem stößt. Gibbs fand dieses Problem zu einer Zeit, als auch Boltzmann an diesem Programm arbeitete – und es gibt natürlich Versuche, dieses Paradox aufzulösen. Bevor aber diese Versuche besprochen werden, sei noch auf ein weiteres, eher technisches Problem hingewiesen. Das Paradox der Unstetigkeit der Entropie wurde allein mit dem Ansatz einer wahrscheinlichkeitsbasierten Entropiedefinition gefunden. Wenn man nun aber versucht, es auch rechnerisch mit einer konkreten Definition nachzuvollziehen, ergibt sich eine weitere Schwierigkeit: Mit der oben angegebenen Wahrscheinlichkeitsdefinition der Entropie berechnet man nämlich auch für die Mischung gleicher Gase einen Entropiezuwachs. Damit wäre zwar die Unstetigkeit des Gibbsschen Paradoxons verschwunden, aber nur um den Preis eines Ergebnisses, das nicht nur höchst kontraintuitiv ist, sondern seinerseits ein Paradox beinhaltet: Wenn in einem System, das aus einer durch eine Wand getrennten Gasmenge besteht, durch das (reversible) Entfernen dieser Wand und der anschließenden Durchmischung der Gasteilchen die Entropie zunehmen würde, so würde diese durch das (ebenso reversible) Wiedereinsetzen der Wand abnehmen, da damit wieder der Ausgangszustand vor der Entropiezunahme erreicht wäre – zwar nicht buchstäblich auf der Teilchenebene, aber im Sinne derselben durch eine Wand getrennten Gasmenge: In beiden Gefäßhälften befindet sich wieder derselbe Stoff mit demselben Druck und derselben Temperatur.38 Diese Entropieabnahme wäre ein noch viel stärkeres Problem als das Gibbssche Paradoxon, da es dem gesamten Konzept der Entropie zuwider liefe und insbesondere dem zweiten Hauptsatz widerspräche. Rechnerisch stellt sich dieses Problem so dar, dass sich im Moment der Entfernung der Trennwand in jeder Hälfte N Teilchen befinden. Dabei beträgt die Wahrscheinlichkeit für ein Teilchen, sich in dieser Gefäßhälfte aufzuhal37 Sogar

reversibel in dem Sinne, dass die konkreten Wege der Teilchen umgekehrt durchlaufen werden können, während Umkehrbarkeit bei Clausius lediglich hieß und auch hier lediglich heißen muss, dass der Anfangszustand ohne Wärmeverlust in einen identischen Endzustand übergeht, wobei die konkreten Wege keine Rolle spielen. 38 Vgl. die Fußnote oben zur Umkehrbarkeit.

277

ten 1/2, womit sich für die Wahrscheinlichkeit P des Gaszustandes auf jeder Seite jeweils P = ( 12 )N ergibt. Im Zustand der Durchmischung gilt nun für die Gasmengen beider Hälften, dass ihre Gasmoleküle im gesamten Behälter gleichmäßig verteilt sind, wofür die Wahrscheinlichkeit jeweils ca. eins beträgt – unabhängig davon, ob es sich um zwei verschiedene Gase oder zweimal das gleiche handelt. Für den Entropiezuwachs erhält man daher nach der in Abschnitt 5.2 angegebenen Definition für beide Gasmengen jeweils k ln 1 − k ln( 12 )N = k ln 2N , was insgesamt eine Entropiezunahme von ∆S = 2kN ln 2 ergibt. In dieser Rechnung lässt sich aber an keiner Stelle zwischen dem Fall zweier gleicher bzw. verschiedener Gase unterscheiden, wonach die Entropie auch für die Mischung von zweimal N Teilchen eines Gases um den genannten Betrag zunehmen würde. Dieses Problem wird nun seit Gibbs dadurch umgangen, dass man sich die Teilchen eines Gases als ununterscheidbar denkt, weshalb bei der Wahrscheinlichkeitsberechnung alle N! Permutationen von N Teilchen zu einem Zustand zusammengefasst werden. Führt man den sich daraus ergebenden 1 Faktor N! in die Berechnung ein, erhält man für zwei identische Gase keinen Entropiezuwachs, wie sich gleich zeigen wird. Zunächst sei aber auf ein Problem dieses Auswegs hingewiesen. In der klassischen Physik sind die Moleküle eines Gases nämlich nicht ununterscheidbar, womit dieses Zusammenfassen von Mikrozuständen innerhalb der statistischen (klassischen) Mechanik fragwürdig ist. In den Worten von van Kampen 1984 heißt es dazu: „Gibbs argued that, since the observer cannot distinguish between different molecules, ,it seems in accordance with the spirit of the statistical method‘ to count all microscopic states that differ only by a permutation as a single one. Actually it is exactly opposite to the basic idea of statistical mechanics, namely that the probability of a macrostate is given by the [...] number of corresponding, macroscopically indistinguishable microstates.“ (S.309)

Natürlich sind für die Berechnung von Wahrscheinlichkeiten alle mögli1 chen Konfigurationen zu berücksichtigen, der N! -Faktor erscheint damit als ad hoc, er wurde sogar gegen den Geist der statistischen Mechanik nur zu dem Zweck eingeführt, das Resultat der Entropiezunahme bei der Mischung von Molekülen eines Gases zu vermeiden – und damit auch, um die Unstetigkeit des Gibbsschen Paradoxons aufrecht zu erhalten. Gleichwohl ist dieser Faktor in die bis heute übliche Entropiedefinition eingeflossen, gerechtfertigt inzwischen mit dem Argument, dass man in der Quantenmechanik tatsächlich die Moleküle eines Gases nicht voneinander unterscheiden kann. Auch

278

wenn nun letzteres so sein mag, geht es nichtsdestotrotz um die Entropiedefinition der statistischen Mechanik, und diese quantenmechanisch zu begrün1 den, kann den offenbaren ad-hoc-Charakter der Einführung des N! -Faktors nicht verschleiern. Mit diesem Faktor jedenfalls erhält man tatsächlich einen Unterschied zwischen der Mischungsentropie für verschiedene bzw. identische Gase. Im ersten Fall handelt es sich vor und nach der Mischung um jeweils N Teilchen, 1 multipliziert werden muss, der sich so dass beidemale mit dem Faktor N! daher insgesamt aufhebt und womit sich der oben angegebene Entropiezuwachs ergibt. Bei der Mischung von zweimal N Teilchen eines Gases aber hat man vor der Mischung jeweils N Teilchen in einer Hälfte, also insgesamt (N!)2 ununterscheidbare Permutationen, und nach der Mischung 2N Teilchen im ganzen Behälter verteilt, also (2N)! Permutationen zu berücksichtigen. Man rechnet nun mit der Stirlingschen Formel ln N! ≈ N ln N − N leicht nach, dass k ln

1 1 ≈ −2kN ln 2 − k ln (2N)! (N!)2

gilt, was insgesamt 2kN ln 2 − 2kN ln 2 = 0 für die Entropiedifferenz ergibt und aber in der Tat aus der Perspektive der klassischen Mechanik eher wie ein Rechentrick anmutet als die Anwendung einer physikalisch gerechtfertigten Definition. Und selbst dabei ist die Stirlingsche Formel lediglich eine Näherung, obiges Ergebnis gilt exakt natürlich nur im Grenzfall N → ∞, weshalb es bei der Mischung endlich vieler Teilchen eines Gases auch mit diesem Korrekturfaktor einen Entropiezuwachs gibt. Dass darüber hinaus dieser Grenzübergang nur zum Zweck des Vergleichs zwischen statistischer Mechanik und Thermodynamik gerechtfertigt ist, wurde in Abschnitt 5.2 herausgearbeitet – eine Gasmenge, für die die so modifizierte Entropiedefinition schließlich gelten soll, besteht dagegen immer nur aus endlich vielen Teilchen. Abgesehen von diesen Schwierigkeiten lässt sich jedenfalls erst mit diesem 1 N! -Faktor die Entropie statistisch sinnvoll definieren. Allerdings erhält man mit dieser Definition auch – über diese Schwierigkeiten noch hinaus – das Gibbssche Paradoxon in voller Schärfe.39 39 In

der Literatur wird das Gibbssche Paradoxon übrigens nicht selten falsch so wiedergegeben, als bestünde es in der Entropiezunahme bei der Mischung von Molekülen zweier identischer Gase und als wäre es, quantenmechanisch gerechtfertigt, mit der Ein1 -Faktors behoben, so zum Beispiel in Reif 1987, S.286-290. Dabei besteht führung des N! es in besagter Unstetigkeit der Entropie bei Veränderung des Unterschieds zwischen zwei Gasen, einer Unstetigkeit, die sich allein durch den statistischen Ansatz ergibt, und wird durch diesen Faktor erst innerhalb der statistischen Physik reproduziert, in der es sonst rechnerisch gar nicht auftreten würde.

279

Dieses Paradoxon stellt natürlich eine ungeheure Herausforderung dar, da es sich schließlich um eine Inkonsistenz bei der Formulierung der statistisch definierten Entropie handelt, die ihrerseits in der statistischen Thermodynamik geradezu eine Schlüsselrolle einnimmt. Ausgehend von diesem Problem könnte man nun dafür argumentieren, mikroskopische und makroskopische Ebene zu unterscheiden, unterschiedliche, jeweils geeignete Theorien anzuwenden und statt des mikroskopischen Reduktionsansatzes das Aufzeigen der Nachbarschaft dieser Theorien in den Vordergrund zu stellen. Diese Argumente werden zum Abschluss dieses Abschnitts aufgegriffen. Zunächst sollen noch kurz die Versuche, innerhalb der Physik einen Ausweg zu finden, diskutiert werden. Nach dem Exkurs zu dem technischen 1 Detail des N! -Faktors bei der konkreten Entropiedefinition seien daher jetzt die Antworten der Physik auf das eigentliche Gibbssche Paradoxon besprochen. Eine solche Antwort muss wiederum auf die Quantenmechanik zurückgreifen und wurde erstmals 1932 von von Neumann gegeben. Während oben die Quantenmechanik dafür gerade stand, dass die Moleküle eines Gases prinzipiell ununterscheidbar sind – im Gegensatz zur Unterscheidbarkeit innerhalb der klassischen Physik –, liefert sie nun einen stetigen Übergang zwischen „unterscheidbar“ und „ununterscheidbar“, wenn es um die Teilchen verschiedener Gase geht. Dazu denke man sich zwei ideale Gase derselben Sorte, die sich lediglich darin unterscheiden, dass sich ihre Atome in verschiedenen Quantenzuständen befinden. Es gibt dann einen stetigen Übergang zwischen zueinander orthogonalen Zuständen, die empirisch unterscheidbar sind, und nichtorthogonalen, die prinzipiell nicht unterschieden werden können. Die Antwort auf das Gibbssche Paradoxon besteht nun darin, dass sich die Mischungsentropie von ihrem oben angegebenen festen Wert für orthogonale Zustände stetig dem Wert Null annähert, wenn man zu identischen, nichtorthogonalen Zuständen übergeht – die Unstetigkeit der Mischungsentropie scheint damit aufgehoben. Abgesehen davon nun, dass die Hinzunahme der Quantenmechanik den Rahmen von Erklärungen thermodynamischer Vorgänge mit der statistischen Mechanik, um den es hier geht, sprengt,40 ist diese lange Zeit allgemein akzeptierte Lösung nicht unumstritten. Nach Dieks/van Dijk 1988 kann nämlich für nichtorthogonale Zustände – diesmal aus quantenmechanischen Gründen – eine Mischungsentropie nicht sinnvoll definiert werden: „In the case of nonorthogonal quantum states, it follows from 40

Man müsste daher angesichts des Gibbsschen Paradoxons, ganz ähnlich wie im Fall der Irreversibilität (vgl. 5.4), von der Reduktion der Thermodynamik auf die statistische Mechanik und die Quantenmechanik (bzw. auf die statistische Quantenmechanik) sprechen – womit allerdings die Phänomene aus 5.3 noch nicht erklärt sind.

280

quantum mechanics as a fact of principle that there exist no procedures for mixing or separating the gases in a reversible way. Therefore, it is not justified, strictly speaking, to introduce the concept of mixing entropy in this case“ (S.430). Ohne hier auf Einzelheiten eingehen zu wollen,41 sei als Ergebnis dieser Nichtdefinierbarkeit festgehalten: „Either the states of the mixed components are orthogonal, with the full (classical) value of the entropy of mixing; or the states are not orthogonal, when there is no entropy of mixing defined. There is consequently no gradual decrease of the value of the entropy if the difference between the quantum states of the mixed components becomes smaller“ (S.433), womit die von Neumannsche Auflösung des Gibbsschen Paradoxons widerlegt wäre. Inwiefern dieser Einwand berechtigt ist, soll hier nicht beurteilt werden. Klar ist jedenfalls, dass so oder so das letzte Wort in dieser Angelegenheit noch nicht gesprochen ist. So fühlen sich etwa Allahverdyan/Nieuwenhuizen 2006 von diesem Angriff auf die von Neumannsche Lösung zu einer neuen quantenmechanischen Auflösung herausgefordert, die nun im Rahmen der Quantenthermodynamik das Konzept der Entropie gänzlich verwirft und durch ein neues ersetzt, das von den Autoren Ergotropie genannt wird und eng an das Konzept der mechanischen Arbeit angelehnt ist. Und unabhängig von dem Diskurs um die quantenmechanische Auflösung des Gibbsschen 1 Paradoxons sorgt übrigens auch die N! -Problematik in jüngster Zeit noch für Diskussionsstoff, vgl. etwa Nagle 2004.42 Innerhalb der statistischen Mechanik jedenfalls ist das Gibbssche Paradoxon offenbar nicht auflösbar – und nur darauf kommt es hier an. Zeigen sollte diese kurze Untersuchung nämlich, dass die übliche Entropiedefinition der statistischen Mechanik ein ernsthaftes Konsistenzproblem hat, das sich bei dem Versuch ergibt, innerhalb der mikroskopischen Beschreibungsebene ein Konzept zu definieren, das dem der Clausiusschen Entropie der phänomenologischen Thermodynamik ähnlich ist. Insofern also, als ein solches Konzept für Erklärungen thermodynamischer Phänomene mit der statistischen Mechanik benötigt wird und die Anwendung eines nicht schlüssig definierten Konzepts mindestens bedenklich ist, spricht die Nichtauflösbarkeit des Gibbsschen Paradoxons innerhalb der statistischen Mechanik wiederum gegen die Möglichkeit einer Reduktion im Sinne von 2.4 der Thermodynamik auf diese. 41 Insbesondere

scheint sich damit quantenmechanisch die Irreversibilität immerhin der Mischung von Atomen in zueinander nichtorthogonalen Zuständen begründen zu lassen – während die statistische Mechanik gar kein irreversibles Verhalten erklären kann. 42 In diesem Aufsatz findet sich allerdings auch die falsche Auffassung, das Gibbssche 1 Paradoxon bestünde in diesem N! -Problem.

281

Zu dem denkbaren Einwand, man könne stattdessen eine Reduktion auf die statistische Mechanik und die Quantenmechanik (bzw. auf die statistische Quantenmechanik) vornehmen, sei zum einen wieder auf die Phänomene aus Abschnitt 5.3 verwiesen und zum anderen daran erinnert, dass eine Reduktion im Sinne von 2.4 auf Erklärungen mit der reduzierenden Theorie beruht, bei denen keine Konzepte der zu reduzierenden Theorie verwendet werden dürfen. Im Gegensatz dazu bedarf die Definition der statistischen Entropie, wie sie in diesem Abschnitt untersucht wurde, konsistent oder nicht, der heuristischen Anleitung durch die Thermodynamik, und selbst der jüngste Versuch einer Auflösung des Konsistenzproblems von 2006 stützt sich mit der Quantenthermodynamik expressis verbis auf eine Mischtheorie. Nicht zuletzt ist es nun, wie oben schon angedeutet, durchaus denkbar, das Paradox aufzulösen, indem man sich damit bescheidet, dass die thermodynamische Größe der Entropie nicht innerhalb der statistischen Mechanik definiert werden kann. Das Paradox ergibt sich schließlich aus einer Erweiterung der Entropiedefinition der Wärmelehre, und erst diese Erweiterung führt in den Widerspruch – die ursprüngliche Definition liefert keinen. Akzeptierte man also, dass die Entropie keine Eigenschaft von Mikrozuständen ist, sondern erst in der Beschreibungsebene der Thermodynamik eine Rolle spielt, gäbe es auch kein Paradox. Bei van Kampen 1984 heißt es dazu: „This is a paradox only for those who attach more physical reality to the entropy than is implied by its [Clausius-]definition“ (S.307). Bei bescheideneren Ansprüchen an den Reduktionsansatz könnte man in der Ebene der Mikrobeschreibung eigenständige Konzepte etablieren43 und deren Nachbarschaft mit solchen der Thermodynamik begründen – wobei das Konzept der Nachbarschaft das der hier nicht möglichen eliminativen Reduktion ablöst. Trägt man das Nachbarschaftskonzept jedenfalls in diesem Sinne an das Gibbssche Paradoxon heran, könnte sich, wie schon im Fall der Dunklen Materie im dritten und dem der Interpretation der Quantenmechanik im vierten Kapitel, auch hier wieder ein Ausweg aus einem physikalischen Problem ergeben, der allein auf Überlegungen zum Reduktionsproblem beruht.

5.6 Zusammenfassung

Zum Abschluss sei nun das Ergebnis dieses Kapitels kurz zusammengefasst. Dass es sich bei dem in Nagel 1961 als Standardbeispiel für eine gelungene Reduktion geltenden Verhältnis zwischen Thermodynamik und statisti43 Dafür

plädiert etwa auch Callender 2001, wie in 5.3 zitiert wurde.

282

scher Mechanik um einen mindestens genauso großen Problemfall handelt, wie bei den Beispielen der vorherigen Kapitel, zeichnete sich in Abschnitt 5.1 schon ab. In Abschnitt 5.2 wurde dann gezeigt, dass Nagels Brückengesetzidentifikationen nicht haltbar und auch eine logische Ableitung nicht durchführbar ist. Es handelt sich um verschiedene Theorien, für die sich mittels Vergleichen von Begriffen, auf deren Notwendigkeit in allen relevanten Fällen besonders Sklar gestoßen hat, und solchen zwischen mathematischen Strukturen, wie sie an Scheibes Reduktionstheorie nachvollzogen wurden, lediglich eine Nachbarschaftsrelation begründen lässt. Darüber hinaus ist nun aber an eine eliminative Reduktion im Sinne von 2.4, die auf Nachbarschaft und der Erklärung von Phänomenen beruht, nicht zu denken: In Abschnitt 5.3 wurde gezeigt, dass sich die Phänomene der Gleichgewichtszustände und der Annäherung an diese, der Phasenübergänge und der Universalität kritischen Verhaltens mit der statistischen Mechanik allein nicht erklären lassen. Zusätzlich brachte der Abschnitt 5.4 das Ergebnis, dass das Phänomen der makroskopischen Irreversibilität aus Sicht der statistischen Mechanik sogar unplausibel erscheint. Und schließlich zeigt das Gibbssche Paradoxon, dass es in der statistischen Mechanik nicht ohne ein Konsistenzproblem möglich ist, ein Analogon der thermodynamischen Größe der Entropie zu definieren, was zuletzt in Abschnitt 5.5 gesehen wurde. Auch an dem Beispiel dieses Kapitels muss daher analog zu den vorherigen konstatiert werden, dass Thermodynamik und statistische Mechanik durchaus benachbart zueinander sind, sich erstere aber nicht im Sinne von 2.4 eliminativ auf letztere reduzieren lässt. Die Wärmelehre lässt sich also mit Konzepten der Mechanik in Verbindung bringen, wie es seit Maxwell, Boltzmann und Gibbs in der statistischen Thermodynamik geschieht, kann aber nicht durch sie ersetzt werden. Sie ist nicht überflüssig geworden, sondern wird zu einer vollständigen Beschreibung der Welt ebenso benötigt, wie die statistische Mechanik. Dieses Ergebnis wird nun im letzten Kapitel in einem größeren Rahmen ausgewertet.

Kapitel 6 Schlussbemerkungen 6.1 Zusammenfassung

Gegenstand dieser Arbeit war die Frage nach der Möglichkeit eliminativer Reduktionen in der Physik: Gibt es physikalische Theorien, die aufgrund ihrer Reduktion auf eine andere zur Beschreibung der Welt nicht mehr gebraucht werden und in diesem Sinne überflüssig sind? Dabei wurde insbesondere die Möglichkeit betrachtet, dass solche Reduktionen nur im Prinzip möglich sein können, womit eine reduzierte Theorie zwar als pragmatisches Handwerkszeug für ihre Beschreibungsebene noch in Verwendung ist, prinzipiell aber nicht mehr benötigt wird. Um diese Fragen angemessen angehen zu können, wurde zunächst im zweiten Kapitel geklärt, was genau unter einer solchen im Prinzip möglichen eliminativen Reduktion zu verstehen ist. Es zeigte sich, dass direkte Verbindungen, wie sie etwa in vergleichenden Grenzfallbetrachtungen stecken, im Allgemeinen nicht eliminativ sind – dagegen wurde mit der Theoriennachbarschaft eine Relation definiert, die solche direkten und daher meist retentiven Reduktionen auf den Begriff bringt: Zwei jeweils eigenständige Theorien, die benachbart zueinander sind, müssen sich in eine vergleichende Beziehung setzen lassen, die produktiv und für beide Theorien befruchtend sein sollte. Davon wurde ein Reduktionskonzept abgesetzt, bei dem zusätzlich zu dieser direkten Nachbarschaft eine indirekte Reduktion gefordert wird, die zeigt, dass die reduzierende Theorie alle Phänomene erklären kann, die von der zu reduzierenden Theorie erklärt werden. In den folgenden drei Kapiteln wurde dann an konkreten Beispielen untersucht, ob und in welchen Fällen solche eliminativen Reduktionen im Prinzip möglich sind. Dabei stellte sich heraus, dass die Beziehungen zwischen modernen physikalischen Theorien meist Nachbarschaftsrelationen sind und es eliminative Reduktionen im Sinne der Definition des zweiten Kapitels nur für historische Theorien oder einzelne Gesetze bzw. ganz bestimmte, einzelne Phänomen-

284

erklärungen gibt. So kann man für die Gravitationstheorien sagen, dass etwa das Galileische Fallgesetz und die Keplerschen Gesetze auf das Newtonsche Gravitationsgesetz und die Newtonsche Beschreibung der Planetenbahnen auf die Schwarzschildlösung der Allgemeinen Relativitätstheorie reduzierbar sind, während die Newtonsche Gravitationstheorie als Ganze zu der ART lediglich benachbart ist. Außerdem ist etwa die Newtonsche Mechanik innerhalb der Mikrowelt auf die Quantenmechanik reduzierbar, die dort die besseren Vorhersagen macht, als Theorie der makroskopischen Welt ist die Newtonsche Mechanik aber auch im Prinzip nicht auf die Quantenmechanik reduziert – es wurden sogar Gründe angegeben, die gegen eine zukünftige Reduzierbarkeit sprechen. Und schließlich könnte etwa die Gasgleichung der Thermodynamik im Prinzip auf die statistische Mechanik reduziert werden, da eine Erklärung der zeitlichen Entwicklung einer Gasmenge, die ohne thermodynamische Konzepte auskommt, prinzipiell denkbar ist. Da aber viele weitere Phänomene aufgeführt wurden, für die das sicher nicht gilt, ist die Thermodynamik selbst nicht auf die statistische Mechanik reduziert bzw., aus den im fünften Kapitel angegebenen Gründen, nicht reduzierbar. Dabei kann natürlich die prinzipielle Möglichkeit solcher Reduktionen nicht endgültig ausgeschlossen werden, es wurden aber jeweils Argumente vorgebracht, die selbst gegen im Prinzip mögliche Reduktionen sprechen, so dass die Beweislast in dieser Frage die reduktionistische Position trägt, die zeigen müsste, wie diesen Argumenten zum Trotz eliminative Reduktionen möglich sein sollen. Kurz erwähnt werden soll hier noch einmal der Ansatz von Batterman 2002, der an ganz konkreten Phänomenen zu zeigen versucht, dass die Zusammenarbeit verschiedener Theorien zu deren Erklärung notwendig ist, und zwar wiederum im Prinzip. Wenn nämlich in Reduktionen Grenzübergänge ins Spiel kommen, sind sie in vielen Fällen stetig und daher aus mathematischer Sicht unproblematisch, in besonderen Fällen können aber auch unstetige, sogenannte singuläre Grenzübergänge auftreten. Gemäß der vorliegenden Untersuchung führen nun selbst normale Grenzübergänge im Allgemeinen nicht zu einem direkten eliminativen Reduktionsverhältnis. Batterman zeigt aber darüber hinaus, dass es Fälle singulärer Grenzprozesse gibt, in denen sich die physikalische Situation im Grenzfall grundlegend ändert und nicht mehr mit Fällen außerhalb des Grenzfalls in eine einfache Beziehung gesetzt werden kann – seine Beispiele (Interferenzbögen des Regenbogens etc.) wurden in Abschnitt 1.3 bereits vorgestellt und sollen zeigen, dass zur Erklärung bestimmter Phänomene mehrere Theorien notwendig sind und insbesondere die Hilfe vermeintlich reduzierter Theorien benötigt wird. Inwiefern diese Argumente nun stichhaltig sind, soll hier nicht untersucht

285

werden,1 sie haben aber innerhalb der Reduktionsdebatte darauf aufmerksam gemacht, dass pauschale reduktionistische Positionen meist voreilig und die genauen Verhältnisse zwischen Theorien oft sehr kompliziert sind. Damit trugen sie dazu bei, dass in dieser Debatte statt von Reduktionen neutral von intertheoretic relations gesprochen wird. Schon im ersten Kapitel wurde erwähnt, dass inzwischen die Auffassung vorherrscht, die sorgfältige Einzelfallprüfung konkreter Beziehungen zwischen Theorien sei pauschalen Aussagen über prinzipielle Reduzierbarkeit oder Nichtreduzierbarkeit vorzuziehen. So gibt es viele reduktive Erklärungen und ein reduktionistisches Vorgehen kann als Forschungsmaxime gewinnbringend sein, ob aber ganze Theorien eliminativ reduzierbar sind, ist angesichts der oftmals äußerst komplizierten Verhältnisse nicht pauschal zu entscheiden. Die Diskussion dieser Arbeit über eliminative Reduktionen war nun dennoch der Frage nach deren prinzipieller Möglichkeit gewidmet und hat an drei Fallbeispielen, die in dieser Hinsicht untersucht wurden, gezeigt, dass eliminative Reduktionen meist selbst im Prinzip nicht möglich sind. Die dabei zugrunde gelegte Unterscheidung zwischen Theoriennachbarschaft und Reduktion brachte gleichzeitig etwas Ordnung in die besagten zahlreichen und komplizierten intertheoretic relations der Physik. Für die praktizierte Physik allerdings spielt die Fragestellung nach im Prinzip möglichen eliminativen Reduktionen so gut wie keine Rolle. Dort werden nämlich zu Erklärungen konkreter Phänomene typischerweise verschiedene Theorien bemüht und der Anspruch, etwa „alles“ auch im Prinzip mit einer grundlegenden Theorie erklären zu können, wird nicht erhoben. Ob eine reduktive Erklärungsstrategie verfolgt wird oder nicht, hängt ganz vom konkreten Einzelfall ab und von den Möglichkeiten, diesen zu erklären – eine allgemeine reduktionistische oder antireduktionistische Position wird dabei nicht bezogen und wäre eher auch hinderlich: „[...] today, if a scientist chooses a reductionist approach to solve a specific problem or, on the contrary, develops concepts, experiments, and explanations without any reference to lower levels of organization, it is mainly because the favoured approach proves to be fruitful and empirically successful. In short, (creative) scientists are opportunists: they will be reductionist (or, for that matter, antireductionist) whenever it pays off.“ (Ruphy 2005, S.118)

Wenn es aber über die betriebene Physik hinaus um philosophische Fragen der Physik geht, ist die vorliegende Untersuchung über die prinzipielle Möglichkeit eliminativer Reduktionen und die Unterscheidung zwischen Theoriennachbarschaft und „echter“ Reduktion wiederum von Interesse. Zu 1 Vgl.

zum Beispiel Hooker 2004, Redhead 2004 oder Belot 2005 für Kritik an Battermans Arbeit und Batterman 2005 für eine Erwiderung.

286

solchen Fragen gehören etwa die, ob und in welchem Sinne man von einer Einheit der Physik sprechen kann, welchen Status eine denkbare Theory of Everything hätte, an deren Aufstellung schließlich intensiv gearbeitet wird, oder welche ontologische Sicht auf die Welt der Physik angemessen ist. Inwiefern das Ergebnis der vorliegenden Arbeit zu diesen Fragen etwas beitragen kann, soll nun abschließend noch kurz angedeutet werden. 6.2 Einheit der Physik, Theorie von Allem und pluralistische Ontologie

Zu dem ersten Punkt der Einheit der Physik ist zu sagen, dass eine solche Einheit oft reduktionistisch gedacht wird und auf der Vorstellung beruht, Theorien würden durch Reduktionsbeziehungen vereint: „[...] many contemporary discussions focus on what I call the ,unity as reduction‘ (UAR) model. UAR makes two claims: (1) scientific unity is a relationship between theories, and (2) theories are unified when a macro-level (or specialized) theory is reduced to a micro-level (or more general) theory. Although philosophers have offered many different analyses of reduction, the claim that the unity of science should be understood in terms of the reduction of theories is assumed by both defenders and critics of unity.“ (Grantham 2004, S.134)

Diese Auffassung bringt es nun vor allem mit sich, dass das Scheitern reduktionistischer Ansätze gegen eine Einheit der Physik sprechen würde. So kündigt Feyerabend als Konsequenz seiner im zweiten Kapitel diskutierten antireduktionistischen Position allen Einheitsvorstellungen auf und spricht sich später mit seinem erkenntnistheoretischen Anarchismus für einen ungezähmten Methodenpluralismus aus. Angesichts des scheiternden Reduktionismus plädieren weiterhin auch Dupré 1993 und Hacking 1996 für die Sichtweise einer Disunity of Science, und Cartwright 1999 schließlich spricht darüber hinausgehend sogar von einer dappled world, also einer ontologisch „gestückelten“ Welt, die entsprechend nur von einem Theorienflickwerk und nicht von einer einheitlichen Wissenschaft beschrieben werden kann (die ontologische Fragestellung des Reduktionsproblems wird unten noch diskutiert). Allerdings muss eine Einheit der Physik nicht durch Reduktionen erzielt werden. Schon in Darden/Maull 1977 ist in diesem Sinne von interfield theories die Rede, die nicht verschiedene Theorien, sondern Forschungsfelder2 miteinander verbinden, und zwar nicht in Form einer Reduktion, sondern als eigene verbindende Theorie: „An interfield theory postulates a 2 Diese

werden in Cat 2007 wie folgt charakterisiert: „Fields [...] are individuated by a focal problem, a domain of facts related to the problem, explanatory goals, methods and a vocabulary“ (a.a.O., Abschnitt 2.5.1).

287

connection between the entities or processes which are studied by distinct fields“ (Grantham 2004, S.137). Eine ähnliche Position vertritt Kincaid 1997 mit der Forderung nach integrated inter-level theories, und Grantham 2004 schließlich entwirft das Konzept einer unity as interconnection: „[...] conceptualizing unity as ,interconnection‘ (rather than reduction) provides a more fruitful and versatile framework for the philosophical study of scientific unification. According to this alternative conception, fields are unified to the extent that they are densely connected“ (a.a.O., S.134). Mit einer solchen Konzeption lässt sich von einer Einheit auch dann sprechen, wenn keine Reduktionen vorliegen – Reduktionen wären lediglich Spezialfälle bei der Etablierung einer Einheit der Physik: „Even when reduction fails, the concepts and ontologies of the theories may be closely connected and the two theories can be strongly interdependent with regard to their heuristics, methods of conformation, and explanations“ (a.a.O., S.140). Wenn nun die vorliegende Arbeit gezeigt hat, dass es nur wenige Beispiele eliminativer Reduktionen gibt, muss das nicht gegen eine Einheit der Physik sprechen, da diese nicht auf Reduktionen beruhen muss. Schließlich wurde auch das Konzept der Nachbarschaft erarbeitet, das ähnlich wie das der Granthamschen interconnection zwischen Forschungsfeldern Verbindungen zwischen Theorien beschreibt, und damit eine Einheit durch Nachbarschaft stiften kann: Auf Vergleichsannahmen beruhende Näherungsbeziehungen und vor allem produktives Zusammenarbeiten3 im Rahmen einer Nachbarschaftsrelation zeigen, dass benachbarte Theorien nicht wie bei Feyerabend isoliert nebeneinander stehen, sondern sich gemeinsam entwickeln und ein dicht geknüpftes Netz bilden. Es gibt zwar keine fundamentale Theorie, die alle Physik eliminativ enthielte, sondern viele eigenständige Theorien und Konzepte, die aber eng miteinander verwoben sind und ein Theoriennetz bilden, das im Rahmen von Nachbarschaft als einheitliche Physik bezeichnet werden kann. Die Nachbarschaft als Theorie zwischentheoretischer Beziehungen liefert damit ein Einheitskonzept zwischen den Extrempositionen eines eliminativen Reduktionismus, wie ihn etwa Scheibe für die Physik anstrebt,4 und eines ungezähmten Pluralismus im Sinne Feyerabends, Duprés oder Cartwrights, spricht damit für die Eigenständigkeit verschiedener Theorien einerseits und gegen Beliebigkeit bei der Methodenwahl 3

Die oben erwähnte notwendige Zusammenarbeit verschiedener Theorien, die Batterman 2002 in seinen Beispielen herausstellt, wird in Cat 2007 als Hybridbildung bezeichnet und als ein weiterer Fall für nichtreduktive Einheitsstiftung in Anschlag gebracht: „The emergence and development of hybrid disciplines and theories is another instance of non-reductive cooperation or interaction between sciences“ (a.a.O., Abschnitt 2.5.8). 4 Seine Arbeit versteht sich im Untertitel als „Ein Beitrag zur Einheit der Physik“ (Scheibe 1997 und 1999).

288

andererseits – womit die Unterscheidung zwischen Theoriennachbarschaft und Reduktion alles in allem eine angemessene Sichtweise auf die Welt physikalischer Theorien verspricht. Eng mit diesen Einheitsüberlegungen innerhalb der Physik hängt nun die Frage nach dem Status der gesuchten Theory of Everything zusammen – diese erhebt ihrem Namen nach schließlich den Anspruch, alle Physik zu enthalten, und könnte auch damit wiederum eine Art Einheit stiften. Nun hat die vorliegende Arbeit allerdings gezeigt, dass dieses Enthaltensein nicht im Sinne einer eliminativen Reduktion gemeint sein kann. Mit der Theory of Everything wird üblicherweise die angestrebte Vereinigung von Allgemeiner Relativitätstheorie und Quantentheorie bezeichnet – und für diese beiden Theorien wurde jeweils herausgearbeitet, dass sie die Newtonsche Mechanik nicht überflüssig machen: Sowohl die Newtonsche Gravitationsphysik als auch überhaupt die Newtonsche Beschreibung der makroskopischen Welt sind nicht eliminativ reduziert, und aus den jeweils angeführten Gründen ohne weiteres auch nicht reduzierbar. Bei den Kandidaten für eine Theorie von Allem handelt es sich darüber hinaus um mehrdimensionale Stringtheorien, die sowohl von der ART als auch von der Quantentheorie so weit entfernt sind, dass es sich selbst bei dem Verhältnis zu diesen Theorien nicht um das einer eliminativen Reduktion handeln wird, sondern eher um eine Nachbarschaft. Diese beiden Theorien haben schließlich zunächst nicht viel miteinander zu tun – während die ART in der makroskopischen Welt der Kosmologie angewendet wird, beschreibt die Quantenmechanik die Mikrowelt. Wenn diese beiden Theorien nun innerhalb der Welt subatomarer Teilchen unvereinbar sind, könnte dagegen eine dritte Theorie für diesen Bereich, die gesuchte Theorie von Allem, zu beiden Theorien benachbart sein – dies könnte den Status einer solchen Theorie ausmachen. Sie würde damit weder die ART noch die Quantenmechanik eliminativ reduzieren, ganz zu schweigen von anderen physikalischen Theorien. Zu letzteren muss sie nicht einmal benachbart sein, da diese Relation schließlich nicht transitiv ist – in welchem Sinne etwa die physikalische Akustik zu einer Superstringtheorie benachbart sein sollte, ist nicht zu sehen. Benachbart wäre diese lediglich zu ihren beiden unmittelbaren Theorievorgängern, zu der ART und der Quantenfeldtheorie. Dass eine solche Theorie von Allem jedenfalls für die meisten der in der Physik untersuchten Phänomene keine Erklärungen liefert, ist auch innerhalb der Physik unbestritten. Wie oben schon erwähnt, werden in der Physik ganz pragmatisch für das jeweils zu erklärende Phänomen Mischerklärungen verschiedener Theorien verwendet, die reduktiv sein können, aber nicht müssen. Und zu den meisten Phänomenen haben fundamentale Theorien nichts beizutragen: „Today, very few scientists defend classical reductionism in practice: a physicist studying how glue sticks (not to men-

289

tion a biologist or an economist) usually does not expect string theory to solve their problems“ (Ruphy 2005. S.118). So spricht etwa der im ersten Kapitel erwähnte Teilchenphysiker Steven Weinberg nicht von einer Theorie von Allem, sondern hält lediglich eine endgültige Theorie für möglich und erreichbar und räumt unumwunden ein, dass diese außerhalb der fundamentalen Physik nicht viel zu bieten hätte. Entsprechend äußerte er sich jüngst in der deutschen Ausgabe der Lettre International: „Diese Theorie wird, auch wenn ich sie eine endgültige Theorie nenne, nicht das Ende des Weges für die Wissenschaft bedeuten. Sie wird keine Theorie von allem sein, eine Theorie, die alle wissenschaftlichen Probleme löst“ (Weinberg 2008, S.219f.). Als Beispiel für ein Phänomen, zu dessen Erklärung von einer solchen Theorie keine nennenswerten Beiträge zu erwarten stehen, nennt er ein Problem der in Abschnitt 2.5 kurz angesprochenen Strömungslehre: „Wir haben schon eine Menge wissenschaftlicher Probleme, die überhaupt nicht erklärt werden. Eines davon ist, um ein Beispiel aus der Physik zu nennen, das Verstehen des Strömens einer Flüssigkeit, wenn sie turbulent wird. Vor diesem Problem stehen wir seit hundert Jahren, es entzieht sich noch immer einer Lösung, und es könnte sich auch lange nach dem Erfolg der endgültigen Theorie der Elementarteilchen einer Lösung widersetzen, wenn wir alles, was wir über die Grundprinzipien von Flüssigkeiten wissen müssen, schon verstanden haben. Wir wissen einfach nicht, wie wir mit dem komplizierten Strömungsverhalten einer Flüssigkeit umgehen sollen, in der Wirbel von größeren Wirbeln befördert werden, die ihrerseits von noch größeren Wirbeln befördert werden – der charakteristischen Erscheinung von Turbulenz. Wie bei vielen der interessantesten Probleme der Physik sind auch hier Computer nur eine begrenzte Hilfe, weil sie uns nur sagen, was unter einer Vielzahl spezieller Umstände geschehen wird, und das könnten wir ebensogut aus einem Experiment entnehmen. Was wir wirklich gern verstehen würden, sind die universellen Eigenschaften einer stark entwickelten Turbulenz unter allen Umständen.“ (a.a.O., S.220)

Über solche konkrete Phänomene hinaus wurde in dieser Arbeit gezeigt, dass die Möglichkeiten fundamentaler Theorien, Phänomene etwa der Newtonschen Physik zu erklären, beschränkt sind, was für eine Theorie, die noch einmal deutlich weiter von dieser entfernt ist, als die ART bzw. die Quantenmechanik ohnehin schon, erst recht gilt: Mehrdimensionale Stringtheorien mögen zwar den Aufbau und die Wechselwirkungen von Elementarteilchen beschreiben, aber ob sie selbst auf die in Abschnitt 4.4 diskutierten Phänomene, die von der Quantenmechanik erklärt werden, anwendbar sind, darf bezweifelt werden. Was nun den Status der Theorie von Allem betrifft, muss daher konstatiert werden, dass sie, was die Erklärung von Phänomenen betrifft, außerhalb der Welt subatomarer Teilchen geradezu als eine Theorie von Nichts dasteht. Und wenn es statt um Phänomenerklärungen um direkte Theorienbeziehungen geht, scheint

290

es sich ausschließlich um eine Theorie der Nachbarschaft von Allgemeiner Relativitätstheorie und Quantenfeldtheorie zu handeln. Das liefert in oben diskutiertem Sinne natürlich viel für die Einheit der Physik – und neue Erkenntnisse, die auch für die makroskopische Welt relevant sind, sollen hier nicht ausgeschlossen werden. Aber die Bezeichnung einer solchen fundamentalen Theorie als eine Theorie von Allem scheint übertrieben zu sein. Sie mag zwar für alles insofern gelten, als alles aus subatomaren Bestandteilen aufgebaut ist, liefert aber abgesehen davon für den größten Teil der Physik weder Erklärungen noch Nachbarschaftsrelationen. Da die ART bei der Erklärung zahlreicher Gravitationsphänomene und die Quantenmechanik überhaupt nur im Wechselspiel mit der Newtonschen Mechanik angewendet werden können, sind insbesondere eliminative Reduktionen, die, wie in Abschnitt 2.4 herausgearbeitet, nicht transitiv sind, von Theorien höherer Beschreibungsebenen auf eine solche fundamentale Theorie – selbst prinzipiell – undenkbar. Was nun das im ersten Kapitel kurz angesprochene Verhältnis der weiteren Naturwissenschaften zur Physik betrifft, so gilt hier trivialerweise, was eben allein schon für die Situation innerhalb der Physik festgehalten wurde: Eine eliminative Reduktion auf eine fundamentale physikalische Theorie ist selbst im Prinzip nicht möglich. Dass eine solche Theorie zum Beispiel auf Phänomene der Biologie nicht anwendbar ist, liegt auf der Hand: „Natürlich wird eine endgültige Theorie der Physik für die Biologie nicht von sonderlichem Nutzen sein“ (Weinberg 2008, S.220). Da aber Reduktionen im Sinne von 2.4 nicht transitiv sind und schon innerhalb der Physik prinzipielle Grenzen eliminativer Reduktionen aufgezeigt wurden, handelt es sich dabei nicht nur um eine praktische, sondern ebenfalls um eine prinzipielle Unmöglichkeit. Für die anderen Naturwissenschaften gilt ohnehin, was oben über die Physik gesagt wurde: Es werden mit allen zur Verfügung stehenden Methoden in Einzelfallerklärungen konkrete Phänomene beschrieben, wobei reduktive Erklärungen fruchtbar sein können, aber nicht sein müssen – dies hängt vom jeweiligen Einzelfall ab, und eine allgemeine reduktionistische oder antireduktionistische Position wäre fehl am Platz. Es gilt nicht, eliminative Reduktionen, am Ende gar auf eine Theorie von Allem, anzustreben, sondern zahlreiche noch unverstandene konkrete Phänomene zu erklären, von denen hauptsächlich wiederum aus der Physik mit Laughlin/Pines 2000 einige aufgezählt seien: „Rather than a Theory of Everything we appear to face a hierarchy of Theories of Things [...]. How do proteins work their wonders? Why do magnetic insulators superconduct? Why is 3 He a superfluid? Why is the electron mass in some metals stupendously large? Why do turbulent fluids display patterns? Why does black

291

hole formation so resemble a quantum phase transition? Why do galaxies emit such enormous jets? The list is endless, and it does not include the most important questions of all, namely those raised by discoveries yet to come.“ (a.a.O., S.30)

Alle diese Phänomene bedürfen eigenständiger Erklärungen, die typischerweise auf einer Zusammenarbeit verschiedener eigenständiger Theorien beruhen und sich jedenfalls nicht von einer fundamentalen Theorie von Allem erhoffen lassen. Insgesamt lässt sich also festhalten, dass es in der Physik und in der Naturwissenschaft überhaupt zahlreiche eigenständige Theorien gibt, unter denen historische Fälle eliminativer Reduktionen ganzer Theorien und eliminative reduktive Erklärungen bestimmter einzelner Phänomene auftreten, im Allgemeinen aber Einheit durch Nachbarschaft gestiftet wird. Zum Abschluss soll nun noch kurz die Frage verfolgt werden, inwiefern diese Sichtweise auf die Wissenschaft Konsequenzen für unsere ontologische Vorstellung von der Welt hat. Es gibt hier, ganz ähnlich wie bei dem oben diskutierten Problem der Einheit der Wissenschaft, pluralistische Positionen, die mit antireduktionistischen Argumenten begründet werden. So heißt etwa die Arbeit von Dupré 1993 The Disorder of Things und es ist dort explizit von einem „radical ontological pluralism“ (S.94) die Rede. Cartwrights Position einer dappled world (Cartwright 1999) wurde schon erwähnt, aber auch etwa Rohrlich 1988 plädiert für eine pluralistische Ontologie. Während nun der Schluss von der Nichtreduzierbarkeit von Theorien auf eine entsprechend nicht vorhandene Einheit der Wissenschaft, wie gesehen, nicht notwendig ist, ist der Schluss von dieser Prämisse auf einen ontologischen Pluralismus nicht einmal zulässig. Selbst wenn man nämlich mit Quine die Entitäten einer Theorie als ontologische Annahmen versteht, zu denen naturwissenschaftliche Theorien verpflichten, lässt sich von einem epistemologischen Pluralismus nicht auf einen entsprechenden ontologischen schließen: „If one adopts a Quinean take on ontology, the success of reductionism does entail ontological order, but this certainly does not imply that the failure of reductionism entails ontological disorder. This is a very simple logical point“ (Ruphy 2005, S.116). Andererseits wird die Begründung eines ontologischen Monismus mit reduktionistischen Argumenten genauso unzulässig, sobald diese Argumente nicht mehr haltbar sind – und letzteres zeigt die vorliegende Arbeit. Eine ontologische Position muss sich mithin auf andere Argumente stützen und kann der Reduktionsdebatte nicht viel entnehmen. Allenfalls ist ein Schluss auf die beste Erklärung möglich, der aber wiederum für einen ontologischen Pluralismus spräche, der die aufgezeigte Vielfalt physikalischer Theorien am ehesten erklären würde: „[...] it [der oben zitierte logische Punkt] admittedly leaves open that the failure of reductionism may still support

292

metaphysical disorder via inference to the best explanation“ (ebd.). Da eine Einheit der Wissenschaft nicht durch eliminative Reduktionen, sondern höchstens durch Nachbarschaft gewährleistet ist, da es keine alle weitere Wissenschaft enthaltene fundamentale Theorie gibt, sondern man eher von einem Netz benachbarter Theorien sprechen muss, könnten dem auf ontologischer Seite verschiedene ontologische Schichten entsprechen, die sich mit ähnlichen Mitteln beschreiben lassen. Dagegen spricht natürlich das Argument der ontologischen Sparsamkeit und vor allem der Umstand, dass die Objekte höherer Beschreibungsebenen aus solchen fundamentaler Beschreibungsebenen zusammengesetzt sind – selbst wenn man angesichts der immer wieder stattfindenden wissenschaftlichen Umwälzungen nie endgültig sicher sein kann, eine tatsächlich grundlegende Theorie gefunden zu haben, gibt es solche Relationen des Zusammengesetztseins. Für diese als Mikroreduktion bezeichnete Relation konstatiert nun Hüttemann 2004, dass die entsprechenden Mikroerklärungen nicht asymmetrisch sind: Man kann nicht nur die Eigenschaften des Ganzen aus denen seiner Teile erklären, sondern auch in der anderen Richtung Schlüsse aus dem Ganzen auf seine Teile ziehen. Dies führt ihn zu einem pragmatic pluralism (a.a.O, S.124) als angemessene Sichtweise, wonach die Entitäten reduzierter Theorien zwar schon aus solchen reduzierender Theorien zusammengesetzt sind, aber dennoch eine gewisse ontologische Eigenständigkeit besitzen, die sich in den besagten möglichen Erklärungsleistungen widerspiegelt. Und Atmanspacher/Kronz 1999 unternehmen mit ihrem Konzept der relative onticity ebenfalls den Versuch, in diesem Zusammenhang die Vorstellung verschiedener ontologischer Schichten plausibel zu machen: „The central issue of the general concept of relative onticity is that states and properties of a system, which are treated epistemically at a given level of description, can be considered as ontic from the perspective of a higher level. Objects can be epistemically described to be composed of lower level objects, but alternatively they can be ontically described as wholes, giving rise to ,building blocks‘ of higher level objects.“ (a.a.O., S.283)

Darauf und auf die hauptsächlich durch Cartwright 1999 angestoßene Debatte zwischen den genannten Positionen einer pluralistischen Ontologie und denen eines ontologischen Fundamentalismus (vgl. etwa Smith 2001, Hoefer 2003 und Teller 2004) soll hier aber nicht weiter eingegangen werden. Ebenso soll der Umstand auf sich beruhen bleiben, dass in der Quantenmechanik Elementarteilchen in verschränktem Zustand eine eigenständige ontologische Größe bilden könnten, die sich nicht auf ihre Bestandteile reduzieren lässt, wofür unter anderem Silberstein/McGeever 1999 und Kronz/Tiehen 2002 argumentieren. Es soll hier lediglich noch

293

darauf hingewiesen werden, dass es innerhalb der Quantenfeldtheorie unklar ist, welchen ontologischen Status Elementarteilchen haben: Als Wesen zwischen Teilchen und Feld kommt für diese der klassische Substanzbegriff nicht in Frage, und es werden unter anderem Prozessontologien erwogen, die es allerdings schwer verständlich erscheinen lassen, wie aus Prozessen unsere makroskopische Welt aufgebaut sein kann (vgl. Kuhlmann et al. 2002 für einen Überblick). Jedenfalls lässt das Ergebnis dieser Arbeit die Position eines ontologischen Pluralismus nicht völlig abwegig erscheinen. Wie eine solche Position aber genau ausbuchstabiert werden könnte, ist eine andere Frage, die hier nicht mehr diskutiert werden soll. Unabhängig von den ontologischen Schlüssen, die man daraus ziehen könnte, ergibt sich also insgesamt besagtes Bild von einem Theoriennetz statt der Konvergenz zu einer alles umfassenden Theorie, von einem Theorienföderalismus der Zusammenarbeit verschiedener eigenständiger Theorien bei der Erklärung von Phänomenen statt eines Theorienimperialismus der Rückführung aller Theorien auf eine grundlegende Theorie von Allem. Die Suche nach fundamentalen Theorien ist nichtsdestotrotz sinnvoll, da sie Nachbarschaft und in diesem Sinne Einheit stiften können, und überhaupt bleibt der Reduktionismus als heuristische Triebfeder ohnehin virulent. Aber diese Arbeit zeigt, dass sich in den meisten Fällen Behauptungen, nach denen Theorien im Prinzip eliminativ auf andere reduzierbar seien, bei näherem Hinsehen als nur schwer haltbar erweisen. Die Einheit der Physik kann daher nicht auf Reduktionen auf fundamentale Theorien beruhen, sondern muss sich mit Theoriennachbarschaft bescheiden – es bleibt bei einer Einheit ohne Fundament.

294

Literaturverzeichnis Achinstein, Peter 1968 Concepts of Science The Johns Hopkins Press, Baltimore Adams, Ernest W. 1959 „The Foundations of Rigid Body Mechanics and the Derivation of its Laws from those of Particle Mechanics“ in: Henkin, L., Suppes, P., und Tarski, A. (Hrsg.) The Axiomatic Method North-Holland, Amsterdam, 250-265 Aerts, Diederik und Rohrlich, Fritz 1998 „Reduction“ Foundations of Science 1, 27-35 Albert, David Z. 2000 Time and Chance Harvard University Press, Cambridge, Massachusetts Allahverdyan, Armen E. und Nieuwenhuizen, Theo M. 2006 „Explanation of the Gibbs paradox within the framework of quantum thermodynamics“ Physical Review E73, 066119 Alonso, Marcelo und Finn, Edward J. 1992 Physics Addison-Wesley, Wokingham, England Anderson, Philip W. 1972 „More is Different“ Science 177 (4047), 393-396 Atmanspacher, Harald und Kronz, Frederick M. 1999 „Relative Onticity“ in: Atmanspacher, H., Amann, A. und Müller-Herold, U. (Hrsg.) On Quanta, Mind and Matter Kluwer, Dordrecht, 273-294 Bacciagaluppi, Guido 2007 „The Role of Decoherence in Quantum Mechanics“ The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (Hrsg.) (http://plato.stanford.edu/archives/fall2008/entries/qm-decoherence/) Balzer, Wolfgang, Pearce, David A. und Schmidt, Heinz-Jürgen (Hrsg.) 1984 Reduction in Science: Structure, Examples, Philosophical Problems Reidel, Dordrecht Barnett, David 2002 „Hempel on Intertheoretic Reduction“ Florida Philosophical Review II(2), 26-40 Bartels, Andreas 1994 Bedeutung und Begriffsgeschichte: Die Erzeugung wissenschaftlichen Verstehens Schöningh, Paderborn

296

— 1996 „Chains of Meaning: A Model for Concept Formation in Contemporary Physics Theories“ Synthese 105(3), 347-379 — 2002 „Das Gödel-Universum und die Philosophie der Zeit“ in: Buldt, B. et al. (Hrsg.) Kurt Gödel: Wahrheit und Beweisbarkeit, Band 2, Hölder-PichlerTempsky, Wien, 231-250 Bartels, Andreas und Stöckler, Manfred (Hrsg.) 2007 Wissenschaftstheorie. Ein Studienbuch Mentis, Paderborn Batterman, Robert W. 1998 „Why Equilibrium Statistical Mechanics Works: Universality and the Renormalization Group“ Philosophy of Science 65, 183-208 — 2002 The Devil in the Details: Asymptotic Reasoning in Explanation, Reduction, and Emergence Oxford University Press, New York — 2005 „Response to Belot’s ,Whose Devil? Which Details? ‘“ Philosophy of Science 72, 154-163 — 2007 „Intertheory Relations in Physics“ The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (Hrsg.) (http://plato.stanford.edu/archives/fall2008/entries/physics-interrelate/) Beckermann, Ansgar, Flohr, Hans und Kim, Jaegwon (Hrsg.) 1992 Emergence or Reduction? de Gruyter, Berlin Belot, Gordon 2005 „Whose Devil? Which Details?“ Philosophy of Science 72, 128-153 Bickle, John 1998 Psychoneural Reduction: The New Wave The MIT Press, Cambridge, Massachusetts — 2006 „Ruthless Reductionism in Recent Neuroscience“ IEEE Transactions on Systems, Man, and Cybernetics 36, 134-140 Block, Ned 1997 „Anti-Reductionism Slaps Back“ Philosophical Perspectives 11, 107-132 Bohr, Niels 1923 „Über die Anwendung der Quantentheorie auf den Atombau“ Zeitschrift für Physik 13, 117-165 — 1933 „Light and Life“ Nature 131, 421-23, 457-59 Callender, Craig 1999 „Reducing Thermodynamics to Statistical Mechanics: The Case of Entropy“ The Journal of Philosophy 96(7), 348-373 — 2001 „Taking Thermodynamics Too Seriously“ Studies in the History and Philosophy of Modern Physics 32(4), 539-553 Cartwright, Nancy 1983 How the Laws of Physics Lie Clarendon Press, Oxford

297

— 1999 The Dappled World: A Study of the Boundaries of Science Cambridge University Press, Cambridge Cat, Jordi 2007 „The Unity of Science“ The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (Hrsg.) (http://plato.stanford.edu/archives/fall2008/entries/scientific-unity/) Causey, Robert L. 1976 The Unity of Science Reidel, Dordrecht Darden, Lindley und Maull, Nancy 1977 „Interfield Theories“ Philosophy of Science 44, 43-64 Delbrück, Max 1949 „A Physicist Looks at Biology“ Transactions of the Connecticut Academy of Science 38, 173-90 Dieks, Dennis und van Dijk, Vincent 1988 „Another look at the quantum mechanical entropy of mixing“ American Journal of Physics 56(5), 430-434 Drieschner, Michael 2004 „Die Quantenmechanik – eine Revolution der Naturphilosophie?“ Philosophia Naturalis 41, 187-225 Dupré, John 1983 „The Disunity of Science“ Mind 42, 321-346 — 1993 The Disorder of Things: Metaphysical Foundations of the Disunity of Science Harvard University Press, Cambridge, Massachusetts — 2002 „The Lure of the Simplistic“ Philosophy of Science 69, 284-293 Einstein, Albert 1969 Grundzüge der Relativitätstheorie Akademie-Verlag, Berlin Endicott, Ronald 2001 „Post-Structuralist Angst – Critical Notice: John Bickle, Psychoneural Reduction: The New Wave“ Philosophy of Science 68(3), 377-393 Ernst, Gerhard 2003 Die Zunahme der Entropie. Eine Fallstudie zum Problem nomologischer Reduktion Mentis, Paderborn Esfeld, Michael 2006 „Der neue Reduktionismus“ in: Abel, G. (Hrsg.) Kreativität Meiner, Hamburg, 951-965 Faye, Jan 2008 „Copenhagen Interpretation of Quantum Mechanics“ The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (Hrsg.) (http://plato.stanford.edu/archives/fall2008/entries/qm-copenhagen/) Feyerabend, Paul K. 1962 „Explanation, Reduction, and Empiricism“ in: Feigl, H. und Maxwell, G. (Hrsg.) Scientific Explanation, Space, and Time University of Minnesota Press, Minneapolis, 28-97 — 1970 „Consolations for the Specialist“ in: Lakatos, I. und Musgrave, A. (Hrsg.) Criticism and the Growth of Knowledge Cambridge University Press, Cambridge, 197-230

298

— 1975 Against Method New Left Books, London — 1981 Probleme des Empirismus Vieweg, Braunschweig Fodor, Jerry A. 1974 „Special Sciences, or the Disunity of Science as a Working Hypothesis“ Synthese 28, 97-115 — 1997 „Special Sciences: Still Autonomous after All These Years“ in: Tomberlin, J. (Hrsg.) Mind, Causation, and World, 149-163 Forster, Malcolm R. und Kryukov, Alexey 2003 „The Emergence of the Macroworld: A Study of Intertheory Relations in Classical and Quantum Mechanics“ Philosophy of Science 70, 1039-1051 Frank, Philipp 1947 Foundations of Physics University of Chicago Press, Chicago, Illinois Friedman, Kenneth 1982 „Is Intertheoretic Reduction Feasible?“ The British Journal for the Philosophy of Science 33, 17-40 Friedman, Michael 1983 Foundations of Space-Time Theories Princeton University Press, Princeton, New Jersey Gähde, Ulrich 2007 „Modelle der Struktur und Dynamik wissenschaftlicher Theorien“ in: Bartels/Stöckler 2007, 45-65 Gerthsen, Christian und Vogel, Helmut 1995 Physik Springer, Berlin, Heidelberg Giulini, Domenico, Joos, Erich, Kiefer, Claus, Kupsch, Joachim, Stamatescu, IonOlimpiu und Zeh, H. Dieter (Hrsg.) 1996 Decoherence and the Appearance of a Classical World in Quantum Theory Springer, Berlin, Heidelberg, New York Grantham, Todd A. 2004 „Conceptualizing the (Dis)unity of Science“ Philosophy of Science 71, 133-155 Hacking, Ian 1996 „The Disunities of Science“ in: Galison, P. und Stump, D.J. (Hrsg.) The Disunity of Science Stanford University Press, Stanford, 37-74 Hellman, Geoffrey 1999 „Reduction(?) to what?“ Philosophical Studies 95, 203214 Hempel, Carl G. und Oppenheim, Paul 1948 „Studies in the Logic of Explanation“ Philosophy of Science 15, 135-175, nachgedruckt in Hempel 1965b, 245-290 Hempel, Carl G. 1965a „Aspects of Scientific Explanation“ in: Hempel 1965b, 331-496 — 1965b Aspects of Scientific Explanation and Other Essays in the Philosophy of Science Free Press, New York Hoefer, Carl 2003 „For Fundamentalism“ Philosophy of Science 70, 1401-1412

299

Hooker, Clifford A. 1981 „Towards a General Theory of Reduction. Part I-III“ Dialogue 20, 38-59, 201-236, 496-529 — 2004 „Asymptotics, Reduction and Emergence“ The British Journal for the Philosophy of Science 55, 435-479 Hoyningen-Huene, Paul 1985 „Zu Problemen des Reduktionismus der Biologie“ Philosophia Naturalis 22, 271-286 — 1992 „On the Way to a Theory of Antireductionist Arguments“ in: Beckermann et al. 1992, 289-301 — 1993 „Zankapfel Reduktionismus“ Merkur 47(5), 399-409 — 2007 „Reduktion und Emergenz“ in: Bartels/Stöckler 2007, 177-197 Hüttemann, Andreas 2004 What’s Wrong With Microphysicalism? Routledge, London, New York — 2005 „Explanation, Emergence, and Quantum Entanglement“ Philosophy of Science 72, 114-127 Joos, Erich 1990 „Die Begründung klassischer Eigenschaften aus der Quantentheorie“ Philosophia Naturalis 27, 31-42 — 1996a „Introduction“ in: Giulini et al. 1996, 1-3 — 1996b „Decoherence Through Interaction with the Environment“ in: Giulini et al. 1996, 35-136 Kamlah, Andreas 1985 „On Reduction of Theories“ Erkenntnis 22, 119-142 van Kampen, Nico G. 1984 „The Gibbs Paradox“ in: Parry, W. E. (Hrsg.) Essays in Theoretical Physics in Honour of Dirk ter Haar Pergamon, Oxford, 303-312 Kanitscheider, Bernulf 1979 Philosophie und moderne Physik Wissenschaftliche Buchgesellschaft, Darmstadt Kemeny, John und Oppenheim, Paul 1956 „On Reduction“ Philosophical Studies 7, 6-19 Kiefer, Claus 1996 „Consistent Histories and Decoherence“ in: Giulini et al. 1996, 157-186 Kim, Jaegwon 1998 Mind in a Physical World The MIT Press, Cambridge, Massachusetts Kincaid, Harold 1997 Individualism and the Unity of Science, Rowman and Littlefield, Lanham, Maryland

300

Kistler, Max 2006a „New perspectives on reduction and emergence in physics, biology and psychology“ Synthese 151, 311-312 — 2006b „Reduction and emergence in the physical sciences: Reply to Rueger“ Synthese 151, 347-354 Krips, Henry 2007 „Measurement in Quantum Theory“ The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (Hrsg.) (http://plato.stanford.edu/archives/fall2008/entries/qt-measurement/) Kronz, Frederick M. und Tiehen, Justin T. 2002 „Emergence and Quantum Mechanics“ Philosophy of Science 69, 324-347 Kroon, Frederick W. 1992 „Against Ontological Reduction“ Erkenntnis 36, 53-81 Kuhlmann, Meinhard, Lyre, Holger und Wayne, Andrew (Hrsg.) 2002 Ontological Aspects of Quantum Field Theory World Scientific, Rivers Edge, New Jersey Kuhlmann, Meinhard 2007 „Theorien komplexer Systeme: Nicht-fundamental und doch unverzichtbar?“ in: Bartels/Stöckler 2007, 307-328 Kuhn, Thomas S. 1962 The Structure of Scientific Revolutions University of Chigaco Press, Chigaco Landau, Lev D. und Lifshitz, Evgeny M. 1977 Quantum Mechanics: Nonrelativistic Theory Pergamon Press, Oxford Landsman, Nicholas P. 2007 „Between Classical and Quantum“ in: Butterfield, J. und Earman, J. (Hrsg.) Philosophy of Physics Elsevier, Amsterdam, 417-553 Laughlin, Robert B. und Pines, David 2000 „The Theory of Everything“ Proceedings of the National Academy of Sciences 97, 28-31 Lavis, David A. 2005 „Boltzmann and Gibbs: an attempted reconciliation“ Studies in the History and Philosophy of Modern Physics 36, 245-273 Liu, Chang 2001 „Infinite Systems in SM Explanations: Thermodynamic Limit, Renormalization (semi-)Groups, and Irreversibility“ Philosophy of Science 68, 325-344 Lockie, Robert 2003 „Transcendental Arguments Against Eliminativism“ The British Journal for the Philosophy of Science 54, 569-589 Ludwig, Günther 1990 Die Grundstrukturen einer physikalischen Theorie Springer, Berlin, Heidelberg, New York Maull, Nancy 1977 „Unifying Science without Reduction“ Studies in the History and Philosophy of Science 8, 143-162 Mayr, Ernst 1982 The Growth of Biological Thought: Diversity, Evolution, and Inheritance Harvard University Press, Cambridge, Massachusetts

301

Mayr, Ernst und Weinberg, Steven 1988 „The Limits of Reductionism“ Nature 331, 475-476 Misner, Charles W., Thorne, Kip S. und Wheeler, John A. 1973 Gravitation W.H. Freeman and Company, New York Mitchell, Sandra 2008 Komplexitäten: Warum wir erst anfangen, die Welt zu verstehen Suhrkamp, Frankfurt am Main Morrison, Margaret 2000 Unifying Scientific Theories Oxford University Press, Oxford Moulines, C. Ulises 1984 „Ontological Reduction in the Natural Sciences“ in: Balzer et al. 1984, 51-70 Nagel, Ernest 1949 „The Meaning of Reduction in the Natural Sciences“ in: Stauffer, R. (Hrsg.) Science and civilization University of Wisconsin Press, Madison, 99-145 — 1961 The Structure of Science: Problems in the Logic of Explanation Harcourt, New York — 1970 „Issues in the Logic of Reductive Explanations“ in: Keifer, H. und Munits, M. (Hrsg.) Mind, Science, and History The State University of New York Press, Albany, New York, 117-137 Nagle, John F. 2004 „Regarding the Entropy of Distinguishable Particles“ Journal of Statistical Physics 117, 1047-1062 Needham, Paul 2002 „The discovery that water is H2O“ International Studies in the Philosophy of Science 16(3), 205-226 Neugebauer, Gernot und Meinel, Reinhard 1995 „General Relativistic Gravitational Field of a Rigidly Rotating Disk of Dust: Solution in Terms of Ultraelliptic Functions“ Physical Review Letters 75, 3046-3047 Nickles, Thomas 1973 „Two Concepts of Intertheoretic Reduction“ The Journal of Philosophy 70, 181-201 Niebergall, Karl-Georg 2000 „On the Logic of Reducibility: Axioms and Examples“ Erkenntnis 53, 27-61 — 2002 „Structuralism, Model Theory and Reduction“ Synthese 130, 135-162 North, Jill 2002 „What is the Problem about the Time-Asymmetry of Thermodynamics? – A Reply to Price“ The British Journal for the Philosophy of Science 53, 121-136

302

Oppenheim, Paul und Putnam, Hilary 1958 „Unity of Science as a Working Hypothesis“ in: Feigl, H., Scriven, M. und Maxwell, G. (Hrsg.) „Concepts, Theories, and the Mind-Body-Problem“ Minnesota Studies in the Philosophy of Science 2, 3-36 Ohanian, Hans C. 1994 Gravitation and Spacetime W.W. Norton and Company Ltd., New York Le Poidevin, Robin 2005 „Missing Elements and Missing Premises: A Combinatorial Argument for the Ontological Reduction of Chemistry“ The British Journal for the Philosophy of Science 56, 117-134 Planck, Max 1975 Vorträge und Erinnerungen, Wissenschaftliche Buchgesellschaft, Darmstadt Pollney, Denis, Reisswig, Christian, Rezzolla, Luciano, Szilagyi, Bela, Ansorg, Marcus, Deris, Barrett, Diener, Peter E., Dorband, Nils, Koppitz, Michael, Nagar, Alessandro und Schnetter, Erik 2007 „Recoil velocities from equal-mass binary black-hole mergers: a systematic investigation of spin-orbit aligned configurations“ ArXiv: gr-qc/07072559v1 Popper, Karl R. 1957 „The Aim of Science“ Ratio 1, 24-35 — 1973 Objektive Erkenntnis Hoffmann und Campe, Hamburg Price, Huw 1996 Time’s Arrow and Archimedes’ Point. New Directions for the Physics of Time Oxford University Press, New York, Oxford — 2002 „Boltzmann’s Time Bomb“ The British Journal for the Philosophy of Science 53, 83-119 Primas, Hans 1981 Chemistry, Quantum Mechanics and Reductionism Springer, Berlin, Heidelberg, New York — 1985 „Kann Chemie auf Physik reduziert werden?“ Chemie in unserer Zeit, 19, Teil 1: 109-119, Teil 2: 160-166 Quine, Willard Van Orman 1969 Ontological Relativity and Other Essays Colombia University Press, New York Redhead, Micheal 2004 „Discussion Note: Asymptotic Reasoning“ Studies in the History and Philosophy of Modern Physics 35B (3), 527-530 Reif, Frederick 1987 Fundamentals of Statistical and Thermal Physics McGrawHill, Singapore Rivadulla, Andrés 2004 „The Newtonian Limit of Relativity Theory and the Rationality of Theory Change“ Synthese 141, 417-429

303

Rohrlich, Fritz und Hardin, Larry 1983 „Established Theories“ Philosophy of Science 50, 603-617 Rohrlich, Fritz 1988 „Pluralistic Ontology and Theory Reduction in the Physical Sciences“ The British Journal for the Philosophy of Science 39, 295-312 — 2004 „Realism Despite Cognitive Antireductionism“ International Studies in the Philosophy of Science 18(1), 73-88 Roll-Hansen, Nils 1969 „On the Reduction of Biology to Physical Science“ Synthese 20, 277-289 Rosenberg, Alex und Kaplan, David M. 2005 „How to Reconcile Physicalism and Antireductionism about Biology“ Philosophy of Science 72, 43-68 Rueger, Alexander 2006 „Functional reduction and emergence in the physical sciences“ Synthese 151, 335-346 Ruphy, Stéphanie 2003 „Is the World Really ,Dappled‘? A Response to Cartwright’s Charge against ,Cross-Wise Reduction‘“ Philosophy of Science 70, 57-67 — 2005 „Why Metaphysical Abstinence Should Prevail in the Debate on Reductionism“ International Studies in the Philosophy of Science 19(2), 105-121 Sachse, Christian 2007 Reductionism in the Philosophy of Science Ontos, Frankfurt am Main Sarkar, Sahotra 1992 „Models of Reduction and Categories of Reductionism“ Synthese 91, 167-194 Schaffner, Kenneth F. 1967 „Approaches to Reduction“ Philosophy of Science 34, 137-147 — 1974 „The Peripherality of Reductionism in the Development of Molecular Biology“ Journal for the History of Biology 7, 111-129 — 1976 „Reductionism in Biology: Prospects and Problems“ in: Cohen, R.S. et al. (Hrsg.) PSA1974, Reidel, Dordrecht, 613-632 — 2006 „Reduction: the Cheshire cat problem and a return to roots“ Synthese 151, 377-402 Scheibe, Erhard 1997 Die Reduktion physikalischer Theorien Ein Beitrag zur Einheit der Physik Teil I: Grundlagen und elementare Theorie Springer, Berlin — 1999 Die Reduktion physikalischer Theorien Ein Beitrag zur Einheit der Physik Teil II: Inkommensurabilität und Grenzfallreduktion Springer, Berlin Schrödinger, Erwin 1951 Was ist Leben? Verlag Leo Lehnen, München Schurz, Gerhard 2007 „Wissenschaftliche Erklärung“ in: Bartels/Stöckler 2007, 69-88

304

Schutz, Bernard F. 2004 „The art and science of black hole mergers“ ArXiv: grqc/0410121v1 Sellars, Wilfrid 1963 Science, Perception and Reality Routledge and Kegan Paul, London Silberstein, Michael und McGeever, John 1999 „The Search for Ontological Emergence“ The Philosophical Quarterly 49, 182-200 Sklar, Lawrence 1967 „Types of Inter-Theoretic Reduction“ The British Journal for the Philosophy of Science 18, 109-124 — 1993 Physics and Chance: Philosophical Issues in the Foundations of Statistical Mechanics Cambridge University Press, Cambridge — 1999 „The Reduction(?) of Thermodynamics to Statistical Mechanics“ Philosophical Studies 95, 187-202 — 2003 „Dappled Theories in a Uniform World“ Philosophy of Science 70, 424441 Slater, Matthew H. 2005 „Monism on the One Hand, Pluralism on the Other“ Philosophy of Science 72, 22-42 Smith, Sheldon R. 2001 „Models and the Unity of Classical Physics: Nancy Cartwright’s Dappled World“ Philosophy of Science 68, 456-475 Sneed, Joseph D. 1971 The Logical Structure of Mathematical Physics Reidel, Dordrecht Spector, Marshall 1978 Concepts of Reduction in the Physical Science Temple University Press, Philadelphia Stegmüller, Wolfgang 1976 The Structure and Dynamics of Theories NorthHolland, Amsterdam Stephan, Achim 1999 Emergenz Dresden University Press, Dresden Stöckler, Manfred 1986 „Philosophen in der Mikrowelt – ratlos? Zum gegenwärtigen Stand des Grundlagenstreits in der Quantenmechanik“ Zeitschrift für allgemeine Wissenschaftstheorie XVII(1), 68-95 — 1998 „On the Unity of Physics in a Dappled World. Comment on Nancy Cartwright“ Philosophia Naturalis 35, 35-39 — 2007 „Philosophische Probleme der Quantentheorie“ in: Bartels/Stöckler 2007, 245-263 Stöltzner, Michael 2002 „Zeitreisen, Singularitäten und die Unvollständigkeit physikalischer Axiomatik“ in: Buldt, B. et al. (Hrsg.) Kurt Gödel: Wahrheit und Beweisbarkeit, Band 2, Hölder-Pichler-Tempsky, Wien, 289-304

305

Suppes, Patrick 1957 Introduction to Logic Van Nostrand, New York Teller, Paul 1995 An Interpretive Introduction to Quantum Field Theory Princeton University Press, Princeton, New Jersey — 2004 „How We Dapple the World“ Philosophy of Science 71, 425-447 Thalos, Mariam 2006 „Nonreductive Physics“ Synthese 149, 133-178 Trautman, Andrzej 1966 „Comparison of Newtonian and Relativistic Theories of Space -Time“ in: Hoffman, B. (Hrsg.) Perspectives in Geometry and Relativity Indiana University Press, Bloomington, London, 413-425 Weinberg, Steven 1993 Dreams of a Final Theory Hutchinson, London — 2008 „Kosmologische Zeitreise – Die Zukunft des Universums und die Vorläufigkeit der Wissenschaften“ Lettre International Berlin 81, 219-222 von Weizsäcker, Carl Friedrich 1985 Aufbau der Physik Hanser, München Woodward, James 2003 „Scientific Explanation“ The Stanford Encyclopedia of Philosophy (Fall 2008 Edition), Edward N. Zalta (Hrsg.) (http://plato.stanford.edu/archives/fall2008/entries/scientific-explanation/) Yi, Sang Wook 2003 „Reduction of Thermodynamics: A Few Problems“ Philosophy of Science 70, 1028-1038 Yoshida, Ronald M. 1977 Reduction in the Physical Sciences Dalhousie University Press, Halifax — 1981 „Reduction as Replacement“ The British Journal for the Philosophy of Science 32, 400-410 Zeh, H. Dieter 1996 „The Programm of Decoherence: Ideas and Concepts“ in: Giulini et al. 1996, 5-34