Die Fälschung des Realismus: Kritik des Antirealismus in Philosophie und theoretischer Physik [2. Aufl. 2019] 978-3-662-59511-4, 978-3-662-59512-1

Das Werk setzt sich kritisch mit dem Antirealismus in Philosophie und theoretischer Physik auseinander und plädiert für

588 89 2MB

German Pages VII, 262 [265] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Die Fälschung des Realismus: Kritik des Antirealismus in Philosophie und theoretischer Physik [2. Aufl. 2019]
 978-3-662-59511-4, 978-3-662-59512-1

Table of contents :
Front Matter ....Pages I-VII
Einführung (Norbert Hermann Hinterberger)....Pages 1-16
Im Reich des mathematischen Realismus und Strukturalismus (Norbert Hermann Hinterberger)....Pages 17-94
Die Gründe für den Rückzug auf den Strukturalismus (Norbert Hermann Hinterberger)....Pages 95-112
Der Mythos vom Rahmen (Norbert Hermann Hinterberger)....Pages 113-140
Kritik und Erkenntnisfortschritt (Norbert Hermann Hinterberger)....Pages 141-149
Im Universum von Kausalität und Zeit (Norbert Hermann Hinterberger)....Pages 151-163
Kosmologie der Zeit (Norbert Hermann Hinterberger)....Pages 165-177
Lee Smolins Wiederbelebung der Zeit (Norbert Hermann Hinterberger)....Pages 179-209
Ein einzigartiges Universum (Norbert Hermann Hinterberger)....Pages 211-248
Back Matter ....Pages 249-263

Citation preview

Norbert Hermann Hinterberger

Die Fälschung des Realismus Kritik des Antirealismus in Philosophie und theoretischer Physik . Auflage

Die Fälschung des Realismus

Norbert Hermann Hinterberger

Die Fälschung des Realismus Kritik des Antirealismus in Philosophie und theoretischer Physik 2. Auflage

Norbert Hermann Hinterberger Hamburg, Deutschland

ISBN 978-3-662-59511-4    ISBN 978-3-662-59512-1  (eBook) https://doi.org/10.1007/978-3-662-59512-1 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http:// dnb.d-nb.de abrufbar. Springer Spektrum © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2016 , 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Andreas Rüdinger Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Inhaltsverzeichnis

1 Einführung  1 1.1 Verschiedene Interpretationen von Naturalismus  4 1.1.1 Realistischer Naturalismus   8 1.1.2 Das Missverständnis des pankritischen Rationalismus  9 2 Im Reich des mathematischen Realismus und Strukturalismus 17 2.1 Kanitscheiders mathematischer Realismus und Max Tegmarks logisch mögliche Welten  17 2.1.1 Der uneingestandene Dualismus 26 2.1.2 Kanitscheiders Klassen  33 2.1.3 Bojowalds kosmologische Implikationen 44

V

VI Inhaltsverzeichnis

2.2 Die Ansprüche, die auf den Naturalismus erhoben wurden  53 2.2.1 Die Strukturaddition zum rein empiristischen Antirealismus  67 2.2.2 Neue Kontinuitätsideen  80 2.2.3 Der so genannte Strukturenrealismus 89 3 Die Gründe für den Rückzug auf den Strukturalismus 95 3.1 Thomas S. Kuhns psychologistischer Relativismus 95 3.2 Anderssons Kritik am psychologistischen Relativismus104 3.2.1 Lee Smolins Rezeption von Feyerabend und Kuhn 107 4 Der Mythos vom Rahmen113 4.1 Unterschiedliche Typen von Falsifikationen113 4.2 Lakatos’ Prüfsatz-­Konventionalismus 130 5 Kritik und Erkenntnisfortschritt141 5.1 Die Kritik von John Watkins an Kuhns geschichtlichem Relativismus 141 6 Im Universum von Kausalität und Zeit151 6.1 Fluss der Zeit und emergenter Raum 151 6.2 Kritischer Realismus versus Strukturenrealismus153

Inhaltsverzeichnis VII

7 Kosmologie der Zeit165 7.1 Zyklische Modelle versus Inflationsmodelle165 7.2 Julian Barbours Ende der Zeit 169 8 Lee Smolins Wiederbelebung der Zeit179 8.1 Smolins Variante des Relationalismus 179 8.2 In der Zeit 195 9 Ein einzigartiges Universum211 9.1 Die Realität der Zeit 211 9.2 Kausales Modellieren 219 9.3 Der evolutionär verzeitlichte Naturalismus230 Anhang249 Stichwortverzeichnis257

1 Einführung

Es ist in den letzten Jahrzehnten sowohl in der Philosophie als auch in der Physik eine überraschende Rückkehr des rationalistischen Idealismus und auch des empiristischen Pragmatismus zu beobachten. Es werden inzwischen allerdings andere Namen für diese Positionen verwendet. Man sollte meinen, die Wende vom Positivismus und vom orthodoxen Rationalismus zum kritischen Realismus sei mit Karl R. Poppers Philosophie und seiner kritisch rationalen Kritik am rationalistischen Konventionalismus, am Kon­ struktivismus und am Logischen Empirismus in eine gewisse Nachhaltigkeit übergegangen. Aber weit gefehlt. Selbst der neuere Naturalismus ist nicht wirklich frei von Antirealismus angetreten  – der ältere, der über den Logischen Empirismus transportiert wurde, war ja ohnedies explizit antirealistisch. Der methodologische Naturalismus von Willard van Orman Quine ist hier wohl der bekannteste. In den neueren Varianten des Antirealismus wird nun allerdings der Ehrgeiz entwickelt, möglichst realistisch zu

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_1

1

2 

N. H. Hinterberger

erscheinen. Das ist relativ neu. Früher waren die „Formalisten der Philosophie“ stolz auf ihren Antirealismus und haben sich auch selbst als Antirealisten bezeichnet. Sowohl die Pragmatisten des Logischen Empirismus als auch (in den folgenden Generationen) die Strukturalisten, die zum Empirismus einfach nur eine rationalistisch-formalistische Komponente addierten, um „empirische Unterbestimmtheit zu vermeiden“. Letztere hatten deshalb weder Pro­ bleme mit dem Ideismus der Empiristen noch mit dem ­Idealismus der orthodoxen Rationalisten, solange beide als Gesamtpaket nur irgendwie formalistisch zu gestalten waren – und zwar eben so, dass die physikalischen Aussagen beliebiger Theorien die Wirklichkeit nicht mehr direkt ansprechen konnten. Das ganze wurde  – aufgrund seiner Beschränkung auf das Analytische  – auch als „Wenndann-­Ismus“ bzw. „If-then-ism“ bekannt. Heute wird die antirealistische Strategie eher verleugnet. Man bezeichnet sich als „wissenschaftlicher Realist“, als „strukturaler Realist“, als „mathematischer Realist“ oder ähnlich. All diesen Positionen soll eine Zugehörigkeit zu einem naturalistischen Weltverständnis attestiert werden. Man räumt zwar gerne eine „Renaissance der Metaphysik“ ein, auch ein Überwundensein des empiristisch-­ sprachphilosophischen Ansatzes, hält allerdings die analytische Philosophie ansonsten für unversehrt und behauptet: „Analytische Philosophie steht heute einfach für systematisches, argumentatives Philosophieren.“1 Eine analytische Aussage besagt in der metalogischen Diskussion allerdings gerade nicht, dass damit über die Wirklichkeit geredet wird, sondern „analytisch“ ist einfach nur ein anderes Wort für „tautologisch“, also für triviale Gültigkeit. Alle unsere analytischen Aussagen sind logische Aussagen. Die sagen aber bekanntlich nichts über die  Michael Esfeld, Naturphilosophie als Metaphysik der Natur, Suhrkamp, 2008, S. 7.

1

1 Einführung 

3

Wirklichkeit. Konjunktionen oder Disjunktionen oder Negationen von Sätzen sind Verknüpfungen von Satz-Variablen, keine Sätze – insbesondere nicht über die Natur. Sie können also nicht wahr oder falsch sein, sie können als Ableitungen nur (deduktiv) gültig oder ungültig sein. Und das wiederum bedeutet, dass rein strukturalistische Ansätze nichts über die Realität aussagen können. Das einzige, was sie von ihrem reinen Formalismus aus anbieten können, ist der Versuch, auf mathematischer Ebene frei von inneren Widersprüchen zu bleiben. Von den Empiristen wurde indessen sehr gerne scheinbare Wirklichkeits-Relevanz durch in diesen Formalismus eingewobene „unmittelbare“ Beobachtungs- oder Basisaussagen simuliert, von welchen aus man allerdings nur induktiv (also logisch unschlüssig) zu allgemeinen Aussagen gelangte. Es gibt jedoch keine Beobachtungen ohne Medium, ohne Mittel bzw. ohne implizites oder explizites Hintergrundwissen  – im Sinne von orientierenden, aber eben auch fehlbaren Hypothesen. Diese Basisaussagen verblieben deshalb auf dem Status subjektiver oder intersubjektiver Erfahrungen. Man redete beim folgenden Übergang zum reinen Strukturalismus auch gern über Klassen von  – dann allerdings auch nur möglichen – Dingen oder Eigenschaften. So, also rein formalistisch, ist das von den Logischen Empiristen und ihren frühen pragmatistischen Nachfolgern auch immer gegen den kritischen Rationalismus/Realismus Karl R. Poppers vorgetragen worden. Von den logischen Empiristen des so genannten Mach Clubs (später bekannt als Wiener Kreis) wurde er dennoch als eine Art „offizielle Opposition“ (Rudolf Carnap) betrachtet und auch gewürdigt. Unsere Wirklichkeitsaussagen, auf die wir aus realistischer Sicht in keiner Praxis und natürlich auch in keiner Theorie verzichten können, sind indessen allesamt nicht trivial gültig, sondern im Gegenteil hoch-fallibel bzw.

4 

N. H. Hinterberger

fehlbar. Man weiß also nicht, warum Michael Esfeld seine obige Einschätzung für gelungen hält. Wir kommen später noch auf diesen Philosophen zurück. Es ist natürlich bekannt, dass mit einer „analytischen“ Argumentation alltagssprachlich nicht selten auch einfach nur eine rational stringente Argumentation zur Realität gemeint ist. Esfeld weiß als antirealistischer Philosoph ­allerdings, dass die gesamte analytische Philosophie (also Empirismus und Strukturalismus) das vorsätzlich anders handhabt, nämlich im Sinne der metalogischen Definition von analytisch, die ich hier gerade gegeben habe. In diesem Sinne war auch die gesamte analytische Philosophie (die Sprachphilosophie gehört dazu, weil sie sich in Definitionen, also ebenfalls in Tautologien erschöpft) antirealistisch und auch antirealistisch definiert (If-then-Ism). Da Esfeld hier aber den Versuch macht, dem antirealistischen Strukturalismus einen realistischen Anstrich zu geben, versteht man immerhin, warum er diese alternative (aber in der analytischen Philosophie nie praktizierte) umgangssprachliche Definition des Analytischen zusätzlich ins Spiel bringen möchte.

1.1 Verschiedene Interpretationen von Naturalismus Es gibt in der Philosophie vermutlich nur wenige kritische Realisten unter den Naturalisten. Hans Albert und Gerhard Vollmer sind unter den bekannteren deutschen Philosophen jedenfalls die einzigen, die mir auf die Schnelle einfallen, wenn man nicht gleich bis zum 17. Jahrhundert zurückgehen will.2 Und andere kritische Rationalisten/Realisten (wie Karl  In diesen Anfängen gab es noch keinen Antirealismus im modernen Sinn. Man war also durchaus in einem materialistischen Sinn Realist und wollte die Materie 2

1 Einführung 

5

Popper, Alan Musgrave, John Watkins, Gunnar Andersson, William Warren Bartley und David Miller etwa) haben diesen Titel gar nicht verwendet. Die brauchten ihn auch nicht, denn bei ihnen wurde immer klar, dass sie von der materiellen Realität geredet haben. In der deutlichen Mehrzahl der Fälle scheint der Titel Naturalismus allerdings von Antirealisten okkupiert worden zu sein – und zwar so ziemlich von Anfang an. Insbesondere wenn man sich die Philosophie der vorletzten Jahrhundertwende ansieht, denn der Begriff des Evolutionären Naturalismus ist schon im Umkreis der frühen pragmatistischen Philosophie von Charles Sanders Peirce, William James und Roy Wood Sellars diskutiert worden.3 Auch ein rein pragmatistisch interpretierter „kritischer Realismus“ ist daselbst schon diskutiert worden, bevor Karl Popper diesen Titel in einen echten Realismus investiert hat. Für kritische Rationalisten/Realisten bestand aber eben auch nie Bedarf, den Titel Naturalismus zusätzlich einzuführen, denn letzterer wird durch ihren Ansatz (in allerdings eben vollständig realistischer Lesart) ohnedies impliziert. Sellars hat 1916 ein Buch unter dem Titel Critical Realism veröffentlicht, 1922 folgte Evolutionary Naturalism, und 1932 veröffentlichte er The Philosophy of Physical Realism. Das hörte sich alles mächtig nach Realismus an, war aber erkenntnistheoretisch betrachtet einfach Pragmatismus bzw. Empirismus/Strukturalismus. Wir sehen also, ganz neu ist die Idee, den Antirealismus als Realismus auszugeben und gewöhnlich auch nichts als die Materie beschreiben, in Abgrenzung vom Idealismus und insbesondere von der Religion. Dasselbe gilt natürlich auch für die antiken Philosophen – falls die nicht gerade explizite Idealisten waren, wie Platon etwa. Bei den alten Griechen war eine Position wie die Platons aber eben die Ausnahme, anders als dann später zur Zeit von Hegel & Co. in Deutschland. 3  Sein Sohn, Wilfrid Sellars, ebenfalls Philosoph, hat den Naturalismus sogar in eine rein idealistische Position zurückgetrieben. Er hat die Existenz materieller Entitäten – wie sie Tische, Berge, oder Bäume darstellen – bestritten und sie auf reine Beschreibungsformen der Physik reduziert.

6 

N. H. Hinterberger

nicht – sie war allerdings sozusagen lange in der Versenkung verschwunden, denn im Wiener Kreis bzw. im Mach-Verein war davon ja überhaupt nicht mehr die Rede. Hier waren sie stolz auf ihren reinen Sensualismus in Verbindung mit der analytischen Sprachphilosophie. Sie mochten ihre komplett antimetaphysische Haltung trotz der Reduktion auf die subjektive Konsequenz. Bei den ­neueren Antirealisten ist der simulierte Realismus jedoch umso mehr in Mode, weil die rein empiristische Art der Reduktion auf den Sensualismus inzwischen auch von den modernen Strukturalisten als Schwäche verstanden wird. Diese Schwäche soll heute durch einen mathematischen Überbau ausgeglichen werden, wie wir im Folgenden sehen werden. Es scheint für einen echten Realisten – also für jemanden, der echte Wirklichkeitsaussagen für möglich hält und auch machen möchte – deshalb wohl durchaus empfehlenswert, ausdrücklich eigene Definitionen dieser Begriffe zu geben, wenn sein Ansatz nicht von den unauffällig pragmatistischen oder strukturalistischen Interpretationen, seien sie nun traditioneller oder neuerer Art, bis zur Unkenntlichkeit überlagert werden soll. Es genügt dabei nicht zu sagen, dass man an eine unabhängig von unseren Aussagen existierende Welt glaubt (das sagen auch moderne Strukturalisten und Operationalisten, ebenso wie schon Sellars), man muss darüber hinaus auch sagen, ob man Aussagen mit direktem Bezug auf diese Wirklichkeit machen möchte oder ob man seine Aussagen als reinen Formalismus verstehen will. Sellars war eher Vertreter eines reinen Formalismus: „The critical Realist endeavours to make a thorough analysis of the distinction between a thing and its qualities, or properties, in the light of the actual epistemological pressure within experience. While admitting and doing justice to the

1 Einführung 

7

realistic meanings which make the category of thinghood, he is led to break with natural realism, on the one hand, and with psychological idealism on the other.“4

Speziell diese Strategie, den angeblich naiven und selbstverständlich naturalistischen Realismus dadurch korrigieren zu wollen, dass man eine „Dingheit“ einführt – und sie trennt von den Eigenschaften (bzw. auch die primären, physikalischen Eigenschaften als von den Dingen abgeleitet betrachtet) – werden wir später auch noch bei dem erklärten Materialisten Mario Bunge wiederfinden. Ganz so überraschend ist das allerdings nicht, denn Bunges Heimat war ebenfalls der Logische Empirismus. Diese Strategie ist aber hier wie da logisch unschlüssig, denn ein Ding wird durch seine energetischen bzw. materiellen Eigenschaften konstituiert, nicht etwa von einer „Dingheit“. Man wüsste ja gar nicht was das sein soll – ein Ding, getrennt von seinen physikalischen Eigenschaften. An einer solchen „wesens-­ philosophischen“ Dingheit kann nichts Materielles sein. Das nicht zu sehen, kann man als ein typisches Residuum von Ideismus (des Empirismus) und Idealismus (des orthodoxen Rationalismus) betrachten. Schon die Vorsokratiker konnten ganz gut zwischen primären und sekundären Eigenschaften unterscheiden, also zwischen materieller Relevanz und Konstruktionen ohne Referenz auf Materie/Energie. Die oben erwähnten Autoren haben dagegen die primären Eigenschaften gleich mit-denunziert als bloß abgeleitet. Sie haben sie also ebenfalls als bloße Konstruktionen sehen wollen, ungeachtet des somit leeren Dingbegriffs, der daraus folgt. Für erklärte Empiristen ist das offenbar nicht so schlimm, für erklärte Materialisten sollte das aber wohl als Super-Gau gelten dürfen.

 Roy Wood Sellars, Evolutionary Naturalism, 1927 (2012), S. 143.

4

8 

N. H. Hinterberger

1.1.1 Realistischer Naturalismus Gerhard Vollmer betont demgegenüber, dass ein moderner Naturalismus als „Evolutionärer Naturalismus“ aufgefasst werden sollte. Wir haben eben gesehen, dass dieser Begriff schon länger – und zwar antirealistisch – unterwegs ist. Vollmer definiert ihn allerdings durch seinen ­„Hypothetischen Realismus“. Dieser Realismus ist durchaus im Sinne des Kritischen Rationalismus formuliert, also als ein echter kritischer Realismus ohne konventionalistische, instrumentalistische oder strukturalistische Anleihen. Vollmer versteht sich denn auch selbst als kritischer Rationalist. Im Zusammenhang der Frage, wie viel Metaphysik wir zulassen sollten (die an Ockhams Fragestellung angelehnt ist), schreibt er: „Die naturalistische Antwort ist eindeutig: nur soviel Metaphysik wie nötig – nötig für die Forschung, für den Erkenntnisfortschritt, fürs Leben. Der Naturalist sucht also eine Art Minimalmetaphysik. Dazu gehört die Annahme einer bewusstseinsunabhängigen, strukturierten, zusammenhängenden Welt (…) und deren partielle Erkennbarkeit durch Wahrnehmung, Erfahrung und eine intersubjektive Wissenschaft (…) Diese Auffassung heißt auch ‚hypothetischer Realismus‘.“5

An anderer Stelle in diesem Text sagt er, dass wir „soviel Realismus wie möglich“ einsetzen sollten, auch wenn der natürlich kritisch im Sinne von hypothetisch angelegt sein muss (damit ist er auch gleichzeitig als fallibilistisch gekennzeichnet). All das ist sicherlich richtig und stellt eine akzeptable realistische und rationale Interpretation des Naturalismus dar.

 Forschungsgruppe Weltanschauungen in Deutschland, Textarchiv TA-2003-13, „Geht es überall in der Welt mit rechten Dingen zu, Thesen und Bekenntnisse zum Naturalismus“, (S. 4, pdf ). 5

1 Einführung 

9

1.1.2 Das Missverständnis des pankritischen Rationalismus Zum so genannten „Pankritischen Rationalismus“ ist Vollmer allerdings, wie übrigens auch viele andere Autoren, die sich durchaus dem kritischen Rationalismus zugehörig fühlen, der Pseudokritik von William Warren Bartley auf den Leim gegangen. Man kann das leider nicht anders ausdrücken. Denn ein konsequenter Fallibilismus, wie er von Popper überall vertreten wurde, impliziert einen pankritischen Rationalismus ohnedies. Darauf hat auch schon Hans Albert hingewiesen. Vollmer schreibt jedoch: „Fallibilismus ist kein Glaubensbekenntnis. Der Fallibilist ist bereit, na ja, sagen wir, sollte bereit sein, alle Behauptungen – und alle Bekenntnisse – der Kritik auszusetzen: den Naturalismus, den Realismus, den kritischen Rationalismus und eben auch dessen Grundbaustein, den Fallibilismus. Diese Position, die auch den kritischen Rationalismus noch als vorläufig und korrigierbar ansieht, nennt William Bartley pankritischen Rationalismus. Er ist konsequenter als Popper selbst. Weil ich solche Konsequenz schätze, bin ich pankritischer Rationalist.“6

Das ist sicherlich alles richtig, bis auf den vorletzten Satz. Der ist falsch. Und mit dem Hinweis auf sein Buch7 (in dem er einfach nur Bartleys Argumentationen übernimmt und offenbar für stimmig hält) wird es auch nicht besser, denn Bartley hat Popper einen fideistischen Dogmatismus zugeschrieben, den es bei letzterem nicht gibt. Popper hat immer einen konsequenten Fallibilismus vertreten, in dem keinerlei Kritik, also auch nicht die Selbstanwendung der  Gerhard Vollmer, Naturalismus, Textarchiv: TA-2003-13, (S. 16, pdf ).  Gerhard Vollmer, Wissenschaftstheorie im Einsatz, Hirzel, Stuttgart 1993, S. 6–8. Vollmer übernimmt hier einfach Bartleys Argumentation. 6 7

10 

N. H. Hinterberger

Kritik auf den Fallibilismus ausgeschlossen ist. Rein logisch ist es zum Beispiel nicht ausgeschlossen, dass ein Dogmatismus richtig sein könnte. Man könnte auch die deduktive Logik selbst anzweifeln, dann könnte auch ein Irrationalismus richtig sein. Auf all das hatte Popper aber noch selbst hingewiesen. Bartley hat hier Poppers konsequenten Fallibilismus als dogmatisch dargestellt, unmittelbar darauf aber regelrecht plagiiert und inhaltlich unverändert mit eigener Überschrift („Pankritischer Rationalismus“ bzw. „Comprehensively Critical Rationalism“) angeboten. Ich habe Bartley in dieser Sache schon 1996 ausführlich kritisiert.8 Im Zusammenhang seines „pankritischen“ Ansatzes führt Bartley nämlich lauter Konsequenzen an, die von Popper selbst stammen, also (1), dass jede Rechtfertigung, welche auch immer, zugunsten kritischer Prüfung aufgegeben wird. (2) Die Rationalität findet sich nicht in Standards, sondern in der Kritik. (3) Kritische Rationalisten werden charakterisiert als Personen, die alle ihre Auffassungen, einschließlich ihrer eigenen Weltanschauung, einer Kritik offen halten (das hatte Bartley zuvor noch selbst als Poppers Position dargestellt). Die Unmöglichkeit auch der Begründung der Logik9 hatte Popper dazu geführt, den Einstieg in den kritischen Rationalismus als einen irrationalen Entscheidungsschritt (bzw. Entschluss) zu klassifizieren. Und das ist auch plausibel, wenn  (Norbert Hinterberger, Der Kritische Rationalismus und seine antirealistischen Gegner, Rodopi, Amsterdam – Atlanta, S. 280–293). 9  Das Münchhausentrilemma gilt auch hier. Münchhausen-Trilemma: entsteht bei logisch strengen Begründungsversuchen. Es endet unvermeidlich in einem infiniten Begründungsregress (denn ich kann zu jeder Begründung fragen, warum ich sie denn glauben soll) oder in einem Argument-Zirkel, oder in einem konventionellen Abbruch des Verfahrens – in keinem Fall erfolgt also eine Begründung. Auch der Versuch, etwa zu einer „Letztbegründung“ zu gelangen, indem vorgeschlagen wird, alle einzelnen Begriffe eben jener genau zu definieren, führt seinerseits zu einem unendlichen Regress, nämlich nun in den Definitionen, denn ich muss ja für jede Definition einen neuen Satz oder wenigsten ein Prädikat aufbieten, in welchem seinerseits neue undefinierte Begriffe auftauchen usw. ad infinitum. 8

1 Einführung 

11

man tautologische bzw. zirkuläre Argumentationen im Stil von „Ich entscheide mich für den Rationalismus, weil er rational ist“ (oder dergleichen) vermeiden will. Viel wichtiger ist aber: Popper wollte hier klar machen, dass wir ohne Begründung in den kritischen Rationalismus einsteigen und das auch ohne Schwierigkeiten tun können, denn ein solcher Einstieg (nennen wir ihn „begründungsfrei“ oder „irrational“ oder „intuitiv“) ist völlig unschädlich, weil die Pointe des konsequent fallibilistischen Falsifikationisten ohnedies in der Überprüfung liegt – der Einstieg also sein kann wie er mag, weil er ohnedies als fallibel betrachtet wird wie alle anderen falliblen Hypothesen (im Rahmen wissenschaftlicher Theorien etwa) auch. Und wir kennen nur fallible Hypothesen, siehe (1) und (2). Es verweist auf unverarbeitete Reste des Begründungsdenkens bei Bartley selbst, wenn er Schwierigkeiten hat, diese Argumentation zu verstehen. Überdies versuchte Bartley Poppers Kriterium für Wissenschaftlichkeit – nämlich die Falsifizierbarkeit – um ein seiner Meinung nach wohl noch revolutionäreres Kriterium zu erweitern. Er versuchte Rationalität durch Kritisierbarkeit zu definieren. Nun ist Falsifizierbarkeit im Sinne von bedingter Widerlegbarkeit bzw. von Überprüfbarkeit etwas ganz anderes als bloße Kritisierbarkeit. Kritisierbar sind auch nicht-rationale bzw. irrationale Überzeugungen und die (aus der Sicht eines Rationalisten) sogar ganz besonders, also kann Kritisierbarkeit kein allgemeines Kriterium für Rationalität sein bzw. zur Definition letzterer dienen. Vollmer hat das wohl irgendwie verstanden, findet dieses widersprüchliche Kriterium aber offenbar ganz in Ordnung: „Wird Kritisierbarkeit zum Rationalitätskriterium erhoben, so ist alles Unkritisierbare irrational und eben darum kritisierbar! Folglich bleibt gar nichts Unkritisierbares mehr ­übrig, und dem pankritischen Rationalisten kann eigentlich auch nichts passieren. Er kann zwar kritisiert, aber

12 

N. H. Hinterberger

nicht widerlegt werden. Je schärfer nämlich die Kritik, desto höher offenbar die Kritisierbarkeit, desto rationaler und erfolgreicher die Position des pankritischen Rationalisten. Statt seine Position aufzugeben, wird er sie im Kreuzfeuer der Kritik verfeinern, ‚läutern‘, und dadurch umso leichter vertretbar machen. Dieses Verfahren ist durchaus legitim; es entspricht ja gerade dem schon vom kritischen Rationalismus empfohlenen Verfahren, aus Fehlern zu lernen. Es erlaubt jedoch dem pankritischen Rationalisten, seine Position auch dann zu behalten, wenn echte kritische Einwände auftauchen. Folgen wir also Bartley darin, daß solche Einwände unwahrscheinlich seien, dann ist es offenbar doppelt unwahrscheinlich, daß jemals ein pankritischer Rationalist seine Position aufgrund von Argumenten räumen wird.“10

Im Zusammenhang dieser merkwürdigen Deutung sollte man vielleicht wissen, dass es für Vollmer durchaus „kreative Zirkel“ gibt, die er für unschädlich hält. Ich habe das schon anderenorts [1996] kritisiert (es handelt sich dabei einfach um unzulässige Verschmelzungen von Metaebenen in den Argumentationen – strukturiert wie die berühmten Mengen-Antinomien).11 Um diese absurd selbstbezüglichen bzw. kontradiktorischen Schlüsse zu vermeiden, wie wir sie gleich im ersten Satz vor uns haben, müsste man das Irrationale eigentlich als unkritisierbar definiert lassen, denn kritisierbar ist doch laut Bartley nur Rationales. Man weiß also nicht, wie Vollmer hier zu seinem Schluss k­ ommen will, wenn er in Bartleys Definitionen verbleibt – was er ja ansonsten wohl tun möchte.  Gerhard Vollmer, Wissenschaftstheorie im Einsatz, Hirzel, 1990, S. 7.  Davor hatte Tarski schon 1966 gewarnt: Alfred Tarski, Einführung in die mathematische Logik, Vandenhoek & Ruprecht, Göttingen, 1977, S. 245 ff. Hier klärt er über die Wichtigkeit der sorgfältigen Trennung metasprachlicher Stufen in Beweisen auf. Natürlich war diese Arbeit eine Reaktion auf die Krise in der naiven Mengenlehre. Also die Angabe einer Methode, wie man Mengen-­ Antinomien und auch andere Antinomien vermeidet. 10 11

1 Einführung 

13

Es ist aber natürlich richtig zu sagen, dass gerade das Irrationale kritisierbar ist, nämlich schon von logischen und metalogischen Minimal-Standards aus – ganz im Gegensatz zu Bartleys Definition. Alles ist erkenntnistheoretisch/logisch kritisierbar, alles was falsch oder schluss-technisch ungültig ist eben  – und natürlich auch alles, was angeblich wahr ist. Darüber hinaus kann man bekanntlich auch Falsifikationen kritisieren, indem man ihre in der Regel nur impliziten Prämissen explizit macht und die dann ihrerseits zu falsifizieren versucht. Das ist konsequenter Fallibilismus, der sich allerdings nicht mit Bartleys unschlüssigem Kritisier­ barkeits-­Kriterium verträgt. Die Kritisierbarkeit lässt sich eben nicht per Verordnung auf rationale Aussagen beschränken. Denn wir sehen ja, dass sich irrationale Aussagen ebenfalls kritisieren lassen, also notwendig kritisierbar sind. Damit ist, wie ja auch Vollmer ganz richtig bemerkt, „gar nichts Unkritisierbares mehr übrig.“ Sowohl Bartley als auch Vollmer scheint aber verschlossen, dass damit auch vom ganzen Kritisierbarkeits-­Kriterium nichts mehr übrig ist, bzw. dass es intern widersprüchlich ist und gewissermaßen extern eine Kritikimmunisierung sondergleichen involviert. Das ist beim kritischen Rationalismus bzw. beim Falsifikationismus aber natürlich weder vorgesehen noch durchführbar. Und obwohl Vollmer wenigstens einige dieser inakzeptablen Folgen im obigen Zitat selbst referiert, ist er davon anscheinend nicht beeindruckt. Bartley schien, in Bezug auf den Einstieg in den Rationalismus, eine neutrale Handhabung der eigenen Glaubensüberzeugungen für möglich zu halten. Er hat sich über Zirkel-­Argumente vermutlich wenig Gedanken gemacht. Vor allem aber hat er nicht verstanden, dass Rationalität bzw. Objektivität erst mit der Überprüfung bzw. mit der unlimitiert kritischen Diskussion beginnen kann, wenn man den Fehler der Begründungsphilosophie nicht stets aufs Neue wiederholen möchte bzw. nicht immer wieder im

14 

N. H. Hinterberger

Münchhausentrilemma von Begründung, logischem Zirkel und konventionellem Abbruch des Verfahrens landen möchte. Ob jeweilige ungeprüfte Prämissen von einem Fachmann oder von einem Schwachsinnigen formuliert werden, ist uninteressant (das wird von Begründungs-Philosophen einfach nicht verstanden), beide können kontingent Recht oder aber Unrecht haben. Für einen Fallibilisten ist deshalb erst die falsifikationistische Prüfungssituation oder, wenn die nicht zu haben ist (etwa in den Geisteswissenschaften), die kritische und unlimitierte Diskussion vor dem Hintergrund unserer am besten (durch viele erfolglose Falsifikationsversuche) gestützten Theorien relevant  – also letztlich unter Zurückführung auf Naturwissenschaften. Eine Prüfsituation ist ja wissenschaftlich ganz allgemein auch die Situation mit der man Obskurantisten aller Art zur Rede stellt. Es ist eben die Laborsituation der reproduzierbaren Beobachtung, ob nun im Feld oder beim Experiment. Bartley schreibt aber: „POPPERS Position ist nicht neutral. Vielmehr fordert er, daß der Rationalist seine Position auf einen irrationalen Glauben an die Vernunft gründen muß, er muss sich selbst an die Vernunft binden.“12

Zusammen mit Poppers Charakterisierung der kritischen Rationalisten als Personen, die bereit sind prinzipiell alles, also auch ihre eigene Theorie in Frage zu stellen, ergeben sich für Bartley zwei Schwierigkeiten in Poppers Position: „Sie scheint widerspruchsvoll, da nicht klar ist, wie jemand eine Position kritisieren kann, an die er sich irrational gebunden hat.  W. W. Bartley, „Rationalität“, in Handlexikon zur Wissenschaftstheorie, München, Ehrenwirth, 1989, S. 285. 12

1 Einführung 

15

Und sie bietet überhaupt keine Lösung der Probleme der Grenzen der Rationalität an: ganz im Gegenteil, sie ist ausgesprochen fideistisch.“13

Nun deutet Bartley (und das ist der ganze Kunstgriff des „Pankritikers“, um hier einen Widerspruch zu konstruieren) Poppers irrationales „Binden“ an die Vernunft unverständlicherweise als eine Kritik-immunisierte Entscheidung. Wenn man es liberal ausdrücken wollte, könnte man sagen: Ihm scheint „entfallen“ zu sein, dass Popper einen fallibilistischen Falsifikationismus entwickelt hat und damit die Möglichkeit, nicht nur rationale, sondern auch irrationale, pragmatische, relativistische oder konventionalistische Entscheidungen an ihren Konsequenzen kritisieren zu können. Anders kann man sie ja ohnedies nicht erfolgreich kritisieren – da auf Realität bezogene Rationalität eben erst in der Überprüfung entstehen kann. Und in dieser Frage gibt es nicht einmal Unterschiede zwischen erkenntnistheoretischen Aussagen und methodologischen Anweisungen (die einen Spezialfall von Normen darstellen). Sie werden alle über ihre Konsequenzen kritisiert. Der konsequente Fallibilismus impliziert die Methode der Überprüfung und/oder der kritischen Diskussion ohne Limit. Im Übrigen scheint Gerhard Vollmer auch ziemlich beeindruckt von Thomas S. Kuhns Geschichts-­Psychologismus, wenn er von einem „Aha-Erlebnis“ als „Gestaltwandel“ oder vom „Paradigmenwechsel“ in einer durchaus positiven Rezeption spricht. Auch Vollmer findet jedenfalls, ähnlich wie Kuhn und ganz im Gegensatz zum Fallibilismus, hinsichtlich des Verhaltens der Forscher: „Standpunkte ändern wir selten.“14 Man muss befürchten, dass Vollmer induktiv zu dieser 13 14

 Bartley in HW, 1989, S. 285.  Gerhard Vollmer, Wissenschaftstheorie im Einsatz, Stuttgart, Hirzel, 1993, S. 3.

16 

N. H. Hinterberger

Vorstellung gelangt ist. Thomas S. Kuhns geschichtswissenschaftlicher Relativismus (der dem fallibilistischen Falsifikationismus kontradiktorisch widerspricht) ist von mir schon [1996] ausführlich kritisiert worden. Er wird weiter unten – sozusagen aus aktuellem Anlass  – aber auch noch einmal kurz behandelt, weil er in geradezu unverantwortlicher Weise immer neuen unschuldigen Philosophie- und auch Physik-Novizen aufgetischt wird und dabei jedes Mal erheblichen erkenntnistheoretischen Schaden anrichtet. Gehen wir aber zunächst noch einmal zeitlich nach vorn zu den neueren Varianten des Strukturalismus.

2 Im Reich des mathematischen Realismus und Strukturalismus

2.1 Kanitscheiders mathematischer Realismus und Max Tegmarks logisch mögliche Welten Bernulf Kanitscheider präsentiert in seinem neuen Buch eine für meinen Geschmack überweite Definition von Naturalismus, in der auch Logische Empiristen und andere explizite Antirealisten als Naturalisten gelten sollen. Wir haben schon gesehen, dass es dafür in der Tat eine Tradition gibt.1 Ich werde in dieser Kritik zu zeigen versuchen, dass es sich in all diesen Fällen um erkenntnistheoretische Rückfälle hinter die kritisch realistischen Positionen des Kritischen Rationalismus Karl R. Poppers handelt.  In seiner neuesten Schrift (Gretchenfragen an den Naturalisten, Alibri Verlag, 2013) entwickelt Gerhard Vollmer eine klar realistische Variante des Naturalisten. Allerdings scheint diese Variante von den Philosophen wesentlich seltener vertreten zu werden, als er es sich wohl wünscht. Es bleibt jedenfalls etwas unklar, ob er einfach nur methodologisch normativ für einen realistischen Naturalismus plädiert oder ob er glaubt, dass er weit verbreitet sei. 1

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_2

17

18 

N. H. Hinterberger

Auch bei Popper gab es einen Dualismus zwischen Geist und Materie, ja sogar einen Trialismus zwischen Psyche, Materie und logischen Gehalten. Später hat Popper seine „Drei Welten“ allerdings nur noch methodologisch, also nicht mehr ontologisch vorgetragen. Man konnte in der methodologischen Variante halt sehr bequem über bestimmte Quasi-Wechselwirkungen sprechen. Aber es handelte sich dabei nicht um das, was in der Physik als Wechselwirkung betrachtet wird. Popper hatte aber auch schon sehr früh zu verstehen gegeben, dass sich ein „Identismus“ in dieser Sache als richtig he­ rausstellen könnte. Damit hat er einen materiellen Monismus gemeint. Genau der wird hier von mir vertreten – um meinen Ansatz gleich von Anfang an klar zu machen (ich vermisse das bei anderen Autoren häufig schmerzlich). In älterer Terminologie wird das auch manchmal als Physikalismus bezeichnet. Aber auch diese Bezeichnung gibt es in antirealistischer Interpretation. Bisweilen wird diese Position auch (gewissermaßen denunziativ) als „schwacher Realismus“ oder (mittelalterlich) als Nominalismus bezeichnet. Ich halte nach all dieser Begriffsverwirrung die Bezeichnung materialistischer Realismus für recht gut gewappnet gegen Ambivalenz. Das ist jedenfalls das, was ich als wirklich kritischen Realismus bezeichnen würde, egal wie hypothetisch auch der letztlich vorgetragen werden muss – um keinen Dogmatismus zu transportieren. Dass alle meine Argumentationen hier hypothetisch vorgetragen werden, sollte sich für einen kritischen Rationalisten bzw. für einen konsequent fallibilistischen Falsifikationisten aber vielleicht von selbst verstehen. Insbesondere der so genannte „mathematische Realismus“ ist eine stark idealistische Position, die mindestens für einen neuen ontologischen Dualismus steht. Der theoretische Physiker Max Tegmark2 geht z. B. davon aus, dass alle logisch möglichen (also alle widerspruchsfrei denkbaren)  Max Tegmark, „Parallel-Universen”, Spektrum der Wissenschaft, 4/2001, S. 68 ff.

2

2  Im Reich des mathematischen Realismus und … 

19

Welten auch irgendwo realisiert sein müssten (er begründet das wahrscheinlichkeitstheoretisch – von unklaren Un­end­ lich­keits-­Vorstellungen aus). Das Ganze ist inspiriert von einer recht exotischen Interpretation der Quantenmechanik. Wir erinnern uns: physikalische Welten sind notwendig auch logisch möglich, der Umkehrschluss gilt nicht, also eine metalogische Äquivalenz ist in dieser Sache nicht zu haben. Als echter Platoniker betrachtet er Logik und Mathematik als dasselbe und versucht überdies die existentielle Gleichberechtigung ihrer Objekte neben der Materie zu etablieren. Er versucht in diesem Zusammenhang die „Vielen Welten“ von Hugh Everett bzw. die „Wellenverzweigungen“ von Heinz Dieter Zeh nicht nur mit materiellen, sondern auch mit logischen und mathematischen Objekten zu bevölkern. In Everetts und Zehs Interpretation dieser kausal unverbundenen Verzweigungen von „Geschichten“, wie das auch häufig genannt wird, geht es „nur“ um physikalisch hypothetische Welten (also – verglichen mit logisch möglichen Welten3  – um eine unendliche Menge mit sehr viel geringerer Mächtigkeit), die jeweils, nach einer beliebigen Wechselwirkung, über eine Wellenverzweigung auch gleich immer verwirklicht sein sollen. Die vielen Welten werden – anders als etwa das Multiversum der Stringtheoretiker – als Parallelwelten innerhalb ein und desselben Universums verstanden. Die klassische Wahrnehmung wird hier als subjektiv aufgefasst. Die „Wellenverzweigungen“ (die aufgrund jeder Wechselwirkung auf Quantenebene auftreten, anstatt in einen „Kollaps“ zu münden wie bei der „Kopenhagener Interpretation“) beschreiben eben das und nicht einfach nur  Man muss sich klar machen, dass in logisch möglichen Welten alles existiert, was keinen Widerspruch verursacht. Das heißt, es spielt keine Rolle, ob es physikalisch vernünftig scheint, was auch immer als existent anzunehmen, oder ob es von vorn herein nur ideeller Natur ist. 3

20 

N. H. Hinterberger

Denkmöglichkeiten. Everett und Zeh sind denn auch als Realisten ohne mathematischen Platonismus angetreten. Hier werden also bei genauerem Hinsehen „nur“ Wellenverzweigungen zugelassen, die aus den jeweils vorausgesetzten Anfangsbedingungen folgen können. Das betrifft also nicht einmal alle physikalisch möglichen, geschweige denn alle logisch möglichen Welten. Davon abgesehen scheinen aber auch diese „reduzierten“ Welten noch recht üppig und sollen hoffentlich nicht als das letzte Wort der Dekohärenz-­ Theoretiker betrachtet werden. Nun dealt Tegmark aber nicht nur mit diesen Welten, sondern auch mit den enormen Mengen von Universen der Stringtheoretiker und zusätzlich eben auch mit seinen mathematisch-logischen Denkmöglichkeiten, die ja ebenfalls ontologisch vorhanden sein sollen. Für Tegmark existieren logisch-mathematische Objekte darüber hinaus offenbar nicht nur gleichberechtigt, sondern sogar vor aller Materie/Energie. Sein so genanntes Ebene-I-Multiversum der Materie hört sich dabei noch halbwegs realistisch an, er findet es sogar trivial: „Das Ebene-I-Multiversum mutet eher trivial an. Wie könnte der Raum nicht unendlich sein? Steht irgendwo ein Schild: ‚Achtung, Raum endet hier‘? Falls dem so wäre, was läge dahinter? Tatsächlich stellt Einsteins Gravitationstheorie diese naive Ansicht in Frage. Ein konvex gekrümmter Raum könnte durchaus endlich sein. Ein kugel- ring- oder brezelförmiges Universum hätte ein endliches Volumen und wäre doch unbegrenzt. Die kosmische Hintergrundstrahlung erlaubt empfindliche Tests solcher Modelle. Doch ­bislang sprechen alle Indizien dagegen.4 Die Daten passen viel besser zu unendlichen Modellen.“5  „Ist der Raum endlich?” Jean-Pierre Luminet, Glenn D. Starkman und Jeffrey R. Weeks, Spektrum der Wissenschaft, 7/1999, S. 50. 5  Max Tegmark, Kosmologie, „Parallel-Universen”, Spektrum der Wissenschaft 8/2003, S. 34 ff. 4

2  Im Reich des mathematischen Realismus und … 

21

Welche Daten das sein sollen, sagt er nicht. Zu einem unendlichen Multiversum und genaugenommen schon zu einem einzelnen räumlich unendlichen Universum kann man wahrscheinlichkeitstheoretisch argumentieren, dass sich alles irgendwo wiederholen muss – jedenfalls wenn man nicht von Energie-freien, also Materie-freien Universen ausgeht und wenn man Wahrscheinlichkeiten als echte Propensitäten (Verwirklichungstendenzen) begreift und die Ergebnisse der Berechnungen nicht nur für das „Maß unseres Unwissens“ hält, sondern letztlich für wirklichkeitsrelevant. Dieses „Kopieren“ gilt dann natürlich auch für Individuen. Wenn man nur weit genug im Raum voranschreitet, sollte es also auch Kopien von uns und sogar von unserem ganzen Planeten geben – genau genommen sogar ebenfalls wieder unendlich viele. Aber wir wissen natürlich auch um all die Schwierigkeiten, die von physikalischen Unendlichkeits-­Vorstellungen ausgehen: von den Singularitäten unendlicher Energie bzw. Masse, von unendlichem Druck beim Urknall oder in schwarzen Löchern – hier Folgen der angenommenen extremen Kleinheit des Raums, in dem das stattfindet. Es sollte mich nicht wundern, wenn wir letztlich doch wieder zurückkommen müssten zu einem einzelnen endlichen Universum (vielleicht in zyklischer Form, um die dunkle Energie zu erklären). Unendlichkeit scheint physikalisch nirgends zu funktionieren. Wie auch immer: Tegmark und viele andere scheinen sich um Unendlichkeiten zu reißen, je mehr, desto besser: Gedacht wird so ein einfaches Ebene-I-Multiversum von Tegmark in einer Art Mengenbildung sehr vieler Hubble-­ Volumen  – das Hubble-Volumen ist der für uns sichtbare Teil unseres Universums. Lassen wir aber auch das und auch die Versionen II und III. Wir machen einen Sprung in Tegmarks Ebene-IV-Multiversum, denn hier wird es wirklich bunt: „Die höchste Form des Multiversums umfasst alle überhaupt denkbaren Möglichkeiten.“

22 

N. H. Hinterberger

Dazu gehören für Tegmark auch mathematische „Gebilde“, ganz wie bei Platon. Er erwähnt dann den mathematischen Platonisten Eugene P. Wigner für den „die enorme Brauchbarkeit der Mathematik für die Naturwissenschaften“ an ein Wunder grenzte. Tegmark findet: „Umgekehrt muten mathematische Gebilde seltsam real an. Sie erfüllen eine Grundbedingung für objektive Existenz (…) dementsprechend meinen die allermeisten Mathematiker, dass sie mathematische Strukturen nicht erfinden, sondern entdecken (…) Theoretische Physiker neigen zum Platonismus: Sie vermuten, dass die Mathematik das Universum so gut beschreibt, weil es an sich mathematisch ist.“

Der letzte Satz ergibt für einen materialistischen Realisten gar keinen Sinn. Was soll das heißen: Das Universum ist mathematisch? Wenn wir die notorisch widersprüchlichen Idealisten mal außen vor lassen, gehen wir doch alle davon aus, dass es materielle Wechselwirkungen und nur materielle gibt. Andere sind erstens noch nie beobachtet worden und zweitens wüsste man gar nicht wie die zu beschreiben sein sollten, ohne dass man solipsistischen Nonsens erzählt. Tegmark ist natürlich klar, dass das Platonische Paradigma die Frage aufwirft, „warum das Universum so ist wie es ist.“ Für jemanden, für den die Physik fundamental ist und die Mathematik nur von uns konstruiert (wie bspw. für Aristoteles), stellt sich diese Frage gar nicht. Der Platonist muss sich, wie auch Tegmark bemerkt, allerdings fragen, warum „nur eine der vielen mathematischen Strukturen“ (also nur eine der vielen, in diesem Fall mathematischen Denkmöglichkeiten) in der uns bekannten Welt verwirklicht ist. Darauf könnte Tegmark die Antwort geben, dass aus der „Vogelperspektive“ betrachtet (also vom Multiversum IV aus) alle mathematischen Strukturen verwirklicht sind – in jeweils dazu passenden physikalisch möglichen Welten. Das tut er auch:

2  Im Reich des mathematischen Realismus und … 

23

„Als Lösung für dieses Problem habe ich vorgeschlagen, dass ungebrochene mathematische Symmetrie herrscht. Sämtliche mathematischen Strukturen existieren auch physikalisch. Jede mathematische Struktur entspricht einem Paralleluniversum.“6

So weit so (vielleicht auch noch materiell) gut. Vielleicht gibt es ja auch euklidische Universen. Man weiß aber, dass auch in der Mathematik immer neue Strukturen entdeckt oder, wie der Aristoteliker sagen würde, erfunden werden. Werden damit dann auch unisono neue physikalische Welten entdeckt oder gar erzeugt …? Aber unmittelbar anschließend macht er seinen mathematischen Idealismus ohnedies unumkehrbar: „Die Elemente dieses Multiversums liegen nicht im selben Raum, sondern außerhalb von Raum und Zeit. In den meisten gibt es vermutlich keine Beobachter.“7

Der erste Satz ergibt wiederum keinen Sinn für einen materialistischen Realisten. Beim zweiten weiß man nicht ambivalenzfrei, worauf er sich bezieht. Dass es außerhalb von Raum und Zeit keine Beobachter geben kann, wäre jedenfalls nach all unseren kosmologischen Modellen trivial. Hier wird überdies eine nicht-materielle Existenzform für mathematische Objekte angenommen, die in der Lage sein soll, materielle Objekte zu formen und damit auch zu „führen“. Sie existieren „raumzeitlos“ und damit idealistisch „jenseits“ aller Materie, ihr aber anscheinend nichtsdestoweniger als grundlegende logische Strukturen vorgeordnet, denn aus ihren bloßen Möglichkeiten ergeben sich ja offenbar alle materiellen Welten. Tegmark bezeichnet das dann auch ganz stolz als „Radikale(n) Platonismus“  Tegmark, ebenda.  Tegmark, ebenda.

6 7

24 

N. H. Hinterberger

und vergleicht seine Position mit den Positionen von John D. Barrow8 und David Kellogg Lewis, der einen so genannten „modalen Realismus“ vertreten hatte, in dem ebenfalls schon alle bloß logisch möglichen Welten existieren sollen. Barrow ist als mathematischer Platonist bekannt (Ein Himmel voller Zahlen). Lewis kam von der Sprachphilosophie, also eher vom empiristischen Antirealismus. Nach dessen Zusammenbruch hat er sich übergangslos in einen radikalen Idealismus verstiegen. In seiner „Philosophie des Geistes“ kann man sogar einen Rückfall in Hegelsche Vorstellungen erblicken. In diesem Personenkreis gibt es also jedenfalls keinen materialistischen Realisten. Hugh Everett III, der Urheber der Theorie der „Relativen Zustände“ („viele Welten“ wurde das erst später von Bryce DeWitt genannt), und der Dekohärenz-­Theoretiker Heinz Dieter Zeh haben sich dagegen explizit als Realisten verstanden. Allerdings scheint Zeh keine Einwände gegen Tegmarks addierten mathematischen Idealismus zu haben – er hat sich dazu jedenfalls nie geäußert. Man darf ihm also, da er Tegmarks proliferierende idealistische Objekt-Welten mathematischer Natur nicht beanstandet hat, wohl bescheinigen, nicht zu den materialistischen Realisten zu gehören. Bei den Alternativen zur Stringtheorie (Loop Quantum Gravity, Causal Set Theory, Causal Dynamical Triangulation u. a.) findet man dagegen ganz klaren materialistischen Realismus. Niemand würde hier einen mathematischen Realismus adoptieren wollen, soweit ich sehen konnte. In seinem jüngsten Buch kritisiert Lee Smolin diesen neu aufblühenden mathematischen Platonismus jedenfalls ganz unmissverständlich:

 John D.  Barrow, Ein Himmel voller Zahlen, 1994, Spektrum Verlag GmbH, Heidelberg, Berlin, Oxford. 8

2  Im Reich des mathematischen Realismus und … 

25

„In Eine kurze Geschichte der Zeit stellte Stephen Hawking die Frage: ‚Was haucht den Gleichungen Leben ein und bringt ein Universum hervor, das von ihnen beschrieben wird?‘ Solche Äußerungen enthüllen die Absurdität der Ansicht, dass die Mathematik der Natur vorausgeht. Die Mathematik kommt in Wirklichkeit nach der Natur. Sie besitzt keine Zeugungskraft. Man könnte diesen Sachverhalt auch so ausdrücken, dass in der Mathematik die Schlussfolgerungen durch logische Implikation erzwungen werden, während die Ereignisse in der Natur durch kausale Prozesse generiert werden, die in der Zeit ablaufen. Das ist nicht dasselbe; logische Implikationen können zwar Aspekte kausaler Prozesse modellieren, aber sie sind nicht mit kausalen Prozessen identisch.“9

Das ist natürlich genau der Punkt. Die Kausalitäts-­ Interpretation der Antirealisten und der Realisten im Vergleich: Letztere betrachten Kausalität als Resultat rein materieller Wechselwirkungen, erstere möchten sie (frei nach David Hume) rein psychologisch auf eine Denkfigur reduzieren. John Archibald Wheeler und Max Tegmark werden von Smolin in diesem Zusammenhang analog kritisiert. Man sollte meinen, dass das, was Smolin hier schreibt, in einer halbwegs realistischen Diskussion inzwischen selbstverständlich sein sollte, aber der neue „mathematische Realismus“ stellt das alles in Frage. Smolin macht dann dankenswerter Weise auch noch klar, dass Logik und Mathematik zwar bestimmte Aspekte der Natur erfassen, aber nie die ganze Natur. Was man ja durchaus als Hinweis darauf verwerten könnte, dass wir die Mathematik machen  – und nicht sie uns.

 Lee Smolin, Im Universum der Zeit, dva, 2014, S. 329.

9

26 

N. H. Hinterberger

2.1.1 Der uneingestandene Dualismus Für Bernulf Kanitscheider existieren Zahlen und Strukturen in einem ähnlich unklaren Sinn wie für Tegmark, aber hier der Materie scheinbar „nur“ innewohnend, obwohl auch er von mysteriösen Führungseigenschaften der mathematischen Objekte redet, wie wir gleich sehen werden. Durch die Behauptung eines „intrinsischen“, also irgendwie „wesenhaften“ Innewohnens der mathematischen Objekte in der Materie, versucht Kanitscheider zumindest irgendwie „optisch“ den Eindruck eines Dualismus zu vermeiden. Natürlich sind wir alle froh darum, dass mittelalterliche Formen des „theologischen Realismus“ heute keine Rolle mehr spielen. Aber die Urform eines solchen Dualismus von Geist und Materie bzw. von Nicht-Materie und Materie ist noch immer dieselbe. Wir sehen, dass auch von neueren Philosophen immer noch explizit Positionen vertreten werden, die für ein immaterielles Bewusstsein bzw. für immateriellen Geist  – oder dergleichen nicht mit Materie wechselwirkungs-­fähige Wesenheiten  – votieren.10 David Chalmers versucht sogar, einzelne Atome mit Bewusstsein auszustatten (und dieses Bewusstsein sollte man dann auch „nicht-materiell“ verstehen). Im vorderen Teil seines Buches11 liefert Bernulf Kanitscheider eine beredte Rückschau auf die Geschichte der Mathematik  – insbesondere in ihrer Beziehung zur Geschichte der Physik. Hier finden wir eine ganze Reihe unterschiedlicher meta-mathematischer Ansätze, die zunächst noch lediglich neutral moderierend gestreift werden.  David Chalmers, The Conscious Mind, Oxford University Press, 1996. Chalmers versucht seine Position übrigens ebenfalls als kompatibel zum Naturalismus darzustellen. 11  Bernulf Kanitscheider, Natur und Zahl – Die Mathematisierbarkeit der Welt, Springer Spektrum – Springer-Verlag Berlin Heidelberg, 2013. 10

2  Im Reich des mathematischen Realismus und … 

27

Weiter hinten allerdings12 lehnt er sich dann schon etwas mehr für bestimmte Positionen aus dem Fenster, die bei genauerem Hinsehen allesamt im Gravitationsfeld des mathematischen Platonismus liegen. Diese neue Liebe dürfte sich schwerlich mit einem kritischen bzw. materialistischen Naturalismus vertragen – als dessen Vertreter er sich allerdings geriert. Einige problematische Aussagen liefert er uns schon zu Beginn: „Nun ist vermutlich die gesamte physikalische Realität durch mathematische Strukturen geführt und damit, wenn der Reduktionismus wahr ist, auch der organische und der psychische Bereich.“13

Das ist sicherlich schon ein recht klares Bekenntnis zum mathematischen Platonismus bzw. zum „mathematischen Realismus“, wie Kanitscheider das hier auch selbst nennt. Für einen kritischen Realisten von heute, der einen ­Monismus der Materie zugrunde legt, ist das aber schlicht Idealismus, denn natürlich werden materielle Objekte, würden sie durch mathematische Strukturen, also durch rein ideelle Strukturen bzw. Objekte, „geführt“, ebenfalls zu ideellen Strukturen/Objekten – ganz wie bei den Strukturalisten. Kanitscheider stimmt nun zwar dem Credo der realistischen Naturalisten zu, dass es überall in der Welt „mit rechten Dingen“ zugeht (ich glaube dieser Passus stammt von Gerhard Vollmer). Mit rechten Dingen meint ein Realist aber gewöhnlich materielle Dinge – und eigentlich nur die. Mathematische „Dinge“ bzw. „Objekte“ werden dagegen als vom Menschen (hirnorganisch) konstruiert betrachtet, man findet sie jedenfalls nicht sonst wo in der Natur vor. Eine Ausnahme machen eben nur die Platonisten bzw. 12 13

 Ebenda (unter dem Titel: „Einzeldinge”), S. 244.  Ebenda, S. 65.

28 

N. H. Hinterberger

die rationalistischen Idealisten. Bei Platon waren bekanntlich nur die Ideen fundamental, die materiellen Dinge konnten sich, wenn sie überhaupt mehr als Schein sein sollten, nur verschlechtern – in einer sehr problematischen Mischung aus erkenntnistheoretischem und ethischem Verständnis übrigens. Platon macht es den „schlechter“ werdenden Verwirklichungen ja gewissermaßen (quasi-moralisch) zum Vorwurf, dass sie sich so weit von den idealen Ideen entfernen. Man konnte den Verfall zwar irgendwie abmildern, indem man sich immer wieder an die ursprünglichen, fundamentalen Ideen im Himmel erinnert, aber man konnte es nicht vollständig verhindern. Wie wir sehen, handelte es sich hierbei um einen ethisch und ästhetisch motivierten normativen Konservatismus inmitten epistemologischer Überlegungen. Die mittelalterliche Terminologie, die Kanitscheider verwendet, scheint aus heutiger Sicht hochgradig irreführend. Wir wissen, dass die mittelalterlichen Idealisten, die sich kurioserweise als „Realisten“ verstanden, weil sie sozusagen nebenher noch an Materie glaubten (also Dualisten waren), von Anfang an alle möglichen fiktiven Wesenheiten als real mit ins Boot genommen haben  – eine Erbschaft aus der Theologie. Das wurde ihnen aber schon zu Recht durch die so genannten Nominalisten bestritten, die eben der Meinung waren, dass dieser „Realismus“ bei weitem zu üppige Mengen an Fiktionen mit sich führt, die bei näherer Betrachtung eben leere Namen waren, die nichts als physikalisch leere Mengen bezeichneten. Wilhelm von Ockham – mit seinem „Rasiermesser“, mit dem man überflüssige Annahmen abschneiden bzw. sich nur auf die absolut nötigen beschränken sollte  – war wohl der bekannteste Nominalist. Allerdings war er Philosoph und Theologe, und man weiß nicht recht, ob er seine theologischen Wesenheiten auch allesamt als überflüssig abgeschnitten hat. Anzunehmen ist allerdings,

2  Im Reich des mathematischen Realismus und … 

29

dass er wohl so einige davon abgeschnitten hatte, denn 1325 kam es zum Zerwürfnis mit Papst Johannes XXII, der sich scharf gegen Ockhams Lehre ausgesprochen hatte, aufgrund mehrerer Häresie-Vorwürfe gegen ihn durch irgendwelche Bischöfe. Die Nominalisten waren aber jedenfalls wohl durchweg eher Realisten im heutigen Sinn. Da ihnen insbesondere die kirchlichen „Realisten“, also die unverfrorensten Idealisten (was die göttlichen Wesenheiten anging), die Bezeichnung Realist schon weggenommen hatten, haben sie sich für diesen sozusagen „reaktiven“ Namen (Nominalist) entschieden. Vielleicht etwas zu übereilt und zu defensiv. Denn heute versteht man einen kritischen Realisten als jemanden, der an die materielle Wirklichkeit und nur an diese glaubt und für den Allgemeinbegriffe alle von Menschen gemacht sind und ganz sicher nicht „res“ (genau wie die Nominalisten das sahen). Der eigentlich klare Begriff des Realismus wird aber eben auch in unserer Zeit immer wieder beschädigt dadurch, dass er von Antirealisten für ihre jeweiligen Positionen ­unnütz und natürlich auch ohne Berechtigung im Munde geführt wird, um es mal biblisch auszudrücken. Es gibt Philosophen, die nennen sich „wissenschaftliche Realisten“ oder neuerdings „Strukturale Realisten“. Sie geben aber lediglich formale Aussageformen zu unserer physikalischen Wirklichkeit zum Besten. Damit solche Aussagen überhaupt Wirklichkeit ansprechen können, müssten sie natürlich erst einmal durch echte realistische Aussagen in­ stan­ziiert bzw. exemplifiziert werden. Dazu reicht nicht der Trick, Disjunktions-­Fächer von Möglichkeiten bezüglich der Wirklichkeit anzubieten (also klassentheoretische Aussagen). Man kann dann im Falle von Falsifikationen von einer Möglichkeit zur anderen flüchten und kann sogar noch behaupten, dass diese Fluchten nicht ad hoc seien, denn sie waren ja in der Theorie enthalten – allerdings eben in quasi-­ tautologischer Weise. Es handelt sich also um prophylaktische Immunisierungsstrategien gegen Kritik, sozusagen

30 

N. H. Hinterberger

halb-konventionalistische Strategien (Definitionen, verkleidet als Realitäts-Aussagen). Komplette Wenn-dann-­Inter­ pre­ta­tio­nen von Theorien verhalten sich dann wie komplett verschlossene Türen für Wirklichkeitsaussagen (weil sie eben Tautologien sind). Der „mathematische Realismus“ zweifelt die materielle Realität nicht explizit an. Manchmal wird sie sogar ausdrücklich vorausgesetzt. Die Materie soll einfach noch etwas dazubekommen, nämlich gewissermaßen in der Materie intrinsisch wohnende mathematische Strukturen oder Objekte. Kanitscheider sieht Strukturen eher als „leere Hüllen.“ Er möchte lieber nur Zahlen – der Materie innewohnend – betrachten. Aber all das scheint äußerst bizarr, denn wir kennen keine Fälle in denen ideelle Objekte mit materiellen Objekten im Wechsel wirken könnten. Hier sollen sie ihnen aber eben sogar noch gewissermaßen „führend“ vorgeordnet sein (letztlich doch wie bei Tegmark  – eine Folge von Kanitscheiders definitorischer Ambivalenz). Wir werden sehen, dass Kanitscheider über das ganze Buch hinweg nicht in der Lage sein wird zu erklären, wie man sich das überhaupt nur vorzustellen hätte. Die antirealistische Position der so genannten Kopenhagener Interpretation der Quantenmechanik war verglichen damit einfach nur eine eher resignative, pragmatische Haltung. Bei Bohr & Co hatte niemand an einen mathematischen Realismus gedacht, in dem die mathematischen Objekte Existenzrecht erhalten sollten. Nils Bohr, Werner Heisenberg, John von Neumann, Wolfgang Pauli und Max Born fanden es einfach nur problematisch, über Messergebnisse konsequent quantenmechanisch zu sprechen, also sowohl über das Messgerät, als auch über den Beobachter, als auch über den Rest der Welt. Sie haben sich aus rein praktischen Gründen dazu entschlossen, über die Messergebnisse rein klassisch zu sprechen. Hinsichtlich der Mathematik der Quantentheorie waren sie Instrumentalisten bzw.

2  Im Reich des mathematischen Realismus und … 

31

Operationalisten. Paul Dirac bildet allerdings wohl eine Ausnahme. Von ihm ist ein ausgeprägter mathematischer Platonismus bekannt. Für Kanitscheider scheint gar nicht mehr die Frage zu sein, ob es derartig hypostasierte ideelle Objekte inmitten der Materie gibt, sondern es geht nur noch darum „zu klären, wie die formalen Strukturen in der Materie stecken und warum sie dort ihre Organisationskraft entfalten können.“14

Seinerzeit waren es eher die Götter und allerlei weitere unklare Wesenheiten, um die es ging bei diesen seltsamen „Realismen“. Beim neuen „mathematischen Realismus“ sind es eben mathematische Objekte, für die ein eigenes Existenzrecht abstrakter Strukturen eingeklagt werden soll. Das ist ein erkenntnistheoretischer Rückfall bis hin zu Platons Idealismus, wenn man letzteren einmal als den Fundamentalisten dieser Position bezeichnen will. Max Tegmark ist insofern ein besonders radikaler Vertreter dieser Position, als er abstrakte Objekte auch raumzeitlich schon vor aller Materie ansiedeln möchte – in seinen „logischen Möglichkeiten“ eben. Aber wer könnte die eigentlich erkennen oder hergestellt haben, bevor es Materie gab. An dieser Stelle könnte man sich fragen: steht das jetzt für eine Gottes-­ Substitution, oder ist es doch der Schöpfer selbst, der hier Mathematik betreibt? Aber wie auch immer, es wäre natürlich in beiden Fällen einfach nur eine Neuauflage von Idealismus. Denn die materiellen Objekte werden hier gewissermaßen (logisch) durch die ideellen Objekte der Mathematik „entmaterialisiert“ und nicht umgekehrt, wie wohl gehofft wird, denn letztere sollen ja vorher da gewesen sein. Aber selbst, wenn 14

 Ebenda. S. 65.

32 

N. H. Hinterberger

man die Führungsrolle bzw. das zeitliche Vorhergehen der Mathematik mal vorläufig aus der Diskussion lässt, alternativ abgeschwächt könnten mathematische Realisten eben nur ein weiteres Mal die Wechselwirkung von materiellen mit immateriellen Objekten behaupten. Damit ist man bisher aber nicht besonders weit gekommen, um nicht zu sagen: notorisch gegen die Wand gefahren. Ein entsprechendes Experiment lässt sich nicht einmal formulieren, solange man nicht zu klären in der Lage ist, was denn ein nicht-­ materielles Objekt in einer ansonsten komplett materiellen Welt sein soll. Die grundsätzliche Schwierigkeit ist, auch nur eine einzige Eigenschaft eines solchen Objektes nennen zu können, die in unserer Welt wirklich vorkommt. Nicht-materielle bzw. ideelle Objekte wie die mathematischen, ob nun Zahlenverknüpfungen oder algebraische Ausdrücke, kann man als logische Gehalte bestimmter ­Gedanken betrachten, die diskret aber wiederum als materielle, elektrochemische Hirnfunktionen betrachtet werden müssen. Es gibt derartige organismische Selbstorganisation bzw. Selbstgerichtetheit in ihrer Funktion als Quasi-Kalkulation übrigens schon in jeder einzelnen Zelle (auf simpelster autarker Ebene schon in Einzellern) und erst recht natürlich in vernetzten Zellverbänden (nicht nur in Neuronen, alle Zellen kalkulieren biologisch wirksam über chemische Sättigungen und dergl.).15 Was wir – um zum Menschen zurückzukommen – Gedanken nennen, ist lediglich unsere Art, diese Prozesse zu empfinden. Abgelöst vom Gehirn (auf Papier oder dergleichen) sind sie nicht satisfaktionsfähig bzw. wechselwirkungsfähig. Sie  Die Enzymatik der Zellen kalkuliert mit den von ihr aktivierten oder inhibierten Genen wesentlich effizienter als jeder Großrechner. Plastizität ist hier das Zauberwort. Der ständige Aufbau benötigter und der Abbau nicht mehr benötigter Strukturen ist konkurrenzlos. Das gilt natürlich insbesondere für ein komplettes Gehirn. Dazu: Norbert Hinterberger, „Vom Einzeller zu Einstein”, in Aufklärung und Kritik, 2/2013. 15

2  Im Reich des mathematischen Realismus und … 

33

l­eben eben nur in Gehirnen. Gehirnprozesse und Gedanken verhalten sich vermutlich ähnlich zueinander wie die zerebrale Verarbeitung von Frequenzen von Lichtwellen zu intersubjektiven Farbempfindungen. Wenn wir das zugeben, könnte man schlussfolgern, dass Gedanken nur Übersetzungen in – wie wir ja sehen können  – beliebiger Sprache sind. Also können wir sie wohl ebenso als Empfindungen von diskreten Gehirnberechnungen betrachten. Und diese Sprach-Empfindungen sind entsprechend emergent, im Vergleich zu letzteren – ebenso wie die Farbempfindung der weitgehend intersubjektive Aspekt der biologischen Verarbeitung der Licht-Frequenzen beim Menschen und auch bei vielen anderen Tieren ist.

2.1.2 Kanitscheiders Klassen Gehen wir hier aber zunächst auf erkenntnistheoretische Fragen im engeren Sinne ein. Kanitscheider findet, „dass die Einzeldinge am Beginn jedes Erkenntnisprozesses stehen.“ Diese Formulierung ist nicht so ganz unproblematisch, ließe sich aber durchaus noch mit einer verträglichen Interpretation ausstatten, ebenso wie die Behauptung: „Der Dorfpolizist wird vermutlich nie über die Klasse aller Einbrecher nachdenken.“ Richtig problematisch wird es erst mit folgender allgemeiner Bemerkung: „Erst nach der Beobachtung der Einzeldinge kommt im nächsten Schritt das Gemeinschaftliche zum Tragen (…).“ Das ist eine typisch induktivistische Idee mit all ihren Schwierigkeiten. Kanitscheider wird später auch selbst noch den Wert der Klassifizierung hervorheben. Das allerdings – wie wir auch bisher schon gesehen haben – lediglich fokussiert auf eine angeblich mathematisch intrinsische Natur im platonischen Sinn. Er sieht sie also nicht etwa als deduktivistische Charakterisierung von Erkenntnisvorgängen bezüglich der

34 

N. H. Hinterberger

materiellen Realität. Hier, in Bezug auf den Beginn der Erkenntnis, verharrt er aber ohnedies noch ganz in positivistischer bzw. logisch empiristischer Tradition bei den „Einzeldingen“. Karl R. Popper hat uns aber immer wieder mit Nachdruck darauf aufmerksam gemacht, dass alle unsere Beobachtungen immer schon „theoriegetränkt“ sind, so dass es so etwas wie „unmittelbare“ bzw. „Einzel-Beobachtungen“ nicht gibt. Wir verwenden immer schon das Mittel einer falliblen bzw. hypothetischen Klassifikation, zusammengesetzt aus unserem jeweils aktualen allgemeinen Hintergrund- bzw. Vermutungswissen, auch schon für die jeweils erste hypothetische Konstruktion eines „Einzeldings“. Auf einer biologisch diskreten (also nicht-kulturellen) Ebene kann man das überdies als biologisch universell betrachten. Schon auf der Ebene der Einzeller kann man die Membranbzw. Außen-Rezeptoren als Klassifikations- und damit als Kalkulations-Apparate betrachten. Die sind übrigens genauso fallibel, wie die kulturell allgemeinen Hypothesen (Klassifizierungen) der Menschen. Die Fallibilität der molekularen Erkenntnisapparate liegt einfach darin, dass sie schon rein materiell (chemisch) beschädigt sein können. Wenn sie das allerdings nicht sind, erkennen Rezeptoren nicht nur (in einer Art „Wegwerf-Funktion“) ein Molekül (aus dem Umgebungs-Milieu) und dann keines mehr … sondern, sie erkennen die ganze Molekülklasse. Zwar erkennen sie in der Regel (mit einem Rezeptor) nur jeweils eine bestimmte Klasse, aber die erkennen sie eben notorisch, weil rein chemisch, so dass sich bei einem intakten Rezeptor ein Unterscheidungsproblem wie beim kulturellen bzw. kon­ struktiv psychologischen Erkennen gar nicht stellt. „Am Anfang war der Geruch“, wenn man so will. Der wurde und wird molekular per Chemotaxis (über schärfere oder unschärfere „Schlüssel-Schloss-Mechaniken“) an den Rezeptoren einzelner Zellen aufgefangen bzw. zugeordnet

2  Im Reich des mathematischen Realismus und … 

35

(Geruch ist diskret einfach Molekülerkennung durch Rezeptoren). Das funktioniert nicht nur in Nasen (die bestehen in ihrer Schleimhaut praktisch aus nichts anderem als Zellen mit unterschiedlichsten Rezeptoren  – für jede detektierbare Molekülklasse gibt es einen). Solche Anlagen besitzen schon Einzeller. Nicht annähernd so luxuriös wie bei uns – viele müssen mit nur zwei verschiedenen auskommen: mit einem, der die Geruchsmoleküle des Fressfeindes erkennt, und einem, der Nahrungsmoleküle erkennt. Im Zellplasma gibt es weitere, die für unsere Diskussion hier zunächst keine Rolle spielen. Diese biologisch universell vorhandene Fähigkeit, nicht nur einen Vertreter seiner Art, sondern seine ganze Klasse ­erkennen zu können, erfüllt den Tatbestand der Klassifikation und ist offenbar schon mit einfachsten biochemischen Apparaturen zu realisieren. Man muss also schon über die Anlage, eine Klasse erkennen zu können, verfügen, um zur Spezifikation eines bestimmten Individuums, eines „Einzeldings“ (dieser Klasse eben) in der Lage zu sein  – was im Übrigen auch logisch bzw. deduktiv schlüssig ist. Auch Menschen überleben ja nicht nur durch bestimmte ihrer falliblen kulturellen Klassifikationen (allgemeinen Annahmen), sondern genau wie die anderen Organismen auch immer noch durch ihre molekularen Erkennungsapparaturen auf Zellebene. Ohne den Schutz durch die beeindruckende Überwachungs- und Abwehrtätigkeit unseres Immunsystems, würden wir uns schon an ganz normaler Nahrung vergiften. Wir können die Leistung unserer chemotaktischen Klassifikations- bzw. Erkennungs-Apparate also gar nicht überschätzen. Ein Immunsystem besitzen natürlich nur die höheren Lebensformen, aber die Re­zep­ toren-­Erkennung auf Zell- bzw. molekularer Ebene ist eben biologisch allgemein. Kanitscheiders „Bankräuber“ und der „Dorfpolizist“ stellen zwar zugegebenermaßen keine metatheoretischen

36 

N. H. Hinterberger

Überlegungen zu Klassen an, aber das müssen sie auch genauso wenig tun wie der Einzeller, um den Tatbestand bzw. die Tätigkeit der falliblen Klassifikation zu erfüllen bei ihren Erkenntnis- bzw. bei ihren biologisch allgemeinen Orientierungsversuchen. Das so genannte „Einzelding“ entsteht definitorisch erst durch die vorhergehende fallible Klassifikation (hier geht nämlich tatsächlich mal was „vorher“: es ist das Hintergrundwissen in Form von phylogenetisch geschulten Zellanlagen, zu denen insbesondere die Gehirne zählen  – es handelt sich also durchaus um Materie und nicht um eine nackte „logische Möglichkeit“, die vorhergeht). Da, also in Gehirnen, wird der Beobachtungsgegenstand erst als „Einzelding“ abgeleitet  – als besonderer Fall der allgemeinen Klassifikation eben. Das geschieht ganz und gar nicht unabhängig von der materiellen Entität (die erkannt werden soll), aber eben fallibel, aufgrund eines fehlenden Wahrheitskriteriums. Anders gesagt, wir (die Organismen) sind alle keine Hellseher. Da also alle Klassifikationen (ob nun rezeptorisch/enzymatisch oder kulturell) prinzipiell fallibel sind, können sie immer auch falsch sein. Um auf den Menschen und seine kulturellen Klassifikationen zurückzukommen: Ohne diese allgemeinen Vermutungen, die bei Beobachtungen aus dem jeweiligen (biologischen und kulturellen) Hintergrundwissen gewissermaßen ausgeschüttet werden, würden wir nur Farben und Kanten erkennen und nicht das, was wir gewöhnlich (und in der Mehrzahl der Fälle mit nicht zu unterschätzenden konventionellen Anteilen) als Gegenstände zusammenfassen. Auch der Dorfpolizist kennt die Klasse der Bankräuber, weil er schon aus der Schule weiß, welche wichtigen Eigenschaften Bankräubern gemeinsam sind – insbesondere wohl die, dass sie Banken berauben. Er „sieht“ das „Einzelding“ (in diesem Fall den Bankräuber als Bankräuber) von dieser Theorie aus als Individuum seiner Klasse. Aber anders als bei den

2  Im Reich des mathematischen Realismus und … 

37

antirealistischen Konstruktivisten oder Konzeptualisten wird vom Realisten eine solche Konstruktion als „Einzelding“ zu Recht als real betrachtet, solange keine falsifikative Gegenevidenz vorgebracht werden kann, es sich also etwa intersubjektiv als optische, akustische oder haptische Täuschung herausstellt. Der Ausdruck „Einzelding“ ist trotzdem hochgradig irreführend, denn es gibt schlicht kein Ding, das nicht zu irgendeiner Klasse gehören würde. Genau genommen gehört jede materielle Entität immer zu vielen (primären Eigenschafts-)Klassen. Nur die diskreten Dinge (Elementarteilchen) kann man auf drei Eigenschaften reduzieren (Masse, Spin und Ladung). Der evolutionäre Grund für diese fallibel klassifizierende (und damit auch häufig über-generalisierende) Erkenntnisweise ist die Tatsache, dass (abgesehen von Artefakten  – und auch die setzen sich letztlich aus Elementarteilchen zusammen) in unserer Welt nichts solo vorkommt und deshalb auch nicht als „Einzelding“ in der merkwürdigen Interpretation der Logischen Empiristen. Natürlich gibt es keine zwei Menschen (oder sonstigen Dinge), die einander völlig gleichen (so dass der Begriff des Individuums gewahrt bleibt), aber es gibt von Ihrer Art eben immer mehrere. Anders gesagt: Alle „Dinge“ kommen nur in Klassen vor, Individuen aus ihnen werden (und das ist der rein logische ­Vorgang) im Moment der Beobachtung aus den Klassifizierungen deduziert, aus dem Hintergrundwissen, das wir jeweils mit uns herum tragen – mag das nun genetisch, epigenetisch oder kulturell, oder bei höheren Lebensformen eine Mischung aus allem sein. Da aber bekanntermaßen auch schon die molekulare Information fehlerhaft sein kann, kommen wir (die Organismen insgesamt) alle nicht über die Methode von Versuch, Irrtum und (im besten Fall) Irrtums-Elimination hinaus. Anders gesagt, die Klassen sitzen ihren Individuen („Einzeldingen“) nicht noch einmal übergestülpt auf, wie

38 

N. H. Hinterberger

bei Kanitscheiders mathematischer Struktur-Realität. Damit hätten wir nämlich eine Verdopplung der Entitäten. Kanitscheider will zwar außerdem (abgesehen von der Reihenfolge im Erkennen, die er hier einfach logisch schlecht reflektiert hat – wie wohl alle ehemaligen Induktivisten) auf eine bestimmte Klassenstruktur unserer Welt hinaus: „Unsere Welt ist einfach so beschaffen, dass die Einzeldinge Gemeinsamkeiten besitzen (…)“16 Das klingt fast wie in einem Text von mir.17 Auch er betont dann, wie wichtig es ist, zwischen natürlichen und konventionellen Klassen zu unterscheiden. Allerdings will er mit seinen Klassen etwas ganz anderes anstellen. Bei mir geht es (erkenntnistheoretisch) um eine Kritik der Induktion und um die klare Aussage, dass Klassifikationen (aus denen deduziert wird) auf allen Ebenen unsicher, also fallibel sind und bleiben, während Kanitscheider glaubt, dass man unterscheiden kann und muss zwischen echten und scheinbaren Klassifizierungen. Bei den Logischen Empiristen hatten wir ja schon die Unterscheidung zwischen „echten Sätzen“ und „Schein-Sätzen“, an die diese Strategie nicht von ungefähr stark erinnert. Bei echten Sätzen sollte die Wahrheit in der „Methode ihrer Verifikation“ liegen. Für beide Vorschläge gilt natürlich: Nur mit einem sicheren Wahrheitskriterium, über das wir aber nicht verfügen, könnten wir entsprechende Unterscheidungen treffen. Kanitscheider denkt dessen ungeachtet: „Hier gibt es Beispiele sowohl für echte als auch für scheinbare Klassifizierungen.“ Und das hat eben wieder damit zu tun, dass er annimmt, es gibt mathematisch manifeste und den materiellen Dingen gewissermaßen „prästabilierend“ harmonisch „vorwohnende“ Klassen. In meiner Schrift geht es  Ebenda, S. 245.  Norbert Hinterberger, „Vom Einzeller zu Einstein”, in Aufklärung und Kritik, 2/2013, S. 35 ff. 16 17

2  Im Reich des mathematischen Realismus und … 

39

dagegen um Evolutionäre Erkenntnistheorie in deduktivistischer Interpretation, also um die erkenntnistheoretische Bedeutung der Klassifikation und ihrer biologischen Apparaturen in der gesamten Evolution der Erkennungsorgane. Er formuliert hier indessen einen anti-evolutionären, mathematisch zeitlos inspirierten „Realismus“ nicht nur der Zahlen, sondern auch der Klassen als Objekte der Wirklichkeit: „Die Chemie kennt Elemente und Verbindungen, die sicher naturgegeben sind, die Teilchenphysik Quarks und Leptonen, die nach heutigem Wissen die basalen Bestandteile der Materie ausmachen. Die Galaxien und ihre Gruppierungen, die dynamisch gebundenen Sternassoziationen wie die Kugelhaufen, sind sicher reale Muster von Objekten, wohin­ gegen die Tierkreiszeichen psychologische Artefakte der menschlichen Einbildung darstellen.“18

Wir werden diese Schwemme „reale(r) Muster“ später bei Michael Esfeld in seinem „Strukturalen Realismus“ wieder finden. Beide Autoren machen sich keine Gedanken darüber, dass diese Art der Strukturierung zu einer Vervielfachung der tatsächlich vorhandenen diskreten Realität (auf Quantenebene) führen muss. Kanitscheider beschränkt sich ja nicht auf das Klassifizieren als Erkenntnisstrukturierung der Organismen. Nein, bei ihm sollen diese Klassen alle noch einmal zusätzlich zu ihren Elementen existieren. Das ist schon unschlüssig, wenn ich mich auf Klassen beschränke, zu denen wir in ihren Elementen direkte Referenzen zu besitzen scheinen. Überdies können wir uns dabei aber auch immer irren und dann am Ende den Topf im Topf des Topfes (und so fort) konstruieren. Aber eins nach dem anderen. Zuerst einmal muss man wohl feststellen, dass nur die Elementarteilchen zu diskreten 18

 Kanitscheider, Natur und Zahl, S. 246.

40 

N. H. Hinterberger

Klassen gehören, wenn man keine unnötigen Widersprüche produzieren will. Man muss von einer strengen Unterscheidung zwischen diskreten Dingen (ob das am Ende der Diskussion nun die Elementarteilchen oder nur noch vibrierende Energiefäden oder –Wellen angeregter Raumzeitatome sind) und den aus ihnen zusammengesetzten (also immer wenigstens teilweise konventionellen oder emergenten) Entitäten ausgehen. Nur so kann man das Problem vermeiden, welches insbesondere schon von Mario Bunge und Manfred Mahner mit ihrer abstürzenden „Ding“-Definition in die Welt gesetzt wurde: Alle Metaebenen bzw. unterschiedlichen Klassifikationsebenen landen letztlich in der Objektebene. Dieser Absturz kommt zustande, weil bei ihnen alles Ding ist, vom Elektron bis zum Ökosystem (ein derartig aufgeblähtes System erinnert stark an die spekulativen Finanzmärkte, von denen nach einem Crash dann jeweils eingesehen werden muss, dass wohl doch etwas zu viel „Phantasie“ im Markt war).19 Da von Bunge und Mahner in diesem Zusammenhang dem Begriff der Entität eine eigene Bedeutung abgesprochen wurde (alle materiellen Entitäten sollten unter dem Begriff des Dings bzw. der Dinge subsumiert werden), haben diese beiden Pseudo-­ Materialisten (ungewollt) einen Ding-Idealismus mit enormen Vervielfältigungseffekten erzeugt. Hier wird natürlich nicht die Materie, sondern wie immer nur die widersprüchliche Begrifflichkeit zu ihr vervielfältigt. Ein Supergau für Materialisten! Reserviert man dagegen die diskrete Materie- bzw. Energie-Ebene den Elementarteilchen bzw. ihren Wellen und verwendet den materiellen Entitäts-Begriff nur für alle möglichen Konstellationen letzterer (also emergent), so kann man rein konventionelle Klassifizierungen (ohne materielle Referenz) allgemein, also nicht nur in Form von Astrologie  Ich habe diesen Ding-Begriff bereits in Aufklärung und Kritik (3/2011, S. 169 ff.) „Die Substanzmetaphysik von Mario Bunge und Manfred Mahner” kritisiert. 19

2  Im Reich des mathematischen Realismus und … 

41

oder dergl. davon trennen. Man kann sie also tatsächlich empirisch, logisch und methodologisch ausschließen. Man behält auf diese Weise einen sauberen kritischen Realismus übrig, in dem die Existenzweise aller materiellen Entitäten zumindest mal prinzipiell geklärt ist: Diskret ist nur die fundamentale Ebene der Teilchen/Wellen bzw. ihrer Energien, alle anderen materiellen Entitäten dürfen nicht als unabhängige Dinge bezeichnet werden, sonst haben wir logisch betrachtet eine Ding-Inflation vor uns, die zwangsläufig idealistisch ist und zu Recht letztlich immer zu einem Absturz der aufgeblähten metasprachlichen Ebenen führt. Bei Kanitscheider ist ebenfalls nicht geklärt, wie er das vermeiden will. Es wird von ihm nicht einmal problematisiert, obwohl er die Philosophie von Bunge und Mahner kennt. Aber auch diese so genannten „Materialisten“ kamen vom Antirealismus (vom Logischen Empirismus), so dass man hier ohnedies nicht unbedingt einen echten materialistischen Realismus erwarten durfte. Mit der Einsicht in die Notwendigkeit unterschiedlicher Sprachebenen zur Vermeidung von Antinomien (Alfred Tarski) und Einsichten in die konventionellen Anteile in den entsprechenden Aussagen, vermeidet man dagegen ein massenhaftes idealistisches Aufblähen der diskreten Materie (wie wir es bei Mario Bunge und Manfred Mahner erlebt haben) und benötigt keine undurchführbaren Unterscheidungen zwischen „echten und scheinbaren“ Klassifizierungen, wie bei Kanitscheider. Dafür haben wir schließlich  – genau wie in Bezug auf alle anderen Sicherheitsbehauptungen zu Wahrheiten – ebenfalls kein Kriterium. Betrachtet man alle Klassifizierungen prinzipiell als fallibel-­konstruktiv, vermeidet man Kanitscheiders Dogmatismus in dieser Sache und es wird nebenher noch klar, dass man auf eine konsequent falsifikative Methodologie nicht verzichten kann. Theorien sind nur unsere auffälligsten und aufwändigsten Klassifikationen, sie sind indessen allesamt

42 

N. H. Hinterberger

logisch äquivalent zu allgemeinen Erwartungen beliebiger Provenienz. Anders gesagt, alle Lebewesen klassifizieren in der einen oder anderen Form – ob nun zellular-rezeptorisch und/oder kulturell, und alle können sich dabei irren. Und vermeidet man die Existenzbehauptung für Klassen, zusätzlich zu ihren materiellen Elementen, hat man das idealistische Inflations-Problem von vornherein vermieden. Unsere Klassifizierungen sind das Produkt unserer (im Übrigen äußerst erfolgreichen) Suche nach Regelmäßigkeiten in der Natur – sie existieren nur als biochemische Funktionen in Organismen, nicht noch einmal mathematisch jenseits von Raum und Zeit. Kanitscheiders Argumente für natürliche Arten wären realistisch konstruktiv verstanden nachvollziehbar: Auch Willard van Orman Quine „hatte seinerzeit schon argumentiert: Arten sind Mengen, und wenn man der Meinung ist, dass Arten natürlich und real sind, dann gilt dies auch für Mengen. Selbstredend sind nicht alle Mengen Arten, sondern nur jene, die durch Überschneidung der Eigenschaften zusammengehalten werden. Alle Elektronen, auch wenn sie verschiedene Energien besitzen, formen eine natürliche Art, denn ihre Masse, ihr Drehimpuls und ihre Ladung sind gleich (…)“20

Hier hatte Quine sozusagen „aus Versehen“ komplett realistisch argumentiert (wobei das für die Masse auch nicht stimmt, denn die kann bei unterschiedlichen Energien natürlich nicht gleich bleiben: E = mc 2). Es werden zwar ungeordnet Elementarteilchen und aus ihnen zusammengesetzte Entitäten angesprochen, aber er bemerkt zu Recht, dass sie sich durch ihre (physikalischen) Eigenschafts-­Schnittmengen als materielle Realitäten bzw. Entitäten qualifizieren. Das  Kanitscheider, Natur und Zahl, S. 249.

20

2  Im Reich des mathematischen Realismus und … 

43

unterscheidet sie natürlich von rein konventionellen Klassen aller Art. Man wird dann aber gleich wieder geschockt, wenn man sieht, wie Kanitscheider damit nur seinen mathematischen Platonismus ausbauen will, ob nun als „zeitlich vorgeordnete“ oder bloß „mit-­gezogene“ Existenz-Variante: „Was leistet etwa ein starker Realismus, bei dem diese Grundgestalten vor den Dingen existieren und diesen ihre formale Existenzweise verleihen, im Unterschied zum moderaten Realismus, wonach die strukturalen Gemeinsamkeiten der Dinge nur als intrinsische Formen auftreten, die wir mithilfe der Fähigkeit der Abstraktion begrifflich herausheben und logisch analysieren, und schließlich zu der skeptischen Position, die in alledem nur begriffliche Konventionen sieht?“21

Allein schon der Ausdruck „starker Realismus“, angewandt auf die Position, die mathematische Objekte bzw. „diese Grundgestalten“ zeitlich vor den Dingen sieht, ist starker Tobak. Denn hier ist ja gar nicht mehr nur von „mathematischem Realismus“ die Rede, sondern einfach von „Realismus“. Insbesondere im Zusammenhang der Behauptung, dass diese „Grundgestalten“ den Dingen erst „ihre formale Existenzweise verleihen“ (also ihre ideale Existenzweise), ist das für kritische Realisten wohl mehr als gewöhnungsbedürftig. Man sieht doch klar, dass damit eher die materiellen Dinge entmaterialisiert werden (sie kriegen hier ja allesamt eine „formale Existenzweise“ verpasst), als dass etwa umgekehrt klar würde, dass mathematische Strukturen gewissermaßen Ding-Charakter erhalten könnten – wie vom Autor wohl erhofft. Gar nicht zu reden von der Denunziation, die materialistisch realistische Sicht hier als skeptische Position zu bezeichnen. 21

 Kanitscheider, Natur und Zahl, S. 249.

44 

N. H. Hinterberger

2.1.3 B  ojowalds kosmologische Implikationen Kanitscheider ist in Unendlichkeiten verliebt. Er fand die Versuche von Gustaf Järnefelt und Paul Kustaanheimo, den reellen Zahlenkörper durch ein endliches Galois-Feld zu ersetzen bzw. die Differentialgleichungen durch Differenzengleichungen zu ersetzen, denn auch wenig anregend bzw. von starker „Voreingenommenheit gegenüber dem Unendlichen geprägt (…)“22 Er ist in diesem Zusammenhang der Meinung, dass „seit den 50er-Jahren des vorigen Jahrhunderts auch die Begeisterung für den Finitismus der Galois-Felder wieder abgeklungen“ sei. Diese Einschätzung könnte allerdings einer Voreingenommenheit seiner selbst zu verdanken sein, denn ein solcher Finitismus (mithilfe der Differenzenrechnung) ist geradezu charakteristisch für Martin Bojowalds Arbeiten zu Raumzeit-Quantisierungen. Diese Bemühungen bewegen sich im Umfeld einer wirklich kritisch realistisch angelegten Loop Quantum Gravity (LQG) – Abhay Ashtekar, Martin Bojowald, Carlo Rovelli, Lee Smolin, Fotini Markopoulou, Fay Dowker u. a. Diese Methode wurde auch in Bojowalds Vereinfachungsmodell der LQG (ohne Materie) angewendet, das als Loop Quantum Cosmology (LQC) bezeichnet wird. In etwas anderer, aber nicht weniger realistischer Weise finden wir diesen Ansatz in der Causal Dynamical Triangulation (CDT), Renate Loll, Jan Ambjorn und Jerzy Jurkiewicz. Renate Loll hat kürzlich neue „Numerische Werkzeuge für die Schleifenquantenkosmologie“ in diesem Zusammenhang erarbeitet.23  Kanitscheider, Natur …, S. 69.  Conference Date (at perimeterinstitute.ca) June 19 to 23, 2017: „Quantum gravity research provides us with fascinating models for space-time at the smallest scales. However, a bottleneck common to many approaches is the extraction 22 23

2  Im Reich des mathematischen Realismus und … 

45

In wieder etwas anderer Weise wurde die so genannte Quantum Graphity von Fotini Markopoulou u.  a. (2008) entwickelt. Dieser Ansatz ist ebenfalls Hintergrund-­ unabhängig und wurde mit dem holographischen Prinzip kombiniert, um das Horizontproblem zu lösen und „die beobachtete Skaleninvarianz kosmischer Hintergrundstrah­ lungs­schwankungen ohne kosmische Inflation zu er­klä­ren.“24 Die Causal Set Theory (CST) wurde von Fay Dowker und anderen entwickelt. Man muss wissen, es gibt mittlerweile auch antirealistische Lesarten der CST, die hier Relationalismus ohne Bezug zu Materie/Energie einführen möchten. Aber Dowkers Position ist eine realistische Variante – gewissermaßen deduziert aus der LQG. In diesen realistischen Ansätzen der Quantengravitation werden die Unendlichkeiten (Singularitäten von Druck, Masse, Energie), die sich aus kontinuierlicher Raumzeit ergeben, als inakzeptabel bzw. als ein Ausdruck der Grenzen der Allgemeinen Relativitätstheorie (bzw. der Grenzenlosigkeit ihrer unlimitierten Kontinuitätsvorstellung) interpretiert, so dass also hier überall explizit nach finiten Berechnungsmöglichkeiten gesucht wird.

of the large-scale dynamics for these models. This will not only provide a crucial consistency test but also be essential for making sought-after predictions for future experiments. Numeric tools will be inescapable for this task.” 24  Quantum Graphity, Thomas Konopka, Fotini Markopoulou, Lee Smolin: „We introduce a new model of background independent physics in which the degrees of freedom live on a complete graph and the physics is invariant under the permutations of all the points. We argue that the model has a low energy phase in which physics on a low dimensional lattice emerges and the permutation symmetry is broken to the translation group of that lattice. In the high temperature, or disordered, phase the permutation symmetry is respected and the average distance between degrees of freedom is small. This may serve as a tractable model for the emergence of classical geometry in background independent models of spacetime. We use this model to argue for a cosmological scenario in which the universe underwent a transition from the high to the low-temperature phase, thus avoiding the horizon problem.” Wie man sieht, wird hier hauptsächlich versucht, ein wichtiges physikalisches Problem zu lösen, nämlich das Horizontproblem.

46 

N. H. Hinterberger

Martin Bojowald argumentiert ähnlich kritisch wie Lee Smolin zum mathematischen Platonismus: „Gerade in jüngster Zeit wird die Mathematik (…) zum Selbstzweck innerhalb der Physik  – vor allem in der Forschung zur Quantengravitation, die derzeit noch keinen kontrollierenden Beobachtungen unterworfen ist. Mathematische Konsistenz dient dann als alleiniges Selektionskriterium zur Auswahl von Theorien.“25

Aber die mathematische Konsistenz besagt eben noch nichts über die Konsistenz der jeweiligen Theorie in Bezug auf die materielle Wirklichkeit. Davon abgesehen ist aber – wie schon angesprochen – auch die mathematische Konsistenz bei derartig komplexen Theorien nicht einfach festzustellen und so begnügt man sich häufig mit subjektiven Kriterien wie „Schönheit“ oder „Eleganz“ oder „Ökonomie“. Dabei werde die Realität leicht aus den Augen verloren (hier sind vor allem die Stringtheoretiker angesprochen): „Wenn man einmal zu einer solch intimen Beziehung mit der Mathematik gekommen ist, werden die mathematischen Objekte leicht mit der Realität verwechselt. John Stachel spricht in diesem Zusammenhang vom Mathematik-­ Fetischismus: ‚Ich bezeichne als Mathematikfetischismus die Tendenz, mathematische Konstruktionen des menschlichen Hirns mit einem unabhängigen Leben und mit einer eigenständigen Macht auszustatten‘ (…) Bei all diesen Erwägungen ist es wichtig, in Erinnerung zu behalten, dass das Ziel der Wissenschaft ein Beschreiben der Natur ist, und die Natur hat sicher ihre eigenen Vorstellungen von Schönheit.“26  Martin Bojowald, Zurück vor den Urknall, S. Fischer Verlag GmbH, 2010, S. 91.  Bojowald, Zurück, S. 92.

25

26

2  Im Reich des mathematischen Realismus und … 

47

Das scheint an Edward Witten adressiert, der ja anheimgestellt hat, dass das „M“ in seiner M-Theorie (eine Theorie, die zeigen sollte, dass alle fünf Versionen der Stringtheorie logisch gleichwertig sind) wahlweise als Abkürzung für „magisch“ oder „mysterious“ verstanden werden darf – oder es soll einfach für Mathematik stehen. In Bojowalds Version der Schleifen-Quantengravitation bspw. gibt es keine kontinuierliche Umwandlung von Zeit in Raum bzw. umgekehrt (also auch keine Differentialgleichungen). Er postuliert sowohl diskreten Raum als auch diskrete Zeitpunkte. Er nennt sie übrigens auch diskret, um ganz klar zu machen, dass es zwischen diesen Zeitpunkten „buchstäblich nichts gibt“. Es gibt bei ihm eine Art Zeitgitter, das dafür sorgen soll, dass in beliebigen Raumzeitpunkten nur begrenzte Energie aufgenommen werden kann. So hat er eine Gegenkraft (gegen die berühmten Singularitäten von Dichte, Druck und Masse), die von der Raumstruktur selbst ausgeht: „Bei einem großen Universum geringer Energiedichte ist die Diskretheit unbedeutend, bei geringer Größe und hoher Energie aber entscheidend.“27 Einsteins Zeit ist (abgesehen davon, dass sie ohnedies eher als Raum-Messungs-Parameter fungiert) kontinuierlich. Man kann also immer noch einen Zeitpunkt und damit auch Energie zwischen zwei beliebige Zeitpunkte quetschen. Dasselbe gilt bezüglich der Abstände für den traditionellen kontinuierlichen Raum, der keine Planck­ länge als unterste, nicht weiter komprimierbare Einheit kennt. Das führt zu den unerwünschten Singularitäten bzw. zu den unerwünschten Unendlichkeiten von Druck und Energie bzw. Masse bei den Berechnungen. Bojowald betrachtet den Missbrauch von Unendlichkeiten in mathematischen Argumenten als „gefährliche Waffe“. 27

 Martin Bojowald, Zurück, S. 138.

48 

N. H. Hinterberger

Diesen Missbrauch kennen wir schon seit Zenon. Parmenides ging bekanntlich davon aus, dass Bewegung eine Illusion sei, ebenso wie Zeit. Um Parmenides zu rechtfertigen bzw. um zu zeigen, das Bewegung eine Illusion ist, konstruierte Zenon seinen berühmten Wettlauf zwischen Achilles (dem schnellsten Mann der Welt) und der Schildkröte. Unter dem Titel „ABUSE OF INFINITY  – The Dirty Tricks Of Physics“ erzählt uns Bojowald die Geschichte folgendermaßen: „Als fairer Sportler gibt Achill der schwächeren Schildkröte einen Vorsprung. Nach dem Start gelangt Achill schnell an den Startpunkt der Schildkröte, diese ist aber in der Zwischenzeit ein Stück weiter gekrochen. Achill benötigt etwas Zeit, um auch dorthin zu gelangen, doch die Schildkröte ist wieder weiter. Dies wiederholt sich unzählige Male, und so holt Achill die Schildkröte nie ein. Wenn aber der schnelle Achill die langsame Schildkröte nicht einholen kann, in Widerspruch zu unserer Erwartung an Bewegung, so kann die Bewegung selbst nur Illusion sein.“28

Zenon präsentiert uns seinen Beweis in Form einer reductio ad absurdum – relativ zur bzw. als Negation der empirisch überwältigend gut gestützten Behauptung, dass es Bewegung gibt. Sein Trick geht von einer mathematischen Kontinuitäts-Vergewaltigung der Zeit (mithilfe der gesamten Menge der reellen Zahlen) aus: „Er teilt nun den Zeitraum zwischen Start und Einholen in unendlich viele kleinere Intervalle ein und ändert eigenmächtig, aber nur gedanklich, den Fluss der Zeit. Anstatt die Zeit wie gewohnt vergehen zu lassen, springt er von jedem der Intervalle zum nächsten. Da die Intervalle immer kürzer werden, vergeht die Zeit in seinem Gedankengang  Bojowald, Zurück, S. 95.

28

2  Im Reich des mathematischen Realismus und … 

49

anders als gewohnt; sie wird gegenüber unserer Zeit immer weiter verlangsamt. Damit führt er einen endlichen Zeitraum – die Zeit, in der Achill die Schildkröte einholt – in einen unendlichen über. Mathematisch gesprochen unternimmt er eine Koordinatentransformation, in der der endliche Zeitpunkt des Einholens auf einen unendlichen Wert der neuen Zeit abgebildet wird. Sein Argument findet dann in der neuen Zeit statt, in der der unendliche Wert in der Tat nie erreicht wird.“29

Bojowald nennt das „Zenonsche Verzweiflung“, was man für gut getroffen halten kann: „Viele der vorgebrachten Argumente können auf eine Zeit-Transformation reduziert werden, in der der endliche Zeitraum zwischen der Urknall-Singularität und der Zeit heute auf einen unendlichen abgebildet wird. In dieser Zeit betrachtet, fand der Urknall vor unendlich langer Zeit statt und damit zu keinem endlichen Zeitpunkt, also nie. Übersehen wird hierbei natürlich, dass nicht die neue, nur eine mathematische Rolle spielende Zeit ausschlaggebend ist, sondern die von uns wahrgenommene physikalische Zeit (auch Eigenzeit genannt). Einen in ein schwarzes Loch stürzenden Astronauten wird es kaum trösten, dass man seine geringe endliche Rest-Lebenszeit mathematisch auf ein unendliches Intervall abbilden kann.“30

Diese kurze Analyse ist brillant. Bojowald ist nicht nur ein exzellenter Mathematiker, sondern auch ein Mann mit enormer physikalischer Intuition – schließlich hat er eine Lösung für seine Vereinfachung der Gleichung von Thomas Thiemann gleich mitgeliefert (unten). Das ist ja in der modernen Kosmologie alles andere als selbstverständlich. Alles 29 30

 Bojowald, Zurück, S. 95.  Bojowald, Zurück, S. 96.

50 

N. H. Hinterberger

schmeißt mit Gleichungen um sich, aber mit den Lösungen geht es dann häufig weniger gut voran. Zu seiner Idee der positiven Werte in unserem und der negativen im „umgestülpten“ Vorgängeruniversum ist Bojowald übrigens durch Paul Dirac inspiriert worden. Der war 1928 damit beschäftigt, die Spezielle Relativitätstheorie (SRT) mit der Quantenmechanik (QM) zu vereinigen. Schrödingers Gleichung missachtete ja das Quadrat der Energie. In Diracs Gleichung ist die relativistische Relation berücksichtigt: „Das Quadrat einer Zahl ist aber, im Gegensatz zur Zahl selbst, von deren Vorzeichen unabhängig … für jede Lösung der Schrödinger-Gleichung existieren also zwei Lösungen der Dirac-Gleichung, die sich in dem Vorzeichen der Energie und möglicherweise in dem ihrer Ladung unterscheiden …“

So hat Dirac bekanntlich die Antimaterie vorhergesagt. Bei Bojowald lief das – nach eigenen Aussagen – ganz ähnlich: „Ist nur das großskalige Verhalten zum Beispiel der kosmischen Expansion von Interesse, so ergeben sich entscheidende Vereinfachungen. Wenn diese einmal realisiert sind, so wird das Spektrum aller möglichen Volumina konkret und in allen Einzelheiten berechenbar. Zudem gibt es für jeden Wert des Volumens nur wenige Zustände, nämlich zwei (abgesehen von dem verschwindenden Volumen der Singularität, dem ein eindeutiger Zustand vergönnt ist).“

Die Bemerkung bzw. der Scherz, dass der Singularität „ein eindeutiger Zustand vergönnt“ sei, ist von Kanitscheider übrigens ernst genommen worden (in einer Sendung mit Bojowald im TV, bei der auch Kanitscheider anwesend war). Kanitscheider sagte jedenfalls sinngemäß, es wäre ja schön zu sehen, dass es die Singularität wirklich gebe. Worauf Bojowald antwortete: „Eigentlich ja nicht …“. Als Bojowald diese „merkwürdige“ Verdoppelung der Zustände analysiert hatte, war ihm offenbar schon

2  Im Reich des mathematischen Realismus und … 

51

„deren mögliche Bedeutung für die Dynamik aufgefallen. Anstatt die Menge der Volumina als Zwillingspaar zweier einseitig positiver Achsen zu betrachten, die in der Singularität starten, können wir sie auch als eine ganze Achse positiver wie negativer Zahlen anordnen, bei der die singuläre Null nun in der Mitte und nicht am Rand zu liegen kommt.“31

Physikalisch betrachtet, eine singuläre „Fast-Null“ die sehr klein ist, aber nicht wirklich eine Einstein-Singularität, welche bekanntlich unendliche Kleinheit involviert – könnte man hinzufügen. Denn das Universum muss ja durch diese „Null“ hindurch, bei der Bojowaldschen Umkehrung. Und: „Es zeigt sich schnell, dass die zeitliche Entwicklung des Universums auch wirklich auf dieser langen Leiter stattfindet. Denn unter den symmetrischen Bedingungen des großskaligen Universums gelang es mir schließlich, auch die dynamische Gleichung, wie Thiemann sie für allgemeine Zustände aufgestellt hatte, weit genug zu vereinfachen, um sie lösen zu können. Sie hat eine kompakte Form (einer Differenzengleichung), die mittlerweile in vielen wissenschaftlichen Arbeiten benutzt wird:



Ψ C+Ψ n +1 + C0Ψ n + C−Ψ n−1 = H n

Hierin symbolisiert Ψ den Zustand des Universums – die Wellenfunktion – an unterschiedlichen Werten n, die die Leitersprossen, also die Werte des Volumens, und durch das Vorzeichen die Orientierung angeben. Ferner treten Koeffizienten C+, C0 und C− auf, deren Form die richtige Quantisierung der Einstein’schen Gleichung sicherstellt, und Ĥ beschreibt den Materiegehalt des Universums.“32

31 32

 Bojowald, Zurück, S. 131.  Bojowald, Zurück, S. 132.

52 

N. H. Hinterberger

Kanitscheider referiert natürlich auch selbst die „Quantenrevolution“ und spricht von Plancks nicht-­kontinuierlichen finiten Werten der Energie: „Er sah sich zu der Hypothese gezwungen, dass die Resonatoren des schwarzen Körpers von einem äußeren, periodisch sich ändernden Feld Energie nur in bestimmten ganzzahligen Vielfachen eines konstanten endlichen Quantums (…) aufnehmen können.“33

Er tut aber so, als wäre das ein kontingentes Einzelgeschehen und nicht eine Erkenntnis, die schon längst extrapoliert worden ist in alle wichtigen Überlegungen zur Quantengravitation. Ihn interessiert hier anscheinend wieder lediglich der mathematische Aspekt, nämlich, dass die Energie-Vielfachen ganzzahlig sind. Überdies macht er sich Sorgen darüber, dass aus der Quantelung der Strahlung (bei Planck) Konsequenzen für die Mathematik abzuleiten wären, die dafür sorgen müssten, dass „die Variablen nicht den vollen Zahlenraum ­auffüllen.“34 Warum sollten die das bei der Beschreibung einer quantisierten Energie aber überhaupt tun? Hier geht es doch genau darum, dass zwischen den Energie-Quanten keine weiteren kontinuierlichen Energien existieren  – er wünscht sich das aber anscheinend, nur um den Zahlenraum der reellen Zahlen ausfahren zu können, um zu seinen geliebten, aber völlig unklaren Unendlichkeiten in der Realität zu kommen. Ganz abgesehen davon, dass man sich fragt, wie er sich die Abbildung auf die Realität eigentlich vorstellt, angesichts der Tatsache, dass wir bei den reellen Zahlen schon zwischen 0 und 1 auf eine Unendlichkeit blicken. Das erinnert natürlich stark an Zenons  Kanitscheider, Natur und Zahl, S. 71.  Kanitscheider, Natur, S. 73.

33 34

2  Im Reich des mathematischen Realismus und … 

53

unbedenkliche Unendlichkeits-Argumente, bei denen klammheimlich physikalische Eigenzeit gegen mathematisch unendliche Zeit ausgetauscht wird. Im Übrigen kann man in Richtung der Platonisten wohl ganz allgemein sagen: Wir sind doch nicht die Diener eines Erkenntnisinstruments, auch wenn es sich dabei um die Mathematik handelt, sondern letzteres soll uns bei der Beschreibung der Wirklichkeit helfen. Und da haben wir es ganz sicher nirgends mit den unabzählbaren Unendlichkeiten der Reellen Zahlen zu tun. Das hat ja in der Anwendung auf den als kontinuierlich angenommenen Raum gerade zu den unerwünschten Singularitäten geführt (wenn man mit extrem verdichtetem Raum arbeitet) und vorher schon, in der Thermodynamik zur „Ultraviolett-Katastrophe“. Die Einführung der Quantisierungen (in allen Bereichen) hat demgegenüber dafür gesorgt, dass wir den Zahlenraum nicht nur nicht mehr vollständig ausfüllen müssen, sondern auch physikalisch nicht dürfen, wenn wir die Differenzengleichungen als physikalisch adäquate Quantisierungs-Methode für Raumzeit-­ Atome ernst nehmen wollen  – wie das etwa in der Loop Quantum Gravity, der Causal Dynamical Triangulation und der Causal Set Theorie geschieht.

2.2 D  ie Ansprüche, die auf den Naturalismus erhoben wurden Ab S.  95 redet Kanitscheider explizit über Naturalismus. ­Allerdings unter dem Titel „Naturalismus in der Welt der Mathematik“. Da erleben wir dann eine ähnlich überweite Interpretation des Naturalismus wie seinerzeit bei der sozusagen „eingemeindenden“ Deutung des kritischen Rationalismus und des damit fest verknüpften kritischen Realismus

54 

N. H. Hinterberger

durch die Nachfolger des Logischen Empirismus. Man versuchte, möglichst ohne Fehlereingeständnis zum Falsifikationismus überzugehen, ohne den Verifikationismus aufzugeben (obwohl der logisch nirgends durchführbar ist). Das führte zu erheblichen Problemen, da der Verifikationismus fest mit dem Induktivismus verknüpft war, und der sollte nicht wirklich aufgegeben werden. Es wurde trotzdem der recht verzweifelte Versuch gemacht, den kritischen Ra­ tionalismus/Realismus, in Positionen der analytischen Philosophie (also Sprachphilosophie und Logischen Empirismus – beides klar antirealistische Positionen) einzugemeinden. Rudolf Carnap war wohl der erste, der sich darin versuchte. Den meisten logisch-empiristischen Autoren fiel allerdings sehr schnell auf, dass das genau genommen ein Ding der Unmöglichkeit war. Sie wanderten dann reihenweise in verschiedene Formen des erkenntnistheoretischen Pragmatismus bzw. Wahrheitsrelativismus aus und versuchten da die Methodologie des Falsifikationismus irgendwie zu integrieren.35 Aber diesen Begriff führt man als Antirealist bzw. Wahrheitsrelativist natürlich ebenfalls nur unnütz im Munde. Etwas Ähnliches scheint Kanitscheider dessen ungeachtet hier mit dem Naturalismus vorzuhaben. Ab S. 105 redet er zu diesem Zweck über einen methodologischen Naturalismus, der schon bei Rudolf Carnap formuliert war. Das kann man natürlich methodologischen Naturalismus nennen. Methodologisch war der allerdings nur insofern, als alle Logischen Empiristen an den Naturwissenschaften orientiert waren, aber das auch wieder letztlich nahezu ausschließlich in formalistischem Interesse. Sie waren außerdem am Sensualismus interessiert, induktivistisch begründungs-theoretisch sozusagen  – aber das eben nur in einer Kombination von (unvermeidlich subjektivem)  Norbert Hinterberger, Der Kritische Rationalismus und seine antirealistischen Gegner, Rodopi, 1996, S. 366 ff. 35

2  Im Reich des mathematischen Realismus und … 

55

Sensualismus und (unvermeidlich antirealistischem) Formalismus. Das war ihre Version von Immunisierung gegen Kritik. Erst durch Quine sei „den Wissenschaftsphilosophen die Scheu genommen worden, auch über das zu reden, was es gibt, und nicht nur darüber, wie sich die Dinge in der Erfahrung zeigen.“ Genau diese ontologische Wendung wurde aber erst durch Karl R. Poppers konsequenten Fallibilismus und Falsifikationismus möglich – obwohl Popper den Begriff Ontologie aufgrund des vielfältigen historischen Missbrauchs nicht wirklich mochte. Kanitscheider behauptet indessen, dass Quine „auch an der Ausarbeitung des Naturalisierungs-Programms“ gearbeitet hätte: „So hat er den ersten bemerkenswerten Vorstoß in Richtung auf eine naturalisierte Erkenntnistheorie gemacht.“ (S. 105). Eine Seite weiter schreibt er über Quine: „Hier legt er einen dezidierten Sensualismus zugrunde.“ Wir wissen aber, dass der Sensualismus eine a­ ntirealistische bzw. positivistische Position war, die eben nicht von den Dingen an sich, auch nicht in hypothetischer Form, sondern eben genau lediglich von unserer Art der Erfahrung mit ihnen sprach  – ganz wie schon Rudolf Carnap und der gesamte Wiener Kreis (bzw. der „Mach-­Verein“). Die Bezeichnung Sensualismus ist einfach nur ein anderes Wort für den Logischen Empirismus – es handelt sich um eine positivistische d. h. antirealistische Erkenntnistheorie, die man methodologisch naturalistisch nennen kann, wenn man möchte, aber eben nicht ontologisch. Vorher bemerkte Kanitscheider schon, „dass Wissenschaftsphilosophen die Phänomenologie der mathematischen Entdeckung nicht berücksichtigen wollen und fast durchweg in den psychologischen, ontologisch irrelevanten Bereich abschieben.“36

36

 Kanitscheider, Natur, S. 106.

56 

N. H. Hinterberger

Damit kritisiert Kanitscheider aber de facto lediglich den sogar ihm nun zu engen Empirismus von Carnap und Quine und später Stegmüller, den er selbst früher vertreten hatte. Die Kritik am Antirealismus der Logischen Empiristen ist natürlich adäquat, denn der war psychologistisch (er hat sich schließlich aus dem Behaviorismus entwickelt), aber er greift hier außerdem die gesamte Psychologie an, als hätte die sich seit dem 19. Jahrhundert nicht weiter entwickelt. Moderne Psychologie ist inzwischen aber ganz allgemein in der Biologie und im Besonderen in der Neurophysiologie verankert – für einen Monisten der Materie allemal. Eingebettet ist das ganze außerdem in die Evolutionstheorie, die als Metatheorie der gesamten Biologie fungiert  – nämlich als phylogenetisch entwicklungstheoretische Erklärungsebene für die Funktions-Mechanismen in Lebewesen als Resultat ihrer aktiven Anpassungen. Anders gesagt, was soll an psychischen Phänomenen als Funktionen des Gehirns ontologisch irrelevant sein? Wir haben schon gesehen, dass Kanitscheider nicht in der Lage ist, die von ihm gesuchten Orte – für die Abstraktionen der Mathematik – widerspruchsfrei in der Physik anzusiedeln, ganz einfach, weil er (jedenfalls implizit) einen d ­ iffus quasi-materiellen Charakter der Abstraktionen behauptet, durch seine Vorstellung, sie wohnten der Materie wesentlich inne, seien ihr also „intrinsisch“. Andererseits muss er natürlich einräumen, dass eine Zahl schlicht eine Abstraktion ist bzw. dass sie konstruiert ist und, sofern es sich um eine natürliche Zahl handelt, diese Konstruktion überdies wohl empirisch inspiriert ist. Das allerdings nicht durch Zahlen, die auf dem Felde wachsen, sondern durch unsere Art etwelche Mannigfaltigkeiten und natürlich auch gleiche Gegenstände in ihrer Menge abzuschätzen, nachdem wir sie klassifiziert, also in ihrer Art benannt haben. Das können übrigens auch schon Vögel  – es gibt hier eine Menge neuerer und auch älterer Untersuchungen zum simultanen Zählen bzw.

2  Im Reich des mathematischen Realismus und … 

57

Abschätzen. Nichtsdestoweniger soll die Zahl bei Kanitscheider, genau wie seine Klassen, doch irgendwie quasi-materiell existieren, zumindest irgendwie gleichberechtigt neben Äpfeln und Bergen. Man kann einen faktischen Dualismus von Gegenstand und Abstraktion aber nicht monistisch erscheinen lassen in einer „gemeinsamen Ontologie“, wie er sich das wohl vorstellt. Der Grund für seine Sehnsucht nach diesem seltsamen Pseudo-­ Monismus ist klar, nämlich das Wechselwirkungsproblem (Materie mit Nicht-Materie) verschwinden zu lassen. In Bezug auf das Gehirn bspw. hat er das Problem ja längst eingesehen: „Wie der Bremer Neurobiologe Hans Flohr gezeigt hat, sind es selbstreferenzielle Strukturen im Nervensystem, die mit dem Bewusstsein identisch sind. Die intuitive Vorstellung einer autonomen immateriellen Innenwelt ist damit schlichtweg überholt. Mentalität ist spezifisch strukturierte Materie.“37

Ich hätte es nicht schöner sagen können. Ich würde allerdings doch lieber schlicht von wechselwirkender Materie reden wollen, damit mit dem unschuldigen Begriff der Struktur nicht weiter antirealistisch Schindluder getrieben werden kann. So hätte man jedenfalls den Monismus der Materie bzw. Energie verwechslungsfrei formuliert. Unmittelbar darauf müssen wir aber ohnedies feststellen, dass er diese Aussagen lediglich als Sprungbrett für einen idealistisch erweiterten Naturalismus verwenden möchte: „Falls nun das Projekt eines einheitlichen Naturalismus Erfolg haben soll, müssen auch die Formalwissenschaften unter diesem Dach untergebracht werden, man muss für Quantitäten, Strukturen und auch für den Informationsbegriff einen 37

 Kanitscheider, Natur, S. 112.

58 

N. H. Hinterberger

Ort finden. Wenn es abstrakte Objekte gibt, müssen auch sie – und sei es als Gestaltungen der Dinge – in den Gesamtverband der Natur einquartiert werden.“38

Auf mich machen diese Forderungen einen geradezu hilflosen Eindruck. Insbesondere da er ja gerade einen geeigneten Ort für all diese Dinge aufgesucht hat, nämlich das Gehirn: wiederum unbeeindruckt anscheinend. Da werden nämlich all diese Konstruktionen erzeugt. Gedanken und Vorstellungen bzw. Abstraktionen sind diskret betrachtet biochemische Funktionen des Gehirns. Auch auf die Gefahr hin, mich zu wiederholen: alle anderen Ideen dazu implizieren Wechselwirkungen zwischen Materie und Nicht-Materie. So etwas kennen wir aber weder in der Physik noch in der Chemie, noch in der Biologie und natürlich auch nicht in den Geisteswissenschaften, denn die stellen für einen kritischen Naturalisten (wie ich das ab jetzt mal sicherheitshalber nennen möchte  – um mich vor Verwechselungen mit Kanitscheiders antirealistischen Varianten zu schützen) nur andere Sprachebenen für die vorgenannten Wissenschaften dar. Da wo es keine klaren Abbildungen auf die materielle Welt gibt, muss man selbstverständlich die geisteswissenschaftlichen Begriffe korrigieren bzw. man muss sie vollständig entfernen, wenn sie lediglich auf die leere Menge abzubilden sind. Naturwissenschaftliche Begriffe werden sinnvoll nur von reproduzierbaren Beobachtungen bzw. Experimenten her korrigiert, denn als jeweils fundamentale Diskretisierung betrachten wir ohnedies nur die Materie. Auch eine formale Wissenschaft wie die Mathematik ist so (also konsequent evolutionär-erkenntnistheoretisch betrachtet) aus bestimmten Funktionen bestimmter biologischer Systeme zu erklä Kanitscheider, Natur, S. 112.

38

2  Im Reich des mathematischen Realismus und … 

59

ren. Alles andere hätte nichts mit einem realistischen Naturalismus zu tun, sondern könnte wohl fehlerfrei einem mystischen Naturalismus zugeschlagen werden – wir sollten nicht vergessen, das es so etwas ja schon gab, im Mittelalter  – und im Übrigen immer noch gibt: in jeder New-Age-Buchhandlung. Auch Kanitscheiders Versuch, eine Trennung von Epistemologie und Ontologie für den Objektstatus der mathematischen Begriffe nutzbar zu machen, ist deshalb nicht überzeugend. Die Epistemologie verwaltet eine erkenntnistheoretisch relevante Behauptungsmenge. Eine bestimmte Untermenge dieser Erkenntnisaussagen bezieht sich direkt auf die Ontologie, also auf die Welt der Materie/Energie und ihre Wechselwirkungen. Sofern Aussagen mit ihr in korrekter Weise korrespondieren bzw. einen bestimmten Wirklichkeitsaspekt richtig darstellen, nennen wir sie wahr. Das ist der Wahrheitsbegriff des kritischen ­Realismus. Ein Wahrheitskriterium (also die Möglichkeit nun auch mit Sicherheit sagen zu können, dass eine bestimmte Aussage p wahr sei) besitzen wir dadurch nicht. Deshalb „bleibt alles durchwebt von Vermutung“ – wie schon Xenophanes wusste. Der Rest der Epistemologie ist entweder rein logischer Natur (also trivial wahr) oder mathematischer Natur, also wahr oder aber falsch. Die Möglichkeit der Falschheit mathematischer Aussagen – in Form von abzuleitenden Kontradiktionen  – konnten wir besonders prägnant in der so genannten „Krise der Mathematik“ um 1900 an den nicht-widerspruchsfreien Mengenlehren kennenlernen, von der nicht nur Intuitionisten wie Hermann Weyl geschockt waren. Kanitscheider ist auch in der folgenden Hinsicht ganz Idealist und Logizist bzw. durchaus der Meinung, dass die

60 

N. H. Hinterberger

Naturalisten sich einen neuen Job suchen müssten, wenn sich ein Widerspruch zu mathematischen Resultaten zeigen sollte: „Denn wenn hier ein eklatanter Widerspruch bestünde, müsste der Naturalist seine Position überdenken, gerade, weil die exakten Wissenschaften für ihn Referenzdisziplinen sind.“39

So etwas kann man aber schon deshalb nicht grundsätzlich sagen, weil wir wissen, dass man in der Mathematik eben genauso Fehler machen kann wie sonst wo, weil sie als konstruktiv bzw. als quasi-empirisch aufgefasst werden kann und also ebenfalls als fallibel, wie Imre Lakatos sagen würde.40 Es gibt auch eine sehr interessante Kritik von Thomas Rießinger an Kanitscheiders Sicherheitsdenken bezüglich seines Platonismus, in der auf die Fallibilität der ­Mathematik im Allgemeinen und speziell auf die Unsicherheit von Beweisen eingegangen wird.41 Wir wissen darüber hinaus, dass bspw. die Euklidische Geometrie keine geeignete Referenz für die Gravitationstheorie Einsteins war. Hier hätte aber  – nach Kanitscheider – der Naturalist Einstein seine Position gegenüber der Euklidischen Geometrie überdenken müssen. Wir sehen, die ganze Maxime ist unstimmig, wenn wir mehrere mathematische Beschreibungen vor uns haben, die in sich zwar stimmig sind, von denen aber nur eine auf unsere Wirklichkeit passt, also nur eine die gesuchte Referenz darstellt. Nur für einen reinen Platonisten oder Logizisten ist das anscheinend schwer verständlich, denn für ihn ist Mathematik mit Logik identisch. Wir wissen, wie Tegmark das Problem gelöst hat, bei ihm müssen einfach so viele Welten her wie es mögliche Geometrien gibt.  Kanitscheider, Natur, S. 99.  Imre Lakatos, Mathematik, empirische Wissenschaft und Erkenntnistheorie, 1982, S. 34 ff. 41  Thomas Rießinger, „Wahrheit oder Spiel – Philosophische Probleme der Mathematik”, in Aufklärung und Kritik, 2/2010, S. 42 ff. 39 40

2  Im Reich des mathematischen Realismus und … 

61

Erst nach der obigen Bemerkung stellt sich für Kanitscheider anscheinend die Frage, worin eigentlich das „Wesen des Naturalismus besteht“? In diesem Zusammenhang referiert er die bekannte naturalistische Annahme, dass es „überall auf der Welt mit rechten Dingen zugeht.“ In einer Fußnote merkt er allerdings an, „dass dieser Satz mehr Gehalt vortäuscht, als er hergibt.“ Ja, könnte man sagen: wenn man sich nicht auf die materiellen Dinge bzw. Prozesse beschränken mag, dann kann es allerdings schnell unklar und/oder Gehalt vortäuschend werden. Er räumt zwar ein, „dass durch eine solche Forderung esoterische, gespenstische, übersinnliche Phänomene ausgeblendet werden, die schon im Alltag schief angesehen werden und in der Wissenschaft sowieso nicht ernst genommen werden.“42

Er fährt allerdings fort: „Es bleibt aber bei dieser Redeweise offen, worin denn nun eigentlich die ‚rechten Dinge‘ bestehen.“

Wir (damit meine ich vermutlich die kritischen Realisten aller Länder) würden vorschlagen, dass die materiellen Dinge die rechten sein sollten …, damit man die Obskurantismen, die man ausschließen möchte, auch von einer naturwissenschaftlich nachhaltigen Basis ausschließen kann. Dann spricht er von Molekülen und mikroskopischer Welt als von „theoretischen“ Entitäten. Von den Alltagsgegenständen der Erfahrung führe „eine kontinuierliche Stufenleiter in den Bereich der theoretischen Entitäten der molekularen und mikroskopischen Welt.“ 42

 Kanitscheider, Natur und Zahl, S. 100.

62 

N. H. Hinterberger

Dazu könnte man sagen: Sogar Ernst Mach war am Ende seines Lebens bereit, die materielle Existenz von Atomen einzuräumen, als man ihm immer mehr unterstützende Hinweise präsentierte. Kanitscheider möchte aber offenbar sogar im Hinblick auf ganze Moleküle seinen uneingestandenen Antirealismus nicht wirklich aufgeben (und das im Zeitalter der Raster-Tunnel-Mikroskopie), denn der Begriff des Realismus und auch der des Naturalismus waren bei ihm bisher von keiner wirklich realistischen Konnotation getrübt. Ich muss allerdings zu meiner Schande gestehen, dass ich das erst sehr spät bemerkt habe. Vor noch gar nicht so langer Zeit war ich der Meinung, dass er die Philosophie Poppers in irgendeiner Form weiterführen oder zumindest nicht hinter sie zurückfallen möchte – weil ich glaubte, dass er einen realistischen Naturalismus wie etwa Gerhard Vollmer oder noch klarer Gunnar Andersson vertritt. Von dieser Vorstellung bin ich inzwischen allerdings restlos geheilt. Die modernen Kritizisten in Wissenschaft und Philosophie vertreten den Naturalismus als eine kritisch realistische Position, für die ein materialistischer Ansatz zentral sein muss. Sicherheitshalber nennen wir ihn deshalb vielleicht materialistischer oder kritischer Naturalismus (obwohl sich ersteres wohl einigermaßen tautologisch anhört). Versuche, über mikroskopisch sichtbare Dinge so zu reden als wären sie bislang rein theoretische Entitäten, sollten von einem modernen Kritizismus aus als Immunisierungs-Versuche gegen unlimitierte kritische Diskussionen bzw. gegen mögliche Falsifikationen zurückgewiesen werden. Es genügt für einen Kritizisten oder eine Kritizistin vollkommen, dass sie ihre jeweilige Materieauffassung standardmäßig der Kritik und vor allem dem Experiment aussetzen und auch immer in dieser Weise offen halten. Das ist aber für einen konsequenten fallibilistischen Falsifikationismus

2  Im Reich des mathematischen Realismus und … 

63

ohnedies Programm. Immunisierungs-Verrenkungen wie die, Atome oder gar Moleküle als „theoretische Entitäten“ zu bezeichnen, sollten wirklich der Vergangenheit angehören. Die Rekrutierung älterer Empiristen wie Ernest Nagel oder Roy Wood Sellars, die sicherlich über methodologische Qualitäten verfügten, scheint aus dieser Sicht ebenfalls kontraproduktiv. Sie haben zwar richtigerweise ihr Vertrauen in die Naturwissenschaften ausgedrückt, indem sie die Gesamtheit aller Naturwissenschaften für ausreichend gehalten haben „um nach und nach alle Phänomenbereiche kognitiv erfassen zu können“ (Ernest Nagel). Sellars hatte auf dieser rein methodologischen bzw. phänomenologischen Ebene – wie erwähnt – schon 1922 eine Idee zu einem „Evolutionary Naturalism“. Aber ihr Naturalismus-­Ansatz verblieb im Phänomenbereich, also im sensualistischen Antirealismus. Seinerzeit, in dieser logisch-empiristisch pragmatistischen Szene, fiel das nicht weiter auf, denn deren Wahrheitsbegriff forderte zwar, dass die „Wahrheit eines Satzes in der Methode seiner Verifikation“ liegen sollte. Aber das war eine typische Schuldscheinphilosophie, wie Karl Popper das zu Recht genannt hat. Denn unter Verifikation verstand man induktivistische Beobachtungsreihen, denen in ihrer abschließenden Verallgemeinerung jede logische Schlüssigkeit fehlte (: ungültiger Schluss vom Besonderen auf das Allgemeine), und die deshalb ohnedies „am Ende des Tages“ konventionell bzw. pragmatistisch „verifiziert“ werden mussten. Von einem kritischen Naturalismus aus können wir diese rein analytisch sprachphilosophischen Bemühungen nicht mehr als geeignete Erkenntnisstrategien erkennen. Durch ihr positivistisches Verständnis der Phänomene waren sie schlicht un-experimentierbar bzw. nicht überprüfbar. Anders gesagt, es standen lediglich subjektive Erlebnisse zur Diskussion.

64 

N. H. Hinterberger

Einige Seiten weiter räumt Kanitscheider auch selbst ein: „Der methodologische Naturalismus gründet in der Tendenz des Logischen Empirismus, philosophische Thesen möglichst ohne Bezug auf eine bestimmte Ontologie zu formulieren. Existenzfragen, z. B. über abstrakte Objekte waren nach Rudolf Carnap ohne die vorgängige Festlegung eines sprachlichen Rahmens gar nicht beantwortbar: Erst wenn dieser durch eine pragmatische Entscheidung gewählt worden ist, lässt sich danach die interne Frage – genau genommen im trivialen Sinn  – beantworten. Indem Quine darauf hinwies, dass es keine scharfe Unterscheidung zwischen den externen Fragen des Sprachrahmens und den internen Hypothesen innerhalb desselben gibt, wurde den Wissenschaftsphilosophen die Scheu genommen, auch über das zu reden, ‚was es gibt‘.“43

Alles richtig, bis auf die Behauptung, dass es Quine war, der hier gewissermaßen den Mut zu direkten Fragen zur Realität befeuert habe. Diese Entwicklung hat es  – wie schon erwähnt  – erst durch Karl Poppers Philosophie gegeben. Carnap hatte Poppers scharfe Kritik am Induktivismus und Verifikationismus des Wiener Kreises zwar ernst genommen und auch die Alternative – nämlich den Falsifikationismus  – in groben Zügen verstanden, aber er hat nicht verstanden, dass aus einem konsequent fallibilistischen Falsifikationismus das Todesurteil nicht nur für den induktivistischen Verifikationismus der Logischen Empiristen sondern für jede Form von Begründungsphilosophie folgt, und zwar gleichgültig, ob die nun realistisch oder antirealistisch aufgestellt ist. Denn der Falsifikationismus war von Anfang an konsequent fallibilistisch formuliert und setzt dafür realistische Aussagen und einen absoluten Wahrheitsbegriff als notwendige Bedingung voraus. Niemand aus dem Wiener  Kanitscheider, Natur und Zahl, S. 105.

43

2  Im Reich des mathematischen Realismus und … 

65

Kreis und auch niemand unter seinen Nachfolgern hätte das akzeptieren können. Vom Pragmatismus war man nur spöttische Redensarten bezüglich des Wahrheitsbegriffs gewohnt. Er wurde fast obligatorisch mit einem Kriterium verwechselt  – ein Verständnisfehler sondergleichen, denn ersterer ist trivial, weil rein definitorisch herzustellen, letzteres ist dagegen gar nicht vorhanden. Und Aussagen waren bei den Empiristen nur zu den Phänomenen erlaubt. Das galt auch für die nachfolgende Generation  – Wolfgang Stegmüller (ein Strukturalist der ersten Stunde) hatte in einem Gespräch mit Hans Albert offenbar einmal die Meinung vertreten: „Wahrheit ist doch eher was für die Kirche …“44 Wie man den Mut entwickelt, alle seine Aussagen als hypothetisch zu betrachten bzw. einzusehen, dass man sich immer irren kann, hätte der Antirealismus von Popper lernen können. Stattdessen haben sie von dem ­Fetisch des Sicherheits-­Anspruchs bezüglich der Wirk­ lich­keits-­Aussagen nicht lassen können. Sicherheit ist indessen nur tautologisch zu haben. Deshalb sind auch die Nachfolger des Logischen Empirismus allesamt in der analytischen Philosophie – mit ihrem Begründungsanspruch – verblieben. Die Suche nach Sicherheit ist im Übrigen eine theologische Erbschaft. Das ist von Hans Albert wunderbar klar behandelt worden.45 Das hat die ersten Erben der Theologie  – die deutschen Idealisten in der Philosophie  – nicht weiter gestört. Sie wollten sich ja gar nicht so weit von der Glauberei (jedenfalls wohl an ihre jeweiligen ideellen Objekte) entfernen. Den meisten Positivisten wäre das aber sicherlich nicht besonders sympathisch gewesen, wenn sie es denn realisiert  Hans Albert in einem Brief an mich.  Hans Albert, Kritik der reinen Hermeneutik, J. C. B. Mohr, Tübingen 1994, S. 95 ff. 44 45

66 

N. H. Hinterberger

hätten. Schließlich wollten sie den gesamten deutschen Idealismus (Fichte, Schelling, Hegel, Heidegger und Konsorten, eben diese leeren Mengen der Erkenntnis) und insbesondere die theologischen Varianten loswerden. Darüber waren sie sich mit ihren Kritikern, den kritischen Rationalisten ja sogar völlig einig (seinerzeit bestand, wie Carnap bemerkte, die „offizielle Opposition“ des Wiener Kreises allerdings nur aus Popper). Auch politisch waren beide Gruppen durchweg liberal eingestellt bzw. haben nicht geglaubt, dass man für die Aufklärung noch eine (insbesondere reaktionäre) „Gegenaufklärung“ braucht – sei die nun rechts- oder linksorientiert. Letztere wurde etwa gerne von der so genannten „Kritischen Theorie“ und vom soziologistischen Strukturalismus aus Frankreich mit dunkel wissendem Raunen herum geboten. Die Philosophen der Kritischen Theorie sowie die französischen Autoren waren allesamt Romantiker. Aber nicht im Stil des unschuldigen Liebespaares unter dem Mond, sondern eher im politisch abenteuerlichen Gravitationsfeld der kommunistischen Brutal-Romantiker Lenin und Stalin gelegen. Ihren Antirealismus hielten die Empiristen dagegen nicht für problematisch. Sie dachten, Phänomene wären eben das einzige worüber man sprechen könne. Sie haben auch die Naturwissenschaften so interpretiert, als würde da nur über die Phänomene gesprochen. Sie waren allerdings auch Zeitgenossen einer (zumindest bei den „Kopenhagenern“ und „Göttingern“) phänomenologisch und operationalistisch geprägten theoretischen Physik. Ähnlich war es schon bei den Aufklärungsphilosophen selbst. Normativ lief alles gut. Auf der politisch-ethischen Seite sind aus ihren Bemühungen letztlich für ganz Europa demokratische Institutionen entstanden mit den Menschenrechten als Flaggschiff in den Verfassungen.

2  Im Reich des mathematischen Realismus und … 

67

Auf der erkenntnistheoretischen Seite wurde aber unglücklicherweise die „Philosophie des Alltagsverstandes“ favorisiert (Wie Popper das genannt hat).46 Die Einsicht in die wichtige Strategie der Selbstbefreiung durch den eigenen Verstand (über die auch Immanuel Kant soviel Treffendes zu sagen wusste) hat in ethisch-rechtlicher Hinsicht zu der gesunden Überzeugung geführt, dass es keine (bzw. nur angemaßte) Autoritäten gibt: „Du selbst kannst alles für dein Leben Wichtige entscheiden, weil Du mit eigenen Augen sehen kannst, was Recht und Unrecht ist.“ Leider hat die bedenkenlose Verallgemeinerung dieser normativ durchaus richtigen und fruchtbaren Methodologie zu einer kritiklosen Haltung bei der Übernahme in die Erkenntnistheorie geführt, im Stile von: „Du kannst Dir sicher sein, das deine Sinne dich nicht betrügen.“ Das war die naive Erkenntnistheorie des Alltagsverstandes, die Sicherheit für die Erkenntnisse zu garantieren schien, der Ideismus von John Locke und David Humes Sensualismus, aus dem sich später der Logische Empirismus entwickelt hat. Die Suche nach Erkenntnis-Sicherheit und besonders der Glaube, sie zu besitzen, ist indessen überall schädlich: In der Erkenntnis führt sie in den Dogmatismus, in der Außenpolitik führt sie zur Hochrüstung und in der Innenpolitik zum Polizeistaat.

2.2.1 D  ie Strukturaddition zum rein empiristischen Antirealismus Dass Quine (abgesehen von seiner antirealistischen Interpretation des Naturalismus) einen materiell monistischen Zusammenhang für Erkenntnisvorgänge angenommen hat,  Karl R. Popper, Die offene Gesellschaft und ihre Feinde, Francke Verlag, München, 1958. 46

68 

N. H. Hinterberger

also gezeigt hat, dass er in diesem Zusammenhang durchaus ohne immaterielle „Mathematica“ auskommt, findet Kanitscheider defizitär. Er referiert ihn zunächst: „Hier legt er einen dezidierten Sensualismus zugrunde. Der Erkenntnisvorgang muss als Wirkzusammenhang, als kausaler raumzeitlicher Prozess zwischen einem materialen System und einem Sensorium verstanden werden, das in der Lage ist, Informationen zu speichern. Erkenntnis ist danach ein Informationsstrom zwischen zwei materialen Systemen, ein Austauschvorgang, der nicht aus den anderen natürlichen Prozessen heraus fällt.“47

Was hier aus Sicht eines kritischen Realismus kritisiert werden müsste, nämlich der Mechanismus, der von Quine angeboten wird, wird von Kanitscheider gar nicht als fehlerhaft gesehen. Quine formuliert zwar korrekt monistisch materialistisch (allerdings wie immer von einer antirealistischen Wenn-dann-Bedingung aus). Er geht aber biologisch implausibel von einem „Informationsstrom“ von einem materialen System zu einem Sensorium aus. Mit letzterem ist sicherlich ein Erkennender gemeint, mit ersterem ein zu erkennendes Materieobjekt. Nun kann man bei einer biologischen Erkennung durch ein Gehirn nicht einfach davon ausgehen, dass irgendwelche Photonen, die auf eine Netzhaut treffen, für ein Gehirn schon per se Information tragen. Physiker können hier von einer physikalischen Information sprechen, nämlich von einer Übertragung eines Flusses von Quanten der elektromagnetischen Kraft. Diese Kraft wird natürlich auch auf das Auge übertragen, taucht also auch biologisch auf. Aber das Gehirn kommt dadurch nicht in den Genuss einer Erkenntnis über das betrachtete Objekt. Übertragen wird hier nur ein Photonenstrom, der vom Objekt reflektiert wird und in das Auge des Betrachters fällt. Das ist aber kein Informationsstrom in einem biologischen Sinn, denn  Kanitscheider, Natur und Zahl, S. 106.

47

2  Im Reich des mathematischen Realismus und … 

69

das vom Gegenstand reflektierte Licht bzw. das Bild muss dazu erst vom Gehirn interpretiert werden – was die Form oder die Beschaffenheit oder die Klasse des Gegenstandes angeht, von dem es reflektiert wird. Das Licht allein fällt nur als Energiestrom ins Auge, nicht etwa als erkenntnisrelevanter Informationsstrom. Das menschliche Gehirn ist nicht von ungefähr der komplexeste Interpretationsapparat, den wir kennen. Photo-sensible Bereiche gibt es schon wesentlich länger – bei Cyanobakterien bspw. Die Cyanobakterien verwerten die Sonneneinstrahlung komplett als unmittelbare Energieaufnahme – sie essen gewissermaßen Licht. Information ist für sie aus diesem Lichteinfall nicht zu gewinnen. Augen registrieren im Wesentlichen nur die Frequenz des Lichts, erst das Gehirn macht daraus intersubjektiv (aber nichtsdestoweniger subjektiv) Farben, sozusagen als Empfindungsreaktion auf die jeweilige Frequenz. Die Verteilung der jeweiligen Photonen macht dann noch ein paar Kanten, die das Auge selbst weitergeben kann. Erst das Gehirn macht sich daraus ein im Übrigen aber auch immer fallibles Bild. Denn diese Bilder sind Interpretationen, die in phylogenetischen Zeiträumen entwickelt wurden – vor allem auch durch viele andere Tiere.48 Diese Bilder müssen im Laufe der ontogenetischen Entwicklung eines Menschen aber ebenfalls immer wieder überarbeitet werden durch ständiges Lernen, um zu einer so umfassenden Interpretationsarbeit zu werden, wie wir sie von Menschen gewohnt sind. Das daraus resultierende Hintergrundwissen schlüsselt die Photonenströme dann zu vermuteten Gestalten auf. Die biologischen Informationsströme fließen also nicht vom zu erkennenden System zum erkennenden, sondern von bestimmten Orten in ein und demselben Gehirn zu anderen bestimmten Orten in eben diesem Gehirn (das Auge wird deshalb als nicht-autonome Außenstation des  Das Auge ist eine typische Einmal-Erfindung der Evolution, deren Nutzen so groß war, dass sie von der überwiegenden Mehrheit der Tiere durch intensive Anwendung immer weiter entwickelt wurde. 48

70 

N. H. Hinterberger

Gehirns betrachtet). Darauf deutet auch die Verknüpfungsanlage bzw. die Vernetzung in Gehirnen hin. Die meisten Verbindungen (nahezu 80  %) sind hirnintern. Sie sind für die Interpretationsarbeit da. Für durch die Sinnesorgane eingehende (afferente) und in die Muskeln abgehende (efferente) Signale sind nur etwa 20 % der Verknüpfungen angelegt. Kanitscheider regt sich in diesem Zusammenhang aber eben lediglich darüber auf, dass „die Wissenschaftsphilosophen die Phänomenologie der mathematischen Entdeckung nicht berücksichtigen wollen und fast durchweg in den psychologischen Bereich abschieben.“ Wir haben schon diskutiert, warum das so verkehrt nicht ist, wenn man die psychologischen Prozesse mit hirnorganischen identifiziert. An anderer Stelle findet er, dass man mithilfe einer begrifflichen Unterscheidung durchaus in der Lage sei, die Spannungssituation zwischen Naturwissenschaft und Theologie zu entschärfen, und hat dafür (wie schon für den Realismus) eine moderate bzw. „schwache“ Version parat: „Wenn ihre Vertreter sich überreden ließen, eine schwache Form des Naturalismus zu akzeptieren, wonach nur das Innere des physikalischen Universums frei von übernatürlichen Entitäten und gesetzesverletzenden Vorgängen wäre und sie alle Arten von spirituellen metaphysischen Prozessen in die Transzendenz verlagerten, eben in ein ‚Reich nicht von dieser Welt‘, wäre eine friedliche Koexistenz des Naturalen und Supranaturalen erreichbar.“49

Man fragt sich, ob er völlig vergessen hat, wie der Naturalismus ursprünglich definiert wurde, nämlich eben so, dass es überall „mit rechten Dingen zugehen“ sollte. Ganz sicher sollte es aber wohl nirgends um „Reiche“ gehen, die „nicht von dieser Welt“ sind …  Kanitscheider, Natur und Zahl, S. 136.

49

2  Im Reich des mathematischen Realismus und … 

71

Man fragt sich außerdem, was die Theologen wohl davon haben sollten, ihre Thesen plötzlich als pure Phantasie betrachten zu sollen, nachdem sie sich zwei Jahrtausende physikalisch unplausibelst mit durchaus realistischem Anspruch in sie hinein gesteigert haben. Man fragt sich das insbesondere, da er unmittelbar darauf selbst einräumt, dass die Theologen eben auch sehr an der empirischen Welt hängen: „… aber dort stoßen sie natürlich auf die Konkurrenz der Naturforscher. Wenn sie, wie jüngst wieder Kardinal Schönborn, der Evolutionstheorie den Rang streitig machen, allein für die Entstehung der Arten und die besonderen Fähigkeiten der höheren Säugetiere maßgebend zu sein, ist der Konflikt unausweichlich.“50

Kommt man zum Ende der Seite, wird klar, dass er damit eigentlich nur irgendwie um gut Wetter für die folgende Behauptung in eigener Sache (die in der Materie intrinsische Mathematik) bitten wollte: „Dagegen kann eine Verankerung abstrakter Strukturen in der Materie als durchaus vereinbar mit diesem Grundsatz angesehen werden, denn eine solche Stützung verletzt keine Erhaltungssätze, im Gegenteil: Letztere sind für unseren Materiebegriff eigentlich erst konstitutiv.“

Falls der eine oder andere Leser immer noch geglaubt haben sollte, Kanitscheider meint das alles irgendwie metaphorisch, wird er wohl spätesten hier enttäuscht, denn er redet tatsächlich explizit von der „Verankerung abstrakter Strukturen in der Materie.“ Man könnte sagen: Umgekehrt wird ein Schuh daraus, und das auch erst, nachdem man von der Begriffsebene auf die Materie-Ebene gegangen ist: 50

 Kanitscheider, Natur, S. 136.

72 

N. H. Hinterberger

Materie bzw. Energieerhaltung, Spinerhaltung usw. sind konstitutiv für die entsprechenden Gesetze – insbesondere, wenn sich in der Zukunft herausstellen sollte, dass die Erhaltungssätze auch nur approximativ verstanden werden dürfen, wir also die Gesetze auf fundamentaler Ebene korrigieren müssen. Aber hier sieht man natürlich auch sehr schön, dass er die Begriffsebene überall zusätzlich braucht für seine seltsamen Fusionen: In beiden Fällen (also bei Naturwissenschaft plus Theologie sowie bei Materie plus Mathematik) geht es um eine doch irgendwie immer dualistische Strategie. Und ich werde den Verdacht nicht los, dass er den ja vor allem inhaltlich völlig absurden Versöhnungsvorschlag von Naturwissenschaft mit Theologie nur gemacht hat, damit sein (Existenz-)Dualismus von Materie und Mathematik relativ dazu nicht ganz so implausibel wirkt. Der schlimme Dualismus-Vorwurf wird nun einfach gegen andere gerichtet: „Der Unterschied liegt eben darin, dass eine materiale Teleologie der Natur einen Dualismus von planender Instanz und intendiertem zu planendem System voraussetzt, wohingegen ein strukturaler Realismus, wie ihn Michael Resnik oder John Burgess vertritt, Naturalismus-­kompatibel ist und keine ontologische Spaltung bedingt.“51

Man weiß zwar nicht, inwiefern teleologische Vorstellungen (nicht zu verwechseln mit ontogenetisch teleonomischen, im Sinne von Jacques Monod) überhaupt noch in der Diskussion stehen sollten, es sei denn, um wieder relativ dazu einen strukturalen Realismus als plausibel verkaufen zu können. Mit der ontologischen Spaltung meint er hier die Trennung von Mathematik und Materie. Der so genannte Strukturale Realismus (auch Michael Esfeld etwa) ist  Kanitscheider, Natur, S. 137.

51

2  Im Reich des mathematischen Realismus und … 

73

a­ llerdings keine realistische Philosophie, so dass es hier gar nichts mehr zu spalten gibt – man redet ohnedies nur formalistisch. Das mag Unkundige (und nicht nur Unkundige) der philosophischen Diskussion verwirren, aber es handelt sich um eine rein formalistische Philosophie, die keine direkten Aussagen zur materiellen Realität macht, oder wenn, dann nur in disjunktiv aufgefächerten Aussagenmengen, die so natürlich in keine bestimmte (bzw. falsifizierbare) Aussage zur materiellen Realität münden können. ‚Morgen wird es regnen oder auch nicht‘ würden wir uns sicherlich nicht gerne als Wetterbericht anhören wollen, wenn es um ein und denselben Raumzeitbereich gehen soll … Anders gesagt, diese Philosophie führt das Wort Realismus ebenso unnütz im Munde wie der so genannte „mathematische Realismus“, der uns hier von Kanitscheider angeboten wird. Beides sind rein formalistische Beschreibungsebenen. Man könnte sagen, der ältere ­ ­Strukturalismus wusste wenigstens noch um seine antirealistische Position, der Strukturale Realismus will davon offenbar gar nichts mehr wissen. Für meinen Geschmack ist das einfach der Versuch, den so erfolgreichen Falsifikationismus in die eigene Philosophie einzubinden. Einen Sinn ergibt der Begriff der Falsifikation allerdings nur in einem monistisch materiell verstandenen Realismus. Denn es kann wohl kaum von einsehbarem Nutzen sein, den Begriff des Realismus zu adoptieren, ohne dann zu wirklich falsifizierbaren Aussagen zu kommen. Auch eine Disjunktion von Realitäts-­Aussagen zu ein und demselben Aspekt eines Sachverhaltes verbleibt immer in einem Quasi-Formalismus, kann also nicht einfach als wahr oder falsch betrachtet werden. Denn bei einer gelungenen Falsifikation von sagen wir der Aussage p1 kann der Verteidiger zu einer der anderen allgemeinen Aussagen oder Theorien bzw. Klassen von Theorien P (p2 v p3 v … v pn) flüchten. Anders gesagt, eine

74 

N. H. Hinterberger

disjunktive Aussagenmenge (als Theorie) ist immer quasi-formalistisch immunisiert gegen Kritik, solange nicht alle ihre Aussagen falsifiziert sind. Gewöhnlich gehen aber die einzelnen Aussagen ohnedies nicht über mathematisch strukturelle Formulierungen hinaus, so dass es sich hier lediglich um eine Art Verzierungs-Falsifikationismus ohne Anwendungsmöglichkeit handelt. Kanitscheider versucht, seine der Materie innewohnende Mathematik auch gegen Mario Bunge zu verteidigen. Er formuliert das allerdings ein bisschen merkwürdig: „Gegen den Versuch, Materieelemente mit abstrakten Strukturen zu identifizieren, hat Mario Bunge den Einwand vorgebracht, dass hier zwei Sorten der Abstraktheit nicht unterschieden werden: die epistemologische Erfahrungsferne und die ontologische Spiritualität.“52

Der Versuch, Materieelemente mit abstrakten Strukturen zu identifizieren, ist ja ein typisch idealistischer Schachzug, bei dem die Materie gar nicht mehr vorkommt. Er verträgt sich eigentlich nicht mit Kanitscheiders Position des Innewohnens mathematischer Objekte in der Materie. Dazu braucht man ja schließlich die Materie. Kanitscheider scheint das aber gar nicht recht aufzufallen, und er behandelt Bunges Kritik wie eine Kritik an seiner Position. Sehen wir uns die Kritik von Bunge an diesen beiden eher antirealistischen Positionen an, bemerken wir sehr schnell, hier werden einfach nur stärker antirealistische Positionen von einem abgeschwächten Antirealismus kritisiert, denn Bunges so genannter „Metaphysischer Materialismus“ (nicht zu verwechseln mit einem metaphysischen Realismus, der direkte ontologische Aussagen impliziert  – hypothetische eben) hat seine antirealistische Herkunft de facto nicht aufgegeben, oder jedenfalls nur dem  Kanitscheider, Natur und Zahl, S. 155. Aus M. Bunge: Treatise on Basic Philosophy 7, 1. Dodrecht 1985, S. 26. 52

2  Im Reich des mathematischen Realismus und … 

75

Namen nach.53 Bei Bunge sollen ja sogar nur zwei Sorten der Abstraktheit miteinander verglichen werden dürfen, nicht etwa eine Vermutungsmenge der Erkenntnis mit der tatsächlichen Beschaffenheit der Materie. Mit Alfred Landés Materialismus kritisiert Kanitscheider dann tatsächlich eine kritisch realistische bzw. eine echt materialistische Position – also einen Anti-Platonisten. Landé sagt nämlich ganz unmissverständlich: „I rather vote for Democritos because an electron has a mass of 0,9197 · 10−27g, whereas a Platonic idea has none“54

Kanitscheider sieht darin die Frage auftauchen, „wie die quantifizierende Masse (…) mit dem Elektron verbunden ist.“55 Zunächst einmal kann man wohl den Ausdruck „quantifizierende Masse“ als inadäquat zurückweisen. Die Masse des Elektrons ist eine physikalische Eigenschaft  – ob sie nun von einem Higgsfeld verliehen wird oder nicht. Sie selbst quantifiziert überhaupt nichts. Das machen wir. Masse kann man bekanntlich auch als Energie und auch (gravitativ verstanden) als Gewicht ansprechen. Man weiß aber, dass man dabei (in einem tieferen Sinn) immer über dasselbe redet. Also spielen die Bezeichnungen für die Existenz der jeweiligen physikalischen Eigenschaft keine  Jedenfalls in diesem Buch von 1985 ist die antirealistische Basis noch auffälliger als in einem neueren Buch: Über die Natur der Dinge, Mario Bunge, Martin Mahner, Hirzel Verlag, Stuttgart, 2004. Aber auch hier fällt es den Autoren sehr schwer, für Materialisten eigentlich unannehmbare antirealistische bzw. idealistische Konsequenzen zu vermeiden. Sie gehen hier zwar von Dingen als Grundkategorie des Seienden aus. Ich habe aber in einem Papier von 2009 versucht zu zeigen, dass ihnen das nicht gelungen ist. Anders gesagt, sie sind auch hier noch in einer unklaren „ontologischen Spiritualität“ verblieben. Siehe: Norbert Hinterberger, „Die Sub­ stanzmetaphysik von Mario Bunge und Manfred Mahner“ in Aufklärung und Kritik, 3/2011. S. 169 ff. 54  Alfred Landé, Unity in Quantum Theory, Foundations of Physics, Vol. 1, Nr. 3, 1971, S. 191–202. 55  Kanitscheider, Natur und Zahl, S. 156. 53

76 

N. H. Hinterberger

Rolle. Sie dienen lediglich der besseren Handhabbarkeit bzw. unserer Orientierung. Physikalisch diskret müsste man wohl immer über ihr Energie-Äquivalent reden. Die verschiedenen Begriffe, die jeweils andere Zustandsformen dieser Energie bezeichnen, kann man dann als äquivalent betrachten. Das gilt also für die physikalisch verstandenen Begriffe Masse oder Gewicht, die Ableitungen des Energie-­ Äquivalents darstellen, und zwar seit Einsteins E = mc2. Der rein mathematische Term: „0,9197 · 10−27“ ist dagegen instrumental. „g“ = Gramm gehört in seiner Form als Energie-Äquivalent (der Gravitation) nicht dazu, denn damit wird eine physikalische Entität bezeichnet, die des Gewichtes eines Körpers eben. Erinnern wir uns ferner daran, dass wir einen Unterschied machen müssen, zwischen den von uns entworfenen bzw. konstruierten „Naturgesetzen“ und den tatsächlichen Gesetzen der Natur, die von den energetischen Wechselwirkungen in unserem Universum geschaffen werden. Die Wirklichkeit ist einfach so wie sie ist (trivialerweise; wie auch immer sie dann sein mag), mit welchen Namen oder Unterteilungs-Ausdrücken wir sie uns schmackhaft machen wollen, ist ihr egal. Wir können nur hoffen, dass wir das Glück haben, mit unseren jeweiligen Vermutungen über die Welt der Wahrheit immer ein Stückchen näher zu kommen, also die tatsächlichen Wechselwirkungen gut zu approximieren. Das würde der mittelalterliche Nominalist = der heutige kritische Realist hier anmerken. Vorher (S. 153) hatte Kanitscheider schon versucht, sich Schützenhilfe bei Werner Heisenberg zu holen. Heisenberg hatte allerdings lediglich gesagt, dass man die diskreten Einheiten als Formen oder Strukturen betrachten müsse „über die man unzweideutig nur in der Sprache der Mathematik sprechen kann.“56  Werner Heisenberg, Schritte über Grenzen. München 1971, S. 236.

56

2  Im Reich des mathematischen Realismus und … 

77

Damit hat Heisenberg aber lediglich die unbestrittene Wichtigkeit der Mathematik als Erkenntnis-Instrument betont. Er hat insbesondere keine Intrinsik der Mathematik in der Materie behauptet, wie Kanitscheider das tut. Das könnte er als echter Antirealist auch gar nicht. Antirealisten behaupten, dass wir keinen erkenntnistheoretischen Zugang zur Materie an sich haben, auch keinen tragbaren hypothetischen, also könnten sie natürlich auch keine Vermutungen über etwaige in ihr intrinsische mathematische Objekte anstellen. Und über Formen und Strukturen kann man überdies alternativ auch gänzlich ohne Formalismen sprechen. Wir machen das ja im Übrigen alle ständig und durchaus mit heuristischem Orientierungserfolg in Bezug auf chemische, physikalische und biologische Strukturen, auch wenn „strukturale Realisten“ das ganz anders sehen möchten, weil sie sich unter Strukturen rein mathematische vorstellen: „Dass die Eigenschaften des Elektrons schwierig zu fassen sind, dass sehr indirekte Methoden gebraucht werden, um seine Masse und Ladung zu messen, ist für die Frage, wie die Verschränkung des Teilchens mit seinen numerischen Eigenschaften zu denken ist, Nebensache. Unzweifelhaft ist jedoch, dass dieses Stück Materie diese Zahlqualitäten besitzt.“57

Bei Kanitscheider können also nicht nur Teilchen mit anderen Teilchen verschränkt sein, wie in der Quantenphysik, sondern auch Teilchen mit ihren numerischen Eigenschaften. Man fragt sich unwillkürlich, ob letzteres auch nichtlokal gelten soll …, dass also das Elektron etwa im Tower zu London weilen kann, während sein numerischer Masse-Wert sich in New  York aufhält, und trotzdem sind sie „verschränkt“. Ich muss allerdings sagen, dass auch die lokale 57

 Kanitscheider, Natur und Zahl, S. 156.

78 

N. H. Hinterberger

Vorstellung der Verschränkung eines Teilchens mit einer Zahl für mich schon eine völlig ausreichend problemgesättigte Schwierigkeit darstellt. Sie scheint mir auch ohne Nichtlokalität schon hinreichend absurd, weil man sich für meinen Geschmack gar keine Vorstellung davon machen kann. Und Kanitscheider kann uns ja auch nicht erklären, wie das gehen sollte: Materie mit Zahlen im Bauch? Er beeilt sich hier zwar zu versichern, dass wir die Maßzahl der Masse nicht als Abstraktum wahrnehmen. Es sei nur der Fall, dass sich „das Messgerät in einem Anzeigezustand befindet“ aus dem man schließen könne, „dass das Elektron diese numerische Eigenschaft besitzt.“ Diese Abschwächung ändert aber nichts an dem letzten Halbsatz, der eben für einen Monisten der Materie ein Ding der Unmöglichkeit darstellt. Mario Bunge bezeichnet Abstrakta zwar ganz richtig als animalische Konstruktionen. Er möchte sie aber nichtsdestoweniger als Äquivalenzklassen von Gehirnprozessen existieren lassen und zwar irgendwie außerhalb derselben – das scheint mir bei ihm ein mehr oder weniger ungewollter Ausrutscher in den Dualismus zu sein, denn die Existenz dieser Äquivalenzklassen wird von ihm ja nicht in Gehirnen angesiedelt. Auch hier kommt man also zu keinem akzeptablen physikalischen Monismus, weil Bunge sich an der falschen Stelle vor Psychologismus fürchtet. Wenn man allerdings von moderner Psychologie mit biologischer bzw. neurologischer Referenztheorie ausgeht, taucht dieses Problem gar nicht auf. Hier ist ein widerspruchsfreier physikalischer Monismus ausformuliert. Abstrakta sind dabei lediglich Gefühlswerte von physikalischen Funktionen in Form von Hirnprozessen, die wir als geistige Gehalte empfinden, ebenso wie wir etwa Frequenzen des Lichts als unterschiedliche Farben empfinden. Das heißt, bestimmte Hirnfunktionen werden von uns (subjektiv bzw. intersubjektiv) als

2  Im Reich des mathematischen Realismus und … 

79

Abstrakta bzw. ‚Geistestätigkeit‘ interpretiert, sind aber physikalisch bzw. biologisch diskret betrachtet Hirnprozesse wie alle anderen auch. Sie genügen sich offenbar selbst  – um hier den ebenfalls schon sehr missbrauchten Begriff der „Selbstreferenz“ zu vermeiden. Hirnprozesse mathematischen oder logischen Gehalts machen mental halt mehr her bzw. werden aufmerksamer vom Gehirn verarbeitet als unbewusste Triebmechaniken etwa. Aber genau diese ­Konsequenz möchte Bunge vermeiden, weil Abstrakta (die gesamte Mathematik gehört für ihn zu den „Fiktionen“) keiner physiologischen Ebene angehören sollen. Dennoch sollen sie als Äquivalenzklassen existieren – also nicht materiell. Man fragt sich warum, bei einem ­Philosophen und Physiker, der sich als Materialist ver­ste­ hen möchte. Kanitscheider produziert eine ähnliche Uneinsicht hinsichtlich physikalischer Eigenschaften, wenn er zu seinen Lieblings-Abstrakta referiert, zu den mathematischen Objekten eben: „Photonen müssen sich immer bewegen  – auf dem Rand des Lichtkegels (…) es haftet ihnen aber auch die mathematische Eigenschaft an, Bosonen zu sein, also den Spin 1 zu besitzen.“58

Hier soll es übergangslos eine mathematische Eigenschaft sein, als Boson zu existieren. Er hält den Spin 1 offenbar für rein mathematisch. Der wird allerdings nie ohne das physikalische Wirkungsquantum angegeben. Spin  =  1hquer, oder = hquer. Typ: Boson (Kraft-Teilchen) = Photon, Gluon, W-Boson oder Z-Boson. Mathematisch ist hier nur die 1, die (isoliert) trivialerweise über den Spin bzw. seine Energie überhaupt nichts sagt. „hquer“ (das reduzierte Plancksche 58

 Kanitscheider, Natur und Zahl, S. 157.

80 

N. H. Hinterberger

Wirkungsquantum) dagegen bezeichnet die Energie, und für die ist keine Zahl konstitutiv, sondern nur ihre Existenz als physikalischer Zustand. Die Zahl ist nur unsere Art der Orientierung/Quantifizierung. Kanitscheider schreibt sogar explizit: Ein Photon hat die Energie hν und den Impuls hν/c, diese mathematischen Eigenschaften kann man nicht von dem Teilchen trennen, sie sind konstitutiv.59

Ich weiß ehrlich gesagt nicht, was hier mathematisch sein soll, solange nicht die Zahlenwerte (ob nun algebraisch oder in Ziffern) angegeben werden. Aber selbst das macht die oben angegebenen Energien nicht mathematisch. Energie ist eben eine materielle Entität und kein mathematischer Term.

2.2.2 Neue Kontinuitätsideen David Tong weist in seinem SPEKTRUM-Essay darauf hin, dass sich in den letzten Jahrzehnten die Überzeugung: „immer fester etabliert hat: Die Natur sei im Grunde diskret, die Bausteine der Materie und der Raumzeit ließen sich einzeln abzählen.“60

Tong ist nun zwar ein Stringtheoretiker, dem daran gelegen sein könnte, mit seinen Neo-Kontinuitäts-­Überlegungen, die Loop Quantum Gravity, die Causal Dynamical Triangulation und die Causal Set Theory zu kritisieren. Denn diese Kosmologien arbeiten mit eben diesen diskreten Ansätzen.  Kanitscheider, Natur, S. 157.  David Tong, „Machen Quanten Sprünge?”, Spektrum der Wissenschaft, 4/2014, S. 58. 59 60

2  Im Reich des mathematischen Realismus und … 

81

Allerdings sind seine Argumentationen in diesem Essay so interessant und haben für meinen Geschmack soviel Gewicht, dass man sich schwer vorstellen kann, sie wären als reines Kritik-Vehikel entwickelt worden. Wie auch immer, nicht nur „Matrix“-Fans, also Fans des Digitalismus, sondern auch Fans des physikalischen Apriorismus, der ja durch den mathematischen Platonismus entsteht, werden hier gründlich enttäuscht: „Niemand weiß, wie ein noch so gigantischer Computer sämtliche Details der bekannten physikalischen Gesetze simulieren soll (…) Die Quantenphysik gilt als in ihrem Wesen ‚diskret‘, das heißt als portioniert und sprunghaft. Doch ihre Gleichungen beschreiben kontinuierliche Größen. Erst die Eigenschaften des jeweiligen Systems rufen diskrete Werte hervor. Verfechter des digitalen Aspekts argumentieren, die kontinuierlichen Größen seien bei näherer Betrachtung diskret; sie lägen auf einem feinmaschigen Gitter, das – wie die Pixel auf einem Bildschirm – die Illusion eines Kontinuums erzeugt. Die Idee eines gekörnten, diskreten Raums widerspricht jedoch einer Tatsache: der Asymmetrie zwischen rechts- und linksdrehenden Elementarteilchen (…) Eines der stärksten Argumente der Kontinuumsverfechter war die Beliebigkeit des Diskreten.“61

Als Beispiel für die „Beliebigkeit des Diskreten“ nennt er (zunächst einmal im makroskopischen Bereich) unsere recht willkürlichen Unterscheidungen im eigenen Sonnensystem zwischen Planeten, Zwergplaneten und bloßen Felsoder Eisbrocken – und Asteroiden und Meteoriten, könnte man hinzufügen. Bekanntestes Beispiel Pluto, der jüngst (per Konvention) von den Planeten zu den Zwergplaneten abgestiegen ist. 61

 Tong, daselbst, S. 58.

82 

N. H. Hinterberger

Wichtiger ist aber wohl der Hinweis darauf, dass die Existenz von Atomen oder Elementarteilchen kein Input unserer Theorien ist: „Die Bausteine unserer Theorien sind nicht Teilchen, sondern Felder: kontinuierliche Objekte, die den Raum ä­ hnlich erfüllen wie Gase oder Flüssigkeiten. Bekannte Beispiele sind Elektrik und Magnetismus, doch es gibt auch ein Elektronfeld, ein Quarkfeld, ein Higgsfeld und einige mehr. Was wir fundamentale Teilchen nennen, sind gar keine grundlegenden Objekte, sondern Kräuselungen kontinuierlicher Felder.“62

Nun stellt man sich unter einer Feld-Kräuselung ja unwillkürlich irgendeine Art von Energie-Quantelung vor – insbesondere als Ersatz für Teilchen. Wie aber auch immer diese ­Diskussion zwischen Neo-Kontinuums-Vertretern und Digitalisten sich weiter entwickeln wird: Klar ist wohl, dass es nicht schaden könnte, wenn sich Stringtheoretiker und alternative Ansätze (LQG, CDT, CST) stärker austauschen würden, nicht zuletzt, um Ideenüberschneidungen überhaupt gegenseitig zu registrieren. Wenn Tong Teilchen als emergente Erscheinungen von „Kräuselungen kontinuierlicher Felder“ bezeichnet und Fotini Markopoulou (eine Vertreterin der auch raumzeitlich mit Quantelungen auf Plancklänge arbeitenden Loop Quantum Gravity) Teilchen als emergente Erscheinungen von raumzeitlichen Energieanregungen betrachtet, wo traditionell noch immer von Teilchen die Rede ist, wird der Gesprächsbedarf wohl recht deutlich. Fotini Markopoulou betrachtet ein „Teilchen“ als eine „Art emergenter Anregung der Quantengeometrie“.63 Diese Anregung breite sich in der Quantengeometrie aus, „wie sich eine Welle durch einen festen oder flüssigen Körper bewege.“ Der Ausdruck  Tong, daselbst, S. 60.  wie Lee Smolin in seinem 2006 schreibt. Deutsch: Die Zukunft der Physik, 2009: 339. 62 63

2  Im Reich des mathematischen Realismus und … 

83

„emergent“ zeigt ganz deutlich, dass auch bei ihr Teilchen nicht als diskret betrachtet werden. Diese junge Physikerin hat offenbar immer wieder Ideen, die auch Smolin überraschen, weil sie sich „am Ende als richtig erweisen“ (Smolin). Insbesondere letztere Idee lässt sich offenbar sehr gut mit dem Verflechtungs-Modell von Sundance O.  Bilson-Thompson kombinieren, das „bemerkenswert genau die Struktur der Preonen-Modelle wiedergab.“ Preonen sind hypothetische Teilchen, die bei Smolin und Kollegen als die fundamentalen Bestandteile der Quarks, Elektronen und Elektron-Neutrinos gelten. Mich würde interessieren, ob sich dann nicht auch irgendwann der Wellen- bzw. Feldcharakter des Preons als fundamentaler herausstellen könnte als sein Teilchen-Charakter – quantisieren ließe sich schließlich auch das, wenn man damit die energetischen Verhältnisse geeignet approximiert. Die von der Schleifenquantengravitation vorhergesagte Quantengeometrie ist offenbar extrem kompliziert. Sie ist, anders als die Stringtheorie, zwar hintergrundunabhängig wie die Allgemeine Relativitätstheorie, die sie zu quantisieren versucht, aber das empirische Verständnis der mathematischen Strukturen bzw. des Graphen (der eben mit den Knoten, Verbindungen und Verflechtungen dealt, die mit Teilchenzuständen assoziiert sind) wurde anscheinend erst von Markopoulou nach vorn gebracht. Denn sie erkannte offenbar, „dass emergente Teilchen in den topologischen Strukturen codiert sind.“64 Diese Idee schien auch mit dem Preonen-Modell zu harmonieren: „Ich fragte Markopoulou, ob Bilson-Thompsons Flechtstrukturen ihre kohärenten Anregungen sein könnten. Wir luden Bilson-Thompson ein, mit uns zusammenzuarbeiten, und nach einigen Fehlstarts sahen wir, dass sich dieser An64

 Smolin, Die Zukunft, S. 341.

84 

N. H. Hinterberger

satz tatsächlich in jeder Hinsicht bewährte. Mit Hilfe einiger vorsichtiger Annahmen fanden wir ein Preonen-Modell, das die einfachsten dieser teilchenartigen Zustände in einer Klasse von Quantengravitationstheorien beschrieb.“65

Aber auch Verteidigern des Standardmodells der Teilchenphysik – wie Heinz Dieter Zeh z. B. – bleibt der Wellenbzw. Feldbegriff zentral (selbst wenn da zusätzlich eine ­Teilchen-Vorstellung mitgeführt wird), eben weil die Schrödingergleichung kontinuierlich ist. Zeh hat immer wieder betont, dass es sich dabei jedenfalls um kein „Teilchen“ im üblichen Sinne handeln kann. Louis de Broglie haben wir den Begriff der „Führungswelle“ zu verdanken, der von den Kopenhagenern um Nils Bohr übrigens geradezu denunziativ abgetan wurde. Aber bei den Kopenhagenern gab es bekanntlich (in den Beschreibungen) kurioserweise überhaupt keinen Quantenrealismus mehr, sondern nur eine klassische Beschreibung der Beobachtungen der Messungen. Wellen wurden lediglich nicht-unitär als Wahrscheinlichkeitswellen für den Aufenthaltsort eines Teilchens betrachtet. Realisten dagegen betrachten die Wellenfunktion als unitär, d.  h. die Welle wird als physikalisch existent betrachtet. Die rein klassische Betrachtungsweise der ­ ­Kopenhagener hatte Zeh zu Recht immer wieder scharf als Subjektivismus kritisiert.66 Um aber zu David Tong zurückzukehren: Er weist natürlich ebenfalls mit einigem Recht darauf hin, dass scheinbar diskrete Teilchen – wie seinerzeit das Atom – im Laufe der Zeit immer noch weitere ‚diskrete‘ Ebenen offenbarten, im Rückblick also durchaus als Idealisierungen bzw. als nicht-diskret erkennbar werden: Zunächst mit der Entdeckung des Atomkerns, der sich in Protonen und Neutronen differenzieren ließ. Dann  Smolin, Die Zukunft, S. 341.  H. Dieter Zeh, Physik ohne Realität: Tiefsinn oder Wahnsinn?, Springer Verlag Berlin Heidelberg 2012. 65 66

2  Im Reich des mathematischen Realismus und … 

85

wurde deren Quarkstruktur entdeckt. Inzwischen geht man in der LQG von einer noch tiefer liegenden Preonen-Struktur aus. Man könnte von hier aus also um der Diskussion willen durchaus einmal das Argument der Digitalisten umkehren (die ja sagen, unsere Wirklichkeit erscheint nur kontinuierlich, ist aber diskret bzw. fundamental überall körnig) und sagen: Die Körnigkeit ist immer nur scheinbar und darunter liegt die Kontinuität. Die Stringtheoretiker sagen das natürlich insbesondere in Bezug auf Teilchen – welche bei ihnen nur emergente Erscheinungsformen der Vibrationen der fundamentalen Strings („Energiefäden“) darstellen. Nun werden die Strings von den Stringtheoretikern aber ebenfalls als diskret im Sinne von fundamental (also nicht selbst noch als emergent) betrachtet, so dass man eine solche physikalische Diskretisierung sicherlich nicht mit einer idealisierenden Digitalisierung im mathematischen oder in einem anderen ideellen Sinn gleichsetzen sollte. Bestimmte Diskretisierungen, wie die Plancksche Energiequantelung zur Vermeidung der berühmten Ultraviolett-­ Katastrophe bzw. der unerwünschten mathematischen Unendlichkeiten, die sich aus der Kontinuitätsannahme bezüglich der Temperatur der Schwarzkörper-Strahlung ergaben, sind vermutlich unvermeidlich in dem Sinne, dass man solche Energie-­Quantelungen bzw. diskreten Werte als der Natur eigen annehmen muss, denn nur sie stimmen mit den Beobachtungen überein. Über Energie-Quantelungen spricht Tong hier nicht, deshalb nehme ich einmal an, er greift nur das Teilchen an bzw. hält das für emergent. Vielleicht muss man den Rahmen für das ganze aber einfach noch stärker quantisiert-feldtheoretisch formulieren als bisher – was ja in der Quantengravitation letztlich auch angestrebt wird. Das Problem der Unendlichkeiten (von Energie, Druck, Masse), die sich aus einer unlimitierten Kontinuitätsvorstellung bezüglich des Urknalls und schwarzer Löcher (bzw. aus der nicht-quantisierten Allgemeinen Relativitätstheorie, also aus Einsteins Gravitationstheorie) ergeben,

86 

N. H. Hinterberger

verschwindet ja nicht einfach dadurch, dass man gar nichts unternimmt. Wahrscheinlich liegt die Lösung (wie so oft) irgendwo in der Mitte – auch wenn sich eine derartige Aussage immer einigermaßen hilflos anhört. Auch Martin Bojowald hat ja schon auf eine möglicherweise notwendig werdende Vereinigung von Stringtheorie und alternativen Ansätzen hingewiesen.67 Einige Vereinigungsmerkmale kann man im Übrigen schon darin entdecken, dass Stringtheoretiker wie David Tong bemerken, dass Raumdimensionen in der neueren Stringtheorie „nicht eindeutig definiert“ sind, „sie können entstehen und vergehen“. Diese Idee scheint aber aus der LQG zu stammen, in der es einzelne Raumatome sind, die ebenfalls entstehen und vergehen können. Dabei sollte zu erkennen sein, dass Dimensionswachstum und Raumatomwachstum logisch äquivalent sein müssten  – und dass man die Zeit dabei nicht außen vor lassen kann, hat nicht nur Lee Smolin immer wieder betont. Auch der Stringtheoretiker David Tong betont das. Für „mathematische Realisten“ mit ihren ‚zeitlosen Objekten‘ könnte deshalb dieses Zitat interessant sein: „Ich wage zu behaupten, dass es in der gesamten Physik nur eine echte ganze Zahl gibt, die Eins. Denn die physikalischen Gesetze beziehen sich auf nur eine Dimension der Zeit. Ohne exakt eine Zeitdimension scheint die Physik widersprüchlich zu werden.“68

 Dazu ein Zitat aus einem Interview mit der ZEIT (2008): „ZEIT: Die Loop-­ Theorie konkurriert mit der String-Theorie, die Elementarteilchen als winzige vibrierende Saiten beschreibt. Beide wollen die Weltformel finden, die String-Theoretiker sind derzeit aber stark in der Überzahl. Bojowald: Die beiden Theorien haben unterschiedliche Ambitionen. Nur die String-Theorie sucht wirklich nach der Weltformel. Sie kann die Elementarteilchen, also letztlich die Materie, besser beschreiben, hat aber Schwierigkeiten mit Raum und Zeit. Die Loop-Theorie dagegen ist eine Theorie von Raum und Zeit, bekommt aber die Materie bislang nicht in den Griff. Vielleicht muss man beide eines Tages kombinieren …” 68  David Tong, SPEKTRUM, 4/2014, S. 60. 67

2  Im Reich des mathematischen Realismus und … 

87

Auch diese Argumentation gab es schon in der LQG.69 Tong hatte dazu auf derselben Seite schon folgendermaßen argumentiert: „Ein Skeptiker könnte einwenden, dass die physikalischen Gesetze doch einige ganze Zahlen enthalten. Zum Beispiel beschreiben die Gesetze drei Arten von Neutrinos, sechs Arten von Quarks – von denen jede in drei so genannten Farben vorkommt – und so fort. Überall ganze Zahlen! Aber stimmt das? All diese Beispiele geben die Anzahl der Teilchentypen im Standardmodell an, und diese Größe ist mathematisch ungeheuer schwer zu präzisieren, wenn Partikel miteinander wechselwirken. Teilchen können sich verwandeln: Ein Neutron zerfällt in ein Proton, ein Elektron und ein Neutrino. Sollen wir es als ein, drei oder gar vier Teilchen zählen? Die Behauptung, es gebe drei Arten von Neutrinos, sechserlei Quarks und so weiter, ignoriert die Wechselwirkungen.“70

Ich halte diese Argumentation für äußerst bedenkenswert. Man kann hier sehr gut sehen: Mit einer klaren Feld- bzw. Wellensicht (unter Verzicht auf die diskrete Teilchenvorstellung) hätte man diese Probleme nicht. Nicht Teilchen würden ständig entstehen und sich ineinander umwandeln (oder doch nur in einem emergenten Sprachmodus), sondern ein und dieselbe superponierte Welle würde sich dreifach verzweigen  – im Falle der scheinbaren „Teilchenumwandlung“ eines Neutrons in ein Proton, ein Elektron und ein Neutrino. Die Physiker selbst nennen die Komponenten ja gewöhnlich virtuelle Teilchen, was immer das heißen mag, wenn es keine energetischen Feld- oder Raumanregungen sein sollen.  In seinem neuen Buch argumentiert Smolin sogar noch einmal ganz entschieden für diese Sichtweise. Lee Smolin, Im Universum der Zeit, dva, 2014. Wird weiter unten behandelt. 70  Tong, SdW, S. 60. 69

88 

N. H. Hinterberger

David Tong räumt ein: „Vielleicht werden wir hinter den glatten Quantenfeldern des Standardmodells – oder gar hinter der Raumzeit selbst – eine diskrete Struktur entdecken.“71

Andererseits weist er zu Recht darauf hin, dass nunmehr 40 Jahre lang versucht wurde, das Standardmodell auf dem Computer zu simulieren – ohne Erfolg. Es sei zwar immerhin eine „diskrete Version von Quantenfeldern entwickelt“ worden, „die so genannte Gitterfeldtheorie. Sie ersetzt die Raumzeit durch eine Punktmenge.“ So können Computer näherungsweise ein kontinuierliches Feld berechnen. Aber diese Methode hat offenbar ihre Grenzen bei den Fermionen. Bekanntlich gilt für Fermionen (also Materieteilchen), dass sie nicht nach einer Drehung um 360, sondern erst nach einer Drehung um 720 Grad erneut „ihr Gesicht zeigten“, wenn sie denn eins hätten. Tong bezeichnet das aber selbst als „eine Folge der speziellen Quantenstatistik für diese Partikel.“ Das manifestiert sich auch in Paulis Ausschließungsprinzip, „welches verbietet, dass zwei Elektronen eines Atoms in allen Quantenzahlen übereinstimmen.“ Offenbar gab es sogar ein Theorem, „wonach es grundsätzlich unmöglich ist, den einfachsten Fermionentyp zu diskretisieren.“ Tong schreibt: „Solche Theoreme sind freilich nur so stark wie ihre Annahmen“, denn es gelang inzwischen einer Reihe von Theoretikern, „Fermionen auf dem Gitter zu platzieren.“ Und weiter: „Es gibt alle möglichen Quantenfeldtheorien, jede mit anderen Fermiontypen, und heute lässt sich fast jede Teilchenart auf einem Gitter darstellen. Nur bei einer einzigen Klasse von Quantenfeldtheorien gelingt das nicht, und dazu g­ ehört  Tong, SdW, S. 61.

71

2  Im Reich des mathematischen Realismus und … 

89

leider ausgerechnet das Standardmodell. Wir können alle Arten von hypothetischen Fermionen behandeln, aber nicht diejenigen, die tatsächlich existieren.“72

Das ist natürlich schweres Geschütz gegen bedenkenlose Teilchen-Diskretisierungen im Standardmodell. Bleibt man, wie etwa auch Heinz Dieter Zeh, bei einer eher wellentheoretischen Interpretation der physikalischen Verhältnisse, hat man diese Probleme nicht. Das hat David Tong hier gut gesehen.

2.2.3 Der so genannte Strukturenrealismus Michael Esfelds strukturaler Realismus ist – genau wie alle vorhergehenden Strukturalismen – nichts als ein ziemlich orthodox rationalistischer Versuch, dem Empirismus eine theoretische Unterbestimmtheit zuzusprechen, die mit einem rationalistischen Überbau von der Art des Strukturenrealismus verschwinden würde. Diese Kritik ist keine Kritik am Antirealismus des Logischen Empirismus (denn die Strukturalisten kommen in der Regel selbst daher), sondern nur eine antirealistische Ergänzung rationalistisch-­in­stru­ men­ta­lis­ti­scher Natur: „Die These der Unterbestimmtheit der Theorie durch die Erfahrung zeigt, dass der Empirismus kein wissenschaftlicher Realismus sein kann. Der Empirismus, der nur Erfahrung als Kriterium der Bewertung wissenschaftlicher Theorien anerkennt, erfüllt nicht die epistemische Behauptung, die in die Definition des wissenschaftlichen Realismus eingeht (…) Denn die These der Unterbestimmtheit zeigt, dass Erfahrung nicht als Methode der rationalen Bewertung von 72

 Tong, SdW, S. 61.

90 

N. H. Hinterberger

Erkenntnisansprüchen hinreicht, die in konkurrierenden Theorien enthalten sind. Erfahrung allein ermöglicht es nicht, festzustellen, welche dieser konkurrierenden Theorien die beste im Hinblick auf eine Erkenntnis des betreffenden Gegenstandsbereichs ist.“73

Wie eine These, also eine bloße Behauptung etwas „zeigen“ kann, bleibt sein Geheimnis. Ansonsten handelt es sich hier einfach um den alten Begründungsansatz in neuem, komplementären Gewand (Empirismus und Rationalismus zusammengefasst – allerdings beides antirealistisch). Es handelt sich gleichzeitig um eine explizite Kritik am kritischen Rationalismus, denn der geht bekanntlich ebenfalls davon aus, dass sich Theorien durch Erfahrung bewerten lassen. Zwischen konkurrierenden Theorien wird beim kritischen Rationalismus allerdings – anders als beim Logischen Empirismus (der eine induktivistisch-­ verifikationistische Position vertritt) und auch anders als beim Konstruktivismus (der einen rein analytischen Ansatz vertritt) – konsequent falsifikationistisch entschieden. Überdies ist der kritische Rationalismus, indem er übergangslos allgemeine Hypothesen zulässt, natürlich auch in keiner Weise von irgendeiner theoretischen Unterbestimmtheit betroffen, wie etwa der Induktivismus des logischen Empirismus. Beim kritischen Rationalismus gab es die Zusammenfassung von Rationalismus und Empirie von Anfang an – allerdings mit dem Ziel am Ende prüfbare Wirklichkeitsaussagen zu erhalten, etwas, was den Formalisten der Philosophie aber natürlich schon programmatisch fern lag. Sehen wir uns einmal Esfelds Definition an, was wissenschaftlicher Realismus sei. Hier kann es leicht zu  Michael Esfeld, Naturphilosophie als Metaphysik der Natur, Suhrkamp, 2008, S. 24. 73

2  Im Reich des mathematischen Realismus und … 

91

(beabsichtigten) Verwechslungen mit echtem Realismus kommen, denn was im Folgenden zu lesen steht, hätte auch ein ­kritischer Realist schreiben können (ich habe es übrigens, sozusagen in „erster Lesung“, selbst als Realismus aufgefasst): „(1) Eine metaphysische Behauptung: Die Existenz und die Beschaffenheit der Welt sind unabhängig von den wissenschaftlichen Theorien. Diese Unabhängigkeit ist sowohl ontologisch als auch kausal: Die Existenz und die Beschaffenheit der Welt sind unabhängig davon, ob es Personen gibt, die wissenschaftliche Theorien entwickeln. Wenn es Personen gibt, verursacht die Existenz von deren Theorien nicht die Existenz oder die Beschaffenheit der Welt.“74

Nur im letzten Satz bemerkt man vielleicht, dass die modernen Antirealisten ihren neuen metaphysischen Naturalismus ganz anders auskosten, als kritische Realisten das wohl tun würden. Die Klausel „Wenn es Personen gibt …“ schiene aus der Position letzterer wohl einigermaßen kurios. Anders gesagt, ein kritischer Realist würde diese bedingte Sprechweise wohl nicht investieren, weil es sich bei ihm zwar um einen hypothetischen Ansatz handelt, aber eben nicht um eine antirealistische Immunisierung gegen Kritik, wie wir sie hier wieder in einer weiteren Wenn-­dann-­Form vor uns haben. Einen kritisch hypothetischen Ansatz gibt es deshalb bei den Strukturalisten nicht. Auch die neueren Strukturalisten sind, wie wir sehen werden, vom Begründungs- bzw. Sicherheitswert ihrer Aussagen überzeugt, weil die sich ja lediglich auf reine Strukturen der Mathematik beziehen sollen. Wie man von diesen analytischen Aussagen zur Wirklichkeit gelangen soll (also zur Pointe des Realismus), bleibt dabei notorisch unklar. 74

 Esfeld, Naturphilo, S. 12.

92 

N. H. Hinterberger

Dabei reden sie bezüglich ihres Programms realistisch. Auch an den Punkten 2 und 3 ist inhaltlich nichts auszusetzen: „(2) Eine semantische Behauptung: Die Beschaffenheit der Welt legt fest, welche wissenschaftlichen Theorien wahr sind (und welche nicht wahr sind). Wenn folglich eine wissenschaftliche Theorie wahr ist, dann existieren Gegenstände, von denen die Theorie handelt, und deren Beschaffenheit ist der Grund, weshalb die Theorie wahr ist. Etwas Entsprechendes gilt für die einzelnen Aussagen einer Theorie.“

Das ist natürlich der Wahrheitsbegriff  des kritischen Realismus, der hier vorgestellt wird. Wir werden sehen, dass ein Antirealist damit aber gar nichts anfangen kann. Man muss überdies (weil es hier von „Wissenschaftlichkeit“ nur so wimmelt) hinzufügen: auch nicht-wissenschaftliche Aussagen können wahr sein – kontingent eben. Erst die dritte Aussage sagt nun etwas über die Erkennbarkeit der Wirklichkeit. Sie behauptet unter anderem: „Die Wissenschaften sind im Prinzip in der Lage, uns einen kognitiven Zugang zur Beschaffenheit der Welt zu gewähren.“ Auch damit kann sich ein kritischer Realist völlig einverstanden erklären. Auf S.  16 sehen wir dann aber, dass Esfeld Popper als wissenschaftlichen Realisten bezeichnet. Popper selbst hat diesen Begriff nie benutzt, er bevorzugte den Titel kritischer Realismus. Deshalb und vor allem auch weil der „wissenschaftliche Realismus“ von Esfeld durchweg mit Antirealismus bzw. mit dessen Theorienverständnis einhergeht, möchte ich es hier bei Poppers Wahl belassen. Obwohl Esfeld einräumt, dass er sich durchaus an Poppers Position anlehnt und verspricht: „(…) diese an Popper anknüpfende Minimalform des wissenschaftlichen Realismus

2  Im Reich des mathematischen Realismus und … 

93

gegen Angriffe zu verteidigen“, schlägt er de facto eine antirealistische Alternative vor. Wir werden sie gleich kennen lernen. Entscheidend für sein mangelndes Vertrauen in den Falsifikationismus (allein) scheint hier die berühmte Duhem-Quine-These zu sein, die er offenbar (wie so viele andere Autoren) im Zusammenhang der Konventionalismus-­ Diskussion für überzeugend gehalten hat. Er referiert sie jedenfalls als „Bestätigungs-Holismus“. Pierre Duhem behauptet in seinem Buch Ziel und Struktur der physikalischen Theorien bekanntlich, dass einzelne theoretische Aussagen nicht kritisiert bzw. experimentell überprüft werden können, weil sie von multiplen anderen theoretischen Aussagen abhingen.75 Willard van Orman Quine hatte diese Duhem-­ These als Todesstoß für jegliche Entscheidung aus der Erfahrung betrachtet. Für ihn ergab sich daraus die Konsequenz, dass weder Verifikation noch Falsifikation Kriterien für Annahme oder Ablehnung einer Theorie sein können. Duhem und Quine waren der Meinung, dass Entscheidungen über die Annahme oder Ablehnung von Theorien mehr oder weniger konventionell bzw. pragmatistisch-­instrumentalistisch getroffen werden. Die Arbeit von Gunnar Andersson räumt mit diesem Mythos von der Unfalsifizierbarkeit einzelner Sätze allerdings gründlich auf.76 Bei Andersson geschieht das im Zusammenhang seiner Kritik an der so genannten „Wissenschaftsgeschichtlichen Herausforderung“ von Thomas S. Kuhn, Norwood Russell Hansson und Paul Feyerabend. Diese Autoren haben die Duhem-Quine-These in ihre extremsten pragmatistischen bzw. relativistischen Konsequenzen gezogen. Sie haben behauptet, dass Pradigmenwechsel in der Wissenschaft irrational durch „Überredung“ zustande kommen.  Pierre Duhem, Ziel und Struktur der physikalischen Theorien (Leipzig: Barth, 1908), Hamburg: Felix Meiner, 1978. 76  Gunnar Andersson, Kritik und Wissenschaftsgeschichte, J.  C. B.  Mohr (Paul Siebeck), Tübingen 1988. 75

94 

N. H. Hinterberger

Imre Lakatos (ursprünglich kritischer Rationalist – wie auch Feyerabend) hat sich von dieser Kritik schwer beeindruckt gezeigt und ist in einen Prüfsatz-­Konventionalismus ausgewichen, der für fallibilistische ­Falsifikationisten aber ebenfalls inakzeptabel ist. Wolfgang Stegmüller, ursprünglich Carnap-Anhänger, also Logischer Empirist, war wohl der bekannteste Wissenschaftstheoretiker, der unter dem Eindruck von Kuhns Relativismus zum Anhänger von Joseph D. Sneed wurde, bei dessen Strukturalismus er die geeignete rationale Antwort auf Kuhn sah.77 All diese Autoren haben die Lösung also nicht in der von Kuhn angegriffenen falsifikationistischen Methodologie selbst gesehen. Gunnar Andersson zeigt an jedem einzelnen wissenschaftsgeschichtlichen Beispiel, das in diesem Zusammenhang von den Gegnern des Falsifikationismus bemüht wird, dass es sich bei den angeblich „irrationalen Überredungen“ um falsifikative Erkenntnisfortschritte handelte und nicht um irgendwelche „Inkommensurabilitäten“ verschiedener Weltinterpretationen, denen man nur konventionalistisch bzw. wahrheits-relativistisch begegnen könne. Bevor wir aber zu Anderssons Kritik kommen, möchte ich den Auslöser dieser ganzen Diskussion noch einmal etwas ausführlicher vorstellen, nämlich Thomas S. Kuhns Buch, Die Struktur wissenschaftlicher Revolutionen.

 Joseph D. Sneed, The Logical Structure of Mathematical Physics, Springer, 1971.

77

3 Die Gründe für den Rückzug auf den Strukturalismus

3.1 T  homas S. Kuhns psychologistischer Relativismus Kuhn ist der Meinung, dass die wissenschaftlichen Lehrbücher allesamt ungeschichtlich seien und uns „gründlich irregeführt“ haben. Sein Essay sei dagegen „(…) ein Entwurf der ganz anderen Vorstellung von der Wissenschaft, wie man sie aus geschichtlich belegten Berichten über die Forschungstätigkeit selbst gewinnen kann. Aber auch aus der Geschichte wird diese neue Auffassung nicht hervorgehen, wenn die historischen Daten weiterhin in erster Linie dazu gesucht und erforscht werden, um Fragen zu beantworten, die von der ungeschichtlichen, den wissenschaftlichen Lehrbüchern entnommenen Schablone aufgeworfen werden.“1  Thomas S.  Kuhn, Die Struktur wissenschaftlicher Revolutionen, Suhrkamp, Frankfurt am Main, 1967, S. 15. 1

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_3

95

96 

N. H. Hinterberger

Schon hier könnte man fragen: also was denn nun? Seine „Vorstellung“ entstammt doch einerseits „geschichtlich belegten Berichten“, andererseits wird diese „neue Auffassung“ aber auch aus der Geschichte „nicht hervorgehen“, wenn man, so fährt er fort, weiterhin Lehrbücher liest, die sich mit „Fakten, Theorien und Methoden“ beschäftigen. Was hat das eine eigentlich dem anderen getan? Ich kann doch unbeschadet ein Lehrbuch zu „Fakten, Theorien und Methoden“ lesen und außerdem noch ein Buch zur Geschichte der Wissenschaften. Ich würde das sogar für die umfassendere Lernaktion halten, wenn man denn beides kritisch liest. Es gibt ja auch aus gutem Grund sowohl Lehrbücher, die sich mit der Geschichte der Wissenschaften als auch Lehrbücher, die sich mit Theorien und Methodologien beschäftigen. Er tut aber so, als gäbe es im Wesentlichen nur letztere, und die wären verfehlt und müssten dafür verantwortlich gemacht werden, dass man die wenigen geschichtlichen Bücher nicht mehr in der rechten Weise versteht. Dieses „falsche Lesen“ war offenbar sehr schlimm, denn: „Das Ergebnis war eine Vorstellung von Wissenschaft mit tiefgreifenden Folgerungen über ihre Natur und Entwicklung.“

Da ich an diesem Satz keine Negativwertung abzulesen vermag, schlage ich vor, das umfassendere Lesen doch nicht ganz so schlimm zu finden. Ist doch schön, wenn es tief greifende Folgerungen über die Natur der Wissenschaft erzeugt. Schon hier deutet sich an, dass Kuhn (der im Web teilweise als „einer der größten Wissenschaftstheoretiker“ bezeichnet wird) Schwierigkeiten hat, adäquat zu formulieren, was er eigentlich sagen will. Dann beschäftigt er sich mit der These, dass Fortschritt akkumulativ stattfinde, und negiert sie:

3  Die Gründe für den Rückzug auf den … 

97

„Die gleiche historische Forschung, welche die Schwierigkeiten bei der Isolierung einzelner Erfindungen und Entdeckungen hervorkehrt, gibt auch Anlaß zu tiefgehendem Zweifel an dem kumulativen Prozeß, von dem man glaubte, er habe die einzelnen Beiträge zur Wissenschaft zusammengefügt.“2

Die letzten drei Nebensätze transportieren nun allerdings eine Einsicht, die wir bekanntlich schon Popper verdanken. Da er Popper gelesen hat, lässt sich der Verdacht, er habe diesen Ansatz plagiativ übernommen, nicht völlig beschwichtigen. Man weiß allerdings gar nicht recht, wieso er  sich von der Akkumulations-Vorstellung distanzieren möchte, denn sie würde viel besser zu seiner Idee von der „Normalwissenschaft“ passen, in der die Wissenschaftler keine Erkenntnis-Revolutionen erleben, sondern an ihren jeweiligen Paradigmen hängen und Falsifikationen nur als „Anomalien“ betrachten, die sich durch etwas „Rätsellösen“ schon wieder beseitigen ließen. Er hält es überdies für eine „historiographische Revolution in der Untersuchung der Wissenschaft“, dass die „Historiker der Wissenschaft“ begonnen hätten, eine „ganz neue Art von Fragen“ zu stellen: „Sie fragen zum Beispiel nicht nach der Beziehung der Auffassung Galileis zu denen der modernen Wissenschaft, sondern nach der Beziehung seiner Anschauungen zu jenen seines Kreises, d. h. seiner Lehrer, Zeitgenossen und unmittelbaren Nachfolger in den Wissenschaften.“3

Auch hier weiß man wieder nicht, wieso er nicht sieht, dass es beides gibt und warum man nicht beides tun sollte – und was an letzterem eigentlich so revolutionär sein soll.  Kuhn, Struktur, S. 17.  Kuhn, Struktur, S. 17.

2 3

98 

N. H. Hinterberger

Überdies mag man nicht recht glauben, dass es so etwas vorher nicht gegeben haben sollte. Vor allem scheint mir hier aber beides nicht ausreichend, wenn dabei nur ­herauskommt, dass „diesen Meinungen die größte innere Kohärenz“ innewohnt. Denn ob diese Geschichtsdaten darüber hinaus eine „engstmögliche Übereinstimmung“ etwelcher Aussagen „mit der Natur“ zeitigen, lässt sich durch diese methodologie-freie bzw. kontingent soziologistische Geschichtsbetrachtung ganz sicher nicht ermitteln. Als einziges Beispiel für diese „neue“ Wissenschaftsgeschichtsschreibung führt er die Schriften Alexandre Koyres an. Koyre ist ein Philosoph und Wissenschaftshistoriker, der sich für Henri Bergson, Edmund Husserl und sogar für Hegel, also für klar idealistisch orientierte Philosophen begeistert hat, die sich mit Naturwissenschaften im Wesentlichen nicht beschäftigt haben. Kuhn führt außer Alexandre Koyre keine weiteren Autoren für seine „historiographische Revolution“ an. Genauso geht er mit den Fragestellungen um. Er findet „daß methodologische Richtlinien für sich allein auf vielerlei wissenschaftliche Fragen keine eindeutige Antwort herbeiführen können.“ Er sagt aber weder, welche Richtlinien das sein sollten, die so schlecht funktionieren, noch welche Fragen gemeint sind. Ganz abgesehen davon, dass „Richtlinien“, also methodische Normen ohnedies nur brauchbar oder unbrauchbar sein können, aber nicht wahr oder falsch, wie man es von erkenntnistheoretisch inspirierten Antworten auf ebenso strukturierte Fragen erwarten darf. Kommen wir zu seinen Definitionen: „In diesem Essay bedeutet ‚normale Wissenschaft‘ eine Forschung, die fest auf einer oder mehreren wissenschaftlichen Leistungen der Vergangenheit beruht, Leistungen, die von einer bestimmten wissenschaftlichen Gemeinschaft eine Zeitlang als Grundlagen für ihre weitere Arbeit anerkannt werden.“4  Kuhn, Struktur, S. 25.

4

3  Die Gründe für den Rückzug auf den … 

99

Er betont, dass „Paradigma“ ein Ausdruck sei, der eng mit den Definitionen der „normalen Wissenschaft“ korrespondiere und: „Die Erwerbung eines Paradigmas und der damit möglichen esoterischen Art der Forschung ist ein Zeichen der Reife in der Entwicklung jedes besonderen wissenschaftlichen Fachgebiets.“5

Der Begriff des Esoterischen scheint vom ihm hier durchaus positiv bewertet zu werden, um nicht zu sagen, als ein „Zeichen der Reife“ zu erscheinen und nicht etwa als hinreichend kompromittiert durch den Obskurantismus der New-Age-Bewegung, die mit Wissenschaft nun rein gar nichts zu tun haben dürfte. Dann gibt er einige Beispiele für Paradigmen-Wechsel in der Optik. Angefangen vom Paradigma der Gegenwart, dass das Licht aus quantenmechanischen Entitäten besteht, die Photonen heißen und sowohl Wellen- als auch Teilcheneigenschaften besitzen. Vorher wurde das Licht als transversale Welle betrachtet (Thomas Young und Augustin-Jean Fresnel). Und davor wurde Licht als bestehend aus materiellen Korpuskeln betrachtet (Newton). Das sind seine Beispiele für Pradigmenwechsel: „Diese Umwandlungen der Paradigmata der physikalischen Optik sind wissenschaftliche Revolutionen und der fortlaufende Übergang von einem Paradigma zu einem anderen auf dem Wege der Revolution ist das übliche Entwicklungsschema einer reifen Wissenschaft.“6

Das ist sicherlich richtig und wird auch von Popper so gesehen. Auch hier funkelt für meinen Geschmack schon wieder ein Plagiat, also ein geistiger Diebstahl, den er eigentlich  Kuhn, Struktur, S. 26.  Kuhn, Struktur, S. 27.

5 6

100 

N. H. Hinterberger

gar nicht verwenden kann. Denn wir haben ja gerade gelesen, dass die normalwissenschaftliche Verteidigung einer Tradition bzw. eines Paradigmas ebenfalls ein Zeichen der Reife sei. Wir wollen mal vorläufig davon absehen, dass das so überhaupt nicht zusammenpasst. Darüber hinaus scheint es aber wohl eher trivial, dass Forscher ihre Theorien zunächst einmal verteidigen. Wenn man nämlich „Paradigma“ einfach mal gegen „Theorie“ austauscht, erkennt man Poppers Argumentation, dass es auch immer Forscher geben muss (und im Übrigen auch hinreichend gibt), die eine Theorie mit Zähnen und Klauen verteidigen, um ihr ganzes Potential auszuschöpfen – und das kann auch ohne Ad-hoc-Konventionalismus geschehen. Kuhn schreibt aber auch selbst, man höre oft, dass Gesetze „durch die Untersuchung von Messungen gefunden werden, die um ihrer selbst willen und ohne Bindung an eine Theorie vorgenommen werden. Die Geschichte bietet aber für eine so übertrieben Baconsche Methode keinen Anhaltspunkt.“7

Das ist natürlich völlig richtig, denn wir induzieren nicht, auch nicht „eliminativ“, wie Bacon sich das vorgestellt hatte, sondern wir deduzieren unsere Prognosen aus unseren Theorien, Hypothesen, allgemeinen Vorurteilen oder „Paradigmen“. Das ist logisch alles äquivalent weil wir zwar über einen Wahrheitsbegriff aber nicht über ein Wahrheitskriterium verfügen. Diese Prognosen werden dann in Messungen oder anderen reproduzierbaren Beobachtungen überprüft. Zu letzterem besteht überhaupt kein Dissens zwischen den kritischen Rationalisten und Kuhn. ­Unterschiedlicher Auffassung sind Popper und Kuhn allerdings hinsichtlich des Verhaltens der Wissenschaftler im Falle von Falsifikationen.  Kuhn, Struktur, S. 42.

7

3  Die Gründe für den Rückzug auf den … 

101

Während Falsifikationisten bei einer korrekten Falsifikation immer von einem Lerneffekt für den Wissenschaftler ausgehen, spricht Kuhn dem Paradigmatiker (also allen Wissenschaftlern, die an ein bestimmtes Paradigma glauben) diesen Lerneffekt ab und heißt das überdies gut, denn er hält den kritischen Rationalisten für einen „Ideologen der sicheren Widerlegung“. Für Kuhn gibt es keine echten Falsifikationen, sondern nur „Anomalien“, die in der Regel von den Wissenschaftlern auch zu Recht nicht ernst genommen würden. Das ist allerdings ein zentrales Missverständnis des Falsifikationismus durch Kuhn. Er denkt (wie übrigens viele andere auch), dass Falsifikationen sicher sein müssten. Wir kommen gleich darauf. Ein anderes Problem ist sein resignativer Instrumentalismus. Er ist der Meinung, dass es nur wenige Gebiete gibt, über die „eine wissenschaftliche Theorie, besonders wenn sie in einer überwiegend mathematischen Form ausgedrückt ist, unmittelbar mit der Natur verglichen werden kann. Bis heute sind nicht mehr als drei derartige Gebiete für Einsteins allgemeine Relativitätstheorie zugänglich.“8

Als einzig unumstrittenen „Zugang“ nennt er (in der Endnote) die Präzession des Merkur-Perihels. Die Rotverschiebung ließe sich aus Betrachtungen herleiten, die elementarer seien als die ART. Was er hinsichtlich der gravitativen Rotverschiebung vermutlich meint ist, dass sie sich bereits aus der Energieerhaltung ableiten ließ.9 Einstein hat sie schon 1911 – also schon 4 Jahre vor der ART – vorausgesagt. Die „Gravitationsverschiebung der Mössbauerstrahlung“ erwähnt er selbst. Alles andere hätte er in  Kuhn, Struktur, S. 40.  Dazu kann man anmerken, dass letztere heute als approximativ, also sicher nicht als fundamental betrachtet wird.

8 9

102 

N. H. Hinterberger

seinen Anmerkungen nachtragen bzw. korrigieren müssen, denn er hat das alles ja noch miterlebt: 1971 wurde die gravitative Zeitdilatation (in einem Flugzeug) im Hafele-Keating-­Experiment mit Ceasiumuhren auf 10 % genau gemessen. 1976 wurde die Genauigkeit (im Maryland-Experiment) auf 1  % verbessert. 1979 gab es eine weitere Verbesserung in der Genauigkeit (0,02 %) durch Levine und Vessot. GPS-Systeme (Entwicklungszeit von 1973–1995) werden korrigiert gemäß der speziellen und allgemeinen Relativitätstheorie. Eine bessere Bewährung (bzw. einen direkteren Vergleich mit der Wirklichkeit) für diese beiden Theorien kann man sich wohl kaum noch denken. Wir werden sehen, dass sich auch alle seine anderen Beispiele für angebliche „Inkommensurabilitäten“ in Luft auflösen. Er redet beispielsweise davon, dass es bei Anwendungen „oft theoretische und instrumentelle Annäherungen gibt, welche die zu erwartende Übereinstimmung erheblich einschränken.“ Er meint hier vermutlich keine instrumentalistischen Einschränkungen, die bei Antirealisten ja in der Regel methodologisch vorsätzlich installiert werden, sondern er meint Beobachtungsinstrumente wie Teleskope, die „die Kopernikanische Vorhersage der Jahresparallaxe“ etwa bestätigen konnten. Newtons Lex secunda, also die Tatsache, dass „Die Änderung der Bewegung der Kraft proportional ist und in ihrer Richtung“ wirkt, konnte erst 1784 (also 97 Jahre nach Newtons Gesetz von 1687) überprüft werden, durch George Atwoods Fallmaschine. Die Entwicklung derartiger Geräte bezeichnet Kuhn dann recht tendenziös als „Anstrengungen (…) die erforderlich waren, um Natur und Theorie in Übereinstimmung zu bringen.“ Diese konventionalistische Ausdrucksweise scheint wenig passend in Bezug auf eine so eindeutige Überprüfungssituation. Er schreibt:

3  Die Gründe für den Rückzug auf den … 

103

„oft ist die Paradigmatheorie unmittelbar in den Entwurf des Geräts, mit dem das Problem sich lösen läßt, einbezogen. Ohne die Prinzipia zum Beispiel hätten Messungen mit der Atwood-Maschine überhaupt nichts bedeutet.“10

Aber was will er denn damit sagen? Newtons Gesetz ist doch keine Bauanleitung für die Atwood-Maschine gewesen. Und wenn also klar ist, dass hier gar keine Theorie- oder Paradigma-Abhängigkeit hinsichtlich der Überprüfung besteht, dann stellt sich nur noch die Frage: ist das Gerät in der Lage, die Theorie zu überprüfen oder nicht. Und wenn ja, dann sind keinerlei konventionelle Absprachen und kein „Rätsellösen“ nötig, um „Natur und Theorie in Übereinstimmung zu bringen“. Theorie-­Imprägnierungen können bei der Beobachtung bzw. entsprechenden Basissätzen sehr relevant sein, aber in den seltensten Fällen von einer zu überprüfenden Theorie aus, es sei denn sie enthielte tatsächlich implizit oder explizit eine Bauanleitung für das jeweilige Messgerät. Kuhn vertritt dagegen die Meinung, dass: „(…) wenn die Annahme eines gemeinsamen Paradigmas die wissenschaftliche Gemeinschaft erst einmal von dem Zwang befreit hat, ihre Grundprinzipien fortgesetzt zu überprüfen, die Mitglieder dieser Gemeinschaft sich ausschließlich auf die subtilsten und esoterischsten der sie beschäftigenden Phänomene konzentrieren können.“11

Wir sehen, er betrachtet Überprüfungen regelrecht als „Zwang“, der offenbar nur dazu gut ist, die Wissenschaftler von ihren subtilen, esoterischen Untersuchungen abzulenken, die scheinbar darin bestehen, ein Dogma – völlig überprüfungsfrei eben  – zu verfestigen bzw. zu immunisieren gegen Kritik. Ein Verhalten, dass nicht an Wissenschaft, 10 11

 Kuhn, Struktur, S. 41.  Kuhn, Struktur, S. 175.

104 

N. H. Hinterberger

sondern viel eher an theologische Praxis erinnert. Und wir werden im Verlauf auch sehen, dass er diese Verbindungen nicht nur zieht, sondern im Rahmen dessen, was er als „Normalwissenschaft“ bezeichnet, für wünschenswert hält.

3.2 A  nderssons Kritik am psychologistischen Relativismus Michael Esfeld kennt Gunnar Anderssons großartige Verteidigung des konsequent fallibilistischen Falsifikationismus nicht. Das gilt im Übrigen für die meisten an dieser Diskussion Beteiligten  – und zwar eindeutig zu deren Nachteil. Ich habe Anderssons Kritik anderenorts ausführlich behandelt.12 Esfeld kennt allerdings Duhem und Quine und ist der Meinung, dass ihr Bestätigungs-Holismus die „empirische Unterbestimmtheit“, die er ja nicht nur beim Verifikationismus, sondern auch beim Falsifikationismus vermutet, mithilfe eines mysteriösen Kohärenz-Kriteriums beseitigen kann: „Der Rationalist fügt zur Erfahrung das Kriterium der Kohärenz hinzu. Aufgrund von Beobachtungsaussagen, die durch die Erfahrung verursacht werden, versuchen wir, ein kohärentes System wissenschaftlicher Aussagen zu konstruieren. Kohärenz bedeutet dabei, dass die theoretischen A ­ ussagen sich nicht nur nicht widersprechen, sondern dass ihr begrifflicher Inhalt so eng wie möglich zusammenhängt, es also möglichst viele inferentielle Verbindungen zwischen ihnen gibt.“13

 Norbert Hinterberger, Der Kritische Rationalismus und seine antirealistischen Gegner, Rodopi, 1996. S. 376–420. 13  Michael Esfeld, Naturphilosophie als Metaphysik der Natur, 2008, S. 24–25. 12

3  Die Gründe für den Rückzug auf den … 

105

Er hat also Beobachtungsaussagen aus denen (irgendwie?) ein zusammenhängendes System von Aussagen konstruiert werden soll. Diese Aussagen sollen sich nicht widersprechen, und es soll möglichst viele Ableitungsbeziehungen zwischen ihnen geben. Das scheint nicht eben eine besonders klare Vorstellung zu sein, denn so kann man auch die berühmten logisch konsistenten Märchen konstruieren. So versucht er das Problem der theoretischen Unterbestimmtheit des Empirismus zu lösen – um es mal anders herum auszudrücken. Er müsste hier indessen auch von einer empirischen Unterbestimmtheit dieser Theorien reden. Denn dem Logischen Empirismus fehlen ja gerade die theoretischen Mittel, weil die empirisch inspirierten Beobachtungssätze (von denen er hier redet) von ihnen nicht als Mittel der Überprüfung, sondern als Begründungsinstrument eingesetzt werden sollten. Das funktionierte nicht, weil die Induktion logisch unschlüssig ist. Esfeld macht genaugenommen nichts anderes: erst sollen schlichte Beobachtungssätze verknüpft werden, dann sollen die plötzlich den theoretischen Überbau darstellen. Das hat aber schon bei den älteren Empiristen nicht geklappt: der Schluss vom Besonderen aufs Allgemeine ist logisch leider unzulässig, hierbei aber unvermeidbar. Das haben die Empiristen aufgrund von Poppers Kritik des Induktivismus auch schemenhaft erkannt. Denn das ist durchweg der Grund, warum sie Strukturalisten geworden sind und versuchen, mit einem rein formalistischen Ansatz auszukommen. Die Strukturalen Realisten (wie Esfeld) möchten allerdings (wie wir ­gesehen haben) auch empiristische Argumentationen beibehalten (sogar nach wie vor als Ausgangspunkte) und sie nur ergänzen durch einen theoretischen Überbau, der dann allerdings durch „Theorie- und Methodologie-Freiheit“ glänzt. Denn wie wir oben lesen konnten, soll der theoretische Überbau nichtsdestoweniger auf Beobachtungsaussagen basieren.

106 

N. H. Hinterberger

In diesem Zusammenhang macht Esfeld uns jedenfalls mit einer „Kohärenztheorie der Rechtfertigung“ bekannt. Wir sehen also, wir sind wieder in der alten Begründungsphilosophie angelangt, auch wenn sie sich hier neue Kleider umgehängt hat: „Dieses System ist dadurch in der Welt verankert, dass es eine kausale Eingabe von Seiten der Welt durch Erfahrung erhält, die das Bilden von Überzeugungen verursacht, welche in Form von Beobachtungssätzen ausgedrückt werden können. Der Bestätigungs-Holismus (Duhem-­Quine-These) führt über die These der Unterbestimmtheit der Theorie durch die Erfahrung dazu, die epistemische Behauptung in der Definition des wissenschaftlichen Realismus infrage zu stellen.“

Hier sehen wir auch noch einmal, er meint die „Unterbestimmtheit der Theorie durch die Erfahrung“. Wir sehen außerdem, er ist überzeugt davon, dass Duhem und Quine erfolgreich waren bei der Demontage des Realismus. Er bietet aber auch gleich anschießend an, das zu reparieren: „Der Rechtfertigungs-Holismus schließt die Lücke, die durch Erfahrung als unzureichendes Kriterium für die Bewertung konkurrierender wissenschaftlicher Theorien entsteht (…)“

In der Auslassungs-Klammer wiederholt er sinngemäß einfach noch mal den Text von oben, als wäre mit dem Begriff der „Kohärenz“ überhaupt nur irgendetwas Bestimmtes gesagt, und als hätte er damit ein Konzept geliefert, mit dem man der konventionalistischen/instrumentalistischen Herausforderung durch Duhem und Quine begegnen könne.

3  Die Gründe für den Rückzug auf den … 

107

Wie man nicht nur damit fertig wird, sondern überdies auch mit dem daraus entwickelten Relativismus bei Thomas S. Kuhn, Paul Feyerabend und Norwood Russell Hansson sowie mit dem Prüfsatz-Konventionalismus bei Joseph Agassi und Imre Lakatos, hätte er bei Gunnar Andersson lernen können. Hier wird der Verifikationismus der Logischen Empiristen, der Konventionalismus von Pierre Duhem, der Instrumentalismus von Willard van Orman Quine, die gestaltpsychologische Inkommensurabilitäts-­ These von Kuhn und der proliferierende („anarchistische“) Pluralismus Feyerabends mit seiner speziellen, deterministischen Variante der Inkommensurabilität und mit seinen relativistischen Konsequenzen in einem Aufwasch kritisiert. Das alles geschieht von einem konsequent fallibilistischen Falsifikationismus aus, also ohne die geringste konventionalistische oder pragmatistische Ausweichbewegung.

3.2.1 L ee Smolins Rezeption von Feyerabend und Kuhn Gegen diese schlagende Kritik sind bisher keine tragfähigen Gegenpositionen überliefert. Genau genommen kenne ich nicht einen expliziten Einwand gegen Anderssons Kritik.14 Ihre Gegner haben sich offenbar dazu entschlossen, diese Arbeit totzuschweigen. Aber viele andere (auch unter den kritischen Rationalisten) kennen sie gar nicht, so dass sogar Autoren der theoretischen Physik, wie Lee Smolin, die sich  Obwohl sein Buch zwischenzeitlich auch längst in englischer Sprache erschienen war. Gunnar Andersson, Criticism and the History of Science, E.J. Brill, Leiden – New York – Köln, 1994 – zuerst ist es allerdings in Deutsch erschienen, so dass die Ignoranz auch in Deutschland ihren Anfang nahm: Kritik und Wissenschaftsgeschichte, J. C. B. Mohr (Paul Siebeck) Tübingen 1988. 14

108 

N. H. Hinterberger

explizit mit Feyerabends und Kuhns Thesen befasst haben, davon überzeugt sind, dass die beiden gegenüber Popper recht behalten hätten. „Feyerabend war überzeugt, dass die Wissenschaft eine menschliche Tätigkeit ist, die von opportunistischen Menschen ausgeführt wird, die keinem allgemeinen logischen oder methodologischen Plan folgen, sondern einfach das tun, was das Wissen vermehrt.“15

Man könnte fragen, woher sie – unter diesem Verzicht auf rationale Mittel – noch wissen sollten, dass sich das Wissen vermehrt hat? Smolin stellt dann Poppers Position ganz richtig vor, denkt aber offenbar, dass Feyerabend „seine Arbeit in der Philosophie“ begann, indem er Poppers Ideen kritisierte. Feyerabend war indessen zunächst selbst ein kritischer Rationalist, ein Popperschüler, dem wir sogar Übersetzungen von Poppers Schriften verdanken. Erst später ist er zu seinem erkenntnistheoretisch anarchistischen „anything goes“ bzw. zum Relativismus übergegangen, weil auch er von Kuhns Ansatz beeindruckt war. Smolin ist jedenfalls der Meinung, dass Feyerabend zeigte: „dass es gar nicht so leicht ist, eine Theorie zu falsifizieren. Sehr häufig halten Wissenschaftler an einer Theorie fest, nachdem sie scheinbar falsifiziert worden ist.“16

Die erste Bemerkung ist falsch, Falsifikationen sind in den meisten Fällen sehr einfach, da häufig sogar nur eine einzelne Beobachtung benötigt wird, die gegen eine aus der Theorie abgeleitete Prognose spricht – ganz anders als bei der (im Übrigen gar nicht durchführbaren) induktivistischen Verifikation  Lee Smolin, Die Zukunft der Physik, Deutsche Verlags-Anstalt, 2009, S. 390–397.  Lee Smolin, Die Zukunft der Physik, DVA, 2008, S. 395.

15

16

3  Die Gründe für den Rückzug auf den … 

109

welcher verallgemeinerten Behauptung auch immer. Man nennt das auch die logische Asymmetrie zwischen Falsifikation und Verifikation. Die zweite Bemerkung ist dagegen nahezu trivial. Natürlich fängt ein Theoretiker nicht sofort an, seine eigene Theorie zu kritisieren, manchmal sogar überhaupt nicht. Aber es wird immer ausreichend wissenschaftliche Konkurrenten geben, die das gerne übernehmen werden. Und zum Mechanismus des Widerlegungsversuchs kann man sagen: Entweder die Falsifikation ist gelungen, dann können alle Versuche, dagegen zu argumentieren, nur Immunisierungs-Reaktionen gegen Kritik sein (ad hoc aufgestellte Hilfshypothesen etwa), die de facto aber schon eine neue Version der Theorie darstellen – die alte Version bleibt indessen falsifiziert (das folgt schon rein logisch). Im Übrigen muss man selbst bei Ad-hoc-Immunisierungen einräumen, dass man aus der Falsifikation der Theorie, so wie sie war, etwas gelernt hat, nämlich dass sie so nicht bleiben kann. Und das wird ja auch eingesehen (wenn auch häufig nicht zugegeben), sonst hätte man sich ja nicht die Mühe gemacht, die Theorie ad hoc umzugestalten. Die andere Möglichkeit ist in der Tat: Es handelt sich nur um eine scheinbare Falsifikation, bei der man Fehler in der Interpretation des Experiments oder dergl. aufzeigen kann, wie im Falle eines falsifikativen Angriffs durch Walter Kaufmann auf die Relativitätstheorie Einsteins, bei dem durch Einstein selbst gezeigt werden konnte, dass Kaufmann falsche theoretische Annahmen zum Elektron gemacht hatte, also von falschen falsifikativen Prämissen ausgegangen ist (weiter unten). Woran man ablesen kann, dass der Falsifikationismus selbst-anwendbar ist. Die theoretische und praktische Möglichkeit derartiger Fälle ist im übrigen von Popper selbst immer wieder ausführlich besprochen worden, auch in seinen frühesten Schriften.17  Schon in Poppers Vorgänger der Logik der Forschung, nämlich in Die beiden Grundprobleme der Erkenntnistheorie, J.  C. B.  Mohr (Paul Siebeck) Tübingen, 1979, S. XXI (aufgrund von Manuskripten von 1930–1933). Der Ausdruck „Fallibilismus“ kommt anscheinend zuerst bei Charles Sanders Peirce vor. Popper 17

110 

N. H. Hinterberger

Anstatt sich hier also endlich zu einem echten Realismus durchzuringen, machen die strukturalen Realisten, die ja ebenfalls, nämlich in ihrer Eigenschaft als ehemalige Empiristen, von der „wissenschaftsgeschichtlichen Herausforderung“ betroffen sind, einfach weiter mit längst ad absurdum geführten Versionen von mathematischem Konventionalismus – als Additionen zum Empirismus. Diese Kombination wird dann offenbar nicht mehr für „unterbestimmt“ gehalten. Die Strukturalisten kommen anscheinend nicht auf die Idee, dass ein derartiger Konventionalismus für realistisch unterbestimmt gehalten werden könnte. Viele von ihnen denken wirklich, ihr strukturaler Realismus sei gar kein Konventionalismus bzw. Antirealismus. Einige von ihnen „empfinden“ die Mathematik inzwischen anscheinend sogar als irgendwie quasi-physikalisch – wie etwa Hawking, Tegmark, Kanitscheider, Barbour, Esfeld und andere mehr. Esfelds Missverständnis des Popperschen Falsifikationismus ist exemplarisch für die gesamte Diskussion. Durch den gesamten Antirealismus seit Duhem und Quine – und später dann Kuhn – sei gezeigt, dass der Falsifikationismus eine „Ideologie der sicheren Widerlegung“ sei (Kuhn). Als solche wäre sein Verständnis von Basissätzen natürlich ebenso kritisierbar wie die (induktivistisch-­verifikationistische) Sicherheitsbehauptung für die Basissätze bei den Logischen Empiristen. Bei letzteren wurden die Beobachtungssätze bekanntlich als die „sicheren“ Basissätze betrachtet, von welchen aus man induktivistisch verallgemeinern sollte, hätte man nur erst „genug“ davon abgezählt. Nun gab und gibt es diesen Sicherheitsanspruch bei Popper aber in keiner Weise – weder für die allgemeinen Behauptungen (für die natürlich schreibt dazu: „Aber natürlich ist der Fallibilismus kaum etwas anderes als das sokratische Nichtwissen.“ – Ich weiß, dass ich nichts (sicher) weiß und kaum das. Das „sicher“ stammt aus Poppers Sokrates-Übersetzung. Zusammen mit Poppers These der „Theoriegetränktheit“ aller Beobachtungen impliziert das die Fallibilität auch aller Falsifikationen.

3  Die Gründe für den Rückzug auf den … 

111

erst recht nicht) noch für die Basis- bzw. Beobachtungssätze, die nur dann als Falsifikatoren betrachtet werden, wenn deren Prämissen nicht erfolgreich angegriffen werden können. Im Gegenteil, die Position der sicheren Basissätze (also die Behauptung der Beobachtungssicherheit) wurde von Popper selbst ja schon beim Induktivismus der Logischen Empiristen kritisiert. Damit verbot sich natürlich, an die Sicherheit der eigenen Basissätze zu glauben, denn das waren ja auch Beobachtungssätze. Popper hat deshalb von Anfang an klar gemacht, dass selbstverständlich auch die Prämissen der falsifizierenden Sätze angezweifelt werden können, wenn theoretische Gründe dafür vorgebracht werden  – worin sich ein weiteres Mal die häufig bezweifelte Selbstanwendbarkeit des Falsifikationismus zeigt. Ein konsequent fallibilistischer Falsifikationismus, wie er von Popper vertreten wird, impliziert diese umfassend kritizistische Methodologie. Popper hat die Fallibilität auch der falsifizierenden Basissätze mit der „Theoriegetränktheit“ beliebiger Beobachtungen erklärt. Diese Erkenntnis führt bei Popper aber nicht zu konventionalistischen Wendungen, sondern zu einem allumfassenden bzw. unlimitierten Kritizismus. Dass Popper jemals die Sicherheit von Falsifikatoren (also von Be­ob­ach­tun­gen, die zur Falsifikation herangezogen werden) behauptet hätte, ist ein Mythos, der von seinen Kritikern aufgebaut wurde. Diese Position wurde in Popper hineininterpretiert, ohne dass es dafür einen Anhaltspunkt in seinen Schriften gibt. Die Konventionalisten konnten sich selbst einfach keine andere Lösung des Problems der Theoriegeladenheit aller Beobachtungen vorstellen als eben die konventionalistische. Kuhn sprach sogar fatalistisch von der Theorienabhängigkeit der Erfahrung, als müsste jeder Versuch, dieses Problem anders als konventionalistisch zu lösen, zwangsläufig zirkulärer Natur sein. Dieser Dogmatismus folgte aus dem großen „Mythos des Rahmens“, wie Popper

112 

N. H. Hinterberger

das genannt hat. Ich habe das alles (in meinem [1996]) sehr ausführlich behandelt. Ich weiß allerdings, dass Literaturverweise bisweilen recht geduldig sind und will deshalb hier wenigstens die wichtigsten Argumente Anderssons und die Diskussion von 1970 (zwischen Popper, Watkins, Kuhn, Lakatos, Feyerabend u. a.) referieren.

4 Der Mythos vom Rahmen

4.1 U  nterschiedliche Typen von Falsifikationen Die Behauptung der „Rahmentheoretiker“ (Duhem/ Quine/Kuhn), dass weder theoretische Systeme noch einzelne Allsätze falsifiziert werden könnten, sondern dabei immer „unser Wissen als ganzes“ auf dem Spiel steht, ist schlicht falsch. Popper hatte zwei Typen von Falsifikationen vorgestellt. Der erste Typ verwendet die logische Figur des Modus tollens (Rückübertragung der Falschheit der Prognose auf die Prämissen). Gunnar Andersson schreibt: „Wenn aus allgemeinen Hypothesen und singulären Sätzen, die Randbedingungen beschreiben, eine Prognose ableitbar ist, genau dann sind verschiedene Typen falsifizierender Schlüsse gültig. Dies kann mit metalogischen Überlegungen gezeigt werden. Wenn ein logischer Schluß gültig ist

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 113 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_4

114 

N. H. Hinterberger

und die Prämissen wahr sind, dann muß mit logischer Notwendigkeit die Konklusion wahr sein. Wenn umgekehrt die Konklusion falsch ist, dann können nicht alle Prämissen wahr sein, d. h., die Konjunktion der Prämissen muß falsch sein. Wenn deshalb die Konklusion aus einer Prognose besteht, die aus allgemeinen Hypothesen und singulären Randbedingungen abgeleitet ist, dann folgt aus der Negation der Prognose, dass die Konjunktion der allgemeinen Hypothesen und der singulären Randbedingungen falsch ist. Damit ist gezeigt, dass der erste von Popper behandelte Typ falsifizierender Schlüsse gültig ist.“1

In vielen Fällen sind überdies, wie Andersson weiter bemerkt, die Randbedingungen ebenfalls durch Beobachtungen überprüfbar, so dass man sie aus den Prämissen herausnehmen kann und nun nur noch die Konjunktion der allgemeinen Hypothesen von der Falsifikation betroffen wäre (eine wichtige Technik der Eingrenzung). Man hat jetzt also auf der falsifizierenden Seite sowohl die Negation der abgeleiteten Prognose als auch die singulären Randbedingungen. Das zeichnet einen weiteren wichtigen Typ von Falsifikationen aus, der von Andersson beigesteuert wurde. Popper hatte einen Spezialfall dieses Typs behandelt, und zwar den Fall, in dem nur eine einzelne allgemeine Hypothese überprüft wird. Man kann nämlich auf Randbedingungen völlig verzichten, wenn man die Äquivalenz von negiertem Allsatz („Nicht alle Schwäne sind weiß“) und Es-­gibt-­Satz („Es gibt einen nichtweißen Schwan“) ins Feld führt. Kann dieser allgemeine Es-gibt-Satz nun durch Beobachtung zu einem singulären Es-gibt-Satz instanziiert werden („An der Raumzeitstelle k steht ein schwarzer Schwan“), weiß man, dass die allgemeine Bejahung, also der Allsatz „Alle Schwäne sind weiß“ falsifiziert ist. Damit ist die Duhem-Quine-These  Gunnar Andersson, Kritik und Wissenschaftsgeschichte, J. C. B. Mohr, 1988, S. 182. 1

4  Der Mythos vom Rahmen 

115

widerlegt, die (wie ja auch Kuhn und Feyerabend später) von der Unmöglichkeit der Falsifikation isolierter Allsätze ausgeht. Denn es zeigt die Falschheit der Behauptung, dass immer ein ganzes theoretisches System oder gar unser gesamtes Wissen zur Prüfung anstehe. „Es zeigt weiter, dass es durchaus möglich ist, daß Hilfshypothesen, die notwendig sind, um aus einer Theorie empirische Prognosen abzuleiten, unabhängig von der Theorie empirisch prüfbar sein können. So konnte z. B. die Hilfshypothese, dass das Fernrohr ein zuverlässiges Instrument ist, unabhängig von der Kopernikanischen oder Ptolemäischen Theorie empirisch geprüft werden. Bei der Diskussion der astronomischen Theorien konnte sie als eine unabhängig prüfbare Hilfshypothese und falsifizierende ­ Prämisse benutzt werden. Galileis Beobachtungen der Venusphasen falsifizierten die Ptolemäische Theorie, vorausgesetzt, dass die Beobachtungen mit dem Fernrohr zu­ verlässig sind. In solchen Fällen ist eine dritte Form falsifizierender Schlüsse interessant: Die Falsifikation, bei der unabhängig prüfbare Hilfshypothesen unter den falsifizierenden Prämissen vorhanden sind.“2

Also, man kann sowohl beobachtbare Randbedingungen als auch prüfbare Hilfshypothesen in die falsifizierenden Prämissen aufnehmen. Wenn man sich das alles klarmacht, löst sich das Gespenst der „Inkommensurabilität“ sowie die Behauptung, aus der letztere gefolgert wurde, nämlich, die Forscher lebten in ihren jeweiligen Paradigmen wie in anderen Welten, von denen aus sie die „Welten“ der anderen jeweils gar nicht sehen könnten, in nichts auf. Und zwar, weil sowohl einzelne theoretische Systeme als auch einzelne Allsätze unabhängig überprüft werden können. Kuhns und Feyerabends gesamter Psychologismus bricht so zusammen.  Andersson, KW, S. 183.

2

116 

N. H. Hinterberger

Man kann im Gegenteil (wie Andersson das hier auch tut) an jedem einzelnen Beispiel angeblich unhintergehbarer psychologischer Gestalt-Wahrnehmung zeigen, dass es sich bei den „Gestalten“ logisch betrachtet jeweils um implizite Hypothesen handelt, die, wenn sie sichtbar, also explizit ­gemacht werden, überprüft bzw. kritisiert werden können, wie jede andere Hypothese auch. „Überzeugungen“ interessieren in der Forschung nicht, sie sind subjektiv. Begründungen laufen auf das Münchhausentrilemma (von Begründung, logischem Zirkel und konventionellem Abbruch des Verfahrens) hinaus. Es bleiben also nur machbare Überprüfungen. Aber davon gibt es ja offenbar mehr und wirksamere als unsere Schulweisheit uns hat träumen lassen. Kuhn und Feyerabend haben (wie auch viele andere) angenommen, dass Popper von der Notwendigkeit sicherer Basissätze ausgegangen sei. Aber das ist natürlich Unfug. Er hat ihre Fallibilität von Anfang an behauptet: „(…) niemals zwingen uns die logischen Verhältnisse dazu, bei bestimmten Basissätzen stehenzubleiben und gerade diese anzuerkennen oder aber die Prüfung aufzugeben; jeder Basissatz kann neuerdings durch Deduktion anderer Basissätze überprüft werden (…) Dieses Verfahren findet niemals ein ‚natürliches‘ Ende.“3

Die Gegner des Falsifikationismus sind also (teilweise sogar wider besseres Wissen) davon ausgegangen, dass Popper von sicheren Falsifikationen ausgeht, um ihm eine Inkonsistenz nachweisen zu können. Aber Popper ist von Anfang an ein konsequenter Fallibilist gewesen. Gunnar Anderssons Definition dessen, was eine Falsifikation denn nun eigentlich ist, lässt an Klarheit nichts zu wünschen übrig:  Karl R. Popper, Logik der Forschung, J. C. B. Mohr, 1984, S. 64.

3

117

4  Der Mythos vom Rahmen 

„Sie ist eine bedingte Widerlegung, wenn gewisse Prüfsätze wahr sind, dann ist eine allgemeine Theorie falsch. Folgende metalogische Äquivalenz gilt:“4

Ich schreibe das hier in logisch äquivalenter Tastatur-­ Notation (~ = nicht; |- = Es gilt; x |- y = y folgt aus x; v = Disjunktion; & = Konjunktion), sowie: R = Randbedingungen, P = Prognose, H = Hypothese, HH = Hilfshypothese. Andersson:

R, ~ P | − ~ H genau dann, wenn | − ( R & ~ P ) − >~ H



In Umgangssprache: Aus R und nicht-P folgt nicht-H genau dann, wenn gilt: Wenn (R und nicht-P) dann nicht-H.

R sind in diesem Fall die beobachtbaren Randbedingungen, die hier zusammen mit der negierten Prognose P unter den falsifizierenden Prämissen erscheinen können. Sowohl Kuhn als auch Popper gehen von der Revidierbarkeit der Prüfsätze aus, ziehen aber völlig verschiedene Konsequenzen daraus. „Für Popper ist die Revidierbarkeit der Prüfsätze eine Folge ihrer Fallibilität. Kuhn dagegen begründet die Revidierbarkeit der Prüfsätze mit gestaltpsychologischen Über­ le­gungen.“5

Kuhn versucht damit, sein Argument von der geschichtlich-­ psychologisch begründeten Inkommensurabilität bestimmter Gestalt-Interpretationen zu stärken.

 Andersson, KW, S. 110.  Andersson, KW, S. 110–111.

4 5

118 

N. H. Hinterberger

Kuhn argumentiert: Bei wissenschaftlichen Experimenten und Beobachtungen sei es ebenso möglich, verschiedene Gestalten wahrzunehmen, wie bei gestaltpsychologischen Experi­ menten. Und weiter: dass es vom jeweiligen wissenschaftlichen Paradigma abhänge, welche Gestalt wahrgenommen werde. Hier wird aber nur ein weiteres Mal, psychologistisch, möglicher Einfluss (also die Theoriegetränktheit unserer Beobachtungen) mit Bedingung (also Kuhns paradigmatischer Hypnotisiertheit durch angeblich unhintergehbare Gestaltwahrnehmung) gleichgesetzt. Das wissenschaftliche Paradigma – an das der jeweilige Forscher glaubt – kann sicherlich einen starken Einfluss auf seine (Gestalt)Wahrnehmungen haben, es ist aber (objektiv) keine Bedingung, die unkorrigierbar bzw. „unabdingbar“ für die jeweilige „paradigmatische“ Wahrnehmung sorgt. Denn Wissenschaftler leben in einer theoretisch pluralistischen Welt, in der ihnen Alternativtheorien und damit „Alternativgestalten“ – und damit eben auch Vergleichsmöglichkeiten, bezogen auf durch weitere Prüfsatzdeduktion unproblematisch zu machende Erfahrungstatsachen, zur Verfügung stehen. Bislang problematische Prüfsätze können durch Ableitung und Überprüfung unproblematischer Prüfsätze kritisiert werden. Gestaltwahrnehmungen können also sehr wohl durch rationale Diskussion kritisiert werden, denn sie sind ja logisch äquivalent mit impliziten Hypothesen. Andersson betont zwar, dass das gestaltpsychologische Erfahrungsmodell insofern richtig sei, als es die Theoriegetränktheit der Erfahrung zeigt (genau das ist ja auch die Leistung der Gestaltpsychologie), aber: „Die Versuche, mit diesem Modell zu zeigen, dass die Erfahrungen und Prüfsätze mit verschiedenen Paradigmata inkommensurabel seien, sind dagegen misslungen, weil Gestaltwahrnehmungen nicht als letzte, unkritisierbare und unmittelbare Erfahrungen aufgefasst werden müssen, ­sondern als kritisierbare implizite Hypothesen behandelt werden können.“6  Andersson, KW, S. 121.

6

4  Der Mythos vom Rahmen 

119

Denn das, was Kuhn als „Anomalien“ bezeichnet, sind ja bestimmte Einzelheiten, die zu einer bestimmten „Gestalt“ nicht passen. Und diese Einzelheiten können eben als Ausgangspunkte der Kritik dienen. Sie können nämlich zeigen, dass die „Gestalten“ diskret immer fallible Gestaltvorstellungen bzw. implizite Hypothesen sind  – letztere sind diejenigen, die solche psychologischen Gestalten erst formen bzw. evozieren. Macht man sie als Hypothesen explizit, kann man sie problemlos kritisieren wie jedes andere Vorurteil. Kuhns These von der Inkommensurabilität der Paradigmen ist deshalb gewissermaßen ‚weltlos‘. Genau genommen beschreibt er den Forscher als einen paradigmatischen Psychotiker, der sich nicht – oder jedenfalls nicht argumentativ oder experimentell, sondern nur durch massive Überredung – von einer bestimmten falschen Weltsicht befreien kann. Denn genau wie einem Psychotiker wird dem Wissenschaftler die Fähigkeit zu einem „Gestaltwechsel“ im Zusammenhang kritischer Überlegungen abgesprochen – der soll nur irrational erfolgen können. Aber sogar der Psychotiker ist zumindest prinzipiell (etwa temporär in nicht manischen oder depressiven Phasen) in der Lage, sich auch argumentativ Rechenschaft über seinen Zustand zu geben. Um wie viel mehr sollten wir diese Fähigkeit wohl einem Wissenschaftler zubilligen. Diese ganze wissenschaftsgeschichtliche Interpretation des Verhaltens von Wissenschaftlern in Forschungssituationen mutet denn auch ein bisschen an wie eine Sprechstunde beim Psychoanalytiker, oder meinethalben auch beim philosophischen Anthropologen, die sich verständnis-sinnig über den Primitiven beugen, um ihm eine Gestalt für eine Hypothese vorzumachen sozusagen. Aber es gibt in der Erkenntnis nichts Unmittelbares. Um eine Gestalt zu fabrizieren, benötigt das Gehirn das Mittel einer entsprechenden impliziten Hypothese. Und Hypothesen können eben falsch sein, weshalb sie alles andere als „unhintergehbar“ sind  – ob man sie nun als Vorurteile oder Paradigmen bezeichnen möchte.

120 

N. H. Hinterberger

Kuhn bezweifelt aber nicht nur, dass Wissenschaftler genuin kritisch bzw. falsifikationistisch vorgehen. Er bezweifelt eben auch, dass methodologisch korrekte Falsifikationen überhaupt möglich sind. Und zwar wohl in der Hauptsache, weil er nicht sieht, dass schon die geringste Veränderung an einer Theorie, die aufgrund einer Falsifikation unternommen wird, eine echte Modifikation der Theorie darstellt, mit der de facto eingeräumt wird, dass man aus der Falsifikation etwas gelernt hat. Häufig genug wird – auch von vielen anderen Autoren – angenommen, dass im Falle einer Falsifikation eine Theorie insgesamt unbrauchbar geworden ist. Das ist natürlich falsch. Abgesehen von dem Fall der Falsifikation einer einzelnen Hypothese, wird ja immer nur gezeigt, dass die Konjunktion aller Prämissen (also der Hypothesen, Hilfshypothesen und/oder Randbedingungen) nicht wahr sein kann. Welche unter ihnen falsch sind (und ob das eine ist oder ob es mehrere sind), kann aber nicht logisch gezeigt werden, denn das ist ein empirisches Problem, dessen Lösung immer auch neue theoretische Überlegungen bezüglich unseres Hintergrundwissens erfordert. Findet man die falschen Voraussetzungen durch neue theoretische Überlegungen oder empirische Hinweise, kann man sie eliminieren und den Rest der Theorie (vielleicht mit addierten neuen Prämissen) durchaus noch einmal in den Ring schicken. Was aber bei einer gelungenen Falsifikation immer stattfindet, ist ein echter Lernprozess. Darauf hat besonders Andersson immer wieder hingewiesen. Man findet eben heraus, dass die Theorie, so wie sie ursprünglich aufgestellt wurde, in der Konjunktion der bisherigen Prämissen, nicht wahr sein kann – aufgrund der logischen Erkenntnis, dass aus lauter wahren Prämissen keine falsche Konklusion ableitbar ist. Andersson geht nun folgendermaßen auf Kuhns gestaltpsychologische Vorstellung von mit wissenschaftlichen Revolutionen verbundenen Wandlungen des Weltbildes ein. Als

4  Der Mythos vom Rahmen 

121

Beispiel für eine solche Wandlung hatte Kuhn die Ent­de­ ckung des Uranus (1781) durch William Herschel he­ rangezogen. Uranus wurde offenbar schon vor Herschel ­beobachtet, dabei aber für einen Stern gehalten. Andersson schreibt: „Die Entdeckung des Uranus wird von Kuhn mit einem Gestaltwechsel verglichen, mit einem Wechsel von der Wahrnehmung der Gestalt eines Sterns zu der Wahrnehmung der Gestalt eines Planeten. Vor und nach 1781 wurden beim Beobachten des gleichen Objekts verschiedene Prüfsätze behauptet: ‚An k gibt es einen Stern‘ und ‚An l gibt es einen Planeten.‘ Vor und nach der Entdeckung wurden also heterotype Prüfsätze behauptet.“7

Gemeint ist also die Entdeckung als Planet (k und l stehen für verschiedene Raum-Zeit-Punkte). Kuhn erklärt diese veränderte Sehweise mit einer „geringfügigen Paradigmaverschiebung“, durch die Herschels Entdeckung gewissermaßen gestaltpsychologisch „determiniert“ gewesen sei. Andererseits redet Kuhn aber davon, dass Herschel erst durch „die anomalen Ausmaße“ beobachteter Planeten „wachsam gemacht“ worden sei.8 Andersson schreibt dazu: „Allerdings hebt Kuhn hervor, daß die Paradigmaveränderung nicht Ursache der Entdeckung gewesen sei, sondern eher ihr Resultat. Die Ursache der Entdeckung und damit des Gestaltwechsels seien einige von Herschel wahrgenommene ‚Anomalien‘ gewesen, wie die Scheibenform und die Eigenbewegung des Uranus. Durch ein verbessertes Fernrohr war er in der Lage, die Scheibenform des Uranus festzustellen.  Andersson, KW, S. 112.  Thomas S.  Kuhn, Die Struktur wissenschaftlicher Revolutionen, Frankfurt am Main, 1976, S. 128. 7 8

122 

N. H. Hinterberger

Laut Kuhn zog Herschel daraus die Konklusion, dass irgendetwas nicht stimmte. Was stimmte nicht? Um das zu verstehen, ist es zweckmäßig, von folgender Prognosededuktion auszugehen:“9

Ich schreibe Anderssons Deduktionen hier wieder mit äquivalenter Tastatur-Notation:



„An der Raum - Zeit - Stelle k gibt es einen Fixstern.( Pk ) Alle Fixsterne sind so weit entfernt, dass sieim Fernrohr punktf örmig aussehen. ( HH ) An der Raum - Zeit - Stelle k gibt es ein Objekt, dasim Fernrohr punktf ö rmig aussieht.( Qk )

oder (4.1)

Pk , HH | -Qk



Mit seinem verbesserten Fernrohr war Herschel in der Lage, die Scheibenform des Uranus zu beobachten. Er konnte den Prüfsatz ‚An k gibt es ein Objekt, das im Fernrohr nicht punktförmig aussieht‘ (~Qk) behaupten, der zusammen mit der Hilfshypothese (HH) den Prüfsatz ‚An k gibt es einen Fixstern‘ (Pk) falsifiziert:

(4.2)

~ Qk , HH | - ~ Pk



Es ist auch möglich, folgenden falsifizierenden Schluß zu ziehen:



 Andersson, KW, S. 112.

9

~ Qk | - ~ ( Pk & HH )



(4.3)

4  Der Mythos vom Rahmen 

123

Die Schlüsse (4.1), (4.2) und (4.3) sind metalogisch äquivalent. Da aber die Hilfshypothese (HH) bei der Diskussion um den Uranus nicht überprüft, sondern vorausgesetzt wurde, ist der falsifizierende Schluß (4.2) vorzuziehen.“10

Und zwar eben, weil hier Pk isoliert falsifiziert werden kann. Die Deduktion mit einer Hilfshypothese unter den falsifizierenden Prämissen (4.2) stellt einen weiteren Typ von Falsifikation und damit erneut eine Erweiterung der Fal­si­ fikations-Methodologie dar, die wir ebenfalls Andersson verdanken. Diese Erweiterungen sind nicht nur logisch unproblematisch, sondern eben auch ein starker methodologischer Gewinn. Bei Popper werden nur singuläre Prüfsätze in den falsifizierenden Prämissen behandelt. Das stellt eine unnötige Einschränkung dar. Ich denke, Anderssons Erweiterung hätte auch Popper überzeugt. Andersson scheint ihn aber nicht auf seine Veröffentlichung hingewiesen zu haben, so dass er sie vermutlich gar nicht mehr kennen gelernt hat.11 (4.2) zeigt darüber hinaus: „wie ein Prüfsatz mit einem anderen Prüfsatz kritisiert werden kann; sie zeigt die Bedeutung der (…) Deduktion heterotyper Prüfsätze. Kuhn nennt die Scheibenform des  Andersson, KW, S. 112–113.  Inzwischen hat mich Gunnar Andersson in einer Mail darauf aufmerksam gemacht, dass das falsch ist. Er schreibt: „Ich habe nur einen Kommentar zu Ihrer Vermutung auf S. 132: ‚Ich denke, Anderssons Erweiterung hätte auch Popper überzeugt.‘ Ich habe mein Buch selbstverständlich an Popper geschickt. Als Antwort bekam ich einen Brief, in dem er sich darüber beschwerte, dass ich seine Auffassung über Ad-hoc-Hypothesen kritisiert hatte. In meiner Antwort verteidigte ich meine Auffassung und ging auf alle Argumente ein, die Popper angeführt hatte. Ich fügte hinzu, dass mein Buch hauptsächlich eine Verteidigung von Poppers Ideen und des Kritischen Rationalismus war, obwohl ich Poppers Auffassung über Ad-hoc-Hypothesen nicht teilte. Ich schrieb, dass ich in meinem Buch versuchte, die Kritik des Kritischen Rationalismus von Kuhn, Feyerabend und Lakatos zu beantworten. Ich bezweifle, dass Popper mein Buch ganz gelesen hat.“ Das ist natürlich mehr als tragisch – offenbar ein krasses Missverständnis auf Poppers Seite. 10 11

124 

N. H. Hinterberger

Uranus eine Anomalie. Es ist interessant, daß der entsprechende Prüfsatz als ein falsifizierender, heterotyper Prüfsatz aufgefaßt werden kann (…) Es ist zwar möglich, die Diskussion um Uranus als eine Diskussion einzelner Prüfsätze aufzufassen; es ist aber realistischer, sie als eine Diskussion verschiedener Hypothesen zu behandeln, z. B. als eine Diskussion der Hypothese H ‚Uranus ist ein Fixstern‘. Folgende Prognosededuktion ist möglich: An k wird Uranus mit Fernrohr beobachtet. ( Randbedingung : R ) Uranus ist ein Fixstern. ( Hypothese : H ) Alle Fixsterne sind so weit entfernt , daß sie im  Fernrohr punktformig aussehen. ( Hilfshypothese : HH )  An k sieht Uranus mit Fernrohr punktformig aus. ( Prognose : P )





Die Prognosededuktion ist nun in der Tat metalogisch äquivalent mit der Falsifikation:12 An k wird Uranus mit dem Fernrohr beobachtet

( Randbedingung : R )

 An k sieht Uranus im Fernrohr nicht punktformig aus. ( Negation der Prognose : ~ P ) Alle Fixsterne sind so weit entfernt, daß sie im  Fernrohr punktformig aussehen.( Hilfshypothese : HH ) Uranus ist kein Fixstern.( Negation der Hypothese : ~ H ) “





Hier haben wir wieder eine isolierte Falsifikation der Hypothese, um die es ging. Sofern man HH als falsifizierende Hypothese einschließt, ist die Falsifikation überdies jederzeit reproduzierbar. Wir sehen, wenn man Gestalten als im Andersson, KW, S. 113.

12

4  Der Mythos vom Rahmen 

125

plizite Hypothesen betrachtet und sie in der Deduktion explizit macht, lösen sich alle von Kuhn behaupteten Gestalt-„Determinationen“ und entsprechende „Inkommensurabilitäten“ zwischen verschiedenen Paradigmen  in Luft auf. Kuhns Hauptbeispiel für eine wissenschaftliche Revolution ist aber die Kopernikanische Wende. Hier ergab sich die kompliziertere Situation, dass beide Paradigmen (das Kopernikanische und das Ptolemäische) von denselben Planetenpositionen ausgingen. Streitpunkt war nur der Mond. Kuhn behauptete: Mit dem Ptolemäischen Paradigma hätten die Wissenschaftler „gesehen“, dass der Mond ein Planet sei, mit dem Kopernikanischen, dass er ein Satellit der Erde sei. Kuhn setzt hier aber wieder schlicht eine Interpretation bzw. eine implizite Hypothese mit einem unmittelbaren Sehen gleich – eine Folge seiner notorischen Umdeutungen von impliziten Hypothesen zu Gestaltwahrnehmungen. Andersson schreibt dazu: „Dieses Beispiel eines Gestaltwechsels ist nicht überzeugend. Es kann nicht gesehen werden, daß der Mond ein Planet oder Satellit ist. Unmittelbar werden nur die Positionen des Mondes gesehen. Diese wechselnden Positionen können mit verschiedenen Hypothesen über die Bewegung des Mondes erklärt werden.“13

Nun unterscheiden sich die beiden „Paradigmen“ in Bezug auf den Orbit des Mondes aber überhaupt nicht, beide gehen davon aus, dass sich der Mond um die Erde bewegt. Denn bei Ptolemäus bewegen sich alle Planeten (und darum auch der als Planet betrachtete Mond) um die Erde, bei Kopernikus bewegt sich nur der Mond (als Trabant) um die Erde. Und deshalb kann die Kopernikanische Revolu13

 Andersson, KW, S. 115.

126 

N. H. Hinterberger

tion gar „keine Wahrnehmungsveränderungen und keinen Gestaltwechsel beim Beobachten des Mondes verursachen“, wie Andersson treffend bemerkt. Damit ist Kuhns Behauptung, der Mond sei nach der Kopernikanischen Revolution anders gesehen worden als vorher, im wahrsten Sinne nicht nur gegenstandslos, sondern sogar paradigmalos – was für Kuhn ja viel schlimmer sein muss. Andersson zeigt außerdem, dass es in allen Kuhnschen Beispielen angeblich inkommensurabler Theorien möglich ist, „gemeinsame und unproblematische Prüfsätze abzuleiten.“14 Sehen wir uns die chemische Revolution bzw. die Diskussion der Phlogiston- und der Sauerstofftheorie an, so „sahen“ nach Kuhn die Vertreter der Sauerstofftheorie (um Antoine Laurent de Lavoisier) die Natur anders als die Vertreter von Georg Ernst Stahls Phlogiston-Theorie (um Joseph Priestley). Wo Priestley Luft ohne Phlogiston gesehen habe, habe Lavoisier Sauerstoff gesehen. Die entsprechenden Prüfsätze lauten: „An k gibt es entphlogistizierte Luft“ und „An k gibt es Sauerstoff“. Man wird auch hier kaum sagen wollen, dass diese Aussagen die Beobachtungen oder Gestaltwahrnehmungen der Forscher wiedergaben. Schließlich entstanden diese Vermutungen indirekt über Experimente. Bei ihren Experimenten mit rotem Quecksilberoxid konstatierten vielmehr beide nur, „daß ein farbloses Gas gebildet wurde, das andere chemische Eigenschaften hatte als die damals bekannten Gase.“ Die erste Hypothese, dass es sich um Kohlendioxid handeln könnte, wurde sofort widerlegt mit der gut bewährten Hilfshypothese: „Kohlendioxid ist in Wasser leicht lösbar.“ Denn beobachtet wurde, dass das neue Gas in Wasser schwer lösbar war. Die entsprechende Falsifikation hat also dieselbe logische Struktur wie die Falsifikation der Fixstern-Hypothese bezüglich Uranus:  Andersson, KW, S. 116.

14

127

4  Der Mythos vom Rahmen 

„Für die Diskussion des Prüfsatzes ‚An k gibt es das Gas Kohlendioxid‘ ist folgende Prognosededuktion grundlegend: An k gibt es das Gas Kohlendioxid. ( Pk )



 Kohlendioxid ist in Wasser leicht losbar . ( HH )  An k gibt es ein Gas, das in Wasser leicht losbar ist ( Qk )



Falsifizierender Schluß also (falls HH akzeptiert wird):15  An k gibt es kein Gas, das in Wasser leicht losbar ist.( ~ Qk )



 .( HH ) Kohlendioxid ist in Wasser leicht losbar An k gibt es kein Gas Kohlendioxid.( ~ Pk ) “



Die Prüfsätze über die Lösbarkeit waren unproblematisch und wurden von Lavoisier und Priestley akzeptiert. Beide gingen also von einer Falsifikation aus, auch wenn sie das sicherlich nicht so genannt haben. In der Folge wurde überdies eine Reihe von weiteren Hypothesen widerlegt: „Von einem Sehen von entphlogistizierter Luft kann also nicht die Rede sein.“ Nach vielen Experimenten vermutet Priestley gewöhnliche Luft. Widerlegt wurde diese Vermutung erst durch die zufällige Entdeckung: „daß eine Maus in einer bestimmten Menge des Gases viel länger leben konnte als in gewöhnlicher Luft (…) Weitere Experimente bestätigten, daß das neue Gas andere chemische Eigenschaften als gewöhnliche Luft hatte. Erst nach diesen Experimenten nahm Priestley an, daß ein unbekanntes Gas entdeckt worden sei. Als Anhänger der Phlogistontheorie vermutet Priestley (er sieht es nicht), daß entphlogistizierte Luft gebildet worden war. Dies war der

15

 Andersson, KW, S. 117.

128 

N. H. Hinterberger

entscheidende Schritt bei der Entdeckung von dem, was wir heute Sauerstoff nennen.“16

Andersson schreibt, dass Lavoisier die Phlogiston-­ Theorie schon vor Priestleys Entdeckung in Frage gestellt hatte. Die Theorie forderte, dass bei der Verbrennung eines Stoffes Phlogiston an die Luft abgegeben werden sollte. Es wurde also vermutet, dass die Verbrennung mit einer Gewichtsabnahme des Stoffes verbunden sei. Lavoisier stellte aber experimentell fest, dass z. B. Schwefel und Phosphor bei Verbrennung an Gewicht zunahmen und vermutete deshalb, dass bei der Verbrennung etwas aus der Luft aufgenommen wird: „Zuerst vermutete er, dass gewöhnliche Luft in einem besonders sauberen Zustand aufgenommen werde. In diesem Stadium nahm er wie vorher schon Priestley an, dass bei starker Erhitzung von rotem Quecksilberoxid gewöhnliche Luft entstehe. Nachdem Lavoisier von Priestleys weiteren Experimenten erfahren hatte, vermutete er, dass nur ein Teil der Luft bei der Verbrennung aufgenommen wird und für die Verbrennung eines Stoffes notwendig ist. Diesen Teil der Luft nannte Lavoisier Sauerstoff.“17

Diese Untersuchungen zeigen: weder Priestley noch Lavoisier sahen entphlogistizierte Luft bzw. Sauerstoff. Sie nahmen sie hypothetisch an, „um die Resultate bestimmter Experimente erklären zu können.“ Entphlogistizierte Luft bzw. Sauerstoff wurden von beiden erst am Ende eines langen Lernprozesses „gesehen“ – und zwar rein hypothetisch. In diesem Zusammenhang waren ihre Prüfsätze „nicht nur kommensurabel, sondern sogar vom gleichen Typ (homotyp)“:  Andersson, KW, S. 117.  Andersson, KW, S. 118.

16 17

4  Der Mythos vom Rahmen 

129

„Das Beispiel zeigt, daß das gestaltpsychologische Modell Kuhn dazu führt, etwas als Beobachtung auszugeben, was geschichtlich betrachtet eine Erklärung ist. Es ist richtig, dass Priestley und Lavoisier verschiedene Erklärungen chemischer Experimente gaben. Es ist nicht richtig, dass sie von verschiedenen Beobachtungen ausgingen, oder gar, daß sie in verschiedenen Welten lebten. So können alle von Kuhn gegebenen wissenschaftsgeschichtlichen Beschreibungen für die Inkommensurabilitätsthese ­analysiert werden. Was Kuhn als direkte Gestaltwahrnehmung ausgibt, wurde geschichtlich betrachtet als hypothetische ­Erklärungen empirisch geprüft und dis­ku­tiert.“18

Es bleibt überdies festzuhalten: Kuhn hat die falsifikationistische Methodologie in ihrem konsequenten Fallibilismus nicht verstanden. Er ist davon ausgegangen, dass Popper sichere Basissätze bzw. sichere Falsifikatoren proklamiert hätte – was schlicht falsch ist. Überdies glaubt Kuhn selbst (genauso wie später Imre Lakatos), dass Falsifikationen sicher sein müssen, damit sie einen Sinn ergeben – was ebenfalls falsch ist. Ferner hat er nirgends eine Alternative formuliert, seine eigene Position also als erkenntnistheoretischen Relativismus hinterlassen. Das scheint nur konsequent, da er, über die Inkommensurabilitäts-Behauptung, den Relativismus ja schon der gesamten Forschung zugeschrieben hatte. Kuhn hat aus der Theoriegetränktheit der Erfahrung auf die Inkommensurabilität unterschiedlicher Paradigmata geschlossen. Popper hatte ebenfalls von der Theoriegetränktheit der Erfahrung gesprochen, hat indessen den Inkommensurabilitäts-­Schluss nicht gezogen, weil er die Theorieabhängigkeit der Erfahrung nicht deterministisch aufgefasst hat wie Kuhn. Er hat deshalb auch den weniger fatalistisch klingenden Ausdruck der Theoriegetränktheit gegenüber dem der Theorieabhängigkeit bevorzugt. Dass 18

 Andersson, KW, S. 118.

130 

N. H. Hinterberger

dieser Glaube an deterministische Gestaltwahrnehmungen nicht die Realität der Forschung beschreibt, hat Andersson mit seiner Arbeit ganz klar gemacht. Die gestaltpsychologische Interpretation der Prüfsätze ist der kritizistischen Hypothesen-Interpretation nicht nur methodologisch unterlegen, sie ist auch wissenschaftsgeschichtlich unrealistisch. Die Theoriegetränktheit im Sinne der Beeinflussung der Erfahrung durch theoretische Hintergründe, nicht die gestaltpsychologische Quasi-Determination der Erfahrung, wird seit Popper nicht nur von den kritischen Rationalisten, sondern auch von der Mehrheit der Forscher als plausibel – bzw. ihre Forschungspraxis korrekt beschreibend – ­betrachtet. Die Inkommensurabilitäts-These wird dagegen als unrealistisch betrachtet, denn: Gestaltwahrnehmungen scheinen nur psychologisch betrachtet unmittelbar, wir wissen aber, dass sie das erkenntnistheoretisch/logisch betrachtet gar nicht sein können. Anders gesagt: Gestaltwahrnehmungen sind Erkenntnis-diskret implizite Hypothesen, die die jeweilige Erkenntnis-Gestalt erst produzieren. Befreit man sie aus ihrem unbewussten Dasein, können sie kritisch diskutiert werden, wie alle anderen Vorurteile auch.

4.2 L akatos’ Prüfsatz-­ Konventionalismus Imre Lakatos erkennt Kuhns Relativismus, war aber von dessen Kritik des Falsifikationismus trotzdem so verunsichert, dass er einen resignativen Prüfsatz-­Konventionalismus entwickelt hat. Auch er, ursprünglich kritischer Rationalist (ebenso wie Feyerabend), glaubt, dass Popper Sicherheit für Prüfsätze gefordert hätte. Und er denkt genau wie Kuhn,

4  Der Mythos vom Rahmen 

131

dass sie auch nötig sei für gültige Falsifikationen. Er analysiert und kritisiert Kuhns Quasi-Theologie bzw. dessen Wissenschaftsmystizismus zunächst völlig richtig: „Nach Kuhn ist der Wandel der Wissenschaft – von einem ‚Paradigma‘ zum anderen – ein Akt mystischer Bekehrung, der von Vernunftregeln weder gelenkt wird noch gelenkt werden kann und der völlig dem Bereich der (Sozial-)Psychologie der Forschung angehört. Mit anderen Worten: der Wandel der Wissenschaft ist eine Art religiösen Wandels.“19

Lakatos glaubt überdies aber eben auch, dass Popper zunächst einen dogmatischen Falsifikationismus (mit sicheren Basissätzen) vertreten habe, obwohl er, wie er selbst einräumt, keinen Hinweis dafür in Poppers Schriften finden kann. Andersson schreibt dazu: „Es ist deshalb ratsam, den dogmatischen Falsifikationismus als eine von Lakatos konstruierte Variante des Falsifikationismus zu betrachten, die mit Popper nicht in Verbindung gebracht werden sollte. Sie ist aber insofern interessant, als sie ein gewöhnliches begründungsphilosophisches Missverständnis des Falsifikationismus aufzeigt.“20

Lakatos rügt, dass der dogmatische Falsifikationist „keinen konsequenten Fallibilismus“ vertritt, eben, „weil er Basissätze und auch Falsifikationen als infallibel betrachtet.“ Man könnte hinzufügen, dass der so Charakterisierte überhaupt keinen Fallibilismus vertritt, geschweige denn einen konsequenten – falls es diese Sorte Falsifikationisten denn überhaupt gäbe. Für eine sichere Falsifikation reichen aber Lakatos Meinung nach nicht einmal sichere Basissätze aus,  Imre Lakatos, „Falsifikation und Methodologie wissenschaftlicher Forschungsprogramme“. In: Kritik und Erkenntnisfortschritt. Braunschweig 1974, S. 90. 20  Andersson, KW, S. 49. 19

132 

N. H. Hinterberger

denn selbst wenn die sicher wären, seien doch „gerade die am meisten bewunderten Theorien (…) einfach nicht imstande, beobachtbare Sachverhalte zu verbieten.“ Und zwar, weil es ja immer möglich sei, kritik-immunisierende Hilfshypothesen einzuführen. Das sind aber zwei verschiedene Behauptungen, die zunächst mal gar nichts miteinander zu tun haben. Die erste Behauptung ist schlicht falsch: Jede streng allgemeine Behauptung, also jeder All-Satz ist, wie wir gesehen haben, sogar äquivalent zu einem entsprechenden singulären Es-gibt-nicht-Satz. Dadurch kann man alle unsere Naturgesetze auch als Es-gibt-nicht-Sätze bzw. Verbote auffassen. Popper hat genau das getan: „Da die naturwissenschaftlichen Theorien, die Naturgesetze, die logische Form von Allsätzen haben, so kann man sie auch in Form der Negation eines ‚Es-gibt-Satzes‘ aussprechen, d. h. in Form eines ‚Es-gibt-nicht-Satzes‘. So kann man den Satz von der Erhaltung der Energie bekanntlich auch in der Form aussprechen: ‚Es gibt kein perpetuum mobile‘.“21

Die zweite Behauptung von Lakatos, dass es immer möglich sei, kritik-immunisierende Hilfshypothesen einzuführen, weist aber gerade auf den Lerneffekt hin, der aus einer Falsifikation gewonnen wurde. Wenn ich eine neue Hilfshypothese nicht zur Kritik bzw. als addierte falsifizierende Prämisse einsetze, sondern als Ad-hoc-Addition zu einer von der Falsifikation betroffenen Theorie, also einzig aus Rettungs- bzw. Immunisierungs-Motivationen he­ raus, gebe ich damit zu, dass mich die Falsifikation auf eine Schwäche der Theorie in ihrer bisherigen Form aufmerksam gemacht hat. Mit der so veränderten Theorie ist aber eine neue, eben veränderte Theorie (T2) aufgestellt  Karl R. Popper, Logik der Forschung, J. C. B. Mohr, 1984, S. 39.

21

4  Der Mythos vom Rahmen 

133

worden, mit der man die alte Theorie (T1) nicht retten kann, letztere ist, wir haben es schon erwähnt, (aus rein logischen Gründen) immer noch falsifiziert, falls der Falsifikator nicht angegriffen werden kann. Kuhn hielt das Fehlen eines archimedischen Punktes, also das Fehlen einer Dogmatik im Falsifikationismus, aber gerade für eine grundlegende Schwierigkeit des Falsifikationismus. Für ihn ergab sich aus dem konsequenten Fallibilismus in Bezug auf den Falsifikationismus eine skeptizistische Konsequenz. Andersson schreibt über Kuhn: „Weil Beobachtungssätze fallibel sind, behauptet er, daß die ‚logische Schablone‘ der Widerlegung durch den direkten Vergleich mit der Natur nicht haltbar sei. Kuhn weiß, daß Popper ein konsequenter Fallibilist ist, der behauptet, daß auch Beobachtungssätze fallibel sind. Kuhn ist aber der Auffassung, daß konsequenter Fallibilismus und Falsifikationismus unvereinbar sind. Das ist der Grund für seine paradoxe Aussage: ‚Obwohl Sir Karl kein naiver Falsifikationist ist, dürfen wir ihn mit Recht als einen solchen behandeln.‘ Laut Kuhn sieht Popper zwar ein, dass Beobachtungssätze fallibel sind, muß aber in seiner Methodologie annehmen, dass Beobachtungssätze sicher sind.“22

Das sagt Kuhn übrigens unmittelbar nachdem er (S.  14) Poppers konsequent fallibilistischen Falsifikationismus zitiert hatte: „In Wirklichkeit kann ja ein zwingender Grund für die Unhaltbarkeit eines Systems nie erbracht werden, da man ja stets z. B. die experimentellen Ergebnisse als nicht zuverlässig bezeichnen oder etwa behaupten kann, der Widerspruch  Gunnar Andersson, Voraussetzungen und Grenzen der Wissenschaft, J.  C. B. Mohr 1981, S. 256. 22

134 

N. H. Hinterberger

zwischen diesen und dem System sei nur ein scheinbarer und werde sich mit Hilfe neuer Einsichten beheben lassen.“23

Hierin sieht Kuhn „einen neuen gemeinsamen Zug zwischen Sir Karls Ansichten und den meinigen.“ Das ist natürlich absurd. Stattdessen wird im letzten Satz wohl eher klar, dass er Poppers Kritik an Schuldschein-Philosophien (zukünftige „neue Einsichten“) überhaupt nicht verstanden hat. Gleich darauf, sozusagen im selben Atemzug schreibt er auch noch: „Nachdem er die zwingende Widerlegung verworfen hat, hatte er keinen Ersatz dafür zur Verfügung gestellt.“24

Erstens ist nicht zu ermitteln, wie er darauf kommt, dass es bei Popper je die Vorstellung von der Notwendigkeit einer zwingenden Widerlegung gab. Bei Popper kann er das jedenfalls nicht gelesen haben. Also bleibt nur zu vermuten, dass er selbst eine zwingende Widerlegung für notwendig hält, was seine Verhaftung im begründungsphilosophischen Denken dokumentiert. Zweitens hat er im obigen Popper-­Zitat gerade Poppers Fallibilismus zur Kenntnis nehmen können. Kuhn bietet hier also eine widersprüchliche Kritik an, die man sicherlich nicht nur als sachlich verfehlt, sondern auch als hochgradig uneinsichtig betrachten kann, denn er fragt, „Was ist die Falsifikation, wenn nicht eine zwingende Widerlegung? Unter welchen Bedingungen verlangt die Logik der Forschung von dem Wissenschaftler, dass er eine früher akzeptierte Theorie aufgebe, nicht angesichts irgendwelcher Aussagen über Experimente, sondern angesichts der Experimente selber? Solange die Aufklärung dieser Fragen in der Schwebe gelassen wird, bin ich mir dessen gar nicht sicher,  Karl R. Popper, Logic of Scientific Discovery, 1959, S. 50.  Thomas S. Kuhn, „Logik der Forschung oder Psychologie der wissenschaftlichen Arbeit?“ in Kritik und Wissenschaftsgeschichte, Vieweg, 1974, S. 15. 23 24

4  Der Mythos vom Rahmen 

135

ob wir Sir Karl überhaupt eine Logik der Forschung zu verdanken haben. Ich würde als Konklusion eher behaupten, dass es etwas völlig anderes, wenn auch ebenso Wertvolles ist. Die Lehre von Sir Karl ist nicht so sehr eine Logik als eher eine Ideologie. Diese Lehre enthält nicht so sehr methodologische Regeln als eher Maximen des Vorgehens.“25

Popper hat diese (hier rhetorischen) „Fragen“ so häufig und gründlich beantwortet, dass Kuhns „Konklusion“ eigentlich nur als lächerlich ignorante Denunziation ohne den geringsten Gehalt gewertet werden kann. An den folgenden Formulierungen kann man noch einmal ablesen, dass er eine Methodologie wie ein Zwangsinstrument für Wissenschaftler versteht. Eine Methodologie kann aber nicht wahr oder falsch sein, wie eine Theorie, sondern – als ein technisch normatives Instrument  – nur funktionieren oder nicht. Sie selbst ist keine Behauptungsmenge. Eine Ideologie ist dagegen eine Behauptungsmenge. Kuhn ist einfach nicht in der Lage Normatives von Erkenntnistheoretischem zu trennen. Damit hatte ja auch die so genannte „Kritische“ Theorie (des deutschen Soziologismus in der Philosophie) so ihre Schwierigkeiten.26 Darüber hinaus hatte Kuhn überhaupt keine Vorstellung von den pragmatischen Freiheitsgraden in der falsifikationistischen Methodologie. Denn hier geht es, anders als in der Erkenntnistheorie des kritischen Rationalismus, tatsächlich um pragmatische Fragen. Diese Uneinsicht in das Lernen aus Falsifikationen, das ganz und gar nicht mit der völligen Verwerfung von Theo Kuhn in Kritik…, S. 16.  Das heißt, ihre Vertreter hatten sogar behauptet, das ginge gar nicht, weil auch in epistemologischen Diskussionen überall böse „Erkenntnisinteressen“ (Jürgen Habermas) lauerten. Das scheint mir aber eher selbst ein rein normatives Pro­ blem zu sein, ober besser eine Charakterfrage, wenn ich nicht in der Lage bin, objektive Fragestellungen – in einer erkenntnistheoretischen Diskussion – wenn nötig auch gegen meine eigenen normativen Interessen abzuschirmen. 25 26

136 

N. H. Hinterberger

rien einhergehen muss, ist bezeichnend gleichermaßen für Begründungsphilosophen wie radikale Skeptiker, die ja schon seit der Antike ebenfalls davon ausgehen, dass Allaussagen und besondere Sätze sicher sein müssten – anderenfalls könne es gar keine Erkenntnis geben. Das, was Kuhn hier in absurder Weise Popper vorwirft, sucht und fabriziert er selbst: Ideologie! Alle Konventionalisten und erkenntnistheoretischen Pragmatisten produzieren ja diese Ideologien, weil sie nicht Aussagen mit Beobachtungen/Tests vergleichen wollen, sondern nur Aussagen mit Aussagen. Und nur Relativisten wie Kuhn kommen auf die Idee, dass in der Wissenschaft keine Theorien überprüft werden, sondern „einzelne Wissenschaftler“, sozusagen durch sich selbst, beim „Rätsellösen“. Er glaubt also offenbar an so etwas wie „freiwillige Selbstkon­ trolle“ in der Wissenschaft. Aber die Wissenschaft ist eben – aufgrund ihrer falsifikativen Methodologie und aufgrund konkurrierender Wissenschaftler, die sich gegenseitig kritisieren – nicht auf freiwillige Selbstkontrolle angewiesen, welche ja im Übrigen auch sonst nirgendwo funktioniert. Es kommt indessen noch absurder. Er nimmt im Ernst an: „Charakteristisch für den Übergang zur Wissenschaft ist eben die Tatsache, daß man die kritische Diskussion verabschiedet.“ Gemeint ist hier der Übergang von der Philosophie zur Wissenschaft. Während für Popper die Tradition der kritischen Diskussion in der Wissenschaft grundlegend ist und bis zur Philosophie der Vorsokratiker zurückverfolgt werden kann, ist Kuhn der Meinung: Schon in der Hellenistischen Periode habe man diese Art Diskussion zugunsten des „Rätsellösens“ aufgegeben.27 Lakatos hat ein anderes Missverständnis kultiviert: die Einschätzung der Popperschen Philosophie als konventionalistisch hinsichtlich der Basissätze. Davon hat er sich sicher Kuhn in Kritik …, S. 6–7.

27

4  Der Mythos vom Rahmen 

137

lich auch zu seinem Prüfsatz-Konventionalismus ermutigen lassen, den er als Rettungsversuch für den kritischen Rationalismus verstanden hat. Es gibt zwei Passagen in Poppers Schriften, die kontextfrei gelesen diesen Eindruck zunächst zu bestätigen scheinen. Allerdings nur, wenn man den bei Popper unübersehbaren konsequenten Fallibilismus und damit auch die dadurch methodologisch eingebaute prinzipielle Möglichkeit der Revidierung der Basis- bzw. Prüfsätze im Falle einer relevanten Kritik, nicht zur Kenntnis nehmen will. Die erste Passage lautet: „Logisch betrachtet geht die Prüfung der Theorie auf Basissätze zurück, und diese werden durch Festsetzung anerkannt, Festsetzungen sind es somit, die über das Schicksal der Theorie entscheiden. Damit geben wir auf die Frage nach der Auszeichnung eine ähnliche Antwort wie der Konventionalismus.“28

Hier wird aber bei genauerem Hinsehen lediglich eine logische, keine empirische Beurteilung (als Festsetzung) angegeben. Logisch betrachtet ist die temporäre Akzeptanz eines Falsifikators als stützend (wie auch Andersson bemerkt hat) eine Konvention, aber natürlich nur eine vorläufige bzw. vorbehaltliche, die jederzeit selbst angegriffen werden kann – und zwar jeweils mit neuen empirischen oder theoretischen Erkenntnissen zu den Prämissen der falsifizierenden Beobachtung. Daraus folgt, dass es empirisch betrachtet natürlich keine Konvention ist – und da­ rauf kommt es ja hier an. Die zweite Passage – in welcher der subtile dichotomische Charakter dieser Einschätzung deutlich gemacht wird – lautet denn auch:

28

 Karl R. Popper, Logik der Forschung, J. C. B. Mohr, 1984, S. 73.

138 

N. H. Hinterberger

„Während wir uns vom Konventionalismus durch die Auffassung unterscheiden, daß es nicht allgemeine, sondern singuläre Sätze sind, über die wir Festsetzungen machen, so liegt der Gegensatz zwischen uns und dem Positivismus in unserer Auffassung, daß die Entscheidungen über Basissätze nicht durch unsere Erlebnisse ‚begründet‘ werden, sondern, logisch betrachtet, willkürliche Festsetzungen sind (…)“29

Hier wird von Popper ganz deutlich gemacht, dass man nach dem Wahrheits- bzw. Sicherheits-Dogmatismus der Logischen Empiristen bezüglich ihrer Basissätze nun nicht etwa eine falsifikationistische Sicherheit als Substitution dafür anbieten möchte, sondern dass man weiß, dass von den falsifikationistischen Prämissen ebenfalls keine Sicherheit ausgeht  – und ihre vorläufige Akzeptanz logisch betrachtet eine Festsetzung ist. Es wird also klar, dass diese B ­ emerkungen (zu Konventionen) in erster Linie eine Kritik am rationalistischen Konventionalismus sowie am Begründungsansatz des Logischen Empirismus darstellen. Den Positivisten sollte klar gemacht werden, dass die Basissätze nicht durch so genannte „kompetente Beobachter“ oder „kompetente Satzbeurteiler“ als wahr oder auch nur wahrscheinlich wahr „verifiziert“ werden können, sondern dass Basissätze rein logisch betrachtet lediglich temporäre Festsetzungen sind. Das heißt aber im Falsifikationismus natürlich nicht, dass sie empirisch willkürlich oder konventionell angenommen werden, denn Basissätze in ihrer Funktion als Falsifikatoren sorgen ja für die Rückübertragung der Falschheit der Prognose auf das theoretische System (von Hypothesen und Randbedingungen oder auch von einzelnen Hypothesen). Sie stehen also sozusagen in ständigem Kontakt zur Realität. Daran ist nichts Konventionalistisches. Da sie selbst fallibel bleiben, redet Popper in Bezug auf ihre vorläufige Anerkennung logisch (und nur lo Popper, LdF, S. 74.

29

4  Der Mythos vom Rahmen 

139

gisch) betrachtet von einer Festsetzung bzw. Konvention. Er hätte den Begriff der Konvention aber vielleicht besser vermieden (und unmissverständlicher von einem vorläufigen Vertrauen oder von vorläufiger Stützung gesprochen, wie das später dann auch von anderen kritischen Rationalisten gehandhabt wurde), wenn man sieht, was sich daraus an Missverständnissen ergeben hat. Andersson referiert dann Lakatos Beispiele für dessen Konventions-Behauptung. Der räumt ein, dass zwar logisch eine Falsifikation der Newtonschen Theorie vorliege, wenn Planeten von prognostizierten Bewegungen abwichen. Newtonianer würden aber eine Hilfshypothese einführen, die die Behauptung zum Inhalt hätte, dass die Bahnbewegungen durch einen bislang unsichtbaren Planeten gestört sein könnten usf. „Lakatos fasst Poppers Antworten als Ausdruck eines methodologischen Falsifikationismus auf, der ‚eine Abart des Konventionalismus‘ sei.“30

Basissätze werden bei Lakatos als echte Konventionen aufgefasst, sie sollen durch Fiat, also durch Abmachung regelrecht unwiderlegbar gemacht werden. Lakatos schreibt: „Unser Popperscher revolutionärer Konventionalist (oder ‚methodologischer Falsifikationist‘) macht durch Fiat gewisse (raum-zeitlich) singuläre Behauptungen unwiderlegbar, die durch den Umstand ausgezeichnet sind, dass jeder, der die Technik des betreffenden Gebietes beherrscht, imstande ist zu entscheiden, ob der Satz ‚annehmbar‘ ist.“31

Man fragt sich, wo Lakatos das gelesen haben will, dass ein Basissatz „unwiderlegbar“ gemacht werden soll. Bei Popper 30 31

 Andersson, KW, S. 51.  Lakatos, „Falsifikation …“, S. 104.

140 

N. H. Hinterberger

steht jedenfalls nichts dergleichen. Und ich gehöre tatsächlich zu denen, die alle seine Bücher gelesen haben. Man ist da eher unmittelbar an radikale Empiristen erinnert, die in diesem Zusammenhang auch in jüngerer Zeit noch von „kompetenten Satzbeurteilern“ gesprochen haben, um zu „sicheren Basissätzen“ für „sichere Induktionen“ zu ge­lan­gen.32 Aber schlimmer noch, Lakatos hält dieses „Unwiderlegbarmachen“ offenbar nicht nur für richtig, sondern möchte diese Methodologie sogar noch verstärken. Denn durch konventionelle Entscheidungen allein seien Basissätze nicht „unwiderlegbar“ zu machen, findetLakatos und hält daher zwei weitere Entscheidungen für notwendig. Die Entscheidung, beobachtbare Ereignisse als Basissätze zu betrachten und die Entscheidung, bestimmte Basissätze als unwiderlegbar anzunehmen. Damit ist der Fallibilismus natürlich restlos demoliert.

 Frank Hofmann-Grüneberg, Radikal-empiristische Wahrheitstheorie, Wien, 1988, S. 159 ff. 32

5 Kritik und Erkenntnisfortschritt

5.1 D  ie Kritik von John Watkins an Kuhns geschichtlichem Relativismus „Gegen die ‚Normalwissenschaft‘“ nennt John Watkins seine Kritik an Kuhn. Man könnte sie als eine Reaktion der ersten Stunde auf den 60er-Jahre-Relativismus in der wissenschaftstheoretischen Diskussion betrachten. Watkins kam dabei schon genauso wie später Andersson mit den Bordmitteln des kritischen Rationalismus aus. Er schreibt: „(…) Kuhn hält ja die wissenschaftliche Gemeinschaft für eine ihrem Wesen nach geschlossene Gesellschaft, die nur zeitweise durch kollektive Nervenzusammenbrüche erschüttert wird, worauf jedoch der geistige Einklang bald wiederhergestellt wird. Dagegen soll nach Poppers Ansicht die wissenschaftliche Gemeinschaft eine offene Gesellschaft sein, und sie ist es auch in bedeutendem Maße; eine offene

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 141 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_5

142 

N. H. Hinterberger

Gesellschaft also, in der keine Theorie – auch wenn sie vorherrschend und erfolgreich ist -, kein ‚Paradigma‘ (…) jemals heilig ist.“1

Watkins beklagt sich in seinem Beitrag zu Recht darüber, dass Kuhn die wirklichen Unterschiede zu Popper in seinem Vortrag (verglichen mit seinem Buch2) unzulässig euphemisiert hat. Über das Prüfen von Theorien während der „Normalwissenschaft“ sagt Kuhn, wie wir schon gelesen haben, dass „es letzten Endes der individuelle Wissenschaftler sei und nicht die gängige Theorie, die überprüft“ werde (S. 5). Watkins schreibt dazu: „Sein Gedankengang ist der folgende. Das sogenannte ‚Überprüfen‘ ist in der Normalwissenschaft kein Prüfen von Theorien. Es bildet eher einen Teil des Rätsellösens. Gelenkt wird die Normalwissenschaft von irgendeinem Paradigma (oder einer vorherrschenden Theorie). Man hat blindes Vertrauen zum Paradigma. Aber es passt nicht vollkommen zu den experimentellen Befunden (…) Die Normalforschung besteht weitgehend in der Beseitigung solcher Anomalien, indem man geeignete Anpassungen durchführt, die das Paradigma selbst unberührt lassen (…) Darum mögen die ‚Prüfungen‘, die man innerhalb der Normalwissenschaft ausführt (…) zwar so aussehen, als ob sie Überprüfungen der geltenden Theorie wären, sie sind aber in Wirklichkeit doch Überprüfungen (…) der Geschicklichkeit des Experimentators im Lösen von Rätseln. Ist der Ausgang einer solchen ‚Prüfung‘ negativ, so trifft das nicht die Theorie, sondern es schlägt auf den Experimentator zurück.“3  John Watkins, „Gegen die ‚Normalwissenschaft‘“ in Kritik und Erkenntnisfortschritt, Vieweg, Braunschweig 1974, S. 26. 2  Thomas S.  Kuhn, The Structure of Scientific Revolutions, University of Chicago, 1962. 3  Watkins, „Gegen“, S. 27. 1

5  Kritik und Erkenntnisfortschritt 

143

So etwas wie echte Überprüfungen von Theorien kommen nach Kuhn nur in Zeiten „außergewöhnlicher Wissenschaft“ und sehr selten vor: „Für Kuhn ist die Normalwissenschaft, wie der Name schon sagt, der normale Zustand der Wissenschaft. Die außergewöhnliche Wissenschaft ist ein nicht normaler Zustand (…) Innerhalb der Normalwissenschaft wird eine echte Prüfung vorherrschender Theorien auf eine mysteriöse Weise psy­ cho­logisch-­soziologisch unmöglich gemacht.“

Weil die Kuhnschen Forscher eben von ihrem jeweiligen Paradigma hypnotisiert scheinen. Keiner weiß so recht, warum das so sein soll. Auch Kuhn nicht. Er behauptet das einfach und erklärt es überdies zur geschichtlichen Tatsache. Watkins hat nun eine, wie ich finde, pikante Analogie zwischen dem, was Kuhn als Normalwissenschaft darstellt und theologischen und sogar astrologischen Praktiken festgestellt: „Interessanterweise hat Kuhn (…) darauf hingewiesen, er wolle sich nicht der Ansicht Poppers anschließen, daß Astrologie eher Metaphysik als eine Wissenschaft sei. Man sieht sogleich, warum: Das sorgfältige Aufstellen eines Horoskops oder die Erstellung eines astrologischen Kalenders passt eigentlich sehr gut zu Kuhns Idee über die Normalforschung. Die Arbeit wird unter der Obhut eines stabilen Systems von Lehren ausgeführt, das durch etwaiges prognostisches Versagen in den Augen der Astrologen nicht diskreditiert wird.“4

Es dürfte klar sein, dass Kuhn – mit seiner Ergebenheitsadresse an die Theologie und sogar an die Astrologie – unter Wissenschaftlern wenn schon nicht allein so doch ziemlich einsam dasteht. Allerdings ist diese Wendung von ihm  Watkins, „Gegen“, S. 32–33.

4

144 

N. H. Hinterberger

ziemlich unbekannt. Im Web findet man, wie schon erwähnt, eher Lobhudeleien wie „einer der größten Wissenschaftstheoretiker“ und dergl. uninformierte Verirrungen. Deshalb ist es Watkins zu danken, dass wir hier einen markanten Einblick in derartige Ausrutscher erhalten, die man in der seriösen Wissenschaftsdiskussion einfach nicht hinnehmen darf. Im Lichte dieser merkwürdigen Haltung Kuhns könnte man seine Kritik am Falsifikationismus nämlich als eine viel weiter reichende quasi-theologische Kritik am ganzen „Unternehmen“ der realen Wissenschaft betrachten. Watkins lädt uns denn auch ein, Kuhns Gedanken über Normalforschung einmal mit theologischen Praktiken zu vergleichen: „Man denke an einen Theologen, der über eine offenkundige Widersprüchlichkeit zweier Bibelstellen arbeitet. Die theologische Lehre versichert ihm, die Bibel enthalte, wenn richtig verstanden, keinerlei Widersprüche. Seine Aufgabe ist nun, einen Kommentar zu liefern, der überzeugend den Einklang der beiden Stellen nachweist. Es scheint, daß diese Arbeit im Grunde genommen jener ‚normalen‘ wissenschaftlichen Forschung sehr ähnlich ist, die Kuhn schildert. Es gibt sogar Gründe für die Annahme, daß Kuhn eine derartige Analogie gar nicht in Abrede stellen würde. Denn das Werk The Structure of Scientific Revolutions enthält ja viele Andeutungen – manche explizit und manche implizit in der Wahl der Redewendungen – eines bedeutsamen Parallelismus von Wissenschaft, besonders von Normalwissenschaft, und Theologie.“5

In diesem Zusammenhang fragt man sich natürlich auch nicht mehr, warum Kuhn daran interessiert ist, die außergewöhnliche Wissenschaft ab- und die normale Wissenschaft aufzuwerten (obwohl er letztere für „ein in sich  Watkins, „Gegen“, S. 33.

5

5  Kritik und Erkenntnisfortschritt 

145

uninteressantes Unternehmen hält“ – welchen Sinn etwas Uninteressantes für die Wissenschaft hergeben soll, bleibt wiederum sein Geheimnis). Die erstere ist für ihn nämlich Krise, Chaos, „Shisma“ (wie auch Watkins das beschreibt), welches sich nur in der baldigen Rückführung in den ruhigen Schoß der Normalwissenschaft bzw. der Kirche in normale Bahnen lenken lässt: „Kuhn schildert die wissenschaftliche Erziehung als einen ‚Prozess der professionellen Initiation‘, der den Studenten auf die Mitgliedschaft in einer besonderen wissenschaftlichen Gemeinschaft vorbereitet. Die Erziehung des Wissenschaftlers sei eine strenge und harte Dressur, strenger und härter als jede andere, ausgenommen vielleicht die der Theologie (…) Er sagt (…) daß die Normalwissenschaft fundamentale Neuigkeiten unterdrückt, weil diese ihre Grundlagen leicht unterwühlen können. Und bei seiner Erörterung des Prozesses, in dem die Wissenschaft ein altes Paradigma zurückweist und sich ein neues zu eigen macht, spricht Kuhn von einem ‚Bekehrungserlebnis‘ und fügt noch hinzu, dass eine solche Entscheidung nur aufgrund eines Glaubens möglich sei.“6

In diesem Zusammenhang vermutet Watkins nun mit vollem Recht, dass Kuhn sich die wissenschaftliche Gemeinschaft im Wesentlichen wie eine religiöse Gemeinschaft vorstellt. In der Wissenschaft sieht Kuhn also die Religion des Wissenschaftlers – der an sein Paradigma glaubt wie an einen Katechismus. Der wird nur unter großen Mühen bekehrt, glaubt dann aber an ein anderes Paradigma, wiederum wie an einen Katechismus. Wir haben es bei Kuhn also nicht nur mit normativem Soziologismus statt Erkenntnistheorie, sondern auch noch mit religiösem Irrationalismus als Ersatz für Wissenschaftstheorie zu tun.  Watkins, „Gegen“, S. 33–34.

6

146 

N. H. Hinterberger

Bis hierher hatte Watkins der Diskussion halber so getan, als gäbe es Kuhns Zyklen von Normalwissenschaft mit da­ rauf folgender außergewöhnlicher Wissenschaft, und wieder umgekehrt u.s.f. Nun aber wird die Behauptung solcher Zyklen von einer kritisch rationalen Position aus einfach mal grundsätzlich in Frage gestellt. Dazu erwähnt Watkins ein Gespräch mit Popper, der der Meinung war, dass man Newtons Lehre zwar als ein lange Zeit nicht angezweifeltes Paradigma betrachten könne, aber nicht die wesentlich fundamentalere Theorie der Materie. Und die Debatte darüber hat ja bis zum heutigen Tag nicht aufgehört: „wobei diskontinuierliche Materiebegriffe (die zu verschiedenen Atomtheorien geführt haben) und kontinuierliche Materiebegriffe (die zu verschiedenen Äther- und Feldtheorien geführt haben) sich immer gegenüberstanden.“7

Im Übrigen sollte man wohl erwähnen, dass es zwischen Leibniz und Newton (trotz ihrer unabhängigen, aber ansonsten äquivalenten Arbeiten zur Infinitesimal-Rechnung) starke Unterschiede in ihren jeweiligen „Paradigmen“ gab, die von Zeitgenossen streitbar diskutiert wurden (wobei, um nur die Bekanntesten zu nennen: Emilie Du Chatelet sich für Leibniz und Voltaire sich für Newton stark gemacht hatten). Selbst in der Antike sucht man unhinterfragte Paradigmata Kuhnscher Provenienz vergeblich. Der Begriff des Paradigmas präsentiert sich ambivalent: Man versteht darunter eine Weltanschauung oder aber eine Lehrmeinung. Das erste Auftauchen des Begriffs ist wohl bei Aristoteles zu finden: da bedeutet paradeigma einfach nur Beispiel – und wird als eine Form des induktiven Argumentierens aufgefasst. Man geht hier aber nicht vom Besonderen zu Allgemeinen über, sondern vergleicht einen besonderen Fall, den  Watkins, „Gegen“, S. 34.

7

5  Kritik und Erkenntnisfortschritt 

147

man eben für paradigmatisch (im Sinne von allgemein) hält, beispielhaft mit einem anderen (de facto geht man also eher deduktiv vor). Das sind zwar recht unterschiedliche Charakterisierungen, sie erinnern aber nicht einmal von Ferne an Kuhns hypnotistisch interpretiertes Paradigma. Der Begriff der Lehrmeinung scheint mir hier der adäquateste und auch der gebräuchlichste. Er ist logisch äquivalent mit dem Begriff der Theorie. Eine Theorie wiederum, gleichgültig welche, hat immer Verteidiger und Gegner (das war auch bei Newton so, dessen bekanntester Gegner hinsichtlich des Zeitbegriffs eben Leibniz war). Das liegt ganz einfach daran, dass andere Theoretiker häufig schon jeweils eigene Theorien entwickelt haben, bevor sie die Theorien ihrer Zeitgenossen kennenlernen. Theorie ist für meinen Geschmack im Übrigen einfach nur ein Begriff mit bescheidenerer Konnotation. Wenn man sehr verliebt in die eigene Theorie ist und sie gar für irgendwie übergeordnet hält, könnte man sie vielleicht Paradigma nennen wollen. Wenn ein neues Paradigma der Theorie anderer Autoren widersprach, haben die natürlich ihre eigene Theorie zu verteidigen gesucht und umgekehrt – was wiederum logisch äquivalent mit einer Kritik an der konkurrierenden Theorie ist. Etwas, was laut Kuhn gar nicht vorkommen soll, weder im erkenntnistheoretischen noch im normativen Sinn. Ich denke auch, dass weder bei Ptolemäus noch bei Kopernikus noch bei Kepler noch bei Galilei derart zwanghafte Paradigmata vorlagen wie sie von Kuhn geschildert und in die gesamte „normale“ Wissenschaft hineininterpretiert werden. Bekanntlich hatte (lange vor Kopernikus) schon Aristarch von Samos eine heliozentrische Kosmologie parat. Der wusste offenbar nichts davon, dass man ein altes Paradigma nur „bekehrungstechnisch“ hinter sich lassen kann. Das Paradigma seiner Kollegen (310  – 230 v. u. Z. – sie alle hatten seinerzeit eine geozentrische Vorstellung) hat ihn offenbar weder interessiert, noch hat ihn

148 

N. H. Hinterberger

deren „Gestaltwahrnehmung“ determiniert. Ganz abgesehen davon, dass es in diesem Zusammenhang eben gar keine ­Gestaltwahrnehmung geben konnte. Seine Kollegen haben aber nicht an ihrem Paradigma festgehalten, weil sie konservative Angst vor der Unruhe durch diese Neuheit hatten, wie es etwa bei Theologen üblich ist. Sie waren alle Mathematiker und Philosophen wie Aristarch selbst und haben seine Idee mehrheitlich schlicht für falsch gehalten (eine Ausnahme war wohl Hypatia8), nicht etwa für „inkommensurabel“. Sie haben sie ja mit ihrer Idee verglichen. Sie fanden Aristarchs Idee antiintuitiv und so konnte sie seinerzeit sicher auch aufgefasst werden. Sie haben sich also erkenntnistheoretisch völlig korrekt verhalten – wer konnte damals ahnen, dass sie mit der intuitiven Variante falsch liegen sollten, offenbar nur Aristarchos mit seiner ungeheuer subtilen geometrischen Vorstellung von diesem gewissermaßen ‚inversen Spin‘ des Systems. Auch in Bezug auf die so genannten effektiven Theorien der Gegenwart wird ja heiß diskutiert, ob überhaupt eine davon – und wenn, dann welche – fundamental sein könnte, oder ob man eine völlig neue, noch tiefer liegende Theorie braucht, die der Quantenmechanik, der Quantenfeldtheorie und der allgemeinen Relativitätstheorie als Metatheorie dienen könnte. Von diesen modernen Theorien kann man überhaupt nicht als von Paradigmen reden. Als effektive Theorien funktionieren sie in ihren Vorhersagen auf ihren jeweiligen Skalen wunderbar, von einer Vereinheitlichung (Quantengravitation) ist man allerdings wohl noch weit entfernt. In der Grundlagenforschung mit ihrem unlimitierten erkenntnistheoretischen Anspruch wurden sie aber  Hypatia: eine Mathematikerin und Philosophin aus Alexandria, die Aristarchs Lehrmeinung sogar unterrichtet hat. Es wird vermutlich auch noch andere, unbekanntere Zeitgenossen gegeben haben, die Aristarch überzeugend fanden. 8

5  Kritik und Erkenntnisfortschritt 

149

ohnedies von Anfang an kontrovers diskutiert. Denn man kann – aufgrund einer prinzipiell fehlenden Definition von Wahrheitsgehalt  – nicht einfach davon ausgehen, dass sie approximativ sind. Sofern sie die Wirklichkeit ansprechen, können sie sich immer noch als falsch herausstellen. Sofern sie rein operationalistisch sind, bleiben sie uns sowieso als Open-End-Debatten der Interpretation erhalten. Die Kontroverse Einstein, Podolski, Rosen, Schrödinger, Bohm (und andere) gegen Bohr, Heisenberg, Dirac, Born, Pauli, von Neumann (und andere) stand dabei von Beginn an für die Kontroverse: Realismus gegen Antirealismus. In der modernen interpretativen Debatte der Physiker hinsichtlich der Quantenmechanik  – aber auch dann der Quantengravitation – kann man eine ähnliche Diskussion zwischen Martin Bojowald, Lee Smolin, Carlo Rovelli, Abhay Ashtekar und anderen (falsifikationistischer Realismus) versus Stephen Hawking, John Wheeler, Max Tegmark, Roger Penrose und anderen (mathematischer bzw. strukturaler Realismus) verfolgen. Und das sind nur die Physiker, zu denen noch die an der Diskussion beteiligten Philosophen addiert werden müssen. Wir sehen, das alles hat keinerlei Ähnlichkeit mit Kuhns quasi-theologischen Vorstellungen von Wissenschaft. Lee Smolin schien Kuhn trotzdem überzeugend zu finden, weil er als Student durch das ungeheuer hip scheinende mathematische „Paradigma“ der Stringtheorie sozialisiert wurde. Aber ihm hätte ja spätestens im Laufe der Entwicklung seiner eigenen und auch anderer Alternativen auffallen müssen, dass die Stringtheorie zwar eine grassierende Mode war, dass sie aber ebenfalls von Anfang an auch Kritiker fand, unter anderen ihn selbst.

6 Im Universum von Kausalität und Zeit

6.1 F luss der Zeit und emergenter Raum Lee Smolin versucht in seinem Buch von 20141 die Zeitpfeile als unverzichtbar bzw. den Fluss der Zeit als fundamental in die überwiegend zeitlose Physik seit Newton und Einstein zu reimportieren. Der Raum wird dagegen schon eher als emergent betrachtet. In dieser anspruchsvollen Thematik ist dann auch bei Smolin keine Rede mehr von Kuhn oder Feyerabend, sondern nur noch von der Wichtigkeit der Methodologie der Falsifikation, die Kuhn ja gerade bestritten hatte – letzterer hielt sie ja nicht einmal für gültig, weil er den konsequenten Fallibilismus nicht verstanden hatte. Natürlich konnte Smolin  – jedenfalls wohl vorübergehend – den Eindruck haben, dass es auch in der modernen Physik unhinterfragte Paradigmen gibt, weil er eben mit der  Lee Smolin, Im Universum der Zeit, DVA, 2014.

1

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 151 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_6

152 

N. H. Hinterberger

Stringtheorie aufgewachsen war und sah, dass sie auch nach 30 Jahren noch nicht in eine falsifizierbare Form gebracht werden konnte (ganz einfach, weil sie bis heute fast rein mathematisch geblieben ist) und, dass sie in der Tat nicht selten wie ein paradigmatisches Dogma verteidigt wird. Aber auch das gilt nur für eine bestimmte Gruppe von Physikern. Und auch wenn letztere im Laufe der Zeit noch so zahlreich geworden sind,2 es gab und gibt immer ausreichend Kritiker. Smolin selbst hat ja die Loop Quantum Gravity mitbegründet. Diese Theorie ist der Hauptkonkurrent der String- bzw. M-Theorie, und vor allem ist sie eine falsifizierbare Theorie. Eine stark vereinfachte Form dieser Theorie (die Loop Quantum Cosmology) konnte sogar schon falsifiziert werden – ein klares Zeichen dafür, dass „genug Physik dran“ ist. Aber, selbst wenn die Falsifikation auch für die gesamte Loop Quantum Gravity gelten sollte, es gibt alternative Theorien (aus demselben realistischen Umfeld) wie die schon erwähnte CDT und die CST. Und hier ist alles von ihren Erfindern selbst gemacht worden (vorrangig übrigens von Martin Bojowald), nicht nur die Theorie, sondern auch die Idee für die Überprüfungen – und die falsifikativen Beobachtungen anscheinend ebenfalls. Derartig von Paradigmen unbeeindruckte Forscher kamen in Kuhns Vorstellung von Wissenschaft gar nicht vor.  Sogar ein Schwergewicht wie Steven Weinberg konnte sich offenbar vor Jahren nicht verkneifen anzumerken, dass die Stringtheorie einfach zu schön sei, um nicht wahr zu sein. Aber es scheint immer mehr Physiker zu geben, die sich angesichts der (im CERN und auch in den anderen Collidern) nichterfüllten Hoffnung auf die ganz großen Symmetrien eher für ein asymmetrisches Universum plädieren, wie etwa Sabine Hossenfelder mit ihrem lesenswerten Buch, Das hässliche Universum, S. Fischer, 2018. Denn obwohl sie ein erklärter Fan von Weinberg ist, scheint sie – etwas uneingestanden vielleicht – eher mit den immer auffälliger werdenden Asymmetrien aus dem Umkreis der LQG zu kollaborieren (Bojowald, Smolin). Aber selbst Weinberg spricht in seinem neuen Buch (Quantenmechanik, Pearson, Deutschland GmbH, 2015) nicht mehr von den Symmetrie-­Hoffnungen der String-Theoretiker, sondern legt stattdessen erneut ein hochklassiges Werk über die Quantenmechanik im engeren Sinne vor, das nicht zuletzt auch durch seine Einbettung in die historische Diskussion einen Extra-Lesewert erhält. 2

6  Im Universum von Kausalität und Zeit 

153

In seinem Buch von 2014 kritisiert Smolin überdies in zentraler Weise den mathematischen Realismus und die damit häufig einhergehende Vorstellung, dass die relevanten Strukturen der Welt allesamt zeitlos seien, eben weil die Mathematik als zeitlos betrachtet wird. Und seine Kritik ist ein Glanzstück des physikalischen Realismus, wie wir weiter unten noch sehen werden. Wie sehr der mathematische Realismus, und zwar weltweit, in der kosmologischen Diskussion steht, kann man an den Veröffentlichungen in Nature, in Scientific American und auch im deutschen Spektrum der Wissenschaft sehen. Man darf also wohl die „Gegendarstellung“ der kritischen Realisten in Physik und Philosophie als wichtige und nötige Kritik an diesem wieder sehr in Mode gekommenen Platonismus in der theoretischen Physik betrachten.

6.2 K  ritischer Realismus versus Strukturenrealismus Die Versuche, eine fundamentalere Metatheorie in Form der Quantengravitation (als Vereinigung von Quantenmechanik und allgemeiner Relativitätstheorie) zu schaffen, hat, aufgrund der jeweils sehr komplexen Mathematik der unterschiedlichen Ansätze, zu einem hohen Abstraktionsgrad und nicht selten zu inakzeptabler Realitätsferne geführt. Die Winzigkeit der jeweils fundamentalen Objekte (insbesondere in der Stringtheorie) hat überdies zu Überprüfbarkeitsproblemen ganz neuer Art geführt. Anders gesagt, es sind haufenweise bislang nicht falsifizierbare Theorien entstanden. Der Strukturalismus versucht traditionell aus derartigen Nöten eine Tugend zu machen. Allerdings tut er das auch notorisch mit Hilfe unkontrollierbarer antirealistischer Wendungen.

154 

N. H. Hinterberger

Kritisch realistisch formulierte Theorien sind allerdings möglich, wie einige Ausnahmen von dieser Nicht-­ Falsifizierbarkeit zeigen. Es gab, wie schon erwähnt, Überprüfungsmöglichkeiten für eine stark vereinfachte Loop Quantum Gravity (Lee Smolin und Kollegen) nämlich für die so genannte Loop Quantum Cosmology, unter dem vorläufigen Ausschluss der Materie  – hier werden nur Raum-Zeit-Quantisierungen ­ untersucht (Martin Bojowald). Die Überprüfungen führten anscheinend zu einer Falsifikation letzterer. Die hier einschlägige deduzierte Prognose, dass die Lichtgeschwindigkeit – über sehr lange Distanzen – aufgrund der angenommenen Quasi-Körnigkeit bzw. Nicht-Kontinuität der postulierten Raumzeitatome in Ausdehnungsnähe der Planck­ länge, um eine Winzigkeit geringer sein sollte als c, konnte nicht gestützt werden (David Tong wird sich bestätigt sehen). Diese Falsifikation wurde von Martin Bojowald in einem Video des PI (Perimeter Institut for Theoretical Physics, Waterloo, Ontario, Kanada) referiert.3 Es gab ferner Überprüfungsmöglichkeiten für die Causal Set Theory in ihrer realistischen Version (Luca Bombelli, Joohan Lee, David Meyer und Rafael Sorkin, 1987  – weiterentwickelt durch Fay Dowker und Kollegen in jüngster Zeit). Hier konnten Vorhersagen zu Fluktuationen des Werts der kosmologischen Konstanten abgeleitet werden, die dann offenbar auch durch Beobachtungen vorläufig gestützt wurden. Diese beiden noch längst nicht in vollem Umfang ausgearbeiteten Theorien scheinen die großen Ausnahmen hinsichtlich der Überprüfbarkeit zu sein. Aber sie sind keine wirklichen  http://www.perimeterinstitute.ca/videos/quantum-cosmology-1. Mehr über die LQC ist hier zu finden: https://arxiv.org/pdf/gr-qc/0601085.pdf. Hier relativiert Bojowald die Falsifikation insofern, dass selbst in diesem Fall nicht ganz klar sei, „wie viel Physik wirklich involviert ist“, da die gemessenen Werte leider im Fehlerbereich zu liegen scheinen. Immerhin haben wir damit interessanterweise ein Beispiel für einen möglichen Gegenangriff auf den Falsifikations-­Anspruch. Sollte sich diese Einschätzung verfestigen, gäbe es noch eine zweite Chance für die LQC. 3

6  Im Universum von Kausalität und Zeit 

155

­ ereinigungstheorien. Die Regel sind gegenwärtig Theorien, V die überhaupt nicht überprüft werden k­ önnen. Keine Version der Stringtheorie scheint bisher überprüfbar, so dass man auf fast rein mathematische Strukturierungen beschränkt bleibt. Obwohl in den abgeleiteten Prognosen realistische Aussagen gemacht werden, bleiben die doch ohne Kontakt zur Wirklichkeit, weil die materiellen Entitäten, die hier postuliert werden, in ihrer Winzigkeit weit außerhalb von möglichen Beschleuniger-­Experimenten liegen. Es wird also lediglich die interne Widerspruchsfreiheit untersucht. Auch das ist bei derartig komplexen Theorien allerdings nicht immer ganz einfach. Aber selbst wo das gelänge, schützen sie ohne Kontakt zur Wirklichkeit nicht vor den berühmten „logisch konsistenten Märchen“. Denken wir an Einstein, der bekanntlich sagte: „Insofern sich die Mathematik auf die Wirklichkeit bezieht, ist sie nicht sicher; und insofern sie sicher ist, bezieht sie sich nicht auf die Wirklichkeit.“ Mit letzterem meinte er natürlich die rein logischen Anteile der Mathematik. Denn Beweise und insbesondere unbewiesene Behauptungen in der Mathematik sind natürlich ebenfalls fallibel.4 Bleiben häufig nur Untersuchungen zur Schönheit oder Ökonomie des jeweiligen Formalismus. Aber „auch über mathematische Schönheit kann man sehr verschiedener Meinung sein“ wie Martin Bojowald einmal zu Recht bemerkte. Und Untersuchungen zur Informations-­Ökomomie der Axiome bzw. zu vermeidbaren Redundanzen einer Theorie ergeben ebenfalls erst nach einem Mindestkontakt mit der Wirklichkeit einen Sinn, sonst ernten wir auch hier „ökonomische Märchen“ – wir rechnen uns bezüglich der erwünschten eleganten Knappheit der Theorie sozusagen reich.  Siehe: Imre Lakatos, Proofs and Refutations. Cambridge University Press, Cambridge 1976; sowie: Mathematics, Science and Epistemology: Philosophical Papers Volume 2. Cambridge University Press, Cambridge 1978. Eine neuere Veröffentlichung zum Thema: Thomas Rießinger, Wahrheit oder Spiel [Kindle Edition] bei Amazon, 2014. 4

156 

N. H. Hinterberger

Meinard Kuhlmann vertritt einen so genannten Strukturenrealismus, der es wie auch alle ähnlichen instrumentalistischen bzw. pragmatistisch-deskriptiven Ansätze schwer hat zu zeigen, wie man über rein mathematische Strukturkonstruktionen (bzw. in deren logischen Anteilen analytische Aussageformen) zu falsifizierbaren Wirklichkeitsaussagen gelangen soll. Kuhlmanns Kritik an dem immer schemenhafter werdenden Teilchenbegriff kann man wohl folgen, aber mit den Teilchen nun auch gleich die Wellenvorstellung als obsolet abzutun (und damit genau genommen die ganze Materie/Energie abzuschaffen) könnte man durchaus für übereilt halten. Er begründet diese Vorschläge mit der Abstraktheit der Quantenfeldtheorie und ist der Meinung, dass beim Quantisieren der klassischen Feldtheorie physikalische Größen durch Operatoren (also durch mathematische Ausdrücke) „ersetzt“ werden, so als würden die durch die mathematische Beschreibung verschwinden. Er räumt zwar ein, dass „bestimmte physikalische Prozesse wie das Aussenden oder Absorbieren von Licht“ wohl durchaus existieren (sonst hätte wohl auch niemand Inte­ resse daran, sie mit Operatoren zu beschreiben), aber „Operatoren sind abstrakte Gebilde und erhöhen gewissermaßen den Abstand zwischen Theorie und Realität.“ Insbesondere in der bisherigen Form der Quantenfeldtheorie, da muss man ihm natürlich Recht geben. Aber uns hindert auch nichts, zu dieser schon immer gewagten Kombination aus klassischer Feldtheorie und spezieller Relativitätstheorie Alternativen zu suchen, denn auch sie ist letzten Endes nur eine effektive Theorie. Man könnte etwa den Raum für emergent halten und stattdessen die Zeit wieder ernster bzw. fundamentaler nehmen als das im zeitlosen Blockuniversum Einsteins der Fall ist – wie Lee Smolin das jüngst vorgeschlagen hat. Wir haben es ja bei all diesen Theorien, mit so genannten e­ ffektiven Theorien zu tun, die

6  Im Universum von Kausalität und Zeit 

157

in ihrem Anwendungsbereich sehr brauchbare Vorhersagen liefern, aber eben keine fundamentalen Erklärungen, wie man das von einer realistischen Theorie der Materie erwarten würde. Kuhlmann findet aber gerade, dass es nicht auf Dinge, sondern auf die Beziehungen zwischen ihnen ankommt.5 Das ist, als wollte man die materiellen Dinge (wie auch immer die am Ende des Tages beschrieben werden müssen) durch die Wechselwirkungen zwischen Ihnen „ersetzen“. Aber es kommt eigentlich noch schlimmer, denn mit Beziehungen meint er hier gar keine physikalischen Wechselwirkungen, sondern so etwas wie sekundäre Eigenschaften. Er stellt uns zwei Versionen des Strukturalismus vor: In der gemäßigten Version, dem so genannten epistemischen Strukturenrealismus könnten wir die Dinge nicht in ihrem Wesen erkennen, aber wir kennten ihre Beziehungen. Die Existenz von Dingen wird hier noch eingeräumt. Der ontische Strukturenrealismus behauptet dagegen, es gebe nur Relationen (S.  51). Letzterer hebt auf die Symmetrie-­Transformationen ab. Hier könne man ja auch schon Dinge vertauschen, ohne deren Beziehungen zu ändern. Da kann man die Dinge offenbar auch gleich weglassen. Er sagt das ungeachtet der Forschungssituation, die immer mehr Hinweise auf Asymmetrien bzw. Symmetrie-­ Verletzungen hervorbringt, wenn man zeitliche Entwicklungen Ernst nimmt (die temperaturabhängigen Symmetrie-­ Brüche unserer vier Kräfte sind dabei wohl nur die bekanntesten).6 Das ergibt sich jedenfalls mehr und mehr aus einer Physik, in der Kausalität und die Zeitpfeile ernst genommen werden und damit sogar die (allerdings sehr  Meinard Kuhlmann, „Was ist Realität?“ in Spektrum der Wissenschaft, 7/14, S. 50.  Siehe auch den Artikel „Supersymmetrie in der Krise“ im Spektrum der Wissenschaft 9/14, S. 38: „Tatsächlich haben die bisher mit dem LHC gesammelten Daten gerade die favorisierten Versionen der Supersymmetrie ausgeschlossen.“ Joseph Lykken/Maria Spiroulu. 5 6

158 

N. H. Hinterberger

langfristig veranschlagten) Veränderungen der Naturkon­ stanten. Das ist im Übrigen eine evolutionäre Sichtweise, für die wir ja auf allen Gebieten reiche Stützung finden. Wie will man das aber in einer gewissermaßen zeitlosen Relationen-­Gesetzmäßigkeit darstellen. Diese Fragen stellt sich Kuhlmann offenbar nicht, denn er findet es – in Ockhams Sinn – vorbildlich: „wenn man die Existenz bestimmter Relationen postuliert, ohne zusätzlich einzelne Dinge anzunehmen. Darum sagen die Anhänger des ontischen Strukturenrealismus: Verzichten wir auf Dinge als etwas Fundamentales; betrachten wir die Welt als Gesamtheit von Strukturen oder Netzwerken von Beziehungen. Im Alltag erleben wir viele Situationen, in denen nur Relationen zählen und die Beschreibung der vernetzten Dinge bloß Verwirrung stiftet.“7

Irgendwie scheint er zu glauben, dass man in der Physik genauso mit Unbekannten (also mit x und y) arbeiten kann wie in der Mathematik. Aber in der Physik hätten all diese Unbekannten Wirkungen aufeinander  – die berühmten Wechselwirkungen, die dann in den Lösungen der Gleichungen nicht erscheinen können, wenn wir sie physikalisch gar nicht kennen. Das ist einer der Gründe dafür, warum man Dinge nicht einfach aus der Beschreibung entfernen kann, denn sie würden ja (sogar hoch-spezifisch) für die Wechselwirkungen verantwortlich sein, an denen die Physiker interessiert sind. An seinem letzten Satz sieht man, dass er  – in gewohnter antirealistischer Tradition  – eine rein deskriptive bzw. pragmatistische Position vertritt. Was im „Alltag zählen“ mag, nämlich schnelle pragmatische Entscheidungen oder Beschreibungen, ist in der ­erkenntnistheoretisch relevanten Grundlagenforschung uninteressant, denn hier geht es um Erklärungen.  Kuhlmann, Spektrum, S. 52.

7

6  Im Universum von Kausalität und Zeit 

159

Umsonst wünscht man sich ja nicht eine fundamentale Theorie, aus der die Naturkonstanten folgen, anstatt dass die Messungen ad hoc addiert werden. Dann sagt er: „Viele Philosophen denken wie ich, dass die Aufteilung in Objekte und Eigenschaften der tiefere Grund ist, warum sowohl Teilchen- wie Feldansätze letztlich scheitern. Stattdessen sollte man Eigenschaften als einzige Grundkategorie ansehen.“8

Das hat jetzt aber gar nichts mehr mit seiner pragmatistischen Relationen-Beschreibung zu tun, denkt man, denn hier äußert er sich zur Theorie der Materie. Er stellt sich ihre primären Eigenschaften auch nicht etwa als abstrakte Universalien vor, denkt man, sondern durchaus so, dass man den leeren Ding-Begriff dadurch überflüssig macht, dass man die primären Eigenschaften als existent betrachtet – ganz wie ein kritischer Realist ebenfalls argumentieren könnte. Welle oder Teilchen könnten etwa als emergente Erscheinungsformen einer jeweiligen fundamentalen Energie-­Entität gelten. Und die wäre insofern keine Unbekannte, als man sie messen kann. Wir könnten dem, was wir gewöhnlich Ding nennen, ein physikalisches Eigenschaftsbündel zusprechen. Aber weit gefehlt, Kuhlmanns gewissermaßen „optisch“ realistisch aufgezäumte Ausdrucksweisen laufen realiter auf die Behauptung hinaus, dass die mathematischen Strukturen eigentlich realer sein sollen als die Materie. An seiner Bemerkung weiter unten sehen wir dann auch, dass er von sehr merkwürdigen und gar nicht fundamental wirkenden Eigenschaften ausgehen möchte: „Nun ließe sich diese Denkweise auch umkehren und den jeweiligen Eigenschaften eine von Objekten unabhängige Existenz zubilligen. Eigenschaften sind demnach konkrete  Kuhlmann, Spektrum, S. 52.

8

160 

N. H. Hinterberger

Einzelheiten oder ‚Partikularien‘, und was wir gewöhnlich ein Ding nennen, ist ein Bündel von Eigenschaften, wie Farbe, Form, Festigkeit und so weiter.“9

Das hört sich nun natürlich nicht nach besonders primären Qualitäten an. Farbe ist eine sekundäre, weil vom Gehirn als Empfindung einer bestimmten Lichtfrequenz konstruierte Qualität. Die Lichtfrequenz bzw. Wellenfrequenz ist entsprechend die primäre Qualität. Form und Festigkeit scheinen ebenfalls hinreichend sekundär bzw. subjektiv. Dann macht er Bemerkungen, die zeigen, woher dieser Subjektivismus eigentlich stammt: „Wenn wir zum ersten Mal einen Ball sehen und erleben, nehmen wir streng genommen keinen Ball wahr, sondern eine runde Form, eine Farbe, ein elastisches Tastgefühl. Erst später assoziieren wir dieses Bündel von Wahrnehmungen mit einem bestimmten Objekt namens Ball.“10

Das ist der Assoziationismus bzw. Impressionismus von Carnap, Schlick, Quine, Neurath mit ihrem „Hier, jetzt, rot!“, die totale Reduktion auf Wahrnehmungserlebnisse, die nichts über die Beschaffenheit der jeweiligen Realität aussagen, sondern lediglich Zeugnis von einer subjektiven oder meinethalben auch intersubjektiven Erlebnissituation ablegen – von einer „Netzhaut-Erfahrung“ sozusagen. Deshalb hieß das ganze ja Empirismus. Und deshalb war es auch Antirealismus. So kehren wir also auch nach Kuhlmann „zu den direkten Wahrnehmungen der frühen Kindheit zurück.“  Kuhlmann, Spektrum, S. 52.  Kuhlmann, Spektrum, S. 52.

9

10

6  Im Universum von Kausalität und Zeit 

161

Nach diesem Rückzug in die reine Wahrnehmungswelt, nützt es auch nichts mehr von „drei feste(n) Wesenseigenschaften (Masse, Ladung und Spin)“ zu reden, denn die können von einem strukturalistischen „Wahrnehmungstheoretiker“ nur rein mathematisch (nicht mehr physikalisch) behandelt werden (und das ist auch die ganze Pointe des Strukturalismus, um seine „empirische Unterbestimmtheit“ zu vermeiden). Von da aus hätte er allerdings auch keinen Grund mehr anzunehmen, dass es Masse, Ladung, und Spin (oder diskreter noch: ihr Energieäquivalent) in der Realität gibt, denn die Wahrnehmung von Gravitation oder Elektrizität findet zwar durchaus real statt (den Spin müssen wir da sowieso mal außen vor lassen bzw. anders untersuchen), aber es hat bekanntlich eine Weile gedauert, bis wir die richtigen Erklärungen dafür hatten, was wir da überhaupt wahrgenommen haben bzw. dass wir aufgrund von Gravitation am Boden kleben (und dass wir dabei schon beschleunigt sind). Und das ist dann ganz bestimmt nicht durch ‚verstärkte‘ Wahrnehmung bzw. durch logisch unschlüssige empiristische Induktionen von so genannten ‚unmittelbaren‘ Wahrnehmungen aus geglückt, denn wir verwenden immer schon das Mittel Hintergrundwissen, sei das nun genetisch, epigenetisch oder kulturell. Fallibel sind übrigens all diese Hintergründe. Wir gewinnen also unsichere Erkenntnis durch hypothetische Klassifikationen (Theorien) und Prognose-Deduktionen aus denselben. Also müssen wir damit rechnen, dass auch unsere schönsten Theorien sich als falsch erweisen bzw. falsifiziert werden können, falls sie überhaupt über die Qualität falsifizierbar zu sein verfügen. Die Unwiderlegbarkeit der Strukturalisten und anderer Antirealisten ist jedenfalls unbillig erkauft durch den kompletten Verzicht auf Wirklichkeits-­Aussagen. Sie ist keine Auszeichnung, sondern ein Mangel.

162 

N. H. Hinterberger

Zu diesem Kuhlmann-Artikel gibt es auch einen sehr schönen Online-Leserbrief (im Spektrum) von Peter Schmid, der zeigt, wie man die Quantenfeldtheorie in einer schlüssigeren Weise interpretieren kann: „Seit Jahrzehnten ist bekannt, dass – wie der Autor betont – klassische Teilchen- und Feldkonzepte die physikalische Erfahrung auf der Ebene der Elementarteilchen nicht beschreiben können. Die Behauptung, dass sich die Quantenfeldtheorie auf keine Ontologie stützen könne, ist allerdings irreführend. Es ist erstaunlich, dass im vorliegenden Artikel der in der Physik fundamentale Begriff der Energie nicht vorkommt. Energie gilt heute wohl als die fundamentale Größe, die sich nach der Urknalltheorie bei abnehmender Energiedichte prozesshaft ausdifferenziert in einer Weise, wie sie durch das Wechselspiel von Feldern beschrieben werden kann (siehe Auyang: ‚The final ontology of the world is a set of interacting fields.‘) Natürlich sind diese Felder nicht klassisch. Und der weiterhin verwendete Begriff ‚Teilchen‘ hat kaum noch etwas mit dem klassischen Begriff zu tun, sondern steht für die Quantenanregungen der verschiedenen Felder. Die Charakterisierung der für die Beschreibung verwendeten Felder (ihre ‚Eigenschaften‘) erfolgt einerseits im Rahmen der relativistischen Raumzeit-Invarianz (Poincaré-­Invarianz) und einem Konzept innerer Symmetrien (Eichinvarianz) und deren Brechung. Diese Strukturen beschreiben die beobachtete Prozessdynamik. Das Forschungsprogramm der ‚Vereinheitlichung der Kräfte‘ ist mit dieser konzeptuell einfachen Ontologie kompatibel. Die im Artikel angesprochene Spannung zwischen den klassischen Begriffen ‚Objekt‘ und ‚Eigenschaften‘ erinnert an die Konfrontation der Konzepte ‚Teilchen‘ und ‚Welle‘ bei der Einführung der Quantentheorie. Wenn ein ‚ontischer Strukturrealismus‘ einem ‚Objektrealismus‘ entgegengesetzt wird, so verharrt

6  Im Universum von Kausalität und Zeit 

163

die Diskussion in diesem Gegensatz. Vielleicht braucht es neue philosophische Konzepte (Prozessphilosophie?) um ihn ­aufzuheben, so wie in der Physik jener zwischen Teilchen und Welle aufgehoben wurde.“11

Ich habe zum Energiebegriff und zur Prozess-Sichtweise in der Physik ganz ähnlich in meiner Kritik an Bunge und Mahner argumentiert.12

 Peter Schmid, Salzburg, online zu „Quantenfeldontologie“, 30.06.2014.  Norbert Hinterberger, in Aufklärung und Kritik (3/2011, S. 169 ff.) „Die Sub­ stanzmetaphysik von Mario Bunge und Manfred Mahner“. 11 12

7 Kosmologie der Zeit

7.1 Z  yklische Modelle versus Inflationsmodelle Lee Smolin ist jüngst davon ausgegangen, dass sich zyklische Modelle des Universums gegen die Inflationsmodelle (insbesondere des Multiversum-Typs) durchsetzen: „Die zyklischen Modelle sind Beispiele dafür, wie die Auffassung der Zeit als fundamental – in dem Sinne, dass die Zeit nicht mit dem Urknall begann, sondern schon davor existierte – zu einer Kosmologie führt, die bessere Vorhersagen macht. Ein weiteres Beispiel sind Theorien, in denen angenommen wird, dass die Lichtgeschwindigkeit im frühen Universum anders – und tatsächlich viel höher – war.“1

Letzteres allerdings auf Kosten eines Widerspruchs mit der Relativitätstheorie, was wohl nicht so beliebt sei, wie er gerne einräumt.  Lee Smolin, Im Universum der Zeit, DVA, 2014, S. 318.

1

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 165 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_7

166 

N. H. Hinterberger

Zwischenzeitlich schien es zwar, dass die Inflationsmodelle insgesamt Stützung erfahren haben, allerdings wurde auch hier teilweise schon wieder gewarnt, sich zu früh zu freuen. Es sind vermutlich sehr viel mehr Messungen nötig, um von einer wirklich stabilen Stützung durch die Beobachtungen sprechen zu können. Die einschlägigen Meldungen: „Erstmals registrierten Astronomen Signale aus der Zeit unmittelbar nach dem Urknall: Das Experiment BICEP2 am Südpol hat in der kosmischen Hintergrundstrahlung die Strukturen von Gravitationswellen beobachtet, die aus der Frühphase des Universums stammen. Dies ist eine direkte Bestätigung für das kosmologische Modell der Inflation.“2

BICEP „steht für Background Imaging of Cosmic Extragalactic Polarization und ist eine Beobachtungskampagne die am Südpolteleskop in der Antarktis durchgeführt wird. In der trockenen Luft und auf 2800 Meter Höhe hat man vom Südpol aus gute Bedingungen, um die Mikrowellenstrahlung aus dem All zu beobachten. So gute Bedingungen, dass es dort mit BICEP erstmals gelang, die primordialen B-Moden tatsächlich zu messen.“3

Die B-Moden bezeichnen die Polarisationen von frühen Gravitationswellen, die als Stützung der Inflationstheorie interpretiert werden könnten: „Im Vorfeld der Bekanntgabe der Entdeckung spekulierten viele, das BICEP genau die angesprochene Detektion von 2  http://www.sterne-und-weltraum.de/news/urknall-erste-direkte-belege-fuer-­ kosmische-inflation/1257047. 3   Florian Freistetter, 17. März 2014: http://scienceblogs.de/astrodicticum-­ simplex/2014/03/17/.

7  Kosmologie der Zeit 

167

B-Moden gelungen sein könnte, die auf ein Skalar/Tensor-­ Verhältnis von 0,06 hinweist. Andere vermuten, dass man einen ganz anderen Wert gemessen hat.“

Die Theorie der „ewigen Inflation“ (Alexander Vilenkin und André Linde) schien außerdem eine weitere prüfbare Aussage anbieten zu können: „Die Theorie der ewigen Inflation macht eine potentiell prüfbare Vorhersage, nämlich, dass die Krümmung des Raums in jedem Universum, das als Blase erzeugt wird, leicht negativ ist. (Ein negativ gekrümmter Raum ist verzerrt wie ein Sattel – im Gegensatz zu einem positiv gekrümmten Raum wie eine Kugel.) Wenn unser Universum in einem sich aufblähenden Multiversum in einer Blase erzeugt wurde, muss dies auch für unser Universum gelten.“4

Das ist nun zwar eine echte Prognose, es gibt allerdings mehrere Probleme damit: „Erstens liegt die negative Krümmung sehr nahe bei null, und die Null ist schwer von einer sehr kleinen positiven oder negativen Zahl zu unterscheiden. Tatsächlich verschwindet die Krümmung innerhalb des Bereichs von Messfehlern.“

Smolin war und ist wohl ganz allgemein der Meinung, dass es nahezu unmöglich sein wird, die Theorie der ewigen Inflation ein-eindeutig zu prüfen: „Selbst wenn uns der Nachweis gelänge, dass die räumliche Krümmung unseres Universums leicht negativ ist, liefert das keinerlei Belege dafür, dass unser Universum Teil eines riesigen Multiversums ist.“5  Smolin, Im Universum, S. 192.  Smolin, Im Universum, S. 193.

4 5

168 

N. H. Hinterberger

Denn es kann ja ganz verschiedene mögliche Ursachen dafür geben, könnte man hinzufügen. Inzwischen mehren sich die mahnenden Stimmen. Genau genommen gab es schon Tage nach der Entdeckung Zweifel: „Diesen zufolge könnten die Polarisationsmuster im Mikrowellenhintergrund auch von Staub in der Milchstraße oder von Synchrotronstrahlung stammen. Letztere entsteht, wenn schnelle geladene Teilchen aus ihrer geraden Bahn abgelenkt werden (…) Am 5. Mai haben neue Daten die Diskussion weiter befeuert (arXiv:1405. 0871). Auf Basis der Messungen des Satelliten Planck konnten Forscher eine Karte erstellen, welche die durch Streuung an Staub in der Milchstraße hervorgerufene Polarisation der Strahlung zeigt. Diese Vordergrundstrahlung überlagert die von außerhalb der Milchstraße stammenden Signale, für die sich das BICEP-Team interessiert, und muss daher aus den Messdaten herausgelesen werden. Zum Pech der BICEP-­ Forscher erwies sich der Anteil polarisierter Strahlung in den Planck-Daten als unerwartet groß.“6

Einige Forscher (Michael J.  Mortenson und Uros Seljak) kommen (inspiriert durch die neuen Planckmessungen) anscheinend sogar zu dem Schluss, dass sich die Ergebnisse des BICEP-Teams ganz ohne Referenz auf Gravitationswellen erklären lassen. Martin Bojowald, der ja selbst ein zyklischen Universum entwickelt hat, ist übrigens der Meinung, dass zwar die Inflationsmodelle des Wheelerschen Typs und insbesondere der Rekurs auf eine Anfangssingularität bei Alan Guth zu Schwierigkeiten führen, dass aber negativer Druck, der im frühen Universum prinzipiell als Inflation definiert wird, die gesuchte Gegenkraft gegen die Gravitation sein könnte, die die beschleunigte Expansion des Universums verursacht.7  Georg Wolschin, Spektrum, 7/14, S. 16.  Bojowald, Zurück, S. 179.

6 7

7  Kosmologie der Zeit 

169

7.2 Julian Barbours Ende der Zeit Julian Barbour findet zwar die Vorhersage von Stephen Hawking bezüglich des Endes der Physik wenig tragfähig – der hatte schon 1979 bei seiner Inauguration verkündet, dass es „within twenty years“ eine „theory of everything“ geben würde, und zwar durch zwei Vereinigungen, einmal die von Quanten- und Relativitätstheorie und dann noch die der vier Kräfte. Man weiß gar nicht wo da der Unterschied liegen soll. Die Addition der Gravitation zu starker und schwacher Wechselwirkung und zur elektromagnetischen Kraft würde doch genau diese Vereinigung von Quanten- und Relativitätstheorie ergeben. Vielleicht hat er Hawkings Bemerkung auch falsch zitiert, er gibt hier jedenfalls kein Originalzitat von ihm an. Man fühlt sich im Übrigen natürlich sofort an Planck erinnert, dem schon um 1900 von einem Studium der Physik abgeraten wurde, weil in diesem Fach im Wesentlichen „alles geklärt“ sei. Barbour hält das alles allerdings nicht davon ab, jetzt zwar nicht das Ende der Physik, aber doch das Ende der Zeit auszurufen. Zu Hawkings Voraussage (die ihr Verfallsdatum ja schon 1999 hatte) bemerkt er: „For myself, I doubt that would spell the end of physics. But unification of general relativity and quantum mechanics may well spell the end of time. By this, I mean that it will cease to have a roll in the foundations of physics. We shall come to see that time does not exist.“8

Aber nicht nur die Zeit soll nicht existieren, auch die Bewegung soll es nicht geben – ganz wie schon bei Parmenides: „Now I think we must, in an ironic twist to the Copernican revolution, go further, to a deeper reality in which nothing at all, neither heavens nor Earth, moves. Stillness reigns.“  Julian Barbour, The End of Time, Oxford University Press, 1999, S. 14.

8

170 

N. H. Hinterberger

An anderer Stelle schafft er jegliche Veränderung ab – klar, wenn sich nichts bewegen soll. Er behauptet allen Ernstes dasselbe wie Parmenides, aber eben im Jahre 1999: „(…) that time truly does not exist. This applies to motion: the suggestion is that it too is pure illusion. If we could see the universe at it is, we should see that it is static. Nothing moves, nothing changes.“9

Damit hätten wir ein Parmenidisch-Einsteinsches Blockuniversum, in dem alles (also Vergangenheit, Gegenwart, Zukunft) einfach gemeinsam – um nicht zu sagen „gleichzeitig“  – existiert. Zeit-spezifisch gibt es bei Barbour nur noch sogenannte „Nows“. Nur schwerfällig ins Deutsche zu übersetzen. Es müsste mit „Jetzte“ oder ähnlich übersetzt werden. Um dieses Konzept zu verstehen, müssen wir noch einmal zu seinen „time capsules“ = Zeitkapseln zurückgehen, die er weiter vorn in seinem Buch beschreibt: „By a time capsule, I mean any fixed pattern that creates or encodes the appearance of motion, change or history.“10

Ich übersetze das mal so: Mit einer Zeitkapsel meine ich jedes feste Muster, welches das Erscheinen (oder die Erscheinung) von Bewegung, Veränderung oder Geschichte kreiert oder kodiert. Hier könnte man fragen, was denn?, kreiert oder kodiert? Nimmt man die Lesart des Kodierens von Mustern oder Strukturen, dann handelt es sich bei seinen Zeitkapseln um mathematische Beschreibungen. Nimmt man das Kreieren, dann erzeugt eine Struktur (der Natur) – etwa eine chemische  – eine bestimmte Kausalität bzw. befindet sich selbst in einer materiellen Kausalität. Dabei gibt es aber  Barbour, The End, S. 39.  Barbour, The End, S. 30.

9

10

7  Kosmologie der Zeit 

171

bekanntlich Bewegung bzw. Veränderung. Psychologisch entsteht dadurch ein bestimmtes, in der Regel intersubjektiv nicht ambivalentes Erscheinungsbild von Bewegung, Veränderung oder Geschichte. Diese physikalische Vorstellung von Kausalität möchte Barbour aber gerade vermeiden. Er schreibt hier, ganz in empiristisch-­induktivistischer und im Übrigen auch in antirealistisch-­deduktivistischer Tradition, also wie nach Hume auch noch Kant, Kausalität nur unserer Vorstellung zu. Das haben alle Antirealisten so gehalten: Kausale Erklärungen (propter hoc) wurden nirgends akzeptiert (nur Post-hoc-­Beschreibungen). Zusammen genommen ergeben Barbours Charakterisierungen ohnedies keinen Sinn. Einzeln genommen ergibt aber auch nur die mathematische Lesart einen konsistenten Sinn. Denn ein Muster oder eine Struktur, nur auf die Natur projiziert (von einem Mathematiker eben), ist ebenfalls mathematisch und kann keine Erscheinungsbilder der Natur „erzeugen“. Aber selbst wenn wir hier von materiell vorhandenen Mustern oder Strukturen ausgehen, ohne Bewegung und Veränderung (in ihren „Zeitkapseln“ gefangen) könnten sie keine Erscheinungsbilder erzeugen, denn die werden nur von Gehirnen in der falliblen Rezeption echter Kausalprozesse erzeugt. Vor dem Hintergrund unserer gesamten schlüssigen Prozess-Sichtweise (in der Quantenphysik und – auf größerer Skala  – in der Chemie) sind solche eingefrorenen Materie-Momente schlicht absurd. Jede ­Materie erzeugt aufgrund ihrer dynamischen Prozess-­Gebundenheit durch ihren energetischen Äquivalenzwert zwangsläufig Bewegung bzw. Veränderung und damit Geschichte. Den Zeitpfeilen (mal abgesehen vom psychologischen, der naturgemäß subjektiv ist) können wir gar nicht entgehen. Gemeint ist von Barbour wahrscheinlich, ähnlich wie bei den Strukturalisten, die wir bisher schon kennengelernt haben, eine mathematische Struktur, einigermaßen anspruchsvoll und unklar Zeitkapsel genannt (damit man sich

172 

N. H. Hinterberger

eine entsprechende Physik vorstellen kann), die auf mysteriöse Weise die „Illusion“ von Bewegung, Veränderung und eben nicht zuletzt auch die „Illusion“ von Zeit bei den Menschen erzeugen soll. Wir sehen nebenher, Barbour hebt damit ausgerechnet auf den subjektiven Zeitpfeil ab, nämlich auf den psychologischen. Kein Naturwissenschaftler braucht den für sein Weltbild – aber alle anderen von Barbour in die Emergenz oder gar in die Nicht-Vorhandenheit entlassenen Zeitpfeile braucht die Naturwissenschaft. Systematisch kann er nicht erklären, wie wir uns seine Zeitkapseln vorzustellen haben, deshalb bietet er (anekdotisch) ein Beispiel aus der Malerei an: Turners Ariel im Sturm evoziert psychologisch sicherlich eine Menge Bewegung, ohne dass sich indessen irgendetwas auf der Leinwand bewegt. So wie das Bild soll es nun auch die Natur mit uns machen. Aber dieses Gleichnis ist wenig überzeugend. Wir wissen, dass die Maler es ja gerade umgekehrt damit zu tun haben, die tatsächliche Bewegung der Natur in einem Stillstand einzufangen, der dann psychologisch animiert aber wieder bewegt wirken soll. Die Schwierigkeit ist also, dass sie die reale dreidimensionale Bewegung auf zwei Dimensionen im Stillstand reduzieren müssen. Sie arbeiten also ähnlich wie Mathematiker daran, in der Darstellung/Beschreibung eine Vereinfachung der tatsächlichen Bewegung und der drei Dimensionen auf zwei zu erreichen. Wir wissen, dass Mathematiker ganz ähnlich vorgehen, indem sie eine graphisch nicht darstellbare dreidimensionale Bewegung der Raumzeit etwa auf zwei Dimensionen he­ runterfahren (bekanntestes Beispiel ist wahrscheinlich Einsteins berühmtes Gummituch der Gravitation in 2D). Nun will uns Barbour weismachen, dass die Natur es genau umgekehrt macht. Aber wenn sie das tut, müsste sie doch von einer mathematischen oder quasi-­mathematischen Abstraktion aus die Fülle des ganzen Lebens produzieren. Man erkennt hier wieder das Denken des mathematischen

7  Kosmologie der Zeit 

173

Realisten, dem so eine Intrinsik der Mathematik in der Natur ganz plausibel scheint. Wir werden sehen, dass er passend dazu auch eine Art platonischer Dreiecke für den Bau der Welt investieren möchte. Er findet, dass die fundamentale Physik ein Bild der Realität kreiert, das wir hätten, wenn wir aus uns heraustreten könnten. Aber es ist viel mehr als ein psychologisches Problem oder das Vermeiden der evolutionär bedingten Grenzen unserer Wahrnehmungsorgane, wir müssten genaugenommen aus dem Universum heraustreten, um es beschreiben zu können wie wir unsere anderen Objekte (innerhalb desselben) beschreiben. Er schreibt dann weiter: „For this reason it is rather abstract. In addition, it often deals with conditions far removed from everyday human experience – deep inside the atom, where quantum theory holds sway, and in the far flung reaches of space, where Einstein’s general relativity reigns.“11

Die Vereinigung dieser beiden Reiche haben nun seiner Meinung nach eine Verständnis-Krise der Zeit (the crisis of time) verursacht: „The very working of the universe is at stake: it does not seem to be possible, in any natural and convincing way, to give a common description of them in which anything like time occurs.“

Also etwa: Der ganze „Betrieb“ des Universums stehe auf dem Spiel: es scheine nicht möglich, innerhalb einer Vereinigung von Quanten- und Relativitätstheorie, in einer natürlichen und überzeugenden Art, eine gemeinsame Beschreibung davon zu geben, in welcher so etwas wie Zeit 11

 Barbour, The End, S. 38.

174 

N. H. Hinterberger

auftritt. Barbour findet, dass bei den bisherigen Vereinigungs-­Versuchen (Wheeler-DeWitt equation) frus­ trierend wenig erreicht wurde. Die Gleichung von Bryce DeWitt schien zunächst in der Lage, sowohl Teilchen als auch Galaxien zu beschreiben. Aber dann wurde sie sehr bald kontrovers diskutiert: Die ganze Ableitung sollte mangelhaft sein  – durch eine ungültige Prozedur. Die Gleichung sollte nicht einmal korrekt definiert sein. Ganz zu schweigen von der Diskussion um die physikalische Bedeutung. Auch DeWitt selbst soll sie schon „that damned equation“ genannt haben. Ganz und gar unklar ist in diesem Zusammenhang allerdings, wie eine solche Mangelware dann die Krise der Zeit „ans Licht gebracht“ haben soll („(…) the ‚crisis of time‘ brought to light by the Wheeler-­ DeWitt equation“). Es bestehe auch kein Zweifel daran: „that the equation reflects and unifies deep properties of both quantum theory and general relativity. Quite a sizeable minority of experts take the equation seriously.“12

Man versteht auch gar nicht recht, warum, angesichts dieser tiefen Einsichten, nur eine Minderheit von Experten die Gleichung ernst nehmen soll. Für mich hat sich das Ganze aber jetzt auch insgesamt angehört, als ob er auf dieser Seite das ganze Gegenteil von dem behauptet, was er auf der vorhergehenden Seite gesagt hatte. Der einzige Grund für diese neue Wertschätzung scheint zu sein, dass „many of the best physicists have concentrated on superstring theory.“ Das dabei die Zeit verschwindet, ist klar. Die taucht in den hintergrund-abhängigen Gleichungen der Stringtheorie ohnedies nur als zusätzlicher Raumparameter auf, ganz wie bei Einstein. Bei den String-Leuten haben wir dann zehn Raumund eine Zeit-Dimension, aber das Prinzip ist dasselbe – die  Barbour, The End, S. 39.

12

7  Kosmologie der Zeit 

175

Zeit wird nicht ernst genommen. An dieser Stelle bringt er wieder seine „time capsules“ ins Spiel. Unter den Titel „The ultimate Arena“ werden die „Nows“ jetzt als Dreiecke vorgestellt: „I illustrated the Newtonian scheme by a model universe of just three particles. Its arena is absolute space and time. The Newtonian way of thinking concentrates on the individual particles: what counts are their positions in space and time. However, Newton’s space and time are invisible. Could we do without them? If so, what can we put in their place? An obvious possibility is just to consider the triangles formed by the three particles, each triangle representing one possible relative arrangement of the particles. These are the models of Nows for this universe by the totality of triangles. It will be very helpful to start thinking about this totality of triangles, which is actually an infinite collection, as if it were a country, or a landscape.“13

Wenn man nun zu irgendeinem Punkt in einer realen Landschaft ginge, hätte man eine Sicht („a view“). Abgesehen von artifiziellen Landschaften ist die Sicht von jedem Punkt aus anders bzw. individuell. Wenn man nun jemanden treffen wolle, könnte man ihm einen Schnappschuss vom bevorzugten Treffpunkt geben. Der Freund könne diesen Punkt dann identifizieren. Folglich können Punkte in einem realen Land durch Bilder identifiziert werden. Auf ähnliche Weise könne man sich nun „Triangle Land“ imaginieren. Jeder Punkt in diesem Land steht für ein Dreieck – es ist ein reales Ding, das man sehen oder sich vorstellen kann: „However, whereas you view a landscape by standing at a point and looking around you, Triangle Land is more like a surface that seems featureless until you touch a point on it. 13

 Barbour, The End, S. 40.

176 

N. H. Hinterberger

When you do this, a picture lights up on a screen in front of you. Each point you touch gives a different picture. In Triangle Land, which is actually three-dimensional, the pictures you see are triangles.“

Also man muss im von Merkmalen frei scheinenden Dreiecks-Land, das wohl mehr wie eine Oberfläche existiert, den Finger auf einen Punkt legen, dann leuchtet ein Bild auf einem Bildschirm auf. Das sei an jedem Punkt ein anderes. Das Dreiecks-Land ist dreidimensional, und die Bilder, die man sieht, sind Dreiecke. Man hofft, das Barbour hier im Wesentlichen metaphorisch spricht, allerdings weiß man dann nicht, was hier übertragend angesprochen werden soll. Besteht die Welt aus platonischen Dreiecken? Nicht direkt … aber: „A three-particle model universe is, of course, unrealistic, but it conveys the idea. In a universe of four particles, the Nows are tetrahedrons. Whatever the number of particles, they form some structure, a configuration“14

Wir sehen hier wieder das Verschwinden der Materie in einer mathematischen Existenz. Er zieht dann zwar ­Betrachtungen über sehr lebendig wirkende Makromoleküle („such as DNA“) heran. Aber das geschieht auch nur als Verbindung zu älterer Modell-Bildung: „Plastic balls joined by struts to form a rigid structure are often used to model molecules (…) You can move such a structure around without changing its shape. For any chosen number of balls, many different structures can be formed. That is how I should like you to think about the instants of time. Each Now is a structure.“15  Barbour, The End, S. 41.  Barbour, The End, S. 41, 43.

14 15

7  Kosmologie der Zeit 

177

Hier finden wir auch Kuhlmanns Liebe zu Struktur-­ Symmetrien wieder: Man kann eine solche (Beziehungs-) Struktur bewegen, ohne ihre Form zu verändern. Und das ist natürlich umso leichter, je weniger das Ganze mit Materie/Energie-Bewegungen zu tun hat. Bei reinen Beschreibungsformen ist es dann trivial. Wir wissen, dass wir denselben logischen Gehalt mit den unterschiedlichsten Sätzen ausdrücken können. Barbour sagt: Für jede gewählte Anzahl von Kugeln, können viele unterschiedliche Strukturen gebildet werden. Jedes Jetzt ist eine Struktur. Und als ob das nicht leer genug ist, bekommen wir auch bei ihm die möglichen „Jetzte“ noch umsonst dazu. Ist es eigentlich so schwer zu verstehen: Es gibt keine „möglichen“ Dinge. Wir können uns Dinge, Prozesse, Kausalitäten vorstellen, aber dadurch existieren sie bekanntlich nicht. Sie existieren nur, wenn sie existieren … und das völlig unabhängig von irgendwelchen Vorstellungen. Die Vorstellungen von ihnen existieren wiederum nur als Gehirnprozesse. Letztere sind zwar materiell existent, aber durch sie existieren mitnichten die in ihnen vorgestellten Dinge – und das solange nicht, solange es sie nicht gibt.

8 Lee Smolins Wiederbelebung der Zeit

8.1 S  molins Variante des Relationalismus Die „Abschaffung der Zeit“, die wir schon seit Parmenides kennen, die aber in der modernen Physik ganz besonders durch den mathematischen Realismus forciert scheint, führt zu erheblichen Problemen in unserem Kosmologie-­ Verständnis. Um Smolins Interesse an zyklischen Theorien zu verstehen, muss man wissen, dass seine Kritik an der „Abschaffung der Zeit“ ein Universum expliziert, in dem die Zeit nicht behandelt wird wie ein vierter Raumparameter, sondern als eine tatsächliche Aneinanderreihung von Augenblicken in Form eines physikalisch relevanten globalen Zeitflusses: „Das Denken in der Zeit ist kein Relativismus, sondern eine Form des Relationalismus – eine Philosophie, die behauptet,

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 179 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_8

180 

N. H. Hinterberger

dass die angemessenste Beschreibung von etwas darin besteht, seine Beziehungen zu den anderen Teilen des Systems anzugeben, zu dem es gehört.“1

Newton glaubte bekanntlich an einen fundamentalen, unbeweglichen Raum, während Leibniz den Raum eher für emergent und die Relationen zwischen Objekten in der Zeit für fundamental hielt. Vom Relationalismus Smolins (der wiederum von Leibniz inspiriert ist) scheint auch Kuhlmann angeregt worden zu sein (als Veranstalter von Tagungen des Zentrums für interdisziplinäre Forschung in Bielefeld, auf denen unlängst auch Smolin gesprochen hat, hatte er Gelegenheit, Smolins Relationalismus kennenzulernen). Allerdings hat er offensichtlich nicht verstanden, dass Smolin im Zusammenhang seines Relationalismus von physikalischer Kausalität und entsprechenden Wechselwirkungen sowie von einem fundamentalem Zeitpfeil geredet hat und nicht von einer Abschaffung bzw. von einer schon logisch unschlüssigen Substitution der Dinge durch Relationen, die sich bei Kuhlmann überdies lediglich als durch sekundäre Eigenschaften vermittelt zeigen sollten. Insbesondere verschwinden die Teile des Systems – bzw. die Dinge, zwischen denen die Relationen bestehen  – bei Smolin mitnichten. Kuhlmann hat das entweder nicht verstanden, oder er wollte es nicht verstehen, weil es nicht in seinen Antirealismus passt. Er hat hier einfach mal die „Struktur“ von Smolin genommen und dessen physikalische Entitäten durch idealistische ersetzt. Einstein hatte sich bekanntlich schon sehr früh von Machs Antirealismus wieder abgewandt und sich spätestens mit seinen Beiträgen zur frühen Quantentheorie zum Realismus bekannt (das blieb dann in der gesamten Debatte mit dem Antirealisten Bohr so). In seiner Relativitätstheorie ist  Smolin, Im Universum, S. 18.

1

8  Lee Smolins Wiederbelebung der Zeit 

181

allerdings der antirealistische Einfluss von Ernst Mach noch auf Schritt und Tritt zu konstatieren. Außerdem wird hier die Welt gewissermaßen Parmenidisch als zeitlose Einheit vorgestellt: „Gegenwart, Vergangenheit und Zukunft haben unabhängig von der menschlichen Subjektivität keine Bedeutung. Die Zeit ist einfach nur eine weitere Dimension des Raumes, und der Eindruck, den wir haben, wenn wir empfinden, wie Augenblicke vergehen, ist eine Illusion, hinter der sich eine zeitlose Wirklichkeit verbirgt.“2

Der Erfolg klassischer Theorien wird von Smolin für meinen Geschmack sehr plausibel dadurch erklärt, dass es einen von Newton ersonnenen Begriffsrahmen gibt, der zeitlose bzw. ewig unwandelbare Naturgesetze annimmt und Dinge und Kräfte, die in ihren Wechselwirkungen durch eben jene Gesetze unveränderlich determiniert sind. Die Zeit tickt bei Newton unabhängig von allen Wechselwirkungen vor sich hin, in friedlicher Gleichzeitigkeit für das ganze Universum, ohne indessen in irgendeiner Weise in Relation zu dessen physischen Prozessen zu stehen. Smolin nennt das das Newtonsche Paradigma: „Die Eigenschaften der Teilchen, wie zum Beispiel ihre Massen und elektrische Ladungen, ändern sich nie. Und dasselbe gilt für die Gesetze, die auf sie einwirken. Dieser Begriffsrahmen eignet sich ideal zur Beschreibung kleiner Ausschnitte des Universums, aber er bricht zusammen, wenn wir versuchen, ihn auf das Universum als Ganzes anzuwenden.“3

Smolin nennt diese idealisierten Beschreibungen für kleine Ausschnitte unserer Welt „physics in the box“. Da wir unsere  Smolin, Im Universum, S. 23.  Smolin, Im Universum, S. 24.

2 3

182 

N. H. Hinterberger

Messwerkzeuge bei diesen Teilsystemen („ein Radio, ein fliegender Ball, eine biologische Zelle, die Erde, eine Galaxie“) – nach klassischen Vorstellungen – ­außerhalb des Systems platzieren können, sind wir damit sehr erfolgreich gewesen. Im Bereich der kosmologischen Fragestellungen hatten wir damit bis zum Eintreffen der Quanten-Kosmologie scheinbar keine Schwierigkeiten, aber mit ihr haben wir erhebliche Schwierigkeiten, denn hier wird klar, dass wir uns selbst im untersuchten System befinden, im Quantenuniversum eben. Dieses Quantenuniversum muss überdies aber auch noch den Gesetzen der Gravitation gehorchen – was die Sache nicht einfacher macht. Die Idee von evolutiv aufgefassten Gesetzen ist nicht neu, wie Smolin schreibt, er zitiert dazu Charles Sanders Peirce: „Die Annahme universaler Naturgesetze, die zwar vom Geist erfasst werden können, aber keinen Grund für ihre besondere Form besitzen, sondern unerklärbar und irrational sind, ist kaum zu rechtfertigen. Gleichförmigkeiten sind genau die Art von Tatsachen, die erklärt werden müssen (…) Ein Gesetz ist schlechthin das, was einen Grund benötigt. Die einzige Möglichkeit, die Naturgesetze und Gleichförmigkeiten im Allgemeinen zu erklären, besteht darin, sie als Ergebnisse der Evolution aufzufassen.“4

Auch Popper hatte Peirce schon vor Zeiten als einen der wichtigsten Philosophen gewürdigt, ungeachtet seines nominalen Pragmatismus. John Archibald Wheeler und Richard Feynman haben später ebenfalls zu Bedenken gegeben, dass die Physik zu den Naturgesetzen selbst keinerlei evolutionäre Fragestellungen im Programm hatte.  Charles Sanders Peirce, „The Architecture of Theories“, The Monist, 1891, S. 161–176. Es sollte vielleicht angemerkt werden, dass der nominale Pragmatismus von Peirce de facto eher einem hypothetischen Realismus ähnelte. Peirces Forderung nach echten Erklärungen zeigt hier nämlich, dass seine Position nicht mit dem typischen Deskriptivismus und Wahrheitsrelativismus des echten, subjektivistischen Pragmatismus in Zusammenhang gebracht werden kann. 4

8  Lee Smolins Wiederbelebung der Zeit 

183

Smolin hatte schon 1997 versucht, physikalische Gesetze nach der biologischen Evolution zu modellieren, mit einer Theorie, die er „Kosmologische natürliche Auslese“ nannte. In der Entwicklung physikalischer Gesetze ist dieser passive „Mutations“-Ansatz als Analogie natürlich passend. In der biologischen Evolution werden inzwischen allerdings – lang genug hat es gedauert – nicht nur die Mutationen an den Genen in Betracht gezogen (ein grundsätzlich zufälliges, passives Geschehen), sondern auch die gesamte Epigenetik bzw. die Enzymatik und die Aktivität der Organismen (biologische Selbstorganisation plus Selbstgerichtetheit der Individuen), also gewissermaßen die Ingebrauchnahme oder aber, wahlweise, die Inhibition der durch Mutation veränderten Gene durch Verhaltens-gesteuerte Polymerasen-­ Tätigkeit der Organismen. Dafür kann man natürlich kein Gegenstück in der reinen Physik finden. Aber in der Physik wird es eben auch nicht benötigt. Rein physikalische Selbstorganisation reicht völlig aus. Smolin stellte sich (in seinen frühen Schriften) übrigens auch noch ein Szenario von möglichen Parallel-Universen vor, in einer Art „Fitnesslandschaft“ schwarzer Löcher, die jeweils „Baby-Universen“ hervorbringen. Die Grund-Idee, dass Schwarze Löcher Babyuniversen hervorbringen, stammte von Stephen Hawking, der allerdings keinen evolutionären Ansatz damit verknüpft hatte. Immer wenn das geschehe, würden sich die Gesetze der Physik leicht verändern. Heute favorisiert Smolin eher ein einzelnes zyklisches Universum, aus dem (zu unser aller Beruhigung) auch keine ‚Everett’schen‘ oder ‚ewig-inflationären‘ Personen-Kopien folgen. Letzteres würde sich nämlich aus den Wahrscheinlichkeits-­Überlegungen bezüglich der (potenziellen) Unendlichkeiten ständig neu auftauchender Universen ergeben. Vilenkin und Linde arbeiten dagegen sowohl mit Parallel-Welten als auch mit Everett-Welten, ganz

184 

N. H. Hinterberger

einfach, weil sie aus ihrer ewigen Inflation folgen. Für beide Ansätze gilt allerdings, dass Gesetze dem Universum in keiner Weise von außen auferlegt werden: „Keine äußere Instanz, weder eine göttliche noch eine mathematische, legt im Voraus fest, was Naturgesetze sein sollen. Auch warten die Naturgesetze nicht stumm außerhalb der Zeit auf den Anfang des Universums. Vielmehr entstehen die Naturgesetze aus dem Inneren des Universums he­ raus und entwickeln sich in der Zeit (…)“5

Weil sie sich nach den Energie- bzw. Materie-­Verhältnissen richten und nicht umgekehrt, sollte man als Realist vielleicht hinzufügen. Dann wird Gottfried Wilhelm Leibniz in dieser Sache sozusagen gegen Newton in Anschlag gebracht. Smolin hält das „Prinzip des zureichenden Grundes“ offenbar für eine Leibnizerfindung: „Leibniz formulierte ein Rahmenprinzip für kosmologische Theorien, das ‚Prinzip des zureichenden Grundes‘ genannt wird und besagt, dass es für jede scheinbare Wahl beim Aufbau des Universums einen Grund geben muss. Auf jede Frage der Art ‚Warum ist das Universum X anstatt Y ?‘ muss es eine Antwort geben.“6

Erstens kennt man diese Redewendung schon von Aristoteles, der damit auf eine rein logische Begründung abzielte, nicht auf echte (physikalische) Kausalität. Zweitens hat Leibniz diese Redewendung ebenfalls in logischen bzw. argumentativen und außerdem in kausalen Zusammenhängen verwendet. Wir dürfen nicht vergessen, dass Aristoteles als Begründer der syllogistischen Logik und Leibniz als  Smolin, Im Universum, S. 28–29.  Smolin, Im Universum, S. 30.

5 6

8  Lee Smolins Wiederbelebung der Zeit 

185

­ egründer der ersten formalisierten Logik bekannt sind  – B beide (wie auch alle ihre Nachfolger) haben entsprechende Argumente seinerzeit als Begründungsinstrumente betrachtet. Erst Popper hat darauf aufmerksam gemacht, dass die Logik allenfalls als Instrument der bedingten Widerlegung eingesetzt werden kann. Insbesondere darf aber nicht Begründung mit Kausalität gleichgesetzt bzw. Kausalität als Form des Denkens betrachtet werden, wie das bei Antirealisten standardmäßig gehandhabt wird – bei ihnen wird Kausalität als konstruiert und nur als konstruiert betrachtet. Für Realisten existiert Kausalität als Folge physikalischer Wechselwirkungen unabhängig von unseren konstruierten kausalen Erklärungen bzw. „Gründen“ (wie Smolin selbst auch an anderer Stelle sagt). So verhält es sich mit den Naturgesetzen allgemein: es gibt die physikalisch vorhandenen Naturgesetze unabhängig von unseren konstruierten „Naturgesetzen“, also unabhängig von unseren Hypothesen dazu. Begriffe wie „hinreichend“, „zureichend“ oder „notwendig“ fanden ihre erste Verwendung in metalogischen Bemerkungen zu Implikationen. Hier wird bekanntlich gefordert, dass die linke Seite eine hinreichende und die rechte Seite eine notwendige Bedingung darstelle. Eine andere, wertvolle (und nicht-ambivalente) Erbschaft, die wir Leibniz zu verdanken haben, ist sein Identitätssatz. Den kann man sehr viel eindeutiger (als etwa den Satz vom zureichenden Grunde) gegen die seltsamen Ideen einer gesonderten „Quantenlogik“ in Anschlag bringen. Das Leibnizsche Prinzip der Identität des Ununterscheidbaren wird noch heute in der zweiwertigen deduktiven Logik akzeptiert und verwendet. Das Prinzip der logischen Identität: x ist genau dann mit y identisch, wenn x und y alle Eigenschaften gemeinsam haben. Dann gilt nämlich x ≡ y (≡ steht hier für identisch). Smolin rekrutiert diese Definition erfolgreich für seine Individualitäts-Behauptung für jedes Fermion seiner Klasse,

186 

N. H. Hinterberger

also etwa für jedes einzelne Elektron. Etwas physikalischer fokussiert könnte man deshalb in diesem Zusammenhang sagen: Ein materieller Gegenstand a ist genau dann mit einem materiellen Gegenstand b identisch, wenn sich zwischen a und b kein Unterschied finden lässt. In der Quantentheorie gab es allerdings (bis zu Wolfgang Paulis Prinzip) eine Missachtung dieser wohlüberlegten Identitäts-­Definition, denn hier galten alle Teilchen einer Art als miteinander identisch. Nicht berücksichtigt wurde, dass Fermionen (Materieteilchen mit Ruhemasse) nicht in allen Quantenzahlen (Orbital, Drehimpuls, Spin) übereinstimmen können. Das ist Paulis Ausschließungsprinzip. Aus letzterem folgt die Tatsache, dass zwei Elektronen in einem Atom sich z. B. nicht an demselben Ort (Orbital) aufhalten bzw. bündeln können (dieser spezielle Fall wurde experimentell zuerst entdeckt). Wellen-theoretisch ausgedrückt verhält sich die Wellenfunktion der Fermionen bei Ortsvertauschung antisymmetrisch, während sich diejenige der Bosonen (Kraftteilchen) symmetrisch verhält (für Bosonen gilt das Pauli-Prinzip also nicht, wie wir an der prinzipiell unlimitierten Bündelungs-Fähigkeit der Photonen in Lasern auch sehr gut sehen können). Der alte quantentheoretische Identitätsbegriff (der ja die gesamte Menge einer Teilchen-­Art umfassen soll) widerspricht also dem Paulischen Ausschließungsprinzip (ein Prinzip, dass von Anfang an experimentierbar war). Smolin argumentiert in diesem Zusammenhang für meinen Geschmack zu Recht, dass man deshalb von der raumzeitlichen Individualität der einzelnen Materie-Teilchen/ Wellen reden muss, was gegen eine gewissermaßen physikalisch „intrinsische“ mathematische Zeitlosigkeit bezüglich einer mathematischen Identität spricht, da die ­Materie-­Entitäten alle an eigene, voneinander unterschiedene Raumzeit-Zustände gebunden sein müssen. Es gibt viele ähnliche physikalisch relevante Argumente gegen ähnliche mathematische Idealisierungen.

8  Lee Smolins Wiederbelebung der Zeit 

187

Smolin versucht allerdings auch sehr häufig, Leibniz mit dessen „Prinzip des zureichenden Grundes“ für seine neu beschworene Zeit einzuspannen. Dieses Prinzip kann man nun  – wie wir oben gesehen haben  – rein idealistisch-­ konstruktivistisch auffassen oder aber als Kausalitätsüberlegung mit physikalischem Geltungsanspruch. Leibniz hatte bekanntlich in seiner Theodizee geschrieben, dass: „(…) nichts geschieht, ohne dass es eine Ursache oder wenigstens einen bestimmenden Grund gibt, d. h. etwas, das dazu dienen kann, a priori zu begründen, weshalb etwas eher existiert als nicht existiert (…)“7

Wir sehen, es gibt einerseits eine kausale bzw. physikalisch relevante Überlegung. Aber, wenn diese kausalen Verhältnisse nicht zugreifbar sein sollten, wird eine apriorische Begründung ebenfalls für möglich gehalten (das ist bei Leibniz auf seine religiöse Einstellung zurückzuführen). Ähnlich hat Aristoteles dieses Prinzip auch schon aufgefasst. Letzteres wird allerdings (genauso wie im Übrigen ja auch jede andere Art von Begründung) vom fallibilistischen Falsifikationismus für unmöglich gehalten. Aber Smolin sieht darin offenbar keine Schwierigkeit, denn er glaubt sowohl an Falsifikationen als auch an Verifikationen. Diese Vermischung (bzw. diese Dualismen) von experimentierbaren Kausalitäten mit apriorischen Begründungen kann ein kritischer Realist ebenso-wenig nachvollziehen wie die gleichzeitige methodologische Akzeptanz von Falsifikation und Verifikation. Da letztere apriorisch oder ähnlich d ­ ogmatisch deduktivistisch als Idealismus – und induktivistisch, ideistisch verstanden schlicht als logisch ungültig – gewertet werden muss, kann man wohl darauf bestehen, dass bei allen Argumentationen ganz klar gemacht werden sollte, ob man von  Gottfried Wilhelm Leibniz: Theodizee, Suhrkamp 1999, S. 273.

7

188 

N. H. Hinterberger

prinzipiell experimentierbarer Kausalität redet oder lediglich von logischer oder sonst wie gearteter Begründung. Bei Aristoteles und Parmenides wurde das schon in ganz ähnlich unentwirrbarer Parallelität behandelt  – häufig zu Ungunsten einer als real verstandenen Kausalität. Bei Hume war Kausalität dann (komplett antirealistisch) nur noch ein anderes Wort für die „Gesetze des Denkens“. So haben der deutsche Idealismus und auch der logische Empirismus das übernommen. Kant hat den logisch unschlüssigen Induktivismus zwar nie in Erwägung gezogen, aber den Antirealismus Humes in seinen Deduktivismus übernommen und sogar noch ausgebaut, indem er Raum und Zeit als reine Anschauungsformen und Kausalität ebenfalls nur als Post-hoc-Beobachtung gelten ließ. So kam er natürlich nicht zu seinem berühmten „Ding an sich“, an das er, sozusagen privat, ja durchaus glaubte. Die Vermischung von kausaler Ursache und rationaler Begründung ist im Ideismus wie im Idealismus orthodox, weil die Kausalität hier im Wesentlichen als unsere Vorstellungskonstruktion, also nicht als real betrachtet wird – oder doch (in abgeschwächter Form) wenigstens als nicht ermittelbar (wie im Empirismus/Pragmatismus). Wenn man reale Kausalität meint, wie Smolin, scheint es nicht empfehlenswert, auf den Satz vom zureichenden Grunde (in welcher der vorliegenden Versionen auch immer) zu rekurrieren. Weniger ambivalent ist es in jedem Fall, auf den physikalisch zentralen Begriff der materiellen bzw. energetischen Wechselwirkung abzuheben. Denn das ist es auch, was Smolin „kausale Struktur“ nennt. Leibniz spricht dagegen immer in einem Quasi-Dualismus zu diesem Thema (wie auch alle seine Vorgänger) – und man darf nicht vergessen, er vertritt in seinem Apriorismus gerade den mathematischen Platonismus, der zur Zeitlosigkeit in der Physik beigetragen hat, und den Smolin zu Recht bei Tegmark und vielen anderen modernen Theoretikern kritisiert. Mindestens der zweite

8  Lee Smolins Wiederbelebung der Zeit 

189

Teil des Satzes, in dem Leibniz über Aprioris spricht, wird heute eben von einer fallibilistischen Position aus (auch gegenüber Kant und Kantianern etwa) für falsch gehalten. Es gibt keine sicheren Aprioris im Sinne erkennbarer Gesetzmäßigkeiten, die vor aller Erfahrung gültig sein könnten, und es gibt keine sicheren Begründungen, die zu solchen obersten allgemeinen Wahrheiten führen könnten, weder induktiv noch deduktiv. Sie könnten, wie wir schon gesehen haben, nur ins Münchhausentrilemma führen. Eine ähnliche Ambivalenz könnte man dem Begriff des Relationalismus zusprechen. Smolin verwendet ihn, um sich insbesondere vom Zeit-Relativismus der Relativitätstheorie abzugrenzen, aber wir haben bei Kuhlmann gesehen, wie leicht man den Relationalismus-Begriff auch antirealistisch missbrauchen kann, insbesondere, wenn man primäre physikalische Eigenschaften zu substituieren versucht durch subjektive bzw. sekundäre Eigenschaften. Ebenso wie Antirealisten den Begriff der Naturgesetze rein konstruktivistisch verwenden, also ohne noch einmal zu unterscheiden zwischen den Naturgesetzen, die ohne unsere Konstruktionen bestehen (wie immer die dann beschaffen sein mögen) und unseren reinen, womöglich sogar noch ungeprüften Konstruktionen, ebenso wird der Eigenschaftsbegriff von ihnen missbraucht. Realisten in der Physik, in der Chemie oder in der Biologie reden von den physikalischen Eigenschaften ihrer Objekte und von Relationen zwischen ihnen nur in Bezug auf ihre physikalischen Wechselwirkungen. Sie wissen natürlich, dass sie sich über diese Eigenschaften gehörig irren können, dass Konstruktionen also überprüft werden müssen, aber sie machen eben gewöhnlich einen Unterschied zwischen ihren Konstruktionen und den Entitäten an sich und sind deshalb in der Regel auch Fallibilisten und Falsifikationisten – nicht selten auch, ohne diese Ausdrücke überhaupt zu kennen.

190 

N. H. Hinterberger

Der zweite Teil von Leibniz’ Prinzip (der Apriorismus) widerspricht dem Fallibilismus, der notwendig zum Falsifikationismus gehört, den Smolin ansonsten ja auch vertritt (den er vor allem ja auch bei der Überprüfung seiner eigenen Theorie praktiziert hat). Diese Unverträglichkeit hat ein Analogon in Smolins gewissermaßen simultaner Referenz auf Kuhn und Popper gleichermaßen. Er redet – von Kuhn inspiriert – von einem Newtonschen „Paradigma“. Wir haben allerdings gesehen, dass man den Begriff des Paradigmas keinesfalls in Kuhns quasi-religiöser Lesart auffassen darf. Aber das tut Smolin dann ja auch mitnichten, denn was er dazu sagt, ist natürlich vollkommen richtig: In einer isolierten Physik, auf kleine Teile des Universums angewandt, waren Newtons Methoden und Gesetze von Erfolg gekrönt, in Bezug auf das ganze Universum ist daraus aber eine reine Strukturalisierung bzw. Mathematisierung der Physik geworden, die zur „Verunzeitlichung“ der Welt durch die Auffassung der Naturgesetze als zeitloser mathematischer Gesetze geführt hat. Überdies ist für Smolin die Überprüfbarkeit durch den Falsifikationismus ebenfalls zentral. Er fordert ja explizit neue Theorien, die falsifizierbar sein müssen – oder aber „verifizierbar“, wie er denkt. Echte Verifizierbarkeit ist allerdings im Falsifikationismus ausgeschlossen, so dass wir das als einigermaßen unreflektiertes Begründungsdenken auch bei Smolin ansehen müssen, inspiriert eben von der Leibnizschen Idee einer zureichenden Begründung im apriorischen Sinn. Smolin kennt offenbar Poppers schlagende Kritik am Verifikationismus nicht. Sichere Begründung ist, aufgrund ihres unvermeidbaren Infinitismus schlechthin nicht durchführbar. Der Begriff eines „infiniten Beweises“ involviert schlicht eine Contradictio in adjecto. Rein formal landet man bestenfalls in einem Beweis innerer Widerspruchsfreiheit (falls das System bzw. die jeweilige Theorie unterhalb der Komplexität der Arithmetik liegt). Und dieser Rückzug auf die rein formalistische Position führt uns ja gerade bevorzugt

8  Lee Smolins Wiederbelebung der Zeit 

191

zur Zeitlosigkeit in der Kosmologie, die Smolin andererseits zu Recht kritisiert. Selbst wenn Newton über den Fluss der Zeit redet, meint der nur eine vorgestellte, mathematische Zeit: „Die absolute, wahre und mathematische Zeit verfließt an sich und vermöge ihrer Natur gleichförmig und ohne Beziehung auf irgendeinen äußeren Gegenstand.“8

Leibniz hatte Smolins Meinung nach schon die Idee, dass nichts im Raum existiert, sondern der Raum erst durch ein Netzwerk von Beziehungen definiert wird. Smolin interpretiert das realistisch durch in einem Netzwerk verbundene „Entitäten“. Weiter unten redet er auch von „Dingen“. Aber man darf nicht vergessen, Leibniz war eine Art deduktivistischer Apriorist (ähnlich wie Kant), der sich das ganze durchaus zunächst als quasi-formalistischen Zugang vorstellen konnte, wie wir eben schon gesehen haben. Smolin schreibt: „Es war Einstein, der Leibniz’ Vermächtnis ernst nahm und seine Prinzipien als Hauptmotiv für seine Umwälzung der Newton’schen Physik und deren Ersetzung durch die allgemeine Relativitätstheorie nutzte – eine Theorie des Raums, der Zeit und der Gravitation, die Leibniz’ relationale Auffassung von Raum und Zeit weitgehend realisierte. Leibniz’ Prinzipien werden auch noch auf eine andere Weise in der parallel stattfindenden Quantenrevolution verwirklicht.“9

Allerdings hatte Einstein dabei eine ganz andere Vorstellung von Zeit als Leibniz. Smolin nennt das Ganze dann die „relationale Revolution“ des 20. Jahrhunderts. Wir wissen aber, dass Einstein seine Relativitätstheorie zunächst in  Isaac Newton: Mathematische Prinzipien der Naturlehre, London 1687.  Smolin, Im Universum, S. 31.

8 9

192 

N. H. Hinterberger

einem ziemlich antirealistischen Sinne interpretierte, später (bei seiner Mitwirkung an der Quantentheorie) dann allerdings mehr und mehr realistisch – woran man sehen kann, dass man die Einflüsse derart inspirierter Idealisten (das waren ja in diesem Fall nicht nur Leibniz, sondern auch Mach), von ihrem Idealismus befreit, ebenfalls zu einem überzeugenden Realismus machen kann, wenn man nur will. Smolin versteht diese Relationalität nämlich realistisch kausal – ganz anders als strukturalistische Autoren.10 Und er rekurriert letztlich auch nur auf den kausalen Teil des Leibniz-Prinzips, der dann wirklich gut zu gebrauchen ist für seine eigene Zeitvorstellung: „(…) folgt aus Leibniz’ großem Prinzip, dass es keine absolute Zeit geben kann, die blind weitertickt, ungeachtet dessen, was auch immer in der Welt geschieht. Die Zeit muss eine Folge von Veränderung sein; ohne Veränderung in der Welt kann es keine Zeit geben (…) tatsächlich muss jede Eigenschaft eines Gegenstands in der Natur eine Widerspiegelung dynamischer Beziehungen zwischen ihm und anderen Dingen in der Welt sein.“

Hier wird Smolins realistischer (Wechselwirkungs-)Relationalismus (mit Leibniz-Zeitpfeil) ganz klar, und auch, dass Einstein selbst mit einer allgemeinen Zeitpfeil-­Akzeptanz (vielleicht zusätzlich zu seiner den Raum messenden, Geschwindigkeits-dynamischen Zeit) besser gedient gewesen wäre. Als die Hauptbotschaft seines Buches betrachtet Smolin die Annahme, dass die Zeit wirklich ist und die Naturgesetze sich mit der Zeit ändern. Nur so sieht er einen gangbaren  Gar nicht zu reden davon, was der Begriff der Relationalität gerade in der New-Age-Szene an heißer Luft verbreitet. Da toben sich Redewendungen wie The Relational Revolution in Psychology und Relational-Cultural-Therapy in ganzen Büchern aus. 10

8  Lee Smolins Wiederbelebung der Zeit 

193

Weg zur Zusammenführung von Quantentheorie und Relativitätstheorie, also zur berühmten Quantengravitation. Ptolemäus’ Kosmogonie könnte als ein Beispiel für mathematische Schönheit und scheinbare Bestätigung durch Beobachtung aufgefasst werden. Tycho Brahe konnte mit bloßem Auge beobachten, dass sich Planeten, Sonne und Mond nach Ptolemäus Voraussagen zu verhalten scheinen. Über 1000 Jahre waren Astronomen von der Richtigkeit dieses Systems überzeugt: „Wir erhalten hier eine Lektion, die uns sagt, dass weder die mathematische Schönheit noch die Übereinstimmung mit Experimenten garantieren kann, dass die Vorstellungen, auf denen eine Theorie beruht, auch nur die geringste Beziehung zur Wirklichkeit haben. Manchmal führt uns die Deutung der Muster in der Natur in die falsche Richtung (…) Ptolemäus und Aristoteles waren nicht weniger wissenschaftlich als die Wissenschaftler von heute. Sie hatten einfach nur Pech in dem Sinne, das mehrere falsche Hypothesen zusammen gut funktionierten.“11

So kann das gehen mit scheinbaren Bestätigungen bzw. mit dem Verifikationismus ganz allgemein, könnte man hier anmerken. Kopernikus’ Entdeckung, dass alle scheinbaren Epizy­ klen dieselbe Periode haben und sich in Übereinstimmung mit der scheinbaren Umlaufbahn der Sonne befinden, führte ihn dazu, die Sonne ins Zentrum des Systems zu setzen. Das war nun sicherlich revolutionär genug, aber Kopernikus war ein Revolutionär wider Willen, wie Smolin schreibt. Er konnte sich nicht von der Vorstellung einer exakten Kreisbahn der Planeten trennen. Also musste er ebenfalls mit Epizyklen arbeiten, um seine Theorie an die Beobachtungen anzupassen. 11

 Smolin, Im Universum, S. 56.

194 

N. H. Hinterberger

Abhilfe fanden erst Tycho Brahe und Johannes Kepler. Kepler entdeckte zuerst am Beispiel Mars die Ellipsenform der Bahn, dann auch an den anderen Planeten. Damit tauchten eine Menge neuer Fragen auf. Insbesondere die Frage, warum bewegen sich Planeten überhaupt. Kepler war der erste, der eine Kraft vorschlug, allerdings eine zen­trifugal wirkende. Die Sonne sollte – ähnlich wie ein Krake – die Planeten in ihrer Ekliptik herumschleudern. Bekanntlich wurde schon im 3. Jahrhundert v. u. Z. von Aristarch von Samos vorgeschlagen, dass die Erde um die Sonne kreist und nicht die Sonne und alles andere um die Erde: „Seine heliozentrische Kosmologie wurde von Ptolemäus und anderen erörtert und war wahrscheinlich so großen Gelehrten wie Hypatia bekannt, einer brillanten Mathematikerin und Philosophin (…) Angenommen sie (…) hätte Galileis Fallgesetz oder Keplers elliptische Umlaufbahnen entdeckt. Schon im 6. Jahrhundert hätte es einen Newton geben und die wissenschaftliche Revolution hätte volle tausend Jahre früher beginnen können.“12

Realiter ist Isaac Newton 1000 Jahre später von der Ähnlichkeit von irdischer Parabel (Galileis Fallgesetz) und himmlischer Ellipse (Keplers Bahnen) zur ersten großen Vereinheitlichung inspiriert worden, nämlich zu der von Himmel und Erde. Smolin betont dann, dass es wohl wenig in der Geschichte des menschlichen Denkens gebe, das tiefgründiger sei als die Entdeckung dieser mathematischen wie physikalischen Gemeinsamkeit vom irdisch freien Fall und Planetenbewegungen. Diese Entdeckung Newtons brachte erstmals die Mathematik nicht nur apriorisch ins Spiel wie bei Platon oder Aristoteles. Denn sie musste ja zunächst als  Smolin, Im Universum, S. 60.

12

8  Lee Smolins Wiederbelebung der Zeit 

195

Naturvorgang interpretiert werden. Die Naturwissenschaft der letzteren war – trotz ihres gewünschten Apriorismus – in der Tat im Wesentlichen gewissermaßen anekdotisch beschreibend. Sie hatte wenig Allgemeines, das dann tatsächlich mit der Natur in Zusammenhang gebracht werden konnte. Newtons Mathematik schien dagegen tatsächlich zeitlos und wohnte auf der Erde und im Himmel gleichermaßen. Sie hat das Anekdotische endgültig aus der Wissenschaft vertrieben. Was bei Platon nur irgendwie apriorischer Wunsch war, schien sich bei Galileo ganz irdisch und bei Newton irdisch und himmlisch im täglich zu Sehenden wieder zu finden. Eine Interpretationsleistung ganz besonderer Art: „Als Galileo entdeckte, dass fallende Körper durch eine einfache mathematische Kurve beschrieben werden, erfasste er einen Aspekt des Göttlichen, brachte es vom Himmel auf die Erde und zeigte, dass es in der Bewegung alltäglicher, irdischer Dinge entdeckt werden konnte. Newton zeigte, dass die unglaubliche Vielfalt von Bewegungen auf der Erde und im Himmel, ob sie nun von der Gravitation oder von anderen Kräften angetrieben wird, eine Manifestation einer verborgenen Einheit ist.“13

So kommt man aber auch zu scheinbar zeitlosen Einsichten …

8.2 In der Zeit Smolin entwirft in seinem Buch einen ganz besonderen Suchscheinwerfer, indem er die Wirklichkeit der Zeit annimmt. Im Falle der Richtigkeit dieser Annahme sollte es

13

 Smolin, Im Universum, S. 64.

196 

N. H. Hinterberger

auch Eigenschaften geben, die sich nur durch eine fundamentale Zeit erklären lassen. „Unter der gegenteiligen Annahme – dass die Zeit emergent ist – sollten diese Eigenschaften rätselhaft und zufällig erscheinen.“14

Wir sehen nun in der Tat, dass sich das Universum vom Einfachen zum Komplexen entwickelt. Das steht aber nicht im Widerspruch zur zunehmenden Entropie anderenorts. Die Zunahme der Entropie ist nur der Preis, den wir für die zunehmende Strukturierung in den Gravitationsgebieten zahlen. Aber wir zahlen ihn eben nicht da, sondern anderswo – an thermodynamische Gleichgewichtsgebiete sozusagen. Der Pfeil in Richtung zunehmender Komplexität ist in stark durch Gravitation bestimmten Gebieten aber immer präsent (früher hat man dieses Phänomen bisweilen auch Neg-Entropie genannt, aber nicht so erklärt wie Smolin): „Dadurch gewinnt die Zeit eine starke Gerichtetheit – wir sagen, dass das Universum einen Zeitpfeil besitzt. In einer Welt, in der die Zeit unwesentlich und emergent ist, ist Gerichtetheit äußerst unwahrscheinlich.“

Nun ist zufällige bzw. übergangslose Komplexität aber ebenfalls äußerst unwahrscheinlich. Der Komplexitätspfeil, den wir überall beobachten können, setzt sich denn auch aus ganz kleinen Schritten zusammen. „Diese finden in einer Reihenfolge statt, was eine starke zeitlich Ordnung von Ereignissen impliziert. Alle wissenschaftlichen Erklärungen von Komplexität erfordern eine Geschichte, in deren Verlauf die Grade der Komplexität langsam und schrittweise ansteigen. Das Universum muss also eine Geschichte haben, die sich in der Zeit abspielt.“  Smolin, Im Universum, S. 264.

14

8  Lee Smolins Wiederbelebung der Zeit 

197

Hier erkennt man auch sehr schön das evolutionäre Bild, das bisher im Wesentlichen eher isoliert auf die Biologie angewandt wurde. Smolin kritisiert in diesem Zusammenhang zu Recht ein naives Verständnis von Entropie und Thermodynamik. Nicht nur die Physiker des 19. Jahrhunderts, sondern auch zeitgenössische Theoretiker, die an das „Paradigma“ der Zeitlosigkeit glauben, halten Komplexität für zufällig und vorübergehend. Sie glauben an den so genannten finalen Wärmetod des Universums im thermodynamischen Gleichgewicht und sehen uns auf dem Weg dorthin. Smolin erklärt dagegen, warum ein immer komplexer werdendes Universum natürlich ist. Zu Beginn war das Universum mit einem Plasma im Gleichgewichtszustand angefüllt. Von dieser Einfachheit (also von einer hohen Entropie) aus hat es sich über energetische Vakuum-­ Fluktuationen und durch anschließende gravitative Strukturierungen geradezu atemberaubend diversifiziert (also unzählige Bereiche mit abnehmender Entropie erzeugt). Dessen ungeachtet wird immer noch an Parmenides und Aristoteles geglaubt, die der Meinung waren, dass ein Gleichgewichtszustand der natürlichste sei. Man muss aber wissen, dass sich die Gesetze der Thermodynamik auf eine Physik in künstlicher Isolation beziehen – und sollte ­außerdem wissen, dass Aristoteles und Newton einen ganz anderen Gleichgewichtsbegriff behandelt haben, nämlich einen, der das Gleichgewicht von Kräften behandelt. „Der Schlüssel zum Verständnis der modernen Thermodynamik liegt darin, dass sie zwei Beschreibungsebenen umfasst. Das ist zum einen die mikroskopische Ebene, die eine präzise Beschreibung der Positionen und Bewegungen aller Atome in einem bestimmten System beinhaltet. Dies wird als Mikrozustand bezeichnet. Zum anderen gibt es eine makroskopische Ebene oder den Makrozustand des Systems, dem eine grobe angenäherte Beschreibung anhand weniger Variablen wie etwa Temperatur und Druck eines Gases entspricht.“15 15

 Smolin, Im Universum, S. 267.

198 

N. H. Hinterberger

Smolin erläutert das Verhältnis dieser Beschreibungsebenen (S.  267  ff) an einem gewöhnlichen Ziegelsteingebäude im Vergleich mit einem Haus, das als Kunstwerk entstanden ist. Der Architekt gibt bei ersterem nur die Maße der Wände an (Makrozustand). Die Ziegelsteine stellen wir uns identisch vor – man kann sie also (bei Strukturerhaltung) vertauschen. Jetzt haben wir einen Symmetrie-Effekt. Es gibt kombinatorisch eine gewaltige Menge verschiedener möglicher Mikrozustände (Vertauschungen quasi-­identischer Teile), „die ein und demselben Makrozustand entsprechen.“ Frank Gehrys Guggenheim-Museum in Bilbao besteht dagegen z.  B. aus einzelnen jeweils speziell gekrümmten und individuell handgefertigten (also aus nicht austauschbaren) Metallplatten. Wir sehen gleich, Gehrys Haus könnte man sogar die Entropie Null zusprechen, wenn auch alle anderen Teile Einzelstücke wären. Unser Ziegelsteinhaus hat dagegen ein hohe Entropie, denn die mögliche Kombinatorik der Steine ist sehr hoch  – wir benötigen hier deshalb nur die Maße für Wände, Böden und Dach. Das sorgt aber dafür, dass der Algorithmus für den Bau des Ziegelsteinhauses sehr viel kürzer ist als bei Gehrys Haus. Denn welcher Ziegel wo hingesetzt wird, ist hier egal. Bei Gehrys individuellen Platten muss der Einbauort und die genaue Form dagegen für jede einzelne Platte angegeben werden. Bei der Entropie nahe Null verfügen wir also über fast gar keine algorithmische Kompressionsmöglichkeit mehr – die Beschreibung ist im Wesentlichen frei von Redundanz und entsprechend umfangreich. „An diesem Beispiel können wir sehen, dass die Entropie sich invers zum Informationsgehalt verhält. Man braucht viel mehr Information, um das Design eines Gehry-­ Gebäudes zu spezifizieren, weil man genau angeben muss, wie jedes Teil hergestellt werden soll und wo es hinkommt.“16  Smolin, Im Universum, S. 268.

16

8  Lee Smolins Wiederbelebung der Zeit 

199

Bei einem Gebäude mit vielen austauschbaren Elementen besitzt man also informationstheoretisch gesprochen eine viel stärkere algorithmische Kompression. Nehmen wir nun unseren vertrauten thermodynamischen Gasbehälter: Die fundamentale Beschreibung ist hier mikroskopisch  – sie gibt uns Ort und Bewegungszustand jedes Moleküls. Das ist eine gewaltige Informationsmenge. Die makroskopische Beschreibung begnügt sich mit Dichte, Temperatur und Druck, dafür brauchen wir nur drei Zahlen. Wenn man die Orte und Geschwindigkeiten aller Moleküle kennt, kennt man auch die Dichte und Temperatur (= mittlere Bewegungsenergie). Umgekehrt funktioniert das aber nicht, weil die Entropie den einzelnen Atomen eine gewaltige mögliche Kombinatorik erlaubt. Smolin argumentiert nun: „Um vom Mikrozustand zum Makrozustand überzugehen, ist es hilfreich zu zählen, wie viele Mikrozustände mit einem Makrozustand konsistent sind. Wie bei den Gebäudebeispielen wird diese Zahl von der Entropie der makroskopischen Konfiguration festgelegt. Man beachte, dass die so definierte Entropie nur eine Eigenschaft der Makrobeschreibung ist. Folglich ist die Entropie eine emergente Eigenschaft; es ist nicht sinnvoll, dem genauen Mikrozustand eines Systems eine Entropie zuzuschreiben.“17

Der nächste Schritt (nun wieder im Gasbehälter-­Beispiel) bestünde darin, die Entropie mit Wahrscheinlichkeiten zu verknüpfen. Dabei hält man alle Mikrozustände für gleich wahrscheinlich. Das wird dadurch gerechtfertigt, dass Gasa­ tome dazu neigen, sich chaotisch zu vermischen bzw. zu randomisieren. Je höher der Randomisierungsgrad eines Makrozustands, um so wahrscheinlicher ist seine Realisierung. Einem solchen Gleichgewichtszustand wird die 17

 Smolin, Im Universum, S. 269.

200 

N. H. Hinterberger

höchste Entropie zugeordnet. Atomisiert man einen beliebigen Makrozustand, so ist die Wahrscheinlichkeit seiner zufälligen Wiederbelebung äußerst gering. Wir scheinen also dem zweiten Hauptsatz der Thermodynamik nicht zu entkommen. Allerdings müsste man ein System nur lange genug beobachten, um seine Konfigurations-Wiederholung bzw. „Wiederbelebung“ konstatieren zu können. Man nennt einen solchen Zeitraum die „Poincaré’sche Rekurrenzzeit“. Diese abnehmende Entropie im Kontext von Zufallsbewegungen der Gasteilchen ist sicherlich extrem unwahrscheinlich bezogen auf kurze Perioden. Logisch ausgeschlossen ist sie aber nicht (siehe Poincaré’sche Rekurrenzzeit), denn Wahrscheinlichkeiten verbieten keine physikalisch möglichen Zustände. Liegt der Beobachtungszeitraum nämlich weit über der Poincaré’schen Rekurrenzzeit, wird es Fluktuationen geben, die weit unter diesem Beobachtungszeitraum unwahrscheinlich waren, sich jetzt aber eben als durchaus wahrscheinlich in Dichteunterschieden im Gas zeigen, ganz so, wie sich auch Dichteunterschiede im ursprünglichen Plasma-Gleichgewicht des ganz frühen Universums gebildet haben müssen, sonst wäre es ja gar nicht erst zu diesen Keimzellen gravitativer Strukturierungen gekommen. „Solange die Anzahl von Atomen endlich ist, wird es Fluktuationen geben, die zu jeder beliebigen Konfiguration führen, gleichgültig, wie selten sie ist.“18

Ursprünglich wurde der zweite Hauptsatz ja ohnedies falsch formuliert. Die Entropie beliebiger Systeme durfte hier nur zunehmen oder gleich bleiben. Dieser Satz wurde ja klassisch, also ohne Atomvorstellung und Wahrscheinlichkeit  Smolin, Im Universum, S. 273.

18

8  Lee Smolins Wiederbelebung der Zeit 

201

eingeführt. Erst Paul und Tatjana Ehrenfest konnten zeigen, dass die Entropie auch abnehmen kann. Trotzdem sagt uns die Thermodynamik: „dass nahezu jede Lösung der Gesetze der Physik ein Universum im Gleichgewichtszustand beschreibt, weil die Definition des Gleichgewichtszustands lautet, dass er aus den wahrscheinlichsten Konfigurationen zusammengesetzt ist. Eine weitere Implikation des Gleichgewichtszustandes ist, dass die typische Lösung der Gesetze im Durchschnitt zeitsymmetrisch ist – in dem Sinne, dass Fluktuationen zu einem geordneteren Zustand genauso wahrscheinlich sind wie Fluktuationen zu einem weniger geordneten Zustand. Lässt man den Film rückwärts laufen, erhält man eine Geschichte, die genauso wahrscheinlich und im Mittel genauso zeitsymmetrisch ist.“19

Von hier aus könnte man vielleicht versucht sein zu behaupten, dass es gar keinen globalen Zeitpfeil gibt, aber: „Unser Universum sieht überhaupt nicht nach diesen typischen Lösungen der Gesetze aus. Selbst jetzt, mehr als 13 Milliarden Jahre nach dem Urknall, befindet sich unser Universum nicht im Gleichgewichtszustand. Und die Lösung, die unser Universum beschreibt, ist zeitasymmetrisch.“

Smolin bemerkt dann zu Recht, dass diese Eigenschaften äußerst unwahrscheinlich wären, wenn man annähme, dass sie zufällig waren  – aber natürlich nicht, wenn man annimmt, dass Strukturbildung evolutionär Zeitpfeil-gebunden ist und in unzähligen kleinen Schritten erfolgt. Warum wurde das thermodynamische Gleichgewicht nicht schon vor langer Zeit realisiert, obwohl die Entwicklung des Universums seit über 13 Milliarden Jahren im Gange ist? Das 19

 Smolin, Im Universum, S. 276.

202 

N. H. Hinterberger

Problem des nicht kommenden Gleichgewichts für das gesamte Universum scheint zu sein, dass unzählige Phänomene nicht nur durch ihre Entstehung, sondern auch durch ihren Verfall zeigen, dass es einen Zeitpfeil geben muss, der in die Zukunft und nicht in die Vergangenheit weist – was klar gegen die Zeit-Symmetrie in den Gesetzen der Thermodynamik spricht. Die fundamentalen Gesetze der Physik (mit ihrer zeitlichen Spiegelsymmetrie) werden nicht verletzt, wenn die Menschen jünger werden oder kaputtes Geschirr sich selbstständig wieder zusammenfügt. Daher müssen sich die Wärmetod-Anhänger fragen, warum diese, in probabilistischer Hinsicht möglichen Ereignisse offenbar nur in rückwärts laufenden Filmen auftreten. Wir verfügen über ein ganzes Sammelsurium von Zeitpfeilen: Die Ausdehnung des Universums plus ihrer möglichen Umkehrung in eine Kontraktion geschieht innerhalb eines kosmologischen Zeitpfeiles. Er behält also auch in einem zyklischen Universum immer dieselbe Richtung. Er ist ­immer in die Zukunft gerichtet. Der klassische thermodynamische Zeitpfeil in der naiven Lesart, also mit nur steigender oder gleichbleibender Entropie, scheint nur für kleine Teile des Universums zu gelten (wir haben ihn überdies nur idealisierend durch „physics in the box“ abgeleitet). Wir sehen, dass unsere Handlungen und auch passive Prozesse in die Zukunft laufen, nicht in die Vergangenheit, verfügen also über einen empirischen Zeitpfeil. Und wir können dies objektiver, wie etwa Smolin, als Komplexitäts-Zeitpfeil betrachten. In jedem Fall sind dies universelle Erfahrungswerte – nicht „physics in the box“. Außerdem können wir über den noch etwas spezielleren biologischen Zeitpfeil reden (wie auch Popper und die Evolutionsbiologen das getan haben), weil wir die Tatsache, dass wir älter und nicht jünger werden, ja nicht nur als subjektive Erfahrung, sondern auch mit allen möglichen Messungen und biochemischen Tests feststellen können, falls wir unseren

8  Lee Smolins Wiederbelebung der Zeit 

203

Augen bezüglich des allgegenwärtigen Verfalls nicht trauen. Der psychologische Zeitpfeil ist dagegen rein subjektiv – wenn uns gefällt, was wir tun, scheint die Zeit eher schnell zu vergehen, wenn wir es nicht mögen, scheint sie sich zu dehnen. Dass sich das Licht aus der Vergangenheit in die Zukunft bewegt und nie umgekehrt, zeigt der elektromagnetische Zeitpfeil. Es scheint überdies „einen Zeitpfeil schwarzer Löcher zu geben, der durch das Fehlen schwarzer Löcher in der Frühgeschichte des Universums nahegelegt wird“.20 Unsere bekannten Naturgesetze erlauben allerdings überall  – und besonders auf Quantenebene  – Zeit-­reversible Vorstellungen. Aus derartigen Gesetzen kann man keinen asymmetrischen Zeitpfeil ableiten. Julian Barbour21 erklärt dessen ungeachtet mit diesen nicht-evolutionären Gesetzen seine Vorstellung von Zeitlosigkeit bzw. bezichtigt die Zeit nicht-fundamental bzw. emergent zu sein. Smolin schreibt dagegen: „Die Zeitpfeile stellen jeweils eine zeitliche Asymmetrie dar; wie könnten sie aus zeitsymmetrischen Gesetzen entstehen? Die Antwort lautet, dass die Gesetze auf Anfangsbedingungen operieren. Die Gesetze können zwar im Hinblick auf die Umkehrung der Zeitrichtung symmetrisch sein, aber dasselbe muss nicht für die Anfangsbedingungen gelten. Die Anfangsbedingungen können sich zu Endbedingungen entwickeln. Tatsächlich ist das auch der Fall: Die Anfangsbedingungen unseres Universums scheinen äußerst genau eingestellt worden zu sein, um ein Universum hervorzubringen, das zeitasymmetrisch ist.“22

Anders gesagt, von den Endbedingungen her könnte sich das Universum nicht spiegelsymmetrisch umkehren und  Smolin, Im Universum, S. 279.  Julian Barbour, The End of Time, Oxford University Press, 1999. 22  Smolin, Im Universum, S. 280. 20 21

204 

N. H. Hinterberger

etwa zeitlich in die andere Richtung bzw. zurück laufen, wie in einem Film, um bei den Anfangsbedingungen zu enden. Es können sich zwar die Vorzeichen von Protonen und Elektronen umkehren wie in Bojowalds zyklischem Universum, aber das ist bei Bojowald gerade nicht mit einer Zeitumkehr verknüpft, denn Expansion und anschließende Kontraktion des Universums geschehen in ein und demselben Zeitpfeil. Smolin argumentiert, dass die anfängliche Expansionsrate des Universums die Erzeugung von Galaxien und Sternen maximiert habe. Die Anfangsbedingungen haben dafür gesorgt, dass die Expansion nicht zu schnell und nicht zu langsam stattfand. Im ersten Fall hätte sich das Universum zu schnell verdünnt (für Galaxien und Sterne). Im zweiten Fall wäre es gleich wieder kollabiert. Würden die Gleichungen möglicher Universen gelten, wie bei Tegmark, wäre es dagegen möglich, dass wir weit in der Zukunft einen Film machen und ihn rückwärts laufen ließen. Hier gäbe es nämlich Bilder von Dingen, die früher existiert haben. „Aber wenn wir den Film in der Zeit rückwärts laufen lassen, sehen wir ein Universum von lauter Dingen, die erst noch geschehen müssen. Tatsächlich würde Licht, das ein Bild transportiert, in das Ereignis fließen, das das Bild repräsentiert, und dort enden. Das Licht, das wir sähen, würde uns nur etwas über Dinge sagen, die erst noch geschehen … Um zu erklären, warum wir nur Dinge sehen, die geschehen oder schon geschehen sind, und nie etwas, das erst noch geschieht oder das nie geschehen wird, müssen wir strenge Anfangsbedingungen auferlegen.“23

Und das hat das Universum offenbar getan. Würden wir bspw. nur über die elektromagnetischen Gleichungen  Smolin, Im Universum, S. 281.

23

8  Lee Smolins Wiederbelebung der Zeit 

205

verfügen, könnten wir das Universum auch gleich zu Anfang mit Licht beginnen lassen, das sich ungehindert bewegt. In einem solchen Universum hätten wir aber keine Information über die Vergangenheit, sondern nur eine einzige Lichtüberflutung. Aber es gibt eben einen elektromagnetischen Zeitpfeil, der erst später entstand, nachdem sich das Quark-­Gluonen-­Plasma soweit verdünnt hatte, dass Strukturen vom Licht abgebildet werden und diese Nachricht des Lichts sich im Raum verteilen konnte. Nur deshalb haben wir Bilder aus der Vergangenheit und nicht aus der Zukunft. Das kann man aber eben nicht als symmetrisch bezeichnen. Ähnlich kann man zur Asymmetrie bzw. zur zeitlichen Staffelung der Gravitationswellen und schwarzen Löcher argumentieren. Schwarze Löcher konnten erst nach den Sternen bzw. nach Supernovae entstehen. Und Gravitationswellen entstehen etwa durch Zusammenstöße schwarzer Löcher – oder auch von Neutronensternen. Roger Penrose24 redet im Zusammenhang von Gravitationswellen, schwarzen und weißen Löchern von einer so genannten „Weylkrümmung“, die von Null verschieden ist, da wo letztere auftreten. Bei der ursprünglichen „Singularität“ solle dann aber – in Übereinstimmung mit unserem Wissen über das frühe Universum  – Null gelten. Die Weylkrümmung ist natürlich eine zeitasymmetrische Bedingung, die der Wahl der Lösung der zeitsymmetrischen Gesetze der allgemeinen Relativitätstheorie auferlegt werden müsste. Nimmt man die Zeit aufgrund der vielfältigen zu beobachtenden Asymmetrien ernst, muss man nicht auf viele, insbesondere aber nicht auf alle möglichen Welten ausweichen, um die mit unseren bisherigen symmetrischen Gesetzen unwahrscheinlichen Anfangsbedingungen zu erklären. Man  Roger Penrose, „Singularities and Time-Asymmetry“ in General Relativity: An Einstein Centenary Survey, Cambridge 1979, S. 581–638. 24

206 

N. H. Hinterberger

kann schlicht annehmen, dass unsere Gesetze nur Approximationen an ein tieferes Gesetz sind (was ja auch schon Einstein dachte). „Was wäre, wenn dieses tiefere Gesetz zeitasymmetrisch wäre? Wenn das fundamentale Gesetz zeitasymmetrisch ist, dann sind es auch die meisten seiner Lösungen … Die Tatsache, dass das Universum hochgradig zeitasymmetrisch ist, würde … direkt durch die Zeitasymmetrie des fundamentalen Gesetzes erklärt werden. Ein zeitasymmetrisches Universum würde dann nicht länger unwahrscheinlich, sondern notwendig sein.“25

Ich halte diese Argumentation für sehr überzeugend. Eine Quantentheorie der Gravitation sollte auch nach Penrose offenbar stark zeitasymmetrisch sein  – seine „Weylkrümmungshypothese“ könnte man jedenfalls gut da­ rauf abbilden. Mit einer emergenten Zeit wäre eine zeitasymmetrische Theorie unnatürlich, wie Smolin zu Recht bemerkt. Wir hätten in einer fundamentalen Theorie ohne Zeitbegriff „keine Möglichkeit die Vergangenheit von der Zukunft zu unterscheiden.“ Smolin weist dann – und das ist ganz wichtig – noch einmal darauf hin, dass der Begriff der Unwahrscheinlichkeit einer Konfiguration zwar einen Sinn in Bezug auf ein Newtonsches Subsystem macht, aber sicher nicht in Bezug auf das Universum als Ganzes, für das wir nur theoretische bzw. Konstruktions-Vergleiche haben. Eine zufällige Auswahl der Anfangsbedingungen können wir ebenfalls ausschließen, weil sie zu spezifisch angepasst sind an die Welt, die wir erleben. Smolin macht dann eine Unterscheidung zwischen zwei Arten von Multiversums­ theorien. Auf der einen Seite stehen Theorien, die unser Universum für unwahrscheinlich halten, wie die Theorien  Smolin, Im Universum, S. 283.

25

8  Lee Smolins Wiederbelebung der Zeit 

207

der „ewigen Inflation“ (Vilenkin, Linde u. a.) und auf der anderen jene, die davon ausgehen, dass es eine „kosmologische natürliche Selektion“ gibt, die eine Struktur-Evolution in nur einem Universum – oder einer Menge von Universen – beschreiben, in der unsere Art von Universum wahrscheinlich ist. Nur letztgenannte liefern falsifizierbare Vorhersagen für durchführbare Experimente. „(…) in der ersten Klasse muss das anthropische Prinzip benutzt werden, um unsere Arten von unwahrscheinlichen Universen auszuwählen, und es sind keine Vorhersagen möglich, durch die die Hypothesen, die dem Szenario zugrunde liegen, unabhängig überprüft werden könnten. Wir müssen also zu dem Schluss gelangen, dass die Aussage, das Universum sei unwahrscheinlich, keinen empirischen Gehalt hat, ob es nun viele Universen oder nur eines gibt.“26

Wir hatten das schon angesprochen. Das anthropische Prinzip scheint quasi-tautologisch. Nun beruht die Thermodynamik auf der Anwendung von Wahrscheinlichkeit auf der Quantenebene eines jeweiligen Sub-Systems (also eines Gasbehälters etwa). Wenn die Thermodynamik dagegen auf eine Eigenschaft des gesamten Universums angewandt wird, begehen wir nach Smolin den kosmologischen Fehlschluss, der uns dazu führt, einen ausnahmslosen Anstieg der Entropie in das ganze Universum hineinzulesen, der längst im thermodynamischen Gleichgewicht hätte enden müssen. „Ludwig Boltzmann, der Erfinder der statistischen Erklärung der Entropie sowie des zweiten Hauptsatzes der Thermodynamik, scheint der erste gewesen zu sein, der eine Antwort auf die Frage vorgeschlagen hat, warum das Universum sich nicht im Gleichgewichtszustand befindet.“27  Smolin, Im Universum, S. 284.  Smolin, Im Universum, S. 285

26 27

208 

N. H. Hinterberger

Boltzmann wusste ebenso wie seinerzeit auch Einstein nichts von der Expansion des Universums. Beide gingen von einem ewigen und statischen Universum aus. Einstein benötigte die Kosmologische Konstante, damit sein endliches Universum nicht unter der eigenen Schwerkraft zusammenstürzte. Boltzmann benötigte eine Erklärung, warum sein Universum sich nicht längst im Zustand des thermodynamischen Gleichgewichts befand  – nach einer Ewigkeit von Zeit. Er schlug als Erklärung vor, dass unser Sonnensystem vor relativ kurzer Zeit samt näherer Stern-Umgebung als eine Fluktuation aus einem Gas im Gleichgewichtszustand entstanden sei. Diese Erklärung war aber falsch. „Wir wissen das jetzt, weil wir fast bis zum Urknall zurück und entsprechend 13 Milliarden Jahre in die Vergangenheit blicken können und dabei keine Belege dafür finden, dass unsere Region des Universums eine Fluktuation mit niedriger Entropie in einer statischen Welt ist, die sich im Gleichgewicht befindet. Stattdessen sehen wir ein Universum, das sich in der Zeit entfaltet, wobei sich während der Expansion des Universums Strukturen auf jeder Skala entwickeln.“28

Diese Kritik an der naiven Lesart der Thermodynamik ist nicht nur überzeugend, sondern hält auch immer den Strukturbegriff des kritischen Realismus bereit, der fest an die auch räumliche Prozess- Haftigkeit von Materie/Energie gebunden ist, also nicht einfach nur mathematisch verstanden wird oder sich gar aus sekundären Eigenschaften rekrutiert. Smolin meint echte Kausalität, materielle Wechselwirkungs-­Relationen, die notwendig die physikalisch relevanten Zeitpfeile mit sich bringen  – den Raum  Smolin, Im Universum, S. 286.

28

8  Lee Smolins Wiederbelebung der Zeit 

209

betrachtet er bekanntlich schon eher als emergent, er kann expandieren und schrumpfen, in einem Bojowald-­ Universum zum Beispiel. Zeit kennt dagegen nur eine Richtung, sie kennt nur den Weg in die Zukunft.

9 Ein einzigartiges Universum

9.1 Die Realität der Zeit Man kann das – noch detaillierter – in Smolins Buch sehen, das er 2015 zusammen mit Roberto Mangabeira Unger geschrieben hat. Oder besser: Unger hat wohl darum ersucht, dass Smolin ungefähr ein Drittel als Zweiten Teil beiträgt. Das ist allerdings der Teil, der hier von besonderem Inte­ resse sein soll. Smolin lässt konsequent alles in einem relationalen, aber nichtsdestoweniger globalen Zeitfluss geschehen. Daher existiert bei ihm auch keine zeitlose Mathematik. Mathematik wird wie alles andere in der Zeit „evoziert“ – einfach zum Zeitpunkt ihrer Konstruktion oder Erfindung. Und so kommen neue mathematische Techniken hinzu  – unvorhersehbar und zu unvorhersehbaren Zeiten. Sie existieren also nicht inhärent und zeitlos in der Natur, in der sie  – nach Meinung der Platonisten  – nur „entdeckt“ werden

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 211 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1_9

212 

N. H. Hinterberger

müssten. In diesem Zusammenhang kritisiert er das Newtonsche Paradigma aus kosmologischer Sicht: „The Standard methodology of physics was invented by Newton, and frames all the successful physical theories since, including quantum mechanics, quantum field theory and general relativity. It can be described as follows. The system to be studied is always a subsystem of the universe, idealized as an isolated system. The theory appropriate to that subsystem is defined by giving separately the kinematics and the dynamics. The kinematics comes first and is described by giving a state space, C, of possible states the system may have at any time.“1

Obwohl die Materie bzw. Energie im Raum ihre Beziehungen innerhalb einer positiven Zeit entwickelt, werden Sie im Newtonschen Paradigma nichts davon finden, der „Zustandsraum und das Gesetz sind zeitlos.“ Und deshalb versagt das Paradigma, wenn es angewendet wird auf das Universum als Ganzes. Denn hier braucht man nicht nur lokale (und häufig nur relativistisch kinematisch aufgefasste) Eigenzeit, sondern alle kosmologisch relevanten Zeitpfeile für die gesamte physikalische Evolution – mit all ihrer relationalen Dynamik, von der sie ausgehen. Smolin beschreibt in seinem Buch den Weg vom Reduktionismus zum Relationalismus. Von Anfang an gab es zwei völlig unterschiedliche Interpretationen des Relationalismus. Zum einen der relationale Purismus: „A relational purist believes that once background structures are eliminated physics will be reduced to a description of  Roberto Mangabeira Unger, Lee Smolin, The Singular Univers And The Reality Of Time, Cambridge University Press, 2015, 2016, S.  373. Die Beiträge von Smolin und Unger sind hier glücklicherweise getrennt. Ich war nämlich in Bezug auf die Argumentation von Unger nicht wirklich überzeugt. Nicht so klar in der Sprache – und teilweise sind die Inhalte sogar einigermaßen konträr. Es ist wohl kein Zufall, dass die unterschiedlichen Positionen beider in einem recht umfangreichen Anhang am Ende – von beiden – noch einmal klargestellt wurden. 1

9  Ein einzigartiges Universum 

213

nature purely in terms of relationships. An important example is the causal set program, which aims to develop a complete theory of quantum gravity – and hence nature – on the basis of an ontology of discrete events, the only attributes of which are bare causal relations. These are bare in the sense that event A is a cause of event B is a primitive. The causal set program denies there are any further properties, P of A and Q of B, such that P of A causes Q of B.“2

Hier sollte die Lorentzsche Raumzeit nur annähernd die Einstein-Gleichungen erfüllen: Sie sollten „nur aus einer diskreten Menge von Ereignissen und ihren nackten kausalen Beziehungen“ bestehen (interpretiert als bloße „Gesetze des Denkens“  – David Hume), auch wenn dies vielleicht nicht beabsichtigt oder bewusst war. Aber, in welcher Weise sollten Beziehungen ohne Materie/Energie sonst bestehen? Mit dem sogenannten nicht-reinen Relationalismus sehen wir ein realistischeres Bild: „Completion of the program of eliminating background structures does not imply that there can be no further properties of events except for their causal and other relations with other events. In an events ontology, you may eliminate all background structures – as the causal set program very nearly does – and still be left with an event having properties which are not specified when you know all the relations with other events.“3

Letzteres ist das, was Smolin als intrinsische Eigenschaften bezeichnet, wie wir es auch tun. Und weiter, wie wir oben argumentiert haben: „Intrinsic properties can be dynamical, in that they play a role in the laws of motion. For example, in an events ontology, energy and momentum can be intrinsic properties of events. They can play a role in dynamics and be transferred by causal links.“  Smolin, The Singular, S. 388.  Smolin, The Singular, S. 388, 389.

2 3

214 

N. H. Hinterberger

Ein Realist könnte sagen, dass sie diese Rolle spielen müssen, ansonsten haben wir wieder nur eine leere Vorstellung von Kausalität. Und in der Tat gibt es eine realistische Version, die als energetisches kausales Mengengerüst bezeichnet wird. Momentum und Energie werden hier als grundlegend und intrinsisch betrachtet – und vor der Raumzeit definiert: „Indeed, in this approach dynamics is formulated strictly in terms of momentum and energy and causal relations. Position in spacetime is emergent and comes in at first just as Lagrange multipliers to enforce conservation of energy and momentum at events.“4

Im Übrigen kann man Impuls und Energie auch direkt in einer gequantelten Raumzeit unterbringen (ich denke da an die Reduktion von Teilchen auf Kräuselungen der Raumzeit – aus dem Umkreis der LQG). Sie sind dann trotzdem für die Dynamik und Kinematik der Raumzeit kausal bestimmend bzw. primär. Smolin erklärt dann, warum auch er in seinen Überlegungen die Priorität von Impuls und Energie bevorzugen würde. In einer Welt der relationalen Raumzeit erscheint diese Position natürlich: „This is based on the fact that physics has a particular structure in which spacetime variables are paired with the dynamical variables, momentum, and energy. This dual paring is expressed by the Poisson brackets,

{x , p } = δ a



b

a b

(1)

and has its most profound implication in Noether’s theorem, which says that if there is a symmetry of a physical system under translation in a physical spatial coordinate xa  Smolin, The Singular, S. 389.

4

9  Ein einzigartiges Universum 

215

then the correspondending momentum pa is conserved. Moreover, in canonical formalism pa is the generator of translations in xa



δ x a = α b { x a , pb } = α a (2)

This can be interpreted to say that if position is absolute and so has symmetries (i.e. nature is perfectly unchanged under translations in xa), then the corresponding momentum pa can be defined relationally, in terms of translations in xa. But note that if space is defined relationally then there can be no perfect symmetry under translations in a space coordinate.“5

Eine Transformationssymmetrie beschreibt eine Transformation von einem physikalischen Zustand in einen anderen Zustand, der sich von dem vorherigen immer in bestimmten Eigenschaften unterscheidet  – egal, was im übrigen noch erhalten sein mag. Letzterer kann also keine komplett identischen physikalischen Eigenschaften haben, weil dies durch das Identitäts-Prinzip von Leibniz ausgeschlossen ist. Wenn der Raum relational ist, kann der Impuls, wie Smolin sagt, intrinsisch sein. Umgekehrt formuliert, aus der Sicht, dass der Impuls physikalisch primär und also implizit intrinsisch ist und die Position als Generator der Übersetzungen im Impulsraum relational definiert wird, nehmen wir den Standpunkt des Rahmenwerks der relativen Lokalität ein. In diesem Zusammenhang schlägt Smolin vor, Impuls und Energie als intrinsische Größen und vor (emergenter) Raumzeit anzunehmen. Er sieht Unterstützung dafür in den Einstein-Gleichungen

R ab − 1/ 2g ab R = 8GTab (3)

 Smolin, The Singular, S. 389–390.

5

216 

N. H. Hinterberger

denn die linke Seite – mit ihren geometrischen Größen – ist in der Relativitätstheorie relational definiert. Die rechte Seite zeigt den Energie-Impuls-Tensor, der die Verteilung von Energie und Impuls in der Raumzeit beschreibt. „Ever since Einstein began working on unified field theories generations of theorists, down to late twentieth-century string theorists have speculated that progress is to be achieved by reducing the right-hand side to geometry as well, so that physics can be expressed in a purely geometric structure.“6

Aber wie Smolin weiter argumentiert, könnte das falsch sein. Ich würde sogar sagen, dass es aus realistischer Sicht falsch sein muss. Smolin‘s Vermutung würde zumindest zu der Tatsache passen, dass diese Strategien nie funktioniert haben. Stattdessen könnte man besser sagen, dass die linke Seite aus einer fundamentaleren Beschreibung hervorgegangen ist. Und zwar aus einem Ansatz, bei dem Energie und Impuls die Primär-Größen sind – die für die Kausalbeziehungen verantwortlich zeichnen. Smolin steht für einen evolutionär zeitgebundenen Naturalismus („temporal naturalism“) des gesamten Universums. Von dieser Position aus kritisiert er alle Varianten des zeitlosen Strukturalismus oder des Newtonschen Paradigmas. In seiner Zusammenfassung des zweiten Kapitels betont er erneut, dass er von einem singulären Universum ausgeht, das sich wie auch die Naturgesetze selbst zeitlich weiterentwickelt. Das gilt auch für diskrete Quantenskalen. Auch hier ist kein Platz für Zeitlosigkeit bzw. Zeitsymmetrie. „On cosmological scales the universe is unique and laws evolve; so the Newtonian paradigm breaks down. On fundamental scales events are also unique; so the Newtonian  Smolin, The Singular, S. 391.

6

9  Ein einzigartiges Universum 

217

paradigm breaks down here also. Events are distinguished by their relational properties and thus must be fundamentally unique: there can be no simple and general laws on the fundamental scale.“7

Weiter vorne hat er in einer Fußnote seine Terminologie hinsichtlich der Unterscheidung zwischen Strukturalismus und Relationalismus geklärt – um terminologische Verwirrungen zu vermeiden (wie wir es hier schon bei Meinard Kuhlmann gesehen haben  – da sogar im Zusammenhang mit inhaltlichen Verwirrungen). Die Fußnote: „If a property of an event is intrinsic it can be defined without regard to any relations or other events. That does not mean it plays no role in the dynamical equations of the theory. Let us reserve the term internal for a property of an event or a particle that plays no role in the laws of physics. Momentum can be intrinsic but is not internal. Qualia are intrinsic and appear to be internal. By structural properties, philosophers seem to mean the same thing that we physicists mean by relational properties. I prefer the term relational as structure seems to denote something static and hence timeless. A structural property seems to be one that transcends time or history, but temporal naturalism asserts that may be no such transcendental properties of nature. Structuralism seems to be a form of timeless naturalism which asserts that what is really real are structures which transcend particularity of time and place.“8

Und die Strukturalisten setzen dabei ganz allgemein auf eine rein operationalistische Position  – auf eine völlig von der materiellen Realität entkleidete Mathematik, eben ohne sich auf die intrinsischen Eigenschaften der Materie zu beziehen.  Smolin, The Singular, S. 391.  Smolin, The Singular, S. 389.

7 8

218 

N. H. Hinterberger

In diesem Zusammenhang halte ich die Diskriminierung von Smolin für äußerst wichtig – genauso wie die folgenden Bemerkungen: „Repeatable Laws only arise on intermediate scales by coarse graining, which forgets information that makes events unique and allows them to be modeled as simple classes which come in vast numbers of instances. Hence the Newtonian paradigm works only on intermediate scales.“9

Und die grobkörnige Zwischenskala ist natürlich eine direkte Folge der nicht-individuellen bzw. stochastischen Beschreibungen in der Physik – und zwar nicht nur auf der Quantenebene. Denn die Ähnlichkeit bei den Klassifizierungen ergibt sich aus der Vernachlässigung detaillierterer Informationen. Wir sehen wieder, dass Dinge in dieser oder jener Eigenschaft gleich sein können, aber sie können niemals in allen Eigenschaften gleich sein. Wir sehen das durch Paulis Ausschlussprinzip (für Fermionen) schon auf subatomarer Ebene, aber auch durch den Identitätssatz der deduktiven Logik, der in der Tat zuerst von Leibniz formuliert wurde, ganz allgemein. Um Antinomien in der Mengenlehre zu vermeiden, zielen wir (seit der Krise in der Mengenlehre) auf einzelne Eigenschaften, und wir erstellen für jede einzelne Eigenschaft eine einzelne Klasse. Dinge mit mehr als einer primären Eigenschaft (und alle haben mehr als eine) können jedoch nicht in einer einzelnen Klasse beschrieben werden, sondern nur in heterogenen Mengen – und das gilt für alle Entitäten bis hinunter zu den Elementarteilchen. Das ist die Grobkörnung, von der Smolin hier spricht. „It is interesting to wonder whether this might be the origin of quantum uncertainty. That is, the hidden variables need to complete quantum theory, if we are to explain, why individual  Smolin, The Singular, S. 391.

9

9  Ein einzigartiges Universum 

219

events take place, must be relational. They must arise in adding the information needed to distinguish each event from all the others. Note that because the question of distinguishing individual events from others requires a comparison with others, such relational hidden variables must be non-local. Finally, it may happen that uniqueness might sometimes not wash out on intermediate scales, leading to a breakdown of lawfulness, arising from novel states or events.“10

Mit diesem realistischen Relationalismus hätte Smolin auch die Nicht-Lokalitäten der möglichen Hidden Variables erfasst. Außerdem begegnet man in seiner Argumentation der hochinteressanten Frage, ob diese Grobkörnungen als ursächlich für die theoretischen Quanten-Unsicherheiten ins Gespräch gebracht werden könnten – bzw. die verborgenen Variablen als Ursachen für die realen Quantenunsicherheiten. Ein derartig mutiger Quanten-Individualismus scheint mir bisher jedenfalls noch nicht formuliert worden zu sein. Ich halte ihn – insbesondere von einem konsequent evolutionistischen Ansatz aus – aber auch für sehr natürlich.

9.2 Kausales Modellieren Verborgene Variablen schienen lange Zeit aus der Diskussion verschwunden zu sein. In den letzten Jahrzehnten kehrten sie allerdings insbesondere in den Werken von Bojowald und Smolin (als halbklassische Ansätze) zurück. Oliver Passon ist ein Bohmianer, der sich mit einem ähnlichen Ansatz befasst).11 Verborgene Variablen kamen übrigens auch im Rahmen neuer Schlitzexperimente (mit einem Mach-­Zehnder-­Interferometer)  Smolin, The Singular, S. 391–392.  Oliver Passon, Bohmsche Mechanik, Harry Deutsch Verlag, 2004. Und: „Nicht-Kollaps-Interpretationen der Quantentheorie“, in Philosophie der Quantenphysik, Springer, Berlin – Heidelberg, 2015. S. 177. 10 11

220 

N. H. Hinterberger

im Lichte von Causal Modelling12 zurück. Zunächst um die Gültigkeit der antirealistischen Sichtweise von John Wheeler und Werner Heisenberg zu beweisen.13 Aber das Ergebnis (in einem Artikel von Anil Ananthaswamy im Quanta Magazine erörtert) überzeugt nicht wirklich. Zumindest ist es mehrdeutig wie alle anderen Interpretationen mit negativer Zeit und fehlenden intrinsischen Eigenschaften. Diese neuen Experimente konnten wiederum nicht zeigen, dass der berühmteste aller Ansätze mit verborgenen Variablen, die De-Broglie-Bohm-Theorie, widerlegt oder zumindest erfolgreich kritisiert werden konnte. Darüber hinaus gibt es weitere Labortests, die eher die realistische Interpretation von De-Broglie und David Bohm unterstützen. John Wheelers Experiment (von 1983)  – das berühmte Experiment mit verzögerter Wahl, das einen zweiten Strahlteiler verwendet, während das Photon bereits unterwegs ist – wurde von Rafael Chaves und seinem Team leicht verändert. „Im Mai 2018 fanden Rafael Chaves, Gabriela Barreto Lemos und Jacques Pienaar vom Internationalen Institut für Physik in Natal, Brasilien, ein Schlupfloch. Sie zeigten, dass sich Wheelers Experiment unter bestimmten Voraus­ setzungen mit einem klassischen Modell erklären lässt, in dem das Photon intrinsische Eigenschaften besitzt.“14

Für alle Experimente gilt: Das Teilchen alleine oder die Welle wird nach Passieren des Strahlteilers immer orthogonal zu den Teilern (den platzierten Spiegeln) reflektiert, um Detektor 1 oder Detektor 2 zu erreichen: Experiment 1: Mit  Chaves, R. et al.: Causal Modelling the Delayed-Choice Experiment. In: Physical Review Letters 120, 190401, 2018. 13  Vorgestellt von Anil Ananthaswamy (Spektrum der Wissenschaft, 12.18). Original source: „Closed Loophole Confirms the Unreality of the Quantum World“, Quanta Magazine, 2018. 14  Anil Ananthaswamy „Quantenmechanik – Kein Ausweg aus der Unwirklichkeit“, Spektrum der Wissenschaft, 12.18, S. 13–14. 12

9  Ein einzigartiges Universum 

221

nur einem Strahlteiler „Wenn das Photon ein Teilchen ist“, wird es vom Strahlteiler durchgelassen oder reflektiert (mit dem gleichen p = 0,5 – wenn man die Bernoulli-Zeit betrachtet). Somit nimmt das Photon entweder den Weg 1 zum Detektor 1 oder den Weg 2 zum Detektor 2 (mit p = 0,5). Experiment 2: Mit einem zweiten Strahlteiler verhält sich das Photon von Anfang an wie eine Welle, die sich am ersten Strahlteiler aufteilt und beim zweiten wieder zusammenkommt. Hier kann man die Wellenüberlagerung so manipulieren, dass der Weg 1 eine konstruktive und der Weg 2 eine destruktive Überlagerung erzeugt. Das Photon als Welle wird also immer nur am Detektor 1 gemessen (mit p = 1). Experiment 3: Im Versuch mit der verzögerten Wahl (Wheeler) wird der zweite Strahlteiler in das System eingebracht, während das „Teilchen-Photon“ bereits unterwegs ist. „Das macht das Photon plötzlich zu einer Welle – als hätte es von Anfang an beide Wege eingeschlagen.“ Die „Schlussfolgerung“ des Autors beim letzten Experiment lautet wie folgt: Erste Alternative: Das Einfügen des zweiten Strahlteilers sendet ein Signal durch die Zeit zurück, um das anfängliche Verhalten des Lichtteilchens zu beeinflussen. Zweite Alternative: Photonen haben keine definierten intrinsischen Eigenschaften, sofern sie nicht ­beobachtet werden. Man muss hoffen, dass diese Schlussfolgerung nicht als Kontravalenz bzw. Disjunktion durch den Autor angesehen wird, da logischerweise immer eine weitere Alternative möglich ist. Abgesehen davon sind beide Behauptungen, auch einzeln betrachtet, starker Tabak. Die Rückfahrt des Photons in negativer Zeit wird als sogenannte Rückwärts-Kausalität verstanden. Dies ist in seinen logischen Implikationen ebenso zweifelhaft wie die Behauptung, dass Photonen keine intrinsischen Eigenschaften haben, sofern sie nicht beobachtet oder gemessen werden.

222 

N. H. Hinterberger

Diese dogmatische „Schlussfolgerung“ ist jedoch insgesamt unhaltbar, weil es andere Möglichkeiten gibt. Der Autor selbst erwähnt Alternativen. Er stellt zum Beispiel die Arbeit des theoretischen Informatikers Judea Pearl vor: „Kausalmodelle stellen Ursache-Wirkungs-Verbindungen zwischen den Elementen eines Experiments her. Bei der Untersuchung zweier korrelierter Ereignisse A und B lässt sich mitunter nicht feststellen, ob A Ursache von B ist oder umgekehrt. Möglicherweise verursacht sogar ein bislang unverdächtiges Ereignis C sowohl A als auch B. In solchen Fällen können kausale Modelle dabei helfen, C zu lokalisieren.“15

Rafael Chaves und sein Team waren von Anfang an überzeugt, dass sie im Rahmen des Wheeler-Experiments kein kausales Modell für die Möglichkeit versteckter Variablen finden würden. Das ist der Grund, warum sie bei der Planung ihres Experiments von einer reductio ad absurdum ausgegangen sind. Aber sie haben eine Überraschung erlebt. Zunächst wurde dem Photon unmittelbar nach dem Durchlaufen des ersten Strahlteilers ein innerer Zustand in Form einer verborgenen Variablen zugewiesen. Dabei wurde eine Größe angenommen, die in der Standard-­ Quantenmechanik nicht vorkommt, aber das Verhalten des Photons irgendwie beeinflussen kann. „Die Experimentatoren entschieden dann, ob sie einen zweiten Strahlteiler einfügten oder nicht. Im Kausalmodell, das Reisen zurück in der Zeit verbietet, kann die Wahl der Experimentatoren den vorherigen Zustand des Photons nicht beeinflussen.“

 A. Ananthaswamy, Spektrum, S. 18.

15

9  Ein einzigartiges Universum 

223

Dann erarbeitete das Team von Chaves mit Hilfe ihrer theoretisch versteckten Variablen Regeln, mit denen die angenommenen Werte der Variablen und das jeweilige Vorhandensein oder Nichtvorhandensein des zweiten Strahlteilers erkennen lassen, ob das Photon von D1 oder D2 registriert wird. Das Ganze stand anscheinend nirgends im Widerspruch zur Quantenmechanik. Die Forscher betrachteten dies dann als unerwartete Möglichkeit für eine klassische oder kausale, oder realistische Erklärung. Sie interpretierten es als „Schlupfloch“ in der bisherigen Interpretation von Wheelers Experiment. Der nächste Schritt: „Im modifizierten Gedankenexperiment wird das Mach-Zehnder-Interferometer mitsamt zweitem Strahlteiler durch zwei ‚Phasenschieber‘ ergänzt – einem am Anfang des Experiments, einem am Ende. Sie können als Auswahlschalter von den Experimentatoren willkürlich betätigt werden. Netto wirken sich zwei Phasenschieber auf die relativen Weglängen des betrachteten Photons aus. Dadurch ändert sich das Interferenzmuster und somit auch das angenommene wellenartige oder teilchenartige Verhalten des Untersuchungsobjekts. Man kann beispielsweise die Einstellung des ersten Phasenschiebers so wählen, dass das Photon innerhalb des Interferometers als Teilchen agiert – das Photon durch den zweiten Phasenschieber aber dazu zwingen, als Welle aufzutreten. Dabei darf der zweite Phasenschieber erst nach dem ersten betätigt werden.“16

Ausgestattet mit einem neuen Versuchsaufbau konnte man angeblich zwischen einem klassischen Kausalmodell und der Quantenmechanik unterscheiden. Wenn der erste Phasenschieber eine von drei Positionen und der zweite Phasenschieber eine von zwei Positionen einnehmen kann, sollte dies insgesamt sechs verschiedene Kombinationen für 16

 A. A., Spektrum, S. 18.

224 

N. H. Hinterberger

das Experiment ergeben. Die Experimentatoren berechneten dann offenbar einen erwarteten Wert für jede Möglichkeit. Es gab unterschiedliche Vorhersagen für die kausalen und quantenmechanischen Modelle. Mit diesen Vermutungen konstruierte das Chaves-Team eine Formel, die „von den Wahrscheinlichkeiten des Eintreffens des Photons in einem bestimmten Detektor abhängt, je nach Einstellung der Phasenschieber. Liefert die Formel das Ergebnis null, kann das klassische Kausalmodell die statistischen Befunde erklären. Liefert sie dagegen einen Wert größer als null, dann gibt es (unter bestimmten Bedingungen für die verborgene Variable) keine klassische Erklärung.“

Der Inhalt der Klammer ist hier entscheidend. Wir werden das gleich besprechen. In diesem Überlegungs-Zustand wurde die Formel, die uns hier leider nicht gezeigt wurde, offenbar von den Experimentatoren übergeben. Alle beteiligten experimentellen Gruppen, angeführt von Fabio Sciarrino (La Sapienza Universität, Italien), Jian-Wei Pan und Guang-Can Guo (Universität der Wissenschaften, China), führten das Experiment etwas anders aus, wie der Autor schreibt. Was auch immer das bedeuten mag. Die Chaves-Formel „spuckt“ angeblich in allen Fällen einen Wert größer als null aus  – „mit unwiderlegbarer statistischer Signifikanz“, scheint es. Allerdings, so bemerkt Anil Ananthaswamy, „gehen in die Formel bestimmte Voraussetzungen ein“. Die wichtigste davon wäre: „Die im kausalen Modell vorhandene klassische verborgene Variable kann einen von zwei Werten haben. Chaves hält das für vernünftig, da das betrachtete Quantensystem, also das Photon, ebenfalls nur ein Bit an Information codieren kann – es durchläuft entweder den einen oder den anderen Arm des Interferometers.“17  A. A., Spektrum, S. 19.

17

9  Ein einzigartiges Universum 

225

Chaves hielt es nun für eine natürliche Annahme, dass man das Hidden-Variable-Modell deshalb ebenfalls als zweidimensional annehmen kann. Man kann hier jedoch Einwände erheben. Im Zusammenhang mit der Kausalmodellierung haben wir zum Beispiel gerade gelernt, dass innerhalb einer Kausalität zwischen A und B immer eine Wirkung C oder, da logisch keine plausible Einschränkung eingeführt werden kann, auch ganze Ensembles anderer möglicher Auswirkungen angenommen werden können. Der Autor bestätigt (unten) denn auch, dass eine versteckte Variable mit größerer Informationskapazität angenommen werden könnte. Und ich würde hinzufügen, diese Annahme wäre logisch und auch empirisch korrekt. Vor allem, wenn wir uns vor Augen halten, dass wir viele Teilchen postulieren, die wir in den Beschleunigern bisher nicht entdecken konnten. Es könnte aber durchaus einige geben, die tatsächlich existieren  – und die wir bei höheren Energien sehen könnten. Und unter diesen könnten wir mögliche verborgene Varia­ blen finden. Ein geeignetes Kausalmodell könnte dann auch die Beobachtungsstatistik erklären. Das kann sogar die halb-klassisch kausale De Broglie-Bohm-Theorie. Ein Photon mit einer bestimmten räumlich-zeitlichen Position „bewegt sich in Richtung des Doppelschlitzes und durchläuft den einen oder anderen Spalt – also hat jedes Photon einen Pfad.“ Es reitet sozusagen auf De Broglies Führungswelle, die beide Schlitze passiert, und lenkt das Lichtteilchen an einen Ort konstruktiver Interferenz. Insbesondere sollte wohl nicht vergessen werden, dass es schon 1979 Simulationen der De Broglie-Bohm-Theorie für Teilchenbahnen gegeben hat. Chris Dewdney, Chris Philippides und Basil Hiley (Birkbeck College, London). Wie der Autor schreibt, hat es im letzten Jahrzehnt sogar experimentelle Nachweise solcher Schlitz-Trajektorien gegeben, „wenn auch nur mit einer umstrittenen Technik, den so genannten schwachen Messungen.“

226 

N. H. Hinterberger

Wenn man mal bei den Autoren nachsieht, die weniger von der postmodernen Realismus-Phobie irritiert sind, scheint diese Technik aber alles andere als umstritten: „mittlerweile gibt es viele Messexperimente, in denen über die erfolgreiche Messung der Bohmschen Geschwindigkeiten berichtet wird. Wie kann das sein? Indem die Messung nicht in der bisher besprochenen Form geschieht. Die neue Art zu messen nennt man schwache Messung. Sie ist, wie der Name sagt, eine Messung, in der die Wellenfunktion des gemessenen Teilchens (oder Systems) kaum verändert wird.“18

Hier werden die Bohmschen Trajektorien gemessen. Natürlich kommt man mit einzelnen Messungen nicht zu brauchbaren Ergebnissen. Dürr und Lazarovici referieren hier erst einmal Ortsmessungen. Der „Trick“, der schwache Messungen in diesem Zusammenhang doch interessant macht, geht folgendermaßen. Man schließt an jede „schwache Messung“ (bei der die Wellenfunktion nur unerheblich  – nahe null – gestört wird) unmittelbar eine „starke Messung“ des Ortes an (also eine Messung, in der die Wellenfunktion bekanntlich durchaus merklich gestört wird), betrachtet die Wahrscheinlichkeiten aber nurmehr für ein bestimmtes Subensemble. Also etwa für eines, in dem immer X als Teilchen-Ort gemessen wurde. Wenn man dann die bedingte Wahrscheinlichkeitsdichte von Y betrachte, bekomme man für das empirische Mittel dieses Subensembles einen brauchbaren theoretischen Erwartungswert: „Sprich: Wenn wir all die Male betrachten, an denen das Teilchen am Ort X detektiert wurde (im Sinne der Bohmschen Mechanik: all die Male, an denen das Teilchen  Detlef Dürr, Dustin Lazarovici, Verständliche Quantenmechanik – Drei mögliche Weltbilder der Quantenphysik, Springer Spektrum, 2018. Im Kap. 8 (Schwache Messungen von Trajektorien) werden diese komplizierten aber eben auch seriösen Messungen genau beschrieben. S. 139. 18

9  Ein einzigartiges Universum 

227

tatsächlich am Ort X ist), dann lässt sich dieser Ort zuverlässig durch eine Reihe von schwachen Messungen registrieren.“19

Und: „in der schwachen Messung ist die Zeiger-Wellenfunktion als sehr weit ausgedehnt zu denken, die Breite σ ist also sehr viel größer als die Breite von φ, die wir im Vergleich zu σ nahe null setzen. In dem Sinne ändert sich Φ(Y − x) nicht signifikant auf den Skalen, auf denen die x-Werte variieren können.“

Der Fehler bleibt dabei offenbar innerhalb der Ordnung 1/σ. σ ist die Breite der Zeiger-Wellenfunktion. Die Wellenfunktion des Messobjekts wird durch die Messung kaum verändert. „Wir können die ‚Schwachheit‘ der Messung auch so sehen: Bei der gewöhnlichen Messung sind wir davon ausgegangen, dass die Zeiger-Wellenfunktionen, die verschiedenen Messergebnissen entsprechen, makroskopisch disjunkte Träger haben und die System-Wellenfunktion dadurch dekohärieren. Aufgrund der Breite unserer Zeiger-­ Wellenfunktion haben Φ(Y1−x) und Φ(Y2−x) für verschiedene Zeigerstellungen X1 ≠ Y2, aber i.A. einen sehr großen Überlapp (in x), sodass die Systemwellenfunktion durch die Messung nicht ‚kollabiert‘.“20

Und: „Das sagt uns immer noch nichts Neues, das man nicht besser durch eine starke Messung herausfinden könnte. Aber nun lasse man zwischen der schwachen Messung und der 19 20

 Verständliche …, S. 142.  Verständliche …, S. 141.

228 

N. H. Hinterberger

anschließenden starken Messung eine kleine Zeit τ vergehen! Dann enthält das empirische Mittel über die schwachen Messungen den ungefähren Wert des Ortes, sagen vor der Zeitspanne τ, und nach τ kennt man den Ort ‚genau‘“.21

Ähnlich entmystifizierend wird mit der Geschwindigkeitsmessung umgegangen: „Schwache Messungen der Geschwindigkeit wurden in der Tat experimentell durchgeführt. Man kann auf diese Weise Bahnen rekonstruieren, welche besonders interessant beim Doppelspalt-Experiment sind. Wie besprochen, wurde das Interferenzmuster auf dem Schirm hinter dem Doppelspalt ja in früherer Zeit (und manchmal sogar noch heute) als Beweis angesehen, dass es Trajektorien von Teilchen gar nicht geben kann.“22

Mit dem Konzept der de Broglie-Führungswelle, die durch beide Schlitze geht, und dem einzelnen Photon, das immer nur durch einen Schlitz geht, lassen sich die Ergebnisse der schwachen Messung, mit der angeschlossenen starken Messung (plus Applikation von τ), sowie „der Fokussierung auf das Subensemble, welches auf einer nachträglichen Selektion der Messergebnisse beruht“, allerdings sehr gut erklären: „Wenn man den Messbegriff entsprechend erweitert, ist es aus Sicht der Bohmschen Mechanik also völlig korrekt zu sagen, dass sich die Bohmschen Geschwindigkeiten  – und darüber die Teilchentrajektorien – messen lassen.“ Und die funktionierende Erweiterung des Messbegriffs mit Hilfe der geschilderten Methoden haben wir eben referiert. Mit der „Abb. 8.1“ (die ich hier aus rechtlichen Gründen nicht kopieren will) verfügt man über eine Rekonstruktion der gemittelten Photonen-Trajektorien am Doppelspalt.  Verständliche …, S. 142.  Verständliche …, S. 142–143.

21 22

9  Ein einzigartiges Universum 

229

Die sind durch schwache Messungen der Geschwindigkeiten zustande gekommen. In „Abb. 8.2“ (ebenfalls nicht kopiert) sind die theoretisch berechneten Bahnen in der Bohmschen Mechanik dargestellt. Die Wellenfunktionsanteile an den Spalten werden als Gaußsche Wellenpakete modelliert. Die gekrümmten Bahnen (direkt hinter den Spalten) kommen durch die Interferenz der Wellenanteile des oberen und unteren Spalts zustande. Während die spätere Geradlinigkeit der Bahnen dem Übergang der Wellen in ebene Wellenanteile zuzuschreiben ist: „Man beachte in beiden Bildern, dass Bahnen, die durch den oberen Spalt gehen, nicht die Symmetrieachse durchqueren, sondern stets oberhalb der Symmetrieachse bleiben, analog dazu die unteren Bahnen. Für die Bohmschen ­Bahnen ist das klar, denn sie sind durch ein Vektorfeld bestimmt, also eine Differentialgleichung erster Ordnung.“23

An dieser Stelle würde ich empfehlen, sich auf die Arbeit der Autoren selbst zu beziehen, da es mir überhaupt nicht ratsam erscheint, auch die Mappings abstrakt zu diskutieren … Smolin erinnert uns an „die Erfolge des Standardmodells der Teilchenphysik und seines Gegenstücks in der Kosmologie“ und gleichzeitig an den Grund für unseren heutigen Stillstand. Wir zeigen uns nämlich nicht in der Lage, über diese Theorien hinauszugehen. Der Grund dafür ist der Zusammenbruch des Newtonschen Paradigmas, das in der Kosmologie nicht evolutionär angewandt wird, da grundsätzlich keine intrinsische Zeit in Betracht gezogen wurde, die aus den Beziehungen zwischen der Materie/Energie und dem Raum innerhalb unseres Universums stammt. 23

 Verständliche …, S. 143.

230 

N. H. Hinterberger

9.3 D  er evolutionär verzeitlichte Naturalismus In Kap. 1 stellte Smolin die experimentelle und beobachtende Situation in der Kosmologie vor – und er schlug in diesem Zusammenhang fünf einschränkende Prinzipien für den Aufbau einer kosmologischen Theorie vor: „1. The principle of differential sufficient reason. 2. The principle of the identity of the indiscernible. 3. Explanatory closure. 4. No unreciprocated action. 5. Falsifiability and strong confirmability.“24

Ich würde das sinngemäß folgendermaßen übersetzen: 1. Das Prinzip der differenziell hinreichenden Ursache. 2. Der Grundsatz der Identität des Ununterscheidbaren. 3. Abgeschlossenheit des Explanans bezüglich des Explanandums. 4. Keine nicht-reziproke Wirkung. 5. Falsifizierbarkeit und starke Bestätigungsfähigkeit. Warum ich die starke Bestätigungsfähigkeit als nicht vorhanden betrachte, habe ich referiert. Allen anderen Prinzipien kann ich zustimmen. Hier – in seinem Kap. 4 – diskutiert er drei Hypothesen, die auf diesen Prinzipien aufzubauen scheinen. Nämlich: „1. The uniqueness of the universe. 2. The reality of time. 3. Mathematics as the study of systems of evoked relationships, inspired by observations of nature.“25

Zur ersten Hypothese schreibt er:

 Smolin, The Singular …, S. 414.  Smolin, The Singular …, S. 414.

24 25

9  Ein einzigartiges Universum 

231

„There is a single causally connected und causally closed universe. The universe is not a member of an ensemble of other simultaneously existing universes, nor does it have any copies.“26

Äußerst entspannend diese Hypothese, nach all dem, was wir von den Stringtheoretikern zu diesem Thema hören mussten. Aus der ersten Hypothese folgen subtile Aspekte und Implikationen über die Realität, die eine Spezifikation dessen erfordern, was mit dem Begriff Universum gemeint ist: „The universe, we will assume, has a history which is a single causally connected set of events. This implies that the set of events forms a causal set, by which we mean a partially ­ordered set. By causally connected we mean that any two events have at least one event which is in their common causal pasts. We also require that the universe contain all the causes of its events so that it satisfied the principle of causal closure.“27

Das ist ein klares bzw. nicht-ambivalentes Bekenntnis zu einer kritisch realistischen Auffassung von der Causal Set Theory (CST). Smolin besteht außerdem darauf, dass das Universum keine Kopien hat. Insbesondere bestreitet er die Existenz eines mathematischen Objekts, das zur Geschichte des Universums isomorph sein sollte. Damit wird die Vorstellung kritisiert, dass jede Eigenschaft des Universums oder seiner Geschichte sich in den Eigenschaften eines umfassenden mathematischen Objekts widerspiegeln würde. Und für meinen Geschmack hat er völlig recht, wenn er sagt: „Um dies zu zeigen, genügt es, eine Eigenschaft der 26 27

 Smolin, The Singular …, S. 414.  Smolin, The Singular …, S. 415.

232 

N. H. Hinterberger

Realität zu zeigen, die keine Eigenschaft eines mathematischen Objekts ist.“ Und von denen gibt es in der Realität sicherlich weit mehr als mathematische Objekte – könnte man hinzufügen. In diesem Zusammenhang kritisiert er das idealistische Universum von Max Tegmark. Dieses wird offensichtlich von Tegmark als ein solches mathematisches Objekt verstanden, das überdies in Form eines Ensembles aller möglichen mathematischen Objekte in allen möglichen Universen vorliegt, die laut Tegmark alle existieren. Es ist sicherlich ermüdend, immer wieder hervorheben zu müssen, dass eine solche notwendige Kritik keinesfalls impliziert, dass wir „den offensichtlichen Nutzen der Mathematik in der Physik leugnen wollen.“ Aber man kann eben auch nicht darauf verzichten, die Tatsache des quasi-­ empirischen Auftretens der zeitlich gestaffelten mathe­ matischen Kreationen in die Diskussion zu stellen, um die enorm implausible Vorstellung eines zeitlosen mathematischen Spiegels der gesamten Physik ein bisschen deutlicher zu machen. Smolin schreibt: „By the assertion of the reality of time, we mean that all is real in a present moment, which is one of a series of moments. This implies that all that is true about reality is true about a property or aspect of a moment.“28

Was folgt, ist eine höchst interessante Entfaltung eines realistischen bzw. evolutionären Bildes des zeitlichen Naturalismus, wie Smolin das nennt: „The world has then no properties which are not properties of a moment. To the extent that a general law is true, that is a property of a moment or moments. That is to say, that a  Smolin, The Singular …, S. 415.

28

9  Ein einzigartiges Universum 

233

physical law is at best part of or an aspect of the state of the universe at a given time. The future is, not now, real and there can be no definite facts of the matter about the future.“29

Die Vergangenheit ist ebenfalls nicht real, also nicht jetzt da, weil sie nicht jetzt existiert. Die Vergangenheit muss jedoch im Vergleich zur Zukunft anders definiert werden, da Fakten über vergangene Momente vorliegen (Poppers Beispiel dazu: „Napoleon trug einen Säbel,“ bleibt natürlich wahr, aber Napoleon trägt ihn eben nicht mehr. Wichtig für diese Auffassung von Physik ist: Diese Dinge existieren nicht in der Vergangenheit, sie existierten in der Vergangenheit. Und so haben wir einen konsequenten zeitlichen Naturalismus, in dem sich auch die Naturgesetze von Moment zu Moment ändern, weil sie von der sich verändernden Materie/Energie aus regiert werden  – sehr langsam, fast ­unmerklich, aber unvermeidlich. Und Smolins Momente sind nicht die „Nows“ von Julian Barbour, wie wir hier sehen können. Denn letztere würden absurderweise ihrer ganzen Zeit beraubt und müssten wegen Barbours End of Time zeitlos bleiben, während Smolins „Moments“ nur in realistischer, intrinsischer Zeit gedeihen können. Das kosmologische Dilemma lässt sich wie folgt beschreiben: Mit dem Newtonschen Paradigma können wir die Subsysteme des Universums ziemlich erfolgreich untersuchen, weil wir hier die Anfangsbedingungen beliebig oft variieren können. Und wir können das jeweilige Gesetz im Zusammenhang damit testen, so oft wir wollen. Wir können das Universum jedoch nicht als Ganzes testen, weil es einzigartig ist. Wenn wir es trotzdem versuchen, haben wir nur einen Versuch, der nicht klar macht, was ein allgemeines Gesetz in diesem Zusammenhang bedeuten soll. Wir sind gezwungen zu testen 29

 Smolin, The Singular …, S. 416.

234 

N. H. Hinterberger

„simultaneously hypotheses as to the choice of initial conditions and hypotheses as to the choice of laws. This can lead to degeneracies in which the same data set can be explained by different choices of laws and initial conditions that cannot be resolved by doing experiments with more cases because there is only one case. This lessens the predictive (or postdictive) power of the scheme.“30

Als Beispiel nennt Smolin Nicht-Gaussianitäten bei der Inflation, die gleich gut erklärt werden könnten durch Änderungen der Anfangsbedingungen wie durch Änderungen der dynamischen Gesetze. Um Fragen wie „Warum diese Gesetze“ oder „Warum diese Anfangsbedingungen“ zu vermeiden, oder um die schwache Hilfe des anthropischen Prinzips oder einen zeitlosen Zustandsraum zu vermeiden, also um das gesamte kosmologische Dilemma zu vermeiden, sollten wir nach einem dynamischen Kausal-Gesetz suchen, das zeitgebunden sein müsste. Ein Bewegungs-Gesetz, das auf kosmologischer Ebene insgesamt evolutionär funktionieren würde. Es ist klar, dass in der Realität der Zustandsraum des Universums zu unterschiedlichen Zeiten unterschiedlich sein muss. Wenn sich das Universum zweimal im selben Zustand befindet (wie es in einigen Newtonschen Zustandsräumen üblich ist), würde dies gegen das Prinzip der Identität des Ununterscheidbaren verstoßen. Wir brauchen also ein nicht-Newtonsches Bewegungsgesetz: „To achieve this, at least one of the timeless structures that define the Newtonian paradigm  – the state space and the dynamical law – must be time-dependent. Thus, we are forced to adopt the notion that laws of nature evolve in time.“31

 Smolin, The Singular …, S. 375.  Smolin, The Singular …, S. 417.

30 31

9  Ein einzigartiges Universum 

235

Aber Smolin postuliert die Realität nur in aufeinander folgenden Gegenwarts-Momenten, so dass wir in der Dynamik einen zur Vergangenheit hin kausal geschlossenen universellen Moment nach dem anderen brauchen – einen universellen Zeitpfeil. Und das scheint in Konflikt mit der Zeitrelativität von Einsteins Beobachter zu stehen. Smolin argumentiert jedoch ohne Furcht – und sehr überzeugend – für seine Vorstellung von der jeweiligen Gegenwart: „The assertion that what is real is real in a moment conflicts with relativity of simultaneity according to which the definition of simultaneous but distant events depends on the motion of an observer. Unless we want to retreat to a kind of event or observer solipsism in which what is real is ­relative to observers or events, we need a real and global notion of the present.“32

Ich finde diese Charakterisierung („Ereignis- oder Beobachter-­Solipsismus“) äußerst subtil und eindringlich. Tatsächlich ist dieser Solipsismus vor allem auch außerhalb der Relativitätstheorie im epistemologischen Pramatismus/ Relativismus zu einem gedankenlosen und grenzenlosen Subjektivismus getrieben worden, der den Realismus am Ende wie eine absurde Position erscheinen lassen wollte. „To give up the relativity of simultaneity is a major step but we have a very good reason to consider it, if we are to escape the cosmological dilemma and fallacy and move toward a cosmological theory that could give sufficient reason for choices of laws and initial conditions. A global preferred time would have to be relational, in that it would be determined by the dynamics and state of the universe as a whole. It would not be determinable in terms of information local to an observer. Such a relational local time could then be consistent with the relativity of simultaneity holding locally in regions of spacetime.“33 32 33

 Smolin, The Singular …, S. 418.  Smolin, The Singular …, S. 420.

236 

N. H. Hinterberger

Es erscheint sehr plausibel, eine globale Zeit als eine Materie/Energie-Kausalitäts-Beziehung für die Entwicklung des gesamten Universums zu sehen. Und diesmal sieht Smolin im Barbour-Bertotti-Modell sogar strukturelle Ähnlichkeiten zu einer allerdings inzwischen offenbar veränderten Position von Barbour: „There is precedent for such a relational, dynamically determined global time in the Barbour-Bertotti model. This raises the question of whether general relativity can be ­reformulated as a theory with a preferred dynamically determined global time.“

Dies wäre eine Änderung in Barbours ursprünglichem Platonismus, weil wir in seinem Buch The End of Time im Zusammenhang mit seinem „Dreieck-Land“ nur sehr schüchterne „Shape Spaces“ betrachten. Denn sein Raum ist hier weder dynamisch formuliert noch hat er einen kausalen Universalzeitpfeil. Der Raum ist für ihn diskret und die Zeit emergent. Genau konträr zu Smolin. Unter dem Titel „Possible Platonias“ – schrieb Barbour: „I should emphasize that the more realistic Shape Spaces corresponding to universes with more than three particles are most definitely ‚open ended‘ and should not be thought of as enclosed space, as might appear from the simple example of Triangle Shape Space.“34

Platonia dient als Name für sein rein platonisches „Dreiecks-­ Land“ (S.  44). Wir lesen hier nichts von Dynamik und nichts von einer globalen Zeit. Und wenn es um Dynamik geht, handelt es sich wieder um „Timeless Descriptions of Dynamics“  – explizit auf Seite 309. Und als Beispiel für seine extrem lokalen „Static Dynamics and Time Capsules“  Barbour, The End Of Time, S. 75.

34

9  Ein einzigartiges Universum 

237

lernen wir nur „Dynamics without Dynamics“ kennen. Wir haben das hier alles allein in seinen Titeln … Wenn man genauer hinsieht, bezieht sich Smolin in der Praxis wohl eher auf Werke von Henrique Gomes und anderen, die sich mit einer Neuformulierung der allgemeinen Relativitätstheorie in einem realistischeren Shape-­Dynamics-­ Ansatz befassen  – dreidimensional statt vierdimensional (wie bei Einstein). Eine solche Umformulierung „is shown by the existence of a formulation of general relativity as a theory defined on a fixed three surface which evolves in a global time coordinate. This formulation, called shape dynamics, shares with general relativity diffeomorphism invariance on the three-dimensional spacelike surfaces but replaces the many-fingered time in variance with a new local gauge invariance which is invariance under local three-dimensional conformal transformations. These transformations however are restricted to preserve the volume of the universe. The spacial volume then becomes an observable and can be used as a time parameter.“35

Und: „There is then a theorem that shows that shape dynamics is equivalent, up to gauge transformation, to general relativity in a particular choice of slicing of spacetime into an evolving three-dimensional space. That slicing is called constant-­ mean curvature slicing and it has been shown to exist in a large and generic set of solutions to the Einstein equations.“

In diesem Zusammenhang bezieht sich Smolin auf einen Satz, der von H. Gomes in arXiv veröffentlicht wurde.36  Smolin, The Singular …, S. 420.  „Shape Dynamics is a theory of gravity that replaces refoliation invariance for spatial Weyl invariance. Those solutions of the Einstein equations that have global, constant mean curvature slicings, are mirrored by solutions in Shape Dynamics. 35 36

238 

N. H. Hinterberger

Diese partielle Äquivalenz zwischen GR und Formdynamik ermutigt Smolin zu sagen, dass letztere in der Lage ist, unser Universum mit einer globalen Zeit zu beschreiben. Mit folgendem sehr inspiriertem Verständnis schließen wir dieses Thema vorerst ab: „In the area of quantum gravity, the whole complex of pro­ blems associated with the absence of time in the canonical formulation of quantum gravity can now be resolved by quantizing the theory in the global physics time of shape dynamics. The quantum dynamics can be formulated conventionally, in terms of a Schrödinger equation for the evolution of the quantum state in a preferred time. Note that this is not an example of the cosmological fallacy in which one formulated cosmological dynamics in terms of an absolute external time unmeasurable in the universe, because the preferred time is relational by virtue of the fact that it is dynamically determined. This also does not conflict with the success of the relativity of simultaneity locally or in small regions because local measurements do not suffice to pick out the observers whose clocks register the preferred time.“37 However, there are solutions of Shape Dynamics that have no counterpart in General relativity, just as there are solutions of GR that are not completely foliable by global constant mean curvature slicings (such as the Schwarzschild spacetime). It is therefore interesting to analyze directly the equations of motion of Shape Dynamics in order to find its own solutions, irrespective of properties of known solutions of GR. Here I perform a first study in this direction by utilizing the equations of motion of Shape Dynamics in a spherically symmetric, asymptotically flat ansatz to derive an analogue of the Birkhoff theorem. There are two significant differences with respect to the usual Birkhoff theorem in GR. The first regards the construction of the solution: the spatial Weyl gauge freedom of shape dynamics is used to simplify the problem, and boundary conditions are required. In fact the derivation is simpler than the usual Birkhof theorem as no Christoffel symbols are needed. The second, and most important difference is that the solution obtained is uniquely the isotropic wormhole solution, in which no singularity is present, as opposed to maximally extended Schwarzschild. This provides an explicit example of the breaking of the duality between General relativity and Shape Dynamics, and exhibits some of its consequences.“ (Gomes, H. „A Birkhoff theorem for shape dynamics.“ arXiv:13.0310 [gr-qc] 2013.). 37  Smolin, The Singular …, S. 421.

9  Ein einzigartiges Universum 

239

Wir brauchen sicherlich eine physikalisch relevante globale Zeit, um die physikalische, chemische und biologische Veränderung zu erklären, die Evolution, die wir sehen, wo immer wir hinschauen. Diese Entwicklung ist, trotz rasanter Ausdehnung des Universums, noch immer Struktur-­ bildend. Wir müssen erkennen, dass wir nicht mit einem naiven Bild der Thermodynamik arbeiten können, aus dem diese Entwicklung nicht folgt (wir haben das oben diskutiert). Wir sehen diese Entwicklung, also die Unmöglichkeit zeitloser Gesetze, und damit die Notwendigkeit Natur-­ wissenschaftlich relevanter Zeitpfeile, die in die globale relationale Zeit eingebettet sind. In der Mathematik ist der Anspruch auf Zeitlosigkeit hinsichtlich formaler Objekte immer noch eine stark frequentierte Position. Das wurde zuerst von Imre Lakatos kritisiert – ein Mathematiker und kritischer Rationalist, der die Diskussion über Basissätze leider ohne Not in eine konventionalistische Positionierung getrieben hat. Mathematisch verteidigte er jedoch schon sehr früh eine quasi-­ empirische Interpretation mathematischer Objekte. Smolin scheint diesbezüglich allerdings noch aufmerksamer und subtiler zu sein. Er bezeichnet Mathematik als evozierte Realität: „The choice between whether mathematics is discovered or invented is a false choice. Discovered implies something already exists and it implies we have no choice about what we find. Invented means that it did not exist before AND we have choice about what we invent.“38

Smolin argumentiert nun, dass das nicht die relevanten Gegensätze sind. Überdies wären es nur zwei. Tatsächlich

38

 Smolin, The Singular …, S. 422.

240 

N. H. Hinterberger

gäbe es aber vier Möglichkeiten: Wahlmöglichkeit oder nicht und existierte vorher oder nicht. Worum es ihm geht, ist: „There are many things that did not exist before we bring them into existence but about which we have no choice, or our choices are highly constrained, once it does exist.“

Worüber er hier spricht, sind logische Konsequenzen, die deduktiv aus unseren theoretischen Konstruktionen folgen und von denen wir vor unseren Konstruktionen keine Ahnung hatten. Dies ist jedoch bei all unseren theoretischen und praktischen Konstruktionen der Fall, nicht nur bei den mathematischen. Man muss also keine Angst haben, dass es als Argument für die Behauptung ihrer Zeitlosigkeit dienen könnte, sei es mathematisch, rein logisch oder vermischt. Regeln oder Schlussfolgerungen der deduktiven Logik sind trivial, aber ebenfalls nicht zeitlos. Sie sind noch strenger als die Mathematik, da sie schon per definitionem tautologisch sind, aber ursprünglich wurden sie auch konstruiert oder erfunden. Wir sehen das bei Fehlern in Beweisen. Mathematische Aussagen können sich als falsch oder wahr herausstellen. Schlussfolgerungen der deduktiven Logik können nur zutreffen. Aber auch diese Eigenschaft kann nicht plausibel machen, dass sie zeitlos sein müssten. Denn tautologische Wahrheit ist nur ein Fall von Gültigkeit – wir sagen kein Wort über die Realität mit dieser Schlussfolgerungs-­ Gültigkeit. Aber auch bei Gültigkeitsfragen können wir Fehler machen. Je komplizierter die Theorie, desto häufiger. So entstehen Fehler auch in der logischen Ableitung mathematischer Aussagen. Die meisten Fehler liegen allerdings nach wie vor in den Prämissen, denn sowie die mit Wirklichkeitsaussagen instanziiert werden, sind sie fallibel wie jede andere Aussage zur Realität.

9  Ein einzigartiges Universum 

241

Zeitlosigkeit ist überall eine fruchtlose Behauptung. Sie widerspricht dem gesamten Evolutionsprozess. In welcher Form auch immer, physikalisch, chemisch, biologisch, epistemologisch: „The alternative to believing in the timeless reality (…) is believing in the reality of novelty. Things come into existence and facts become true all the time. This is one ­meaning of the reality of time. Nature has within it the capacity to create kinds of events, or processes or forms, which have no prior precedent. We human beings can partake of this abi­ lity by the evocation of novel (…) mathematical systems.“39

Es gibt keine Disharmonie über die fantastische Wirksamkeit der Mathematik in der Physik. Wir sollten jedoch bedenken, dass Mathematiker Mathematik schaffen. Und was Menschen tun, kann fehlerhaft sein  – so auch die Arbeit von Mathematikern. Durch diese Einsicht beunruhigt, scheint es die Hoffnung vieler platonischer Mathematiker zu sein, dass die Entdeckung zeitloser mathematischer Objekte ihre fehlbare Arbeit unfehlbar machen könnte. Aber die Suche nach Sicherheit ist nirgends fruchtbar, im Gegenteil: „mathematics does not of itself lead to discoveries about nature, nor is physics the search for a mathematical object isomorphic to the world or its history. There will never be discovered a mathematical object whose study can replace the experimental study of nature. There is no mathematical discovery in our future that will render moot from then on the experimental and observational basis of science. It will always be the case that the use of mathematics to model nature will be partial  – because no mathematical object is a perfect match for nature. The use of mathematics in nature 39

 Smolin, The Singular …, S. 424.

242 

N. H. Hinterberger

also involves a large degree of arbitrariness, because those mathematical objects that provide partial mirrors of parts of the world are a small, finite subset of the potentially infinite number of mathematical objects that might be evoked. So the effectiveness of mathematics in physic is limited to what is reasonable.“40

Smolin widerspricht hier dem Argument der Strukturalisten, dass der Empirismus unter mathematischer Unterbestimmung leide. Er stellt es sogar andersherum dar. Er glaubt, dass die Unterbestimmung der Entscheidung, ein bestimmtes mathematisches Modell einem physikalischen System zuzuordnen, große Probleme für Mathematiker und Physiker darstellt, da die meisten mathematischen Modelle ein möglicherweise komplexes physikalisches System sehr unscharf darstellen: „In most cases, the equation describing the law could be complicated by the addition of extra terms, consistent with the symmetries and principles expressed, whose effects are merely too small to measure given the state-of-art technology. These ‚correction terms‘ may be ignored because they don’t measurably affect the predictions, but only complicate the analysis. That this is the right thing, to do methodologically, does not, however, change the fact that every one of the famous equations we use is merely the simplest of a bundle of possible forms of the view of laws which express the same ideas, symmetries, and principles, and have the same empirical content.“41

Smolin weist zu Recht darauf hin, dass die Tatsache dieser echten Unterbestimmung für mathematische Realisten ein echtes Problem ist – weil sie davon ausgehen, dass die Natur mathematisch ist und dass es ein mathematisches Objekt gibt, das einen exakten Spiegel der Natur darstellt. Außerdem  Smolin, The Singular …, S. 428.  Smolin, The Singular …, S. 429.

40 41

9  Ein einzigartiges Universum 

243

wird oft, quasi-mystisch, angenommen, dass das einfachste Modell das richtige sein müsse, weil die Natur grundsätzlich gesehen einfach sei. In der Tat wird Einfachheit von vielen Physikern von einem ästhetischen zu einem quasi-logischen Merkmal befördert. Es wird zum Kriterium für die Richtigkeit ernannt. Smolin hingegen weist darauf hin, dass der Blick auf Theorien über einen längeren Zeitraum eher zu der Annahme führt, dass die Erklärungen immer komplizierter werden. Weil alle Theorien ständig verbessert und damit komplexer werden. Die einfachen dagegen sind fast allgemein Opfer von Widerlegungen, und im besten Fall werden sie, wenn sie nicht vollständig widerlegt werden, zu begrenzten Sonderfällen. In diesem Zusammenhang vielleicht ein weiteres Bonmot von Einstein, das er in ironischer Übergeneralisierung formuliert hat, und das folgendermaßen lautet: Für alle komplexen Probleme gibt es eine einfache Antwort. Und die ist falsch. „Thus, Newton’s laws were found to be corrected by terms from special relativity, and then corrected again by terms from general relativity. Maxwell’s equations received corrections that describe light scattering from light – a quantum effect that could have been modeled, but never anticipated by Maxwell. And so on.“

Andererseits stellt „radikale Unterbestimmung“ in der mathematischen Darstellung der Physik keine Schwierigkeit für einen kritischen Realismus dar: „It is rather exactly what you would expect, if mathematics is a powerful tool for modeling the data and discovering approximate and ultimately temporary regularities which emerge from large amalgamations of elementary and unique events.“42 42

 Smolin, The Singular …, S. 429–430.

244 

N. H. Hinterberger

Smolin erklärt den Erfolg der Mathematik durch die Tatsache, dass alle Kernbereiche durch das Studium der Natur geschaffen und immer wieder in Kontakt mit ihr weiterentwickelt wurden. Von Smolin wird jedoch nicht platonisch angenommen, dass die Natur bereits die mathematischen Objekte für die „Entdeckung“ bereitgestellt hat. Im Gegenteil, man kann davon ausgehen, dass es immer viel Arbeit und Zeit gekostet hat, natürliche Prozesse  – der Mannigfaltigkeit der Natur – in einem geeigneten Formalismus zu modellieren. Das Vermuten bestimmter Gesetze, als Abstraktion von der Mannigfaltigkeit, wenn sie durch eine erfolgreiche formale Approximation erreicht wird, ist die Leistung von Mathematikern. Als Kernbegriffe identifiziert er die Konzepte von Zahl, Geometrie, Algebra und Logik: „Number captures the fact that the world contains distinguishable objects which can be counted. Geometry captures the fact that objects are found to take up space and form shapes. Algebra captures the fact that objects and numbers can be transformed, by processes carried out of time. And logic is the distillation of the fact that we can reason about the first three concepts, and so deduce predictions for future observations from properties of past observations.“

Dankenswerterweise trennt Smolin die Logik von den anderen mathematischen Bereichen. Denn es ist genau der Fehler der mathematischen Realisten, diese Trennung nicht zu treffen. Weil sie die gesamte Mathematik als logisches Werkzeug betrachten, glauben sie nämlich auch gerne an sichere „Entdeckungen“. Sie können also mathematische Prämissen-Fehler nicht erklären, sich nicht einmal vorstellen, wenn sie die gesamte Mathematik für logisch halten. Das ist gleichbedeutend damit, dass man letztere als trivial wahr betrachtet – und sozusagen schon von der Natur selbst

9  Ein einzigartiges Universum 

245

her als so angeliefert betrachtet. Wir sollten aber nicht vergessen, dass Wahrheit eine Aussageneigenschaft ist – nicht mehr und nicht weniger. Man unterscheidet in instanziierter Logik nicht umsonst zwischen der Gültigkeit von Ableitungen und der Wahrheit der Prämissen. Letztere kann, wie in beliebigen anderen Behauptungen, immer zur Debatte stehen. Trivial wahr ist nur die rein formale deduktive Logik in den Satzverbindungen, also nur in den logischen Verknüpfungen, in denen ich von den Satz-Inhalten absehe. Mit trivial gültigen Zahlenanwendungen oder Geometrie, ohne Abbildung auf die materielle Realität oder mit nicht belegter Algebra im Kontext einer Beschreibung der Natur kann man deshalb ebenfalls nichts Realistisches anfangen. Die instanziierten Hypothesen dieser Formalismen sind ebenso fehlbar wie jede andere Behauptung. Sicher, es gibt auch Fehler in deduktiven Ableitungen, aber die meisten Fehler findet man in den Prämissen der jeweiligen Theorie. Und sie stammen aus den anderen Kernbereichen. Und sie können leicht fehlerhaft sein, weil sie im Rahmen einer Instantiierung grundsätzlich fehlbar sind. Wie bereits oben erwähnt, werden wir in diesem Zusammenhang Albert Einsteins Mahnung nicht los: Insofern sich die Gesetze der Mathematik auf die Realität beziehen, sind sie nicht sicher, und insofern sie sicher sind, beziehen sie sich nicht auf die Realität. Das ist genau das Thema hier. In Bezug auf die Kernkonzepte gibt es weitere interessante Überlegungen, die Smolin vorstellt – er erklärt hier nämlich einmal sehr schön klar, in welcher Weise unsere mathematischen Kernkonzepte aus der Natur inspiriert worden sind: „The bulk of mathematics consists of elaborations of these four core concepts. In the course of these elaborations, we often find that developments of one bear on another. These intersections tell us that these concepts go back to nature,

246 

N. H. Hinterberger

which is a unity. For example, the elaboration of the concepts of space and number often intersect because space and number are both features of nature and hence are highly interrelated from the start. Hence, the discovery that a relation among numbers represents or is isomorphic to a ­relation among another strand of mathematics is often a discovery of a relation that is a true property of the one world.“43

Es wird von Smolin nicht empfohlen, das Studium mathematischer Systeme auf diejenigen zu beschränken, die diese vier Kernkonzepte darstellen. Es kann jedoch empfohlen werden, sich insbesondere auf diejenigen zu konzentrieren, die eine Fülle von Konsequenzen und Kontexten haben, gerade weil dies Kernbegriffe sind, die aus der Beobachtung der Natur stammen. Aus dieser Sicht könnte man mathematische Systeme sicherlich als Systeme definieren, die sich theoretisch im Rahmen einer permanenten Untersuchung zu einer in gewisser Weise zählbaren und geometrisch verständlichen Evolution von Materie/Energie entwickelt haben. Dabei haben logische Überlegungen neben sorgfältigen Beobachtungen sicherlich keinen Schaden angerichtet. Smolin schließt sein Buch mit wichtigen Hinweisen auf die Ursachen der Krise der Kosmologie. „The growth of untestable scenarios about unobservable multiple universes or extra dimensions are not a cause of the crisis, they are a symptom of the need to change paradigms to avoid stumbling over unanswerable questions, or the proliferation of un-testable hypotheses.“44

Auch in diesem Zusammenhang wird auf den kosmologischen Trugschluss (cosmological fallacy) verwiesen, nämlich  Smolin, The Singular …, S. 431.  Smolin, The Singular …, S. 500.

43 44

9  Ein einzigartiges Universum 

247

auf den Fehler, ein zeitloses Paradigma von kleinen mathematischen Spiegeln kleiner Teile der Welt wegzunehmen und dieses Newtonsche Rahmenwerk auf das gesamte Universum anzuwenden. Denn wir sind hier mit der ­Unmöglichkeit entscheidender Experimente und Beobachtungen konfrontiert. Dieses Paradigma hat uns zu unprüfbaren Spekulationen über unerreichbare Dimensionen in der Kosmologie geführt. Im Zusammenhang mit dem Glauben an viele Welten oder Paralleluniversen wird, wie Smolin erwähnt, häufig gefragt: „What if the world is just like that? What if it simply is the case that our universe is one of a vast or infinite ensemble of universes, all unobservable by us? Isn’t it arrogant of us to insist that the universe be organized in such a way that the answers to the questions we would most like to know are achievable by the method of empirical science?“

Ich denke, es wird hinreichend Kommentatoren geben, die derartige Überlegungen für sublim halten. Ich glaube jedoch, dass diese Sehnsucht nach unbeantwortbaren Fragen und unerreichbaren Universen quasi-religiös inspiriert ist. Darüber hinaus halte ich es für einen weit verbreiteten Prämissen-Fehler, hinsichtlich des Umgangs mit mathematischer Unendlichkeit. Dieses Verhalten scheint nichts weiter als eine weitere Absurdität bezüglich mathematischer Unendlichkeits-Aussagen zu implizieren, sofern diese nicht wenigstens auf potenzielle Unendlichkeiten beschränkt werden, sondern tatsächlich auf aktuale Unendlichkeiten in der physikalischen Wirklichkeit abheben. Die Gläubigen auf dieser Erde würden wahrscheinlich gerne denken: Wenn es unendlich viele Paralleluniversen, oder einfach unzählig viele Welten innerhalb unseres Universums gibt, könnte vielleicht auch eines von ihnen mit einem Himmel unter

248 

N. H. Hinterberger

ihnen existieren. Und man müsste ihn sich nicht auf altmodische christliche Weise verdienen, denn er würde, wahrscheinlichkeitstheoretisch notwendig aus einem quantenmechanischen Möglichkeitsraum a la Tegmark folgen. Das würde sich zumindest aus der Many-Worlds-Interpretation ergeben, und natürlich auch aus einer unendlichen Menge paralleler Universen  – wo sämtliche Möglichkeiten eben auch existieren. Smolin weist ganz ähnlich darauf hin, dass die Wissenschaft schon immer daran interessiert war, Fragen zu beantworten, was der Fall ist – und nicht, was logisch möglich wäre, aber leider nicht überprüfbar ist. In postmodernen „Wiederholungs-Kosmologien“ sehen wir jedoch das ganze Gegenteil. Wenn aber insbesondere die Naturwissenschaft nicht von Anfang an dauerhaft nach überprüfbaren Hypothesen gesucht hätte, könnten wir wohl kaum auf eine so lange und erfolgreiche wissenschaftliche Entwicklung zurückblicken, wie wir es heute tun. Warum also zur Abwechslung nicht einfach mal wieder mit den eher realistisch unterstützten Beobachtungen und Überlegungen beginnen und davon ausgehen, dass wir in einem möglicherweise immens großen, aber dennoch materiell begrenzten Universum leben, indem wir alt werden und leicht auch schon „vor der Zeit“ sterben können – was natürlich in der Zeit heißt. Überdies haben wir alle kein Problem mit dem Sterben am Ende unseres Lebens  – im Gegenteil, keiner von uns kann es vermeiden. Die Zeit scheint also kein Hirngespinst zu sein. In diesem Zusammenhang sprechen sehr überzeugende Argumente für einen kritischen Realismus. Denn wir können tentative Lösungen für alle Probleme, die wir hier besprochen haben, innerhalb des kritischen Realismus besser formulieren als innerhalb der antirealistisch-zeitlosen Ablehnung physikalisch relevanter Vermutungen.

Anhang

i. Aber in komplexeren Theorien ist auch das nicht so leicht zu machen. Das wissen wir seit Kurt Gödel. Bei Konsistenzbeweisen kann man innerhalb von Theorien, die mindestens genauso komplex oder komplexer sind als die Arithmetik, eine Unentscheidbarkeit ableiten. Ein Supergau, der von Kurt Gödel direkt aus metalogischen Überlegungen abgeleitet wurde – zunächst ohne irgendein konkretes Beispiel. Siehe „Gödels zweiter Unvollständigkeitssatz“. Schockierend war das nicht nur für Russells Hauptwerk (Principia Mathematica), dem damit zumindest einmal abstrakt Unentscheidbarkeit attestiert werden konnte, sondern auch, gewissermaßen Häppchenweise, für David Hilbert – in Bezug auf sein berühmtes Axiomatisierungs-Programm, das die Konsistenz der gesamten Mathematik zu beweisen versuchte. Gödel konnte zwar 1937 nur zeigen, dass die Negation der von Hilbert so favorisierten Kontinuums-Hypothese innerhalb der Mengenlehre nicht zu beweisen war  – also etwas, das © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 249 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1

250 Anhang

Hilbert sicherlich zunächst gefallen konnte. Paul Cohen konnte allerdings 1963 zeigen, dass die Negation auch nicht widerlegbar war. Durch die Addition dieser beiden Beweise hatte man nun aber ein erstes konkretes Beispiel für Unentscheidbarkeit. Die fruchtbaren Ergebnisse dieser Kritik durch Gödel und Cohen wurden erst später gesehen. Denn diese Beweise sorgten langfristig natürlich auch – viel weitergehend – für eine im Wesentlichen fallibilistische Auffassung in Bezug auf alle nicht-logischen bzw. nicht-trivialen Teile der Mathematik. Das Problem mit der Kontinuumshypothese wurde sehr spannend von Joe Dramiga in den scilogs.spektrum.de besprochen (Lese-Empfehlung): „Gödel suchte also unter Hilberts Problemen nach einem konkreten Beispiel für seinen zweiten Unvollständigkeitssatz. Sein erster Verdächtiger war die Kontinuumshypothese, die auf Georg Cantor zurückgeht. Cantor fragte sich: ‚Sind alle unendlichen Mengen von gleicher Mächtigkeit, oder gibt es verschiedene Mächtigkeiten unter den unendlichen Mengen?‘ Dabei sind zwei Mengen gleich mächtig, wenn sich jedes Element der einen Menge eindeutig einem Element der anderen Menge zuordnen lässt, ohne dass in einer der beiden Mengen Elemente übrig bleiben. Cantor fand heraus, dass in diesem Sinn die Menge der natürlichen Zahlen und die Menge der Brüche (rationale Zahlen) gleich mächtig sind. Die reellen Zahlen sind dagegen mächtiger als die natürlichen Zahlen, denn man kann die reellen Zahlen nicht vollständig durchzählen – sie sind überabzählbar. Das kann mit Cantors zweitem Diagonalargument bewiesen werden. Es ist nun naheliegend, die folgende Frage zu stellen: ‚Gibt es eine Menge, die in ihrer Mächtigkeit zwischen den natürlichen Zahlen und den reellen Zahlen (die man auch

Anhang 251

als Kontinuum bezeichnet) liegt?‘ Gibt es also eine Menge, die sich nicht komplett durchnummerieren lässt, die sich aber auch nicht eins-zu-eins den reellen Zahlen zuordnen lässt, ohne dass reelle Zahlen übrig bleiben? Da es Cantor nicht gelang, eine solche Menge zu konstruieren, formulierte er im Jahr 1878 seine berühmte Kontinuumshypothese: Es gibt keine Menge, die in ihrer Mächtigkeit zwischen den natürlichen Zahlen und den reellen Zahlen (dem Kontinuum) liegt.“ (Quelle: https://scilogs.spektrum.de/die-sankore-schriften/g-dels-zweiter-unvollst-ndigkeitssatz-und-die-kontinuumshypothese/) ii. Ohne Gehirne gäbe es keine Logik und Mathematik. Und selbst die Erstellung der einfachsten biologischen Berechnung (in Zusammenhang chemischer Sättigungs-Vorgänge etwa) erfordert mindestens einen einzelligen Organismus (beispielsweise eine Amöbe oder wenigstens ein Bakterium). Es gab natürlich, im Laufe der biochemischen Evolution, auch freie Proteinproduktionen über DNA/RNA-Rekombinationen mit den zugehörigen enzymatischen Schritten. Aber sie diffundierten einfach ungenutzt in die Umgebung. Ohne einen Zelleinschluss dieser Prozesse konnte ein derartiges biochemisches System die Information „nicht bei sich behalten“ und folglich nicht für sich – in Selbstorganisation bzw. Selbstgerichtetheit  – nutzen. Ohne kalkulierende Organismen wären also trivialerweise keine Mathematik, keine Logik und auch kein Computer entstanden. Kalkulation, als Informationsverarbeitung, konnte also, mitsamt unserer eigenen Einwicklung zu höheren Tieren, erst über Prokaryonten (Bakterien) und noch wesentlich luxuriöser über Eukaryonten (alle anderen Einzeller und Mehrzeller bis hin zu den höheren Tieren) evolutiv werden.

252 Anhang

Die Erstellung des ersten Algorithmus für die erste Berechnung war also biochemischer Natur  – enzymatisch bzw. über Polymerasen, Signalproteine und Rezeptoren ­vermittelt. Die Eukaryonten haben dabei mit ihren äußeren und inneren Membranen für eine überzeugende DNAund RNA-schützende Struktur gesorgt, die den immer möglichen Informationsverlust entscheidend minimieren konnte. iii. Man versuchte dann mit einer allgemeinen Hilfshypothese, das Ziel zu erreichen. Zum Beispiel „Die Zukunft wird wie die Vergangenheit sein“ oder ähnlich. Aber diese allgemeine Hilfshypothese hat dann natürlich erstens die Schlussfolgerung deduktiv gemacht, und zweitens wird sie (aller Erfahrung nach) direkt widerlegt. Denn man kann immer sagen, dass die Zukunft in bestimmten Aspekten der Vergangenheit ähnlich ist  – beispielsweise in Zyklen jeglicher Art. Kein Zyklus wird jedoch in jeder Hinsicht gleich sein. Kein Sommer oder Winter ist in jeder Hinsicht wie der andere. Eine Saison ist einfach eine Menge sich völlig unterschiedlich entwickelnder individueller Prozesse. Diese Prozess-artige Entwicklung in der Zeit gilt schon für die subatomare Ebene. Die Masse oder Energie des Elek­ trons ändert sich ständig in Abhängigkeit von seinem Bewegungszustand. Die Ruhemasse ist nur ein berechneter (idealisierter) Wert eines Zustands, der von allen Kräften absieht, der in der Natur aber niemals erreicht wird und der in der Dynamik nur als orientierender Referenz-Wert dienen kann. Wenn sich die Ruhemasse atomar, chemisch oder sonst-wie grob dynamisch ändert (und das macht sie in der Praxis notorisch), muss eine Differenzialgleichung oder eine Differenzen-Gleichung dafür angegeben werden. Und die Voraussetzungen, die man in diese Gleichungen einfügt,

Anhang 253

können falsch sein. Das bemerke ich aber gar nicht, wenn ich (induktiv) nur ein Elektron nach dem anderen in einem bestimmten Zustand oder Prozess betrachte und aus seinem gegenwärtigen oder vergangenen auf seinen zukünftigen Impuls schließe – anstatt die Theorie oder die Gleichung als Ganzes zu testen. Wir sehen hier, dass es keine „Induktionsmethode“ gibt, weil ich immer gezwungen bin, eine oder mehrere allgemeine Hypothesen hinzuzufügen, um zu einer Schlussfolgerung zu kommen. Wir haben also überhaupt keine Stützung welcher Theorie auch immer, wenn wir uns der Illusion des Erkenntnisgewinns oder gar des Beweises durch Induktion hingeben. Was wir haben, sind allgemeine Hypothesen, und die können immer falsch sein. Das einzige, was wir versuchen können, ist, einige ihrer prägnanten Ableitungen durch Realitätstests zu widerlegen. Das ist jedoch ein durch den Modus tollens oder ähnliche falsifikative Rückübertragungen deduktiv strukturiertes, negatives Ausschlussverfahren, keine „induktive Methode“ oder „Bestätigung“, keine „Verifikation“ oder „Validierung“. iv. Bunge scheint hier einen Gedanken von Popper übernommen zu haben. Popper glaubte ebenfalls, dass wenigstens logischer Gehalt in einer separaten Welt (3) existieren könne. Welt 1 war die Welt der Materie/Energie, Welt 2 die Psyche und Welt 3 die Welt der logischen Gehalte der Bücher und anderer Speicher-­fähiger Medien. Aber gespeichert werden da natürlich nur Sprachen (ob nun alphabetisch oder binär) im Zusammenhang von Abmachungen bezüglich bestimmter Encodierungen und Decodierungen, die aber immer nur jeweils in einem Gehirn erinnerbar gemacht bzw. zum Leben erweckt werden können – in Form einer aktiven Encodierung oder Decodierung. Denn nur im Moment dieser Tätigkeit eines Menschen (oder vorstellbarer anderer höherer Organismen) existieren diese logischen Gehalte als

254 Anhang

das was sie sind, nämlich als zutreffende oder nicht zutreffende Vermutungen bzw. Einsichten. Oder, um es ein bisschen rustikaler auszudrücken: ohne Gehirn geht gar nichts, was die Existenz von Erkenntnissen angeht. Ich hatte das Folgende schon in einer Facebook-­Gruppe (critical rationalism) angemerkt: Ich habe die drei Welten von Popper in den achtziger Jahren des vergangenen Jahrhunderts kennengelernt, und ich habe sie sofort gemocht, weil diese Herangehensweise Quasi-­ Interaktionen zwischen Lesern und Büchern sehr klar gemacht hat  – und wie viel wir aus guten Büchern lernen, wenn wir für kurze Zeit durch die Augen eines anderen sehen. Aber wir können diese Drei-Welten-Strukturierung bedauernswerter Weise nur instrumental auffassen, nicht realistisch. Denn diese „Wechselwirkungen“ sind leider nur Quasi-Wechselwirkungen. Es gibt kein physikalisches Si­ gnal vom Buch an den Leser. Alles, was im Moment des Lesens geschieht, geschieht nur im Gehirn des Lesers. Er muss sich mit der im Buch verwendeten Sprache auskennen. Dann findet ein indirekter Austausch zwischen dem Autor und dem Leser statt. Aber dieses Decodieren findet immer nur in einem Gehirn statt, nämlich in dem des Lesers (das Encodieren entsprechend nur im Gehirn des Autors). Ich möchte also sagen, dass der logische Inhalt nur in dem Moment zu einer realen materiellen/energetischen Existenz gelangt, in dem er codiert oder decodiert wird  – das heißt, niemals ohne Gehirnaktion. Dies gilt auch für die Gehirne von Tieren bei ihren Erkenntnissen, da sie, wie wir sehen, nicht an von Menschen konstruierte Sprachen gebunden sind, um sinnvolle bzw. informative Signale für andere ihrer Art zu erzeugen. Und natürlich lesen sie keine Bücher … Wir müssen erkennen, dass das Denken oder Kalkulieren der Tiere ebenfalls rational und logisch konsistent ist (solange sie sich

Anhang 255

in einem gesunden Zustand befinden), weil wir sehen, dass sie sich nicht widersprüchlich verhalten. Sie sind in der Lage, ihr Leben wie die Menschen zu meistern. Der logische Inhalt, der nur während der Gehirnaktivitäten des Autors oder des Lesers existiert, ist nicht noch einmal zusätzlich in Büchern oder anderen materiellen Medien existent. Da existiert nur schwarze oder bunte Farbe auf Papier – oder, wenn wir von Speichern in einem Computer sprechen, existieren da zwei unterschiedliche Spannungen, die wir als 0 und 1 bezeichnen. Das nicht gesehen zu haben, scheint mir eine der wenigen Schwächen in Poppers Philosophie zu sein, eine von ihm selbst heraufbeschworene idealistische Gefahr, die ihn daran hinderte, einen stabilen Materialismus zu entwickeln  – er hat den Materialismus in diesem Zusammenhang sogar explizit kritisiert (in Karl R.  Popper, John C Eccles, Das Ich und sein Gehirn, Piper 1987: 24 ff.). Ironischerweise möchte Bunge genau diese idealistische Wendung hier aufgreifen. Das ganze mag uns auch an den Dualismus erinnern mit dem wir uns hier ganz allgemein kritisch befassen. v. Mich erinnert dieses Postulat vom Ende der Zeit vermutlich nicht von ungefähr an das Gerede vom Ende der Geschichte, dem sich die Soziologen der Philosophie im Frankreich der 1990er-Jahre offenbar nicht entschlagen konnten. Mich würde interessieren, was sie zur geradezu chaotisch überhitzten Geschwindigkeit der geschichtlichen bzw. weltpolitischen Entwicklung der Gegenwart sagen würden. Nach einem Ende sieht da eigentlich gar nichts aus …

Stichwortverzeichnis

A Agassi, Joseph  107 Albert, Hans  4, 9, 65 Ambjorn, Jan  44 Ananthaswamy, Anil  220, 224 Andersson, Gunnar  5, 62, 93, 94, 107, 112, 113, 117, 118, 120, 123, 125, 126, 128, 131, 133, 137, 139, 141 Kritik am psychologischen Relativismus  104, 112 Aristarch  147, 148, 194 Aristoteles  22, 146, 184, 187, 188, 193, 197 Ashtekar, Rovelli Abhay  44, 149

B Barbour, Julian  110, 169–171, 174, 177, 203, 233, 236 Ende der Zeit  169, 177 Barrow, John  D. 24 Bartley, William Warren  5, 9–14 Bergson, Henri  98 Bohm, David  149, 220, 225 Bohr 84 Bohr, Nils  30, 149, 180 Bojowald, Martin  44, 46, 47, 49, 50, 86, 149, 152, 154, 155, 168, 204, 219 Bojowalds kosmologische Implikation  44, 53

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 257 N. H. Hinterberger, Die Fälschung des Realismus, https://doi.org/10.1007/978-3-662-59512-1

258 Stichwortverzeichnis

Boltzmann, Ludwig  207, 208 Born, Max  30, 149 Bunge, Mario  7, 40, 41, 74, 75, 78, 163 C Carnap, Rudolf  54–56, 64, 94, 160 Chalmers, David  26 Chatelet, Emilie Du  146 Chaves, Rafael  220, 222–225 D De Broglie, Louis  220, 225 DeWitt, Bryce  24, 174 Dirac, Paul  31, 50, 149 Dowker, Fay  44, 45 Dualismus, uneingestandener  26, 33 Duhem, Pierre  93, 104, 106, 107, 110, 113, 114 E Ehrenfest Paul 201 Tatjana 201 Einstein, Albert  20, 47, 51, 60, 76, 85, 101, 109, 149, 151, 155, 156, 170, 173, 174, 180, 191, 192, 208, 213, 215, 235, 237, 243, 245

Esfeld, Michael  4, 39, 72, 89, 92, 104, 105, 110 Everett, Hugh  19, 24, 183 F Feyerabend, Paul  93, 107, 108, 112, 115, 130, 151 Feynman, Richard  182 Fluss der Zeit und emergenter Raumä  151, 153 Fresnel, Augustin-Jean  99 G Galilei, Galileo  97, 115, 147, 194 Gomes, Henrique  237 Guth, Alan  168 H Hansson, Norwood Russell  93, 107 Hawking, Stephen  25, 110, 149, 169 Hegel, Georg Wilhelm Friedrich 98 Heisenberg, Werner  30, 76, 77, 149, 220 Hossenfelder 152 Hume, David  25, 67, 171, 188, 213 Husserl, Edmund  98 Hypatia  148, 194

Stichwortverzeichnis 259

I In der Zeit  195, 209 Interpretationen, verschiedene von Naturalismus  4, 16 J James, William  5 Järnefelt, Gustaf  44 Jurkiewicz, Jerzy  44 K Kanitscheider, Bernulf  17, 26, 30, 33, 35, 38, 39, 41, 43, 44, 50, 52, 53, 55–57, 59, 60, 62, 64, 68, 70, 74–77, 79, 110 Kanitschneiders Klassen  33, 43 mathematischer Realismus  17, 53 Kant, Immanuel  67 Kepler, Johannes  147, 194 Konopka, Thomas  45 Kontinuitätsidee, neue  80, 89 Kopernikus  125, 147, 193 Kosmologie der Zeit  165, 177 Koyre, Alexandre  98 Kritik und Erkenntnisfortschritt  141, 149 von John Waltkins an Kuhs geschichtlichem Relativismus  141, 149

Kuhlmann, Meinard 156–158, 160, 177, 180, 189 Kuhn, Thomas S.  15, 93, 94, 98, 100, 101, 103, 107, 108, 110, 111, 113, 115, 117, 119, 120, 123, 125, 126, 129, 130, 133, 135, 141–144, 146, 147, 149, 151, 190 Strukturalismusrückzug 95, 104 Kustaanheimo, Paul  44 L Lakatos, Imre  60, 94, 107, 112, 129–132, 136, 139, 239 Landé, Alfred  75 Lavoisier, Antoine Laurent de  126, 127, 129 Leibniz, Gottfried Wilhelm  146, 180, 184, 185, 187, 189, 191, 192, 215, 218 Lewis, David Kellog  24 Linde, André  167, 183, 207 Locke, John  67 Loll, Renate  44 M Mach, Ernst  62, 181 Mahner, Manfred  40, 41, 163

260 Stichwortverzeichnis

Markopoulou, Fotini  44, 45, 82 Miller, David  5 Modell, zyklisches versus Inflationsmodell  165, 168 Monod, Jaques  72 Mortenson, Michael J.  168 Mythos von Rahmen  113, 140 N Nagel, Ernest  63 Naturalismus Ansprüche, erhobene  53, 94 evolutionaärer verzeitlichter  230, 248 realistischer 8 Neurath, Otto  160 Newton, Sir Isaac  99, 103, 139, 146, 151, 175, 180, 181, 184, 190, 191, 194, 195, 197, 206, 212, 216, 234, 243, 247 Noether, Emmy  214

Pauli, Wolfgang  30, 88, 149, 186, 218 Pearl, Judea  222 Peirce, Charles Sanders  5, 182 Penrose, Roger  149, 205, 206 Platon  19, 22, 24, 27, 28, 31, 43, 53, 60, 188, 194, 195 Podolsky, Boris  149 Poincaré, Henri  162, 200 Popper, Karl R.  1, 3–5, 9, 11, 14, 17, 34, 55, 62, 64, 66, 92, 97, 99, 100, 105, 108–111, 114, 116, 117, 123, 129–131, 133, 135, 136, 138, 139, 141–143, 146, 182, 185, 190, 202, 233 Priestley, Joseph  126, 127, 129 Prüfsatz-Konventionalismus nach Lakatos  130, 140 Ptolemäus  125, 147, 193, 194

O Ockham, Wilhelm von  8, 28, 158

Q Quine, Willard van Orman  1, 42, 55, 56, 64, 67, 68, 93, 104, 106, 107, 110, 113, 114, 160

P Parmenides  48, 169, 179, 188, 197 Passon, Oliver  219

R Rationalismus, das Missverständnis des pankritischen  9, 16

Stichwortverzeichnis 261

Realismus  17, 53 versus Strukturenrealismus  153, 163 Realität der Zeit  211, 219 Relativismus Kritik am psychologischen  104, 112 psychologistischer nach Thomas S. Kuhn  95, 104 Rießinger, Thomas  60 Rosen, Nathan  149 Rovelli, Carlo  44, 149 Rückzug aus dem Strukturalismus  95, 112 S Schlick, Johann  160 Schrödinger, Erwin  50, 84, 149, 238 Seljak, Uros  168 Sellars, Roy Wood  5, 6, 63 Smolin, Lee  24, 44–46, 83, 86, 107, 149, 151, 153, 154, 156, 165, 167, 179–186, 188–192, 194, 195, 197–199, 201, 203, 204, 206, 207, 211, 213, 215, 216, 218, 219, 229–232, 234–239, 242, 244, 245, 247, 248 Rezeption von Feyerabend und Kuhn  107, 112

Variante des Relationalismus  179, 195 Wiederbelebung der Zeit  179, 209 Sneed, Joseph D.  94 Stahl, Georg Ernst  126 Stegmüller, Wolfgang  56, 65, 94 Strukturaddition zum rein empiristischen Antirealismus  67, 80 Strukturalismus  17, 53 Strukturenrealismus  89, 94 T Tarski, Alfred  41 Tegmark, Max  17, 18, 20–22, 24–26, 30, 31, 53, 60, 110, 149, 188, 204, 232 Thiemann, Thomas  49, 51 Tong 88 Tong, David  80, 82, 84, 86, 88, 154 Typen von Falsifikationen  113, 130 U Unger, Roberto Mangabeira 211 Universum einzigartiges  211, 248 von Kausalität und Zeit  151, 163

262 Stichwortverzeichnis

V Vilenkin, Alexander  167, 183, 207 Vollmer 13 Vollmer, Gerhard  4, 8, 9, 11, 12, 15, 27, 62 Voltaire 146 von Neumann, John  30, 149 W Watkins, John  5, 112, 141, 142, 144, 146 Weinberg 152 Welten, logische logische nach Max Tegmarks Kanitscheiders  17, 53 Weyl 59 Weyl, Hermann  205, 206

Wheeler, Archibald  168, 174 Wheeler, John  149, 220–223 Wheeler, John Archibald  182 Wigner, Eugene P.  22 Witten, Edward  47 X Xenophanes 59 Y Young, Thomas  99 Z Zeh, Heinz Dieter  19, 24, 84, 89 Zenon  48, 49, 52