Komplexität – System – Evolution: Eine transdisziplinäre Forschungsperspektive 9783495825464, 9783495492260

103 85

German Pages [560] Year 2022

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Komplexität – System – Evolution: Eine transdisziplinäre Forschungsperspektive
 9783495825464, 9783495492260

Table of contents :
Cover
Definition der Evolution komplexer Systeme
Komplexität in den Geistes- und Humanwissenschaften
Komplexität und Komplexitäten. Plektiken einer modernen Theoriegestalt
Komplexe Formen? Kritische Anmerkungen zum Begriff der Komplexität in den Kultur- und Literaturwissenschaften
Komplexität in den Sozialwissenschaften
Komplexität sozialer Systeme. Philosophische Überlegungen im Anschluss an die Systemtheorie von Niklas Luhmann
Komplexitätsbasierte Normative Ordnungen. Demokratische Verzweiflung und adaptive Hoffnung
Komplexität und kulturelle Wirklichkeit. Kulturphilosophische Annäherungen an eine Theorie der Komplexität
Complexity Economics. Mustervorhersage, Evolution und Verstehen als Grundprobleme wirtschaftswissenschaftlicher Methodik
Soziale und Politische Komplexität im 19. Jahrhundert. Abenteuer eines Begriffs von Rousseau bis Spencer
Komplexität und Erklärung in den Humanwissenschaften
Komplexität in Mathematik, Natur- und Lebenswissenschaften
Komplexität in den mathematischen Wissenschaften
Komplexität schafft Leben. Komplexität als zentraler Begriff einer Organismustheorie
Die Entstehung der Zeit durch kosmologische Evolution
Komplexität der Krebsentstehung. Ursachen und Wirkung
Komplexität und Emergenz in der Chemie. Moleküle der zellulären Informationsübertragung
Komplexität in der Biologie. Die Entstehung des Lebens, komplexe Phänomene, Eukaryoten und Komplexität als Begriff des 21. Jahrhunderts
Kosmologische Evolution. Die Emergenz des Protons

Citation preview

Grundorientierungen Philosophischer Praxis

Schwalbe | Lutz-Bachmann [Hrsg.]

Komplexität – System – Evolution Eine transdisziplinäre Forschungsperspektive

https://doi.org/10.5771/9783495825464 .

Harald Schwalbe und Matthias Lutz-Bachmann (Hrsg.) Komplexität – System – Evolution

VERLAG KARL ALBER

A

https://doi.org/10.5771/9783495825464 .

https://doi.org/10.5771/9783495825464 .

Harald Schwalbe Matthias Lutz-Bachmann (Hrsg.)

Komplexität – System – Evolution Eine transdisziplinäre Forschungsperspektive Herausgegeben unter der Mitarbeit von Thomas M. Schimmer

Verlag Karl Alber Baden-Baden https://doi.org/10.5771/9783495825464 .

Harald Schwalbe and Matthias Lutz-Bachmann (Eds.) Complexity – System – Evolution A Transdisciplinary Research Perspective Complexity challenges science and society. In their different approaches to research, sciences address systems and processes that are not yet adequately (or sufficiently) recognized if we reduce them to their individual components and disregard their interaction. The course of many processes is neither predictable nor can they be reliably controlled. In shape of Globalisation, digitalisation and an increasing interdependence of different social and political systems, society is also facing an increase in complexity. Starting from an integrative definition of complex systems, the volume brings together different perspectives from the life sciences, the humanities and the nature sciences, in order to gain a better understanding of complexity, also as a basis for dealing with it.

The Editors: Harald Schwalbe (Prof. Dr.) is Professor of Structural Chemistry and Biology at Gothe University Frankfurt. His research focuses on the development and application of nuclear magnetic resonance spectroscopy (NMR) to study biomacromolecules (including proteins, RNA) to gain molecular understanding of the basic mechanism of biomacromolecules. Together with Matthias Lutz-Bachmann, he led the project »Complexity in Science, Culture and Society« funded by the Aventis Foundation. Matthias Lutz-Bachmann (Prof. Dr. Dr.) is professor of philosophy with a focus on medieval philosophy, practical philosophy with a special focus on political philosophy and ethics, philosophy of religion and critical theory at Goethe University Frankfurt. He is the director of the Forschungskolleg Humanwissenschaften at Goethe University, where he also led the Aventis Foundation-funded project »Complexity in Science, Culture and Society« together with Harald Schwalbe.

https://doi.org/10.5771/9783495825464 .

Harald Schwalbe und Matthias Lutz-Bachmann (Hrsg.) Komplexität – System – Evolution Eine transdisziplinäre Forschungsperspektive Komplexität stellt Wissenschaft und Gesellschaft vor Herausforderungen. Die Wissenschaften thematisieren in ihren unterschiedlich ansetzenden Forschungen Systeme und Prozesse, die noch nicht angemessen (oder: hinreichend) erkannt sind, wenn wir sie auf ihre einzelnen Bestandteile reduzieren und deren Zusammenspiel außer Acht lassen. Viele Prozesse sind in ihrem Verlauf weder vorhersagbar noch können sie sicher gesteuert werden. Durch Globalisierung, Digitalisierung und die zunehmende Verflechtung unterschiedlicher sozialer und politischer Systeme sieht sich auch die Gesellschaft mit einer Komplexitätssteigerung konfrontiert. Ausgehend von einer integrativen Definition komplexer Systeme bringt der Band Perspektiven aus Lebens-, Geistes-, Natur- und Humanwissenschaften zusammen, um ein fundiertes Verständnis von Komplexität als Handlungsgrundlage zu gewinnen. Die Herausgeber: Harald Schwalbe (Prof. Dr.) ist Professor für Strukturelle Chemie und Biologie an der Gothe-Universität Frankfurt. Seine Forschung konzentriert sich auf die Entwicklung und Anwendung der kernmagnetischen Resonanzspektroskopie (NMR) zur Untersuchung von Biomakromolekülen (u. a. Proteine, RNA), um das molekulare Verständnis des grundlegenden Mechanismus von Biomakromolekülen zu gewinnen. Gemeinsam mit Matthias Lutz-Bachmann leitete er das von der Aventis Foundation geförderte Projekt »Komplexität in Wissenschaft, Kultur und Gesellschaft«. Matthias Lutz-Bachmann (Prof. Dr. Dr.) ist Professor für Philosophie mit den Schwerpunkten der Philosophie des Mittelalters, der Praktischen Philosophie unter besonderer Berücksichtigung der Politischen Philosophie und Ethik, der Religionsphilosophie und der Kritischen Theorie an der Goethe-Universität Frankfurt. Er ist Direktor des Forschungskollegs Humanwissenschaften der Goethe Universität, wo er auch gemeinsam mit Harald Schwalbe das von der Aventis Foundation geförderte Projekt »Komplexität in Wissenschaft, Kultur und Gesellschaft« leitete.

https://doi.org/10.5771/9783495825464 .

Mit freundlicher Unterstützung der Aventis Foundation

Originalausgabe © VERLAG KARL ALBER ein Verlag in der Nomos Verlagsgesellschaft, Baden-Baden 2022 Alle Rechte vorbehalten www.verlag-alber.de Umschlagabbildung: stock.adobe.com Satz: SatzWeise, Bad Wünnenberg Gesamtverantwortung für Druck und Herstellung bei der Nomos Verlagsgesellschaft mbH & Co. KG ISBN Print 978-3-495-49226-0 ISBN E-Book (PDF) 978-3-495-82546-4

https://doi.org/10.5771/9783495825464 .

Inhaltsverzeichnis

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . Matthias Lutz-Bachmann/Harald Schwalbe

11

Definition der Evolution komplexer Systeme . . . . . . . . . Harald Schwalbe

17

Komplexität in den Geistes- und Humanwissenschaften Komplexität und Komplexitäten Plektiken einer modernen Theoriegestalt . . . . . . . . . . . Aljoscha Berve

23

Komplexe Formen? Kritische Anmerkungen zum Begriff der Komplexität in den Kultur- und Literaturwissenschaften . . . Achim Geisenhanslüke

73

Komplexität in den Sozialwissenschaften Martin Hauff

. . . . . . . . . . .

93

Komplexität sozialer Systeme Philosophische Überlegungen im Anschluss an die Systemtheorie von Niklas Luhmann . . . . . . . . . . 119 Matthias Lutz-Bachmann Komplexitätsbasierte Normative Ordnungen Demokratische Verzweiflung und adaptive Hoffnung Yael Peled

. . . . . 146

7 https://doi.org/10.5771/9783495825464 .

Inhaltsverzeichnis

Komplexität und kulturelle Wirklichkeit Kulturphilosophische Annäherungen an eine Theorie der Komplexität . . . . . . . . . . . . . . . 165 Thomas M. Schimmer Complexity Economics Mustervorhersage, Evolution und Verstehen als Grundprobleme wirtschaftswissenschaftlicher Methodik . . 202 Stefan Schweighöfer Soziale und Politische Komplexität im 19. Jahrhundert Abenteuer eines Begriffs von Rousseau bis Spencer . . . . . . 234 Felix Steilen Komplexität und Erklärung in den Humanwissenschaften . . . 266 William Talbott

Komplexität in Mathematik, Natur- und Lebenswissenschaften Komplexität in den mathematischen Wissenschaften . . . . . 291 Amin Coja-Oghlan / Max Hahn-Klimroth / Philipp Loick Komplexität schafft Leben Komplexität als zentraler Begriff einer Organismustheorie . . 325 Jürgen Bereiter-Hahn Die Entstehung der Zeit durch kosmologische Evolution . . . 339 George F. R. Ellis Komplexität der Krebsentstehung Ursachen und Wirkung . . . . . . . . . . . . . . . . . . . . 376 Michael A. Rieger

8 https://doi.org/10.5771/9783495825464 .

Inhaltsverzeichnis

Komplexität und Emergenz in der Chemie Moleküle der zellulären Informationsübertragung . . . . . . . 402 Harald Schwalbe / Josef Wachtveitl / Alexander Heckel / Florian Buhr / Thomas M. Schimmer Komplexität in der Biologie Die Entstehung des Lebens, komplexe Phänomene, Eukaryoten und Komplexität als Begriff des 21. Jahrhunderts . . . . . . . 495 Jörg Soppa Kosmologische Evolution Die Emergenz des Protons . . . . . . . . . . . . . . . . . . 528 Reinhard Stock

9 https://doi.org/10.5771/9783495825464 .

https://doi.org/10.5771/9783495825464 .

Vorwort Harald Schwalbe, Matthias Lutz-Bachmann

Die hier versammelten Beiträge zielen auf ein vertieftes Verständnis dessen, was wir mit dem Begriff der Komplexität zum Ausdruck bringen wollen, in der Sprache des Alltags, der Politik und in den Wissenschaften und den Künsten. Dabei wissen wir alle, und sei es nur intuitiv, dass wir mit dem Begriff Komplexität oder der Beschreibung von einem Vorgang oder Ereignis als komplex etwas anderes aussagen und beschreiben wollen als unsere Beobachtung, dass ein Sachverhalt kompliziert oder vertrackt ist. Was aber meinen wir, was beschreiben wir, was verstehen wir, wenn wir etwas in der Welt, in den Wissenschaften oder in der Kunst als komplex bestimmen? Dieser Frage sind wir, die Herausgeber dieses Buchs, eine Reihe von Jahren in einer engen und fruchtbaren Kooperation zwischen einem Chemiker und einem Philosophen in unzähligen Gesprächen nachgegangen. Vor allem aber haben wir mit der nachhaltigen Unterstützung des Forschungskollegs Humanwissenschaften der GoetheUniversität viele interdisziplinäre Gespräche unter Beteiligung nahezu aller Fächer und Disziplinen unserer Universität führen können, die dann zu einem erfolgreichen Antrag auf Förderung unserer Forschungen durch die Aventis Foundation für drei Jahre geführt hat. Aus dieser Förderung ist unser jetzt hier vorgelegtes Buch hervorgegangen. Sie hat es ermöglicht, dass wir nicht nur eine Forschungsgruppe am Forschungskolleg Humanwissenschaften für mehr als drei Jahre organisieren konnten, die neben internen Debatten auch namhafte internationale Kollegen wie Sir Christopher Dobson (Cambridge), George F. R. Ellis (Kapstadt) und William Martin (Düsseldorf) zu Vorträgen nach Frankfurt und Bad Homburg eingeladen hat, sondern dass wir auch fünf internationale Fellows in einem kompetitiven Auswahlverfahren für mehrere Monate an das Forschungskolleg Humanwissenschaften einladen konnten. Wir werden diese gelungene inter- und auch transdisziplinäre Arbeit am Forschungs11 https://doi.org/10.5771/9783495825464 .

Harald Schwalbe, Matthias Lutz-Bachmann

kolleg Humanwissenschaften mit der Unterstützung des Präsidiums der Goethe-Universität, für die wir den beiden Präsidenten, Frau Prof. Gitta Wolff sowie Prof. Enrico Schleiff, ebenfalls sehr herzlich danken, in den kommenden Jahren weiter fortsetzen und noch intensivieren. Durch die Zusammenarbeit mit dem Klavierduo Irmela Roelcke/ Axel Gremmelspacher konnte über den wissenschaftlichen Kreis hinaus das Thema Komplexität in der Musik ästhetisch wahrgenommen werden, dies sowohl im Rahmen interner Diskussionen als auch durch zwei öffentliche Konzerte. Dass aus dieser Zusammenarbeit auch eine CD mit Aufnahmen ausgewählter Stücke aus den Konzerten entstanden und unter dem Titel Textures im Label Genuin erschienen ist, ist Ausdruck der transdisziplinären Dimension unseres Themas. Welche Arbeitsergebnisse haben wir in der ersten Phase unserer Kooperationen erzielt? Wir haben auf der Grundlage mehrerer Gespräche mit dem Wissenschaftsphilosophen Prof. Hans Poser (Berlin) und weiteren Gesprächspartnern, darunter Prof. Rudolf Stichweh (Bonn), Prof. Klaus Mainzer (München) und Prof. Albrecht Koschorke (Konstanz), grundlegende Elemente einer möglichst präzisen Definition von Komplexität vorgelegt, auf die sich die Aufsätze in diesem Buch beziehen (vgl. das erste Kapitel in diesem Buch). Diese in der jetzigen Form noch vorläufigen Elemente einer Definition von Komplexität haben uns in unserer Ausgangsintuition bestätigt, dass wir mit der Frage, wie Komplexität zu verstehen ist und was es bedeutet, Phänomene in der Welt als komplex zu bestimmen oder zu modellieren, mit einer grundlegenden Thematik befasst sind, die geeignet ist, klassisch gewordene Vorstellungen von der Welt, dem Leben, der Gesellschaft oder der Kultur zumindest in einem neuen Licht zu betrachten. Vielleicht haben unsere Vorschläge aber auch das sachliche Gewicht, basale Annahmen über das Verhältnis Natur und Kultur, Materie und Geist, Determination und Freiheit, wie sie aus der Geschichte der Wissenschaften seit Beginn der Neuzeit resultieren, zu korrigieren. Wenn wir auf der Grundlage unserer hier angedeuteten Zusammenarbeit vorschlagen, Komplexität als einen dynamischen Entwicklungsprozess von Systemen zu verstehen, deren Herausbildung und weitere Entwicklung zu Resultaten führt, die wir als neu oder unerwartbar aufgrund der Beschreibung der Antezedenzbedingungen (ex ante) bestimmen können; wenn weiterhin zutrifft, dass die dynamischen Prozesse, durch die komplexe Systeme bestimmt sind, auch 12 https://doi.org/10.5771/9783495825464 .

Vorwort

rückwirkend (ex post) nicht hinreichend aus den sie begründenden Ursachen abgeleitet bzw. vorhergesagt werden können, dann ergeben sich spannende Debatten, die tatsächlich die Grundlagen und Grundaxiome der Natur- und Lebenswissenschaften sowie der Geistes-, Sozial- und Kulturwissenschaften betreffen. Sie betreffen, philosophisch gesprochen, auch das grundlegende Verständnis, das wir von der Wirklichkeit haben, ja die Grundbegriffe, mit denen wir das beschreiben, was ist, und damit das Verhältnis von Ontologie und Epistemologie oder Erkenntnis- und Wissenschaftstheorie; denn es wäre, falls sich die oben angedeuteten Voraussetzungen bestätigen ließen, theoretisch nicht länger auszuschließen, dass die bisherige Vorstellung von einer strengen Wiederholbarkeit aller Ereignisse in der Natur sich nicht beweisen lässt, sondern ein Ereignis eines von vielen möglichen Ereignissen ist. Gegebenenfalls müssen auch die Übergänge vom Unbelebten zum Belebten oder von der Natur zur Kultur wissenschaftlich neu gedacht werden. Es ist noch nicht absehbar, ob damit auch das Axiom einer möglichen methodischen und ontologischen Reduktion aller Vorgänge in der Natur auf Gesetze, die den Phänomenen kausal zugrunde liegen, oder die Vorstellung einer strikten Determination allen Naturgeschehens, oder und noch einmal allgemeiner gesprochen das zwischen den Wissenschaften streitige Verhältnis von Natur und Geschichte, von Naturgesetzen und menschlicher Freiheit, von ökonomischen Regeln und tatsächlichem wirtschaftlichen Handeln, vom Regelbefolgen in menschlicher Kognition und der Wirklichkeit menschlichen Sprechens, von sprachlicher Innovation und dem beständig neuen geistigen Aufbau der Welt durch gesellschaftliche und kulturelle Imagination – es ist noch nicht absehbar, ob diese und andere Fragen aus einer neuen theoretischen Perspektive betrachtet und anders als bisher beschrieben werden müssen. Die hier versammelten Aufsätze wollen jedenfalls zu einer solchen Diskussion beitragen. Die Beiträge in diesem Band kommen aus unterschiedlichen Disziplinen und dementsprechend haben sie verschiedene Gegenstände und Methoden. Verbunden werden diese Studien jedoch durch die prinzipielle Frage nach der Komplexität der jeweiligen Gegenstände sowie durch den definitorischen Rahmen, der den Beiträgen vorangestellt ist. Dabei ordnen sie sich nicht nur konzentrisch um die Begriffe System, Evolution und Komplexität an, sondern sind auch untereinander durch Themen, Methoden und prinzipielle Erkenntnisse miteinander verbunden und verschränkt. Diese Verbundenheit ver13 https://doi.org/10.5771/9783495825464 .

Harald Schwalbe, Matthias Lutz-Bachmann

suchen wir in Abbildung 1 zu verbildlichen. Dass die beiden Wissenschaftskulturen einer Strukturierung der Beiträge unter Komplexität in den Geistes- und Humanwissenschaften und unter Komplexität in Mathematik, Natur- und Lebenswissenschaften dienen, bedeutet daher nicht, dass die beiden Teile getrennt voneinander zu verstehen sind. Vielmehr soll dies eine symmetrische Ordnung erzeugen, durch die die vielfachen Verknüpfungspunkte, die sich im entstehenden Zwischenraum ergeben, sichtbar werden.

In der ersten Gruppe sind die Aufsätze aus den Geistes- und Sozialwissenschaften versammelt. Aljoscha Berve arbeitet in seinem Beitrag Komplexität und Komplexitäten den Begriff der Komplexität als Bezugspunkt transdisziplinärer Forschung und Theoriebildung heraus. Welche Bedeutung Komplexität für literarische Kunstwerke hat, aber auch welche Rolle sie in der Literaturtheorie spielen könnte, demonstriert in Komplexe Formen? Achim Geisenhanslüke. Felix Steilen (Soziale und Politische Komplexität im 19. Jahrhundert) und Martin Hauff (Komplexität in den Sozialwissenschaften) beleuchten aus je eigenen Blickwinkeln historisch und systematisch den Begriff und die etablierten Konzepte von Komplexität in den Sozialwissenschaften. Auch bei Matthias Lutz-Bachmann wird die Komplexität sozialer Systeme zum Thema, jedoch vor dem Hintergrund einer philosophischen Reflexion, um die Übertragbarkeit naturwissenschaft14 https://doi.org/10.5771/9783495825464 .

Vorwort

licher Konzepte in sozial- und geisteswissenschaftliche Bereiche kritisch zu reflektieren. William Talbott fragt analytisch nach dem Verhältnis von naturwissenschaftlich geprägten Komplexitätskonzepten und den Forschungsbereichen der Humanwissenschaften und arbeitet Kriterien einer Begrenzung dieser Übersetzungen heraus (Komplexität und Erklärung in den Humanwissenschaften). Yael Peled beobachtet Komplexitätserfahrungen in demokratischen Gesellschaften und zeigt ihre Ursachen in einer kontinuierlichen Diskrepanz zwischen Erwartung und Realität in Demokratien durch politikwissenschaftliche und linguistische Zugänge auf (Komplexitätsbasierte Normative Ordnungen). Ebenfalls von Komplexitätserfahrungen ausgehend analysiert Thomas Schimmer aus einer phänomenologischen und kulturphilosophischen Perspektive den intrinsischen Zusammenhang von Komplexität und kulturelle(r) Wirklichkeit. In Complexity Economics unternimmt Stefan Schweighöfer eine ideengeschichtliche Rekonstruktion eines ökonomischen Komplexitätskonzeptes, um die Potentiale dieser Erkenntnisse für die moderne Komplexitätsforschung herauszuarbeiten. In der zweiten Gruppe sind die Beiträge aus Mathematik, Lebens- und Naturwissenschaften versammelt. Welche Rolle Komplexität für die Lösung mathematischer Probleme spielt und welchen komplexen Systemen die Mathematik begegnet, legen Amin Coja et al. in ihrem Beitrag Komplexität in den mathematischen Wissenschaften dar. Jürgen Bereiter-Hahn befasst sich aus Sicht der Biologie mit dem Zusammenhang von Komplexität und Leben und arbeitet Erstere als Kriterium für Lebendigkeit heraus (Komplexität schafft Leben). Der Kosmologe und Physiker George F. R. Ellis entwickelt am Paradigma der Komplexität eine Rekonstruktion der Entstehung der Zeit im Universum durch kosmologische Evolution (Die Entstehung der Zeit durch kosmologische Evolution). Jörg Soppa beleuchtet aus biologischer Perspektive den Übergang von nicht-komplexen zu komplexen Entitäten und bringt dies in Zusammenhang mit weiteren komplexen Systemen in der Biologie (Komplexität in der Biologie). Michael Rieger zeigt die Komplexität der Krebsentstehung auf und verdeutlicht die Relevanz des Verständnisses von Komplexität für die Krebsforschung. Reinhard Stock nimmt komplexe Phänomene im Zuge der Entstehung des Universums in den Blick und konzentriert sich dabei auf den Übergang von der Quark-GluonPhase zur Phase der Materie aus Hadronen unmittelbar nach dem Urknall (Kosmologische Evolution). In ihrem Beitrag Komplexität 15 https://doi.org/10.5771/9783495825464 .

Harald Schwalbe, Matthias Lutz-Bachmann

und Emergenz in der Chemie analysieren Harald Schwalbe, Josef Wachtveitl, Alexander Heckel et al. Komplexität in der Chemie und Biochemie und bringen diese Erkenntnisse mit wissenschaftsphilosophischen und ontologischen Fragen in Verbindung. Mit der Vertiefung der hier nur angedeuteten Fragen und einer möglichen Klärung dieser und verwandter Probleme werden wir auch in den kommenden Jahren unsere Zusammenarbeit fortsetzen. Sie hat bereits jetzt dazu geführt, dass die übliche strenge Trennung der naturforschenden Disziplinen einerseits und der historisch-hermeneutisch argumentierenden Wissenschaften andererseits punktuell aufgehoben, zumindest aber in eine transdisziplinäre Forschungsperspektive umgemünzt werden konnte. Hierfür danken wir allen, die mitgearbeitet und uns auf diesem Weg unterstützt haben. In besonderer Weise danken wir unserem Kollegen aus der Physik, Herrn Prof. Reinhard Stock, für seine theoretisch stets weiterführenden Beiträge – und wir danken einander, nicht zuletzt auch für die gemeinsamen Debatten im Center for Dialogue at Campus Riedberg. Harald Schwalbe und Matthias Lutz-Bachmann, Frankfurt am Main, den 1. Juni 2021

16 https://doi.org/10.5771/9783495825464 .

Definition der Evolution komplexer Systeme Harald Schwalbe

Die Begriffe »Komplexität«, »komplexe Systeme« und »Evolution komplexer Systeme« sind für viele wissenschaftliche Disziplinen wesentlich und werden in diesen Disziplinen zu Beschreibungen von Phänomenen herangezogen. Die wissenschaftlichen Systeme reichen von Naturwissenschaften über Medizin in Bereiche der Geistes- und Sozialwissenschaften. Wenn diese Begriffe, die im Folgenden vereinfacht unter »Komplexität« zusammengefasst werden sollen, zur Modellbildung/Erklärung in diesen verschiedenen Disziplinen tauglich sein sollen, dann muss es eine einheitliche Begriffsbildung und Definition von Komplexität geben; und jeder Versuch einer Vereinheitlichung und transdisziplinären Auseinandersetzung mit Komplexität scheitert, gelingt es nicht, sich auf die Grundelemente eines komplexen Systems und seiner Zeitevolution zu einigen. Eine solche übergeordnete Modellbildung muss versuchen, sich auf einheitliche Begriffe zu einigen, die gegebenenfalls in die spezielle Semantik einer Teildisziplin übersetzt werden müssen. Ebenfalls müssen nicht alle Teile der Modellbildung noch die Eigenschaften in allen Aspekten des Systems identisch sein, aber es bedarf eines Maßes an Übereinkunft, damit eine gemeinsame Modellbildung überhaupt nur sinnvoll angestellt werden kann. Bei der Beantwortung der Frage nach »Komplexität« mag es sich gerade häufig ergeben, dass ein System zwar als komplex kategorisiert wird, aber in letzter Konsequenz eben nicht komplex ist. Ein solches Scheitern bzw. eine solche Nichtkompatibilität hat dann allerdings nicht zwingend zur Folge, dass die Auseinandersetzung mit diesem nur scheinbar komplexen System wertlos ist; im Gegenteil, die Abgrenzung bzw. die detaillierte Analyse der Grenzen der Anwendbarkeit eines Komplexitätsmodells sind selbst Teil der Komplexitätsforschung.

17 https://doi.org/10.5771/9783495825464 .

Harald Schwalbe

Im Folgenden sollen ein komplexes System und seine Zeitevolution definiert werden: 1. Ein dynamisch komplexes System evolviert in der Zeit. In einem strengen Sinn ist seine Evolution irreversibel und nicht reproduzierbar. Die Abweichung von exakter Reproduzierbarkeit kann sehr klein sein. Komplexität kann auch eine Eigenschaft statischer Systeme sein. 2. Komplexe Systeme sind offene Systeme. Hierbei ist ein System von seiner Umgebung getrennt, aber im (partiellen) Austausch. Dies impliziert, dass prinzipiell eine Abtrennung des komplexen Systems von seiner Umgebung möglich ist. Dabei kann die Umgebung selbst in weitere (komplexe) Systeme zerfallen. Austausch zwischen dem komplexen (inneren) System und seiner Umgebung ist in vielfältiger Weise möglich; ein unumgänglicher Austausch besteht in Form von Energie. Die Komplexität der Umgebung kann häufig größer sein als die Systemkomplexität. Somit ergibt sich Austausch zwischen System und Umgebung bzw. eine Reaktion zwischen dem System und der Umwelt. 3. Ein komplexes System besteht aus Teilchen/Mitgliedern/Elementen, im folgenden Elemente genannt. Die Elemente besitzen Eigenschaften. Die Zahl der Elemente ist hinreichend groß, so dass stochastische oder nicht-stochastische Fluktuationen der Eigenschaften zu beobachten sind. Komplexe Systeme können durch geringe oder durch starke Fluktuationen ihrer Elemente gekennzeichnet sein. Im Extremfall geringer Fluktuationen ist ein System homogen, im Extremfall starker Fluktuation wird ein System heterogen. 4. Die Elemente eines Systems stehen in Wechselwirkungen zueinander. Diese Wechselwirkungen sind prinzipiell beschreibbar. Die Wechselwirkungskräfte sind abhängig von der Konfiguration des Systems (Anzahl der Elemente, Position der Elemente innerhalb des Raums). Die Wechselwirkungskräfte können konstant sein oder sie können sich verändern. Die Summe der Wechselwirkungen kann, muss aber weder linear noch additiv sein.

18 https://doi.org/10.5771/9783495825464 .

Definition der Evolution komplexer Systeme

5. Die Konfiguration eines Systems ist zu jedem Zeitpunkt seiner Evolution beschreibbar und zu jedem Punkt möglich innerhalb der Gesetze des Systems. 6. Ein komplexes System hat charakteristische Eigenschaften, diese Eigenschaften können intensiv oder extensiv sein, d. h. Eigenschaften, die von der Größe des Systems (linear) abhängen, bzw. Eigenschaften, die von der Größe des Systems unabhängig sind. Ein komplexes System kann eine Funktion besitzen. Diese Funktion kann in der Wechselwirkung eines teilweise abgeschlossenen Systems mit einem anderen System bestehen. Eine solche Funktion ist prinzipiell beschreibbar. Es bleibt offen, ob die Funktion eines Systems extern analytisch beschreibbar ist, oder ob ein System bzw. Elemente des Systems absichtsvoll, intentional handeln. Der Übergang eines einfachen Systems zu einem komplexen System ist in aller Regel graduell. 7. Die Elemente eines komplexen Systems können in verschiedenen hierarchischen Ordnungen angeordnet sein. Im Allgemeinen besteht Austausch zwischen diesen hierarchischen Stufen; dieser Austausch kann reversibel oder irreversibel sein und er kann gerichtet sein oder sich im Gleichgewicht befinden. Häufig, aber nicht zwingend, evolviert Komplexität in dynamisch komplexen Systemen auf höheren Stufen aus den Eigenschaften der Elemente niedriger Stufen. In zeitunabhängigen komplexen Systemen kann Komplexität eine statische Eigenschaft höherer Ordnungen sein. 8. Die Evolution eines komplexen Systems ist prinzipiell von einem fast immer konstanten Energieeintrag getrieben. Dies erwirkt, dass Systeme von einem Zustand niederer Komplexität zu einem Zustand höherer Komplexität übergehen. Das Ausmaß der Komplexität ist innerhalb der Theorie komplexer Systeme beschreibbar bzw. quantifizierbar. 9. Die Notwendigkeiten der Funktionen des komplexen Systems können zur Selektion der einen Konfiguration über andere Konfigurationen des Systems genutzt werden (Darwin’sche Evolution). 10. Die Evolution nicht-komplexer Systeme ist prinzipiell beschreibbar. Einzelne Konfigurationen des Systems können ggfs. mit sehr geringer Wahrscheinlichkeit vorhergesagt werden, sind aber prinzipiell 19 https://doi.org/10.5771/9783495825464 .

Harald Schwalbe

vorhersagbar. Evolution komplexer Systeme stößt an Punkte oder Perioden der Kritikalität; an diesen Punkten der Kritikalität verändern sich die Eigenschaften des Systems in einer Weise, die prinzipiell nicht vorhersagbar ist. Die Nichtvorhersagbarkeit des neuen Zustands des Systems impliziert nicht, dass der neue Zustand nicht verträglich mit den Gesetzen der Evolution des Systems ist. 11. Im Übergang sowohl statischer als auch dynamischer komplexer Systeme an Punkten bzw. in Perioden der Kritikalität werden komplexe Systeme emergent. Diese Emergenz kann auf einem Übergang aller oder nur einzelner Elemente des Systems bestehen. 12. Phasen der Emergenz wechseln sich mit Phasen der Homöostase ab. Komplexe Systeme sind unterscheidbar von chaotischen Systemen. Das Charakteristikum chaotischer Systeme ist ihre empfindliche Reaktion von minimaler stochastischer Modulation der Ausgangsbedingungen. Komplexe Systeme können von prinzipiell stark unterschiedlichen Ausgangsbedingungen evolvieren und einen Zustand der Homöostase erreichen. Komplexe Systeme zeichnet Selbstorganisation bzw. Autopoiesis aus. In Selbstorganisation kann ein dynamisch komplexes System zu einem (metastabilen) Zustand evolvieren. Dabei bleibt offen, ob diese Evolution linear oder zyklisch ist. 13. In sozialen Systemen wird Komplexität als Grad der Vielschichtigkeit, Vernetzung und Folgelastigkeit des Entscheidungsfelds eines sozialen Systems definiert. Je komplexer eine spezifische Situation ist, über desto mehr relevante Handlungsoptionen verfügt das System. In vielen Disziplinen, insbesondere der Ökonomie, stellt sich die Frage nach Entscheidungskriterien, wie sich komplexe dynamische Systeme organisieren lassen. Entscheidungen sind in Phasen der Homöostase prinzipiell möglich, an Punkten der Kritikalität in ihren Wirkungen unvorhersagbar.

20 https://doi.org/10.5771/9783495825464 .

Komplexität in den Geistes- und Humanwissenschaften

https://doi.org/10.5771/9783495825464 .

https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten Plektiken einer modernen Theoriegestalt Aljoscha Berve »Likewise, if the parts of a complex system or the various aspects of a complex situation, all defined in advance, are studied carefully by experts on those parts or aspects and the results of their work are pooled, an adequate description of the whole system or situation does not usually emerge. The reason, of course, is that these parts or aspects are typically entangled with one another. We have to supplement the partial studies with a transdisciplinary ›crude look at the whole,‹ and practitioners of plectics often do just that. I hope that it is not too late for the name ›plectics‹ to catch on. We seem to need it.« Murray Gell-Mann (1995) »Die Komplexität ist für eine begriffliche Wiedergabe zu komplex.« Niklas Luhmann (1984)

1.

Problemstellung

Der Komplexitätsbegriff hat in der zweiten Hälfte des 20. Jahrhunderts eine steile Karriere als wissenschaftlicher Fachbegriff gemacht. Heute existiert kaum eine Wissenschaftsdisziplin, die sich nicht durch ihre eigene Fachoptik mit komplexen Problemfeldern konfrontiert sieht, sich mit komplexen Phänomenen beschäftigt oder über Komplexitätsreduktion bei Entscheidungsfindungsprozessen forscht. Die Komplexitätsverständnisse, die hinter diesen sich fächerübergreifend ähnelnden Formulierungen stehen, unterscheiden sich jedoch deutlich, mitunter bis zum Punkt der Inkompatibilität. Vor diesem Hintergrund ist die Frage danach, ob sich jenseits aller Partikularverständnisse von Komplexität noch eine allgemeine Komplexitätskonzeption finden ließe, auch eine Selbstvergewisserung darüber, ob bezüglich zentraler Wissenschaftsbegriffe im 21. Jahrhundert noch transdisziplinärer Austausch möglich ist. Man könnte vermuten, dass der Komplexitätsbegriff gerade deshalb eine steile Karriere gemacht hat, weil er ab der Mitte des 23 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

20. Jahrhunderts in alltagsweltlichen und wissenschaftlichen Diskursen auftaucht, ohne durch eine allzu große begriffsgeschichtliche Vergangenheit vorbelastet zu sein. Dabei lässt sich der Begriff durchaus lange Zeit parallel zu seiner immer vielfältigeren wissenschaftlichen Instrumentalisierung auch als Negativfolie eines wissenschaftlichen Ideals verstehen; wenn die Aufgabe des Wissenschaftlers darin bestehen soll, bedeutsame Einfachheit in der Mitte verwirrender Komplexität zu finden (Herbert 1991), äußert sich darin der paradoxe Imperativ des Naturphilosophen: Suche Einfachheit und misstraue ihr (Whitehead 2015). Möchte man die unterschiedlichen professionellen Aufladungen nachvollziehen, die der Begriff der Komplexität auf seinem Weg zum wissenschaftlichen Fachterminus in gänzlich verschiedenen Fach- und Problemkontexten innerhalb weniger Jahrzehnte erfahren hat, bietet sich an, dem Begriff ebenfalls von seinem umgangssprachlichen Bedeutungsspektrum her zu folgen. Was also meinen wir mit Komplexität? Vielleicht könnte man sich der Komplexität im ersten Schritt etwa mit folgendem, grobem Alltagsverständnis nähern: Allgemein scheinen wir Komplexität mit allen Dingen zu assoziieren, die wir schwierig zu verstehen finden (Flood 1988). Schaut man sich diese Formulierung genauer an, so zeichnen sich hier bereits zwei strukturell gänzlich verschiedene Bereiche ab, auf die Komplexität bezogen werden kann: Erstens kann Komplexität auf uns und die Schwierigkeiten, die mit unserer Erkenntnisfähigkeit, unseren Interessen, Fähigkeiten, Wahrnehmungen und Entscheidungen zusammenhängen, verweisen. Vor allem Geistes-, Sozial- und Kognitionswissenschaften folgen dieser Auffassung von Komplexität. Zweitens aber kann Komplexität auch äußerlich auf alle Dinge, die sich als Systeme und deren Interaktionen der objektiven Beobachtung darbieten, bezogen sein. Aus diesem Ansatz ist das Komplexitätsverständnis vor allem der Natur- und Lebenswissenschaften hervorgegangen. Komplex ist also, einfach gesprochen, entweder die Welt oder unsere Weise, die Welt verstehen zu wollen. In der Komplexitätsforschung ist diese Abhängigkeit des elementaren Komplexitätsverständnisses vom fachlichen Hintergrund des Forschers bereits früh bemerkt worden (Ashby 1973, Klir 1985). Einen ganz ähnlichen Unterschied zwischen zwei verschiedenen Grundauffassungen von Komplexität hat die Komplexitätsforschung in den 1970er Jahren in der Debatte zwischen first-order-cybernetics, also objektiv beobachtbaren Systemen, und second-order-cybernetics, also Systemen, die sich selbst reflexiv the24 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

matisieren, verhandelt (Foerster 1995; für einen allgemeinen Überblick vgl. auch Malaina 2015). Das Spannungsverhältnis, das sich aus diesen komplexitätstheoretischen Grundverortungen ergibt, scheint zunächst einmal das Spannungsverhältnis zwischen natur- und geisteswissenschaftlichen Weltzugängen in kleinerem Maßstab widerzuspiegeln. Wie die Debatte um first-order und second-order-cybernetics aber zeigt, ließe sich in der Komplexitätstheorie mit guten Gründen die Trennlinie nicht zwischen Naturwissenschaften und Geisteswissenschaften ziehen, sondern zwischen einerseits Wissenschaften, deren Systemgedanke lediglich ein in seinem Verhalten physikalisch berechenbares Aggregat seiner Teile impliziert, und andererseits Wissenschaften, die von zielorientiert handelnden, selbstorganisierenden Systemen ausgehen. In diese Richtung geht auch die einschlägige Unterscheidung von unorganisierter und organisierter Komplexität (Weaver 1948). In ähnlicher Weise ließe sich Komplexität in einfache (simple) und allgemeine (general) Komplexität aufteilen, wobei einfache Komplexität sich mit wohldefinierten, vom Beobachter unterschiedenen und objektiv beobachtbaren Systemen beschäftigt, allgemeine Komplexität hingegen mit der Vorstellung, dass sich in komplexitätstheoretischer Betrachtung keine festen Systemgrenzen definieren lassen, sondern der Beobachter letztlich Teil des komplexen Verweisungszusammenhangs sein muss (Byrne/Callaghan 2014). Dieses Komplexitätsverständnis schließt sich terminologisch wie inhaltlich an Edgar Morins Unterscheidung zwischen Konzepten begrenzter Komplexität (complexité restreinte), die vor allem spezialwissenschaftlich und methodisch verfahren, und solchen allgemeiner Komplexität (complexité générale), die von einem alltagssprachlichen Begriffsverständnis ausgehen und auf transdisziplinärer Ebene die erkenntnistheoretischen Bedingungen des Theoretikers mitreflektieren, an (Morin 2007). In anderem Kontext wird unterschieden zwischen statischer Komplexität, die hierarchische Strukturen, Konnektivität, Komponentenvielfalt und Interaktionsintensität eines Systems beschreibt und damit eine objektive Systemeigenschaft ist, sowie dynamischer Komplexität, die den Grad deterministischer Vorhersagbarkeit oder Zufälligkeit eines Systems beschreibt und damit als Eigenschaft der Beziehung zwischen System und Beobachter verstanden werden muss (Casti 1979). Alle diese Aufteilungen von Komplexität in jeweils zwei verschiedene Formen unterscheiden sich bezüglich der Qualität, anhand derer die Dichotomie ausformuliert wird, scheinen aber doch sehr deutlich auf einem 25 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

ähnlichen, wenngleich vagen allgemeinen Grundgedanken zu beruhen. Bezieht man sich auf das grundlegende Alltagsverständnis des Komplexitätsbegriffs, könnte man aus dem Eingangssatz aber auch eine nochmals andere Dichotomie fundamentaler Komplexitätszugänge herauslesen: Während im einen Fall Komplexität als eine Systemeigenschaft, also analytisch, verstanden wird, firmiert sie im anderen Fall als pejorative Beschreibungskategorie einer Situation, die kognitiv überfordernd wirkt und Konfusionsgefühle hervorruft. Diese Begriffsambivalenz ist in der Forschung ebenfalls früh beschrieben worden (La Porte 1975). Neben der Schwierigkeit, den semantischen Umfang des Komplexitätsbegriffs auf der Grundlage eines Alltagsverständnisses eindeutig zu definieren, macht ein weiterer Umstand dessen Bedeutungsvielfalt interessant. Wie der Physiker Murray Gell-Mann feststellt, lässt sich das Phänomen der Komplexität in der Gegenwart in fachspezifischen Einzeluntersuchungen nicht mehr adäquat behandeln, sondern nur in transdisziplinären Untersuchungskontexten, die mit – aus der Perspektive der Spezialwissenschaften – »kruden ganzheitlichen« Analogieschlüssen arbeiten. Für diesen Ansatz hat GellMann das Kunstwort der »Plektiken« (plectics) geprägt. Nicht ohne Konkurrenz; die Notwendigkeit interdisziplinärer Kooperation beim Thema der Komplexität hat an anderer Stelle zur Begriffsneuschöpfung der »complexics« geführt (Massip-Bonet 2014; Bastardas-Boada 2019). Was der Debatte um den Komplexitätsbegriff seit den 1990er Jahren fehlt, ist, von wenigen Ausnahmen abgesehen (Law/Mol 2002), eine wissenschaftlich konsensfähige Sensibilität für diese konzeptionelle Mehrdeutigkeit. Interessanterweise hat sich der Begriff der Komplexitätstheorie in den letzten Jahren vor allem als wohldefinierter Teilbereich der Informatik institutionalisiert; hier spielt Komplexität lediglich die Rolle eines voll operationalisierten terminus technicus, der aus einer ausgesprochen reduktiven Lesart des Begriffs stammt und lediglich eine Funktionsstelle innerhalb einer anderen Theoriebildung füllen soll, darüber hinaus aber keinen konzeptionellen Eigenwert besitzt. Im Sinne der fächerübergreifend gedachten Plektiken des Komplexitätsbegriffs wäre gerade in einer Zeit, die ein transdisziplinär arbeitendes Wissenschaftsideal propagiert, genau in die andere Richtung zu fragen, was denn die implizit verbindenden Elemente des Phänomenbereichs der Komplexität wären.

26 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Die Struktur des Diskurses um den Komplexitätsbegriff suggeriert bereits eine plausible Verfahrensweise für allgemeine Begriffsuntersuchungen: Über Komplexität wird in unterschiedlichen Kontexten und Konzepten zuvörderst über die Verwendung von Schlagwörtern kommuniziert. Interessanterweise verwenden geistesund naturwissenschaftliche Komplexitätskonzepte häufig die gleiche Kernterminologie, subsumieren darunter jedoch ganz verschiedene Diskurse. Vor diesem Hintergrund ist es sinnvoll, Komplexitätskonzepte nicht im Kontext der jeweiligen Fachdiskussionen zu untersuchen, sondern danach zu fragen, was der angemessene Körnungsgrad komplexitätstheoretischer Überlegungen für den Austausch über Fächergrenzen hinweg wäre. Dass Komplexität in der interdisziplinären Wissenschaftskommunikation eher wie eine Metapher denn als wohldefiniertes Konzept verwendet wird, ist keine neue Erkenntnis (vgl. Cowan et al. 1999). Man hat versucht, diesem Umstand durch die Forderung nach einem schwachen Komplexitätsbegriff Rechnung zu tragen, der keine Synthese der einzelnen Komplexitätsbedeutungen und -verwendungskontexte mehr anstrebt, sondern lediglich die Anschlussfähigkeit der einzelnen Erklärungselemente an das Gesamtsystem gewährleisten möchte (Luhmann 1984). Zu vermeiden wäre im Übrigen auch ein vorschneller Zirkelschluss, der Ambrose Bierce’ satirische Definition von »Magnet« als »Etwas, auf das Magnetismus einwirkt« und »Magnetismus« als »Etwas, das auf einen Magneten einwirkt« (Bierce 1996) wiederholte, indem er Komplexität als Eigenschaft komplexer Systeme definierte und komplexe Systeme als Systeme, die Komplexität aufweisen (Johnson 2010). Die Belastbarkeit transdisziplinärer Komplexitätskonzepte muss berücksichtigen, dass Komplexität ein charismatischer Begriff ist, der sich aus teils ganz disparaten Alltagsverständnissen ergibt und, wenn er in einem bestimmten Kontext überzeugt, eine bis in die wissenschaftliche Anwendung hinein verlängerte Heuristik bilden kann. Die schiere Vielfalt an lebensweltlich entlehnten Komplexitätsverständnissen verbietet dabei eine Rekonstruktion aller Konzepte. Zielführender ist, stattdessen zu fragen, welche Leitprobleme sich fächerübergreifend im Kontext der Komplexitätsdiskussion unterscheiden lassen. Der zunächst überraschende Befund lautet: Die Anzahl der ursprünglichen Probleme, die zu komplexitätstheoretischen Überlegungen geführt haben, ist deutlich geringer als die Anzahl der mit exklusiver Spezialterminologie operierenden Komplexitätstheorien. Auf diese Weise ist es zwar schwierig, an modische Komplexitätsdis27 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

kussionen – etwa das Konzept der Complex Adaptive Systems (CAS) – anzuknüpfen, die Motivationen hinter den Theoriebildungen treten allerdings deutlicher hervor. Dabei laufen die Trennlinien nicht zwischen den verschiedenen Wissenschaftsdisziplinen, sondern zwischen unterschiedlichen Kernmetaphern davon, welchen Phänomenbereich von Problemlagen Komplexität beschreiben soll. Die Ausformulierung komplexitätstheoretischer Überlegungen findet niemals im luftleeren Raum statt; viele Leitprobleme von Komplexität sind sich alternativer Theoriebildungen bewusst und referieren wiederum andere Leitprobleme, allerdings unter der jeweils eigenen Perspektive, wodurch teils erhebliche Bedeutungsverschiebungen sowie terminologische Umdefinierungen entstehen. Auch können solche Leitprobleme ein Eigenleben entfalten, in welchem die Komplexitätstheorie zeitweise eine Nebenrolle einnimmt oder gar vom explanandum zum explanans befördert wird, bis die Diskussionen über die Binnenstruktur des Leitproblems zu einem Ergebnis geführt haben. Eine komplexitätstheoretische Publikation auf den Kontext eines Leitproblems festzulegen bedeutet häufig, sie in ein Raster zu pressen, das deutlich gröber ist, als dieser Position angemessen wäre. Das weite Feld der Komplexitätstheorie auf wenige Leitprobleme zu reduzieren kann nicht bedeuten, zwischen einer Anzahl von Theorielagern trennscharf zu unterscheiden, sondern nur, innerhalb eines dynamischen, interdependenten Forschungsfelds Schwerpunkte zu bilden, die heuristische Handreichen für die Navigation durch den gesamten Phänomenbereich bieten. Deshalb ist es sinnvoll, die der Vorstellung von Komplexität zugrunde liegenden Leitprobleme nicht isoliert zu analysieren, sondern als aus einem jeweils speziellen Phänomenbereich stammenden Verweiszusammenhang zu behandeln. Wenn in einer Annäherung an das Komplexitätsthema vermittels des Schemas der Leitprobleme verschiedene Komplexitätstheorien unter einem Leitproblem subsumiert werden, sollen sie damit nicht als einseitig qualifiziert, sondern lediglich einem Problemschwerpunkt zugeordnet werden. Ein unstrittiges Auswahlkriterium für zu behandelnde Leitprobleme zu finden ist unmöglich. Andere Autoren haben den Kanon gängiger Komplexitätskonzepte auf acht grundsätzliche Zugänge beziffert (Anderson 1999). Die folgende Darstellung soll eine Bestandsaufnahme der aktuellen Diskussionen bilden und auf diese Weise einen repräsentativen Querschnitt durch die Verwendungsformen des Komplexitätsbegriffs liefern, in der Hoffnung, ein gemeinsames 28 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Strukturmuster herauszustellen, das sich für ein interdisziplinäres und möglichst breites Komplexitätsverständnis anbietet.

2.

Hierarchie und Emergenz

Eines der populärsten Leitprobleme der Komplexität verweist zugleich auf den etymologischen Befund des Begriffs: Dinge sind entweder einfach (simplex) oder komplex, weil zusammengesetzt (lat. complexus/a/um = umschlungen, vereinigt). In dieser Wortbedeutung wird das Adjektiv komplex bis heute verwendet. Bezeichnenderweise hat sich im Lateinischen die Substantivierung zu complexitas nicht ergeben; man könnte daraus den Gedanken fassen, dass die einfache Gleichsetzung von komplex mit zusammengesetzt in der unmittelbaren Verwendung ebenso überzeugend ist wie für das mittelbare Bedürfnis nach Theoriebildung ungeeignet. Für die Komplexitätstheorie ist die Unterscheidung von einfach und zusammengesetzt in den Konzepten von Hierarchie und Emergenz dennoch zu einem Leitproblem weiterentwickelt worden. In analytischen Kontexten wird der Begriff komplex aktuell noch in seiner ursprünglichen sprachlichen Bedeutung verwendet. Der semantische Gehalt von komplex als »zusammengesetzt« ist zunächst lediglich »nicht einfach«. Komplex ist ein absolutes Adjektiv, es lässt sich also nicht steigern; Dinge sind binär entweder komplex oder nicht, eine graduelle Unterscheidung von mehr oder weniger komplex sieht diese Lesart nicht vor. Ihre Leitfrage lautet nicht, welche Eigenschaften Komplexität besitzt, sondern, unter welchen Bedingungen verschiedene Substanzen eine komplexe Substanz bilden und welche qualitativen Bestimmungsmerkmale sich in der Analyse komplexer Substanzen unterscheiden lassen (Hübner 2007). Die Diskussion transponiert die ursprünglich mathematische Teildisziplin der Mereologie, die sich mit der Beziehung von Teil und Ganzem beschäftigt, auf die Ebene der Metaphysik (Simons 1987). Von hier aus hat die philosophische Auseinandersetzung mit der Mereologie wieder ihren Weg zurück in die wissenschaftstheoretische Diskussion der Medizin und Naturwissenschaften gefunden (Vollmer 1992). In der analytischen Untersuchung verschiedener Qualitäten komplexer Substanzen wird häufig zwischen Verbindungen (compounds) und Aggregaten unterschieden (Fine 1994), mitunter ist die wichtigste Binnendifferenzierung komplexer Substanzen die zwischen lebenden 29 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

und nicht lebenden Verbindungen (Hoffman 1999; Schark 2005). Gegen dieses Komplexitätsverständnis ist eingewendet worden, dass die Vorstellung einfacher Elemente ein im Kontext moderner Wissenschaften unzulässiger Rückgriff auf antike Weltvorstellungen sei, die Welt, die sich dem Betrachter darbiete, sei in der Praxis immer schon ein Aggregat (Luhmann 1990). Ein Begriff von Komplexität, der komplex lediglich als »nicht einfach« begreift, wäre demnach in der praktischen Anwendung eine leere Menge. Ein ergiebigeres Komplexitätsverständnis im Kontext des Leitproblems von einfach und komplex entsteht, wenn Komplexität als graduell steigerungsfähige Eigenschaft begriffen wird, also mehr oder weniger komplexe Dinge existieren. Hieraus ergibt sich häufig ein Hierarchiegedanke: Aus den einfachsten Elementen der Welt entstehen komplex zusammengesetzte Verbindungen, aus denen sich wiederum größere, noch komplexere Einheiten bilden. Diese Denkfigur hat in naturwissenschaftlichen Theoriebildungen besondere Prominenz eingenommen: Atome setzen sich zu Molekülen zusammen, Moleküle bilden Zellen, aus Zellen entstehen höherstufige Lebewesen, Lebewesen konstituieren Gesellschaften. Es ist naheliegend, diese Hierarchiereihe nicht für jeden individuellen Fall neu zu konstruieren, sondern darin eine Ordnungsstruktur der Welt zu erkennen, die sich in einem Komplexitätsgradienten ausdrückt, der die atomare Ebene, die molekulare Ebene, die zelluläre Ebene, die organismische Ebene und die gesellschaftliche Ebene in einer Hierarchie ansteigender Komplexität ordnet. Die Formalisierung des Hierarchiegedankens geht in der Hierarchietheorie so weit, dass die Ebenenstruktur nicht mehr als approximative Darstellung der realen Phänomene, sondern als analytisches Werkzeug gebraucht wird (Pattee 1973). In der Geschichte der Naturwissenschaften am Übergang vom 19. zum 20. Jahrhundert hat das Hierarchiemodell auch deshalb großen Einfluss ausgeübt, weil es zudem als unmittelbar überzeugendes wissenschaftstheoretisches Paradigma diente: Auguste Comte konzipiert sein Wissenschaftsmodell als eine Hierarchie, in der alle Wissenschaften von der Mathematik bis zur Soziologie in einer Reihe aufeinander folgen. Kriterium der Hierarchie ist, dass von der Mathematik bis zur Soziologie die Komplexität der wissenschaftlichen Instrumente abnimmt, während zugleich die Komplexität der beobachteten Phänomene zunimmt (Comte 1949). Auch Herbert Spencer entwirft ein Wissenschaftssystem, in dem alle Wissenschaften hierarchisch durchordnet sind (Spencer 1966). Im 20. Jahrhundert 30 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

ist dieses hierarchische Wissenschaftskonzept weitgehend obsolet geworden, Hierarchieüberlegungen bleiben seitdem auf die Vorstellung ontologischer Hierarchien beschränkt. Nach einer einschlägigen Definition Talcott Parsons’ lassen sich zumindest in den Sozialwissenschaften zwar ontologisch eigenständige, aber funktional interdependente Schichten nachweisen (Parsons 1967). Die Vorstellung, die reale Welt in einer funktionalen Ebenenstruktur beschreiben zu können, erfährt in naturwissenschaftlichen Diskursen erhebliche Kritik. Zunächst einmal ist die Frage nach der ontologisch trennscharfen Bestimmung der Anzahl von Ebenen schwierig zu beantworten – man kann neun Ebenen der Realität annehmen, die in einer Reihe von Partikeln bis zu Nationalstaaten die Welt in einer geordneten Hierarche abbilden (Pettersson 1996) oder eine funktional und kausal nicht mehr klar unterscheid- und zuordenbare Vielfalt an Ebenen bei der mechanischen Beschreibung des menschlichen Gehirns alleine (Craver 2007). Diese unauflösbar scheinende kategoriale Mehrdeutigkeit hat im Konzept der integrativen Ebenen (integrative levels, Kleineberg 2017) dazu geführt, ausgehend von den ontologischen Überlegungen Nicolai Hartmanns allgemeine Schichten im Aufbau der realen Welt zu unterscheiden, die sich fächerübergreifend eindeutig heuristisch bestimmen lassen und den Einzelwissenschaften Raum gewähren, bei Bedarf weitere Binnendifferenzierungen vorzunehmen. Hartmann unterscheidet die vier Schichten von Unorganischem, Leben, Seele und Geist (Hartmann 1940), gegenwärtig werden zumeist die drei Schichten von Materie, Leben und Geist angenommen (Blitz 1992). In der aktuellen Debatte wird das Konzept von ontologisch unabhängigen Ebenen der Realität zumeist kritisch behandelt (Poli 2001). Problematisiert wird hierbei nicht die Verwendung des Hierarchiebegriffs als allgemeine heuristische Orientierung, sondern die Frage, ob sich eine Ebene ontologisch in kausal unabhängiger Weise beschreiben lässt oder nur im Kontext mehrschichtig interdependenter Interaktionszusammenhänge (Rueger 2001). Bereits früh hat es Bestrebungen gegeben, am Ebenenbegriff in Hinsicht auf dessen interdisziplinäre komplexitätstheoretische Anwendbarkeit eine ontologische, epistemologische und methodologische Begriffsdimension zu unterscheiden (Bunge 1973). Gegenwärtig wird vorrangig nicht der ontologische Status des Ebenenmodells diskutiert, sondern die Frage, ob ein Mehrebenenkonzept miteinander verbundener Organisationsebenen, die selbstorganisierend multikausale dynamische Hierarchien ausbilden, mit dem Hie31 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

rarchiekonzept überzeugend dargestellt werden kann (Rasmussen 2002). Eine Variation des hierarchischen Schichtmodells stellt die Theorie der eingeschränkten Entstehungsprozesse (constrained generating procedures) dar, die nicht von Schichten ausgeht, sondern von hierarchisch miteinander interagierenden Systemen, die auf unterschiedlichen Erklärungsebenen systematisch durch Berechnungsmodelle verbunden sind (Holland 1998). Die Theorie weist bereits deutliche Überschneidungen mit dem netzwerktheoretischen Komplexitätsansatz auf. Im Forschungsfeld der Komplexitätstheorie übt das Hierarchiemodell zwar einigen Einfluss aus, zumeist wird es allerdings erst in der Weiterentwicklung zum Emergenzkonzept als Leitproblem der Komplexitätsforschung behandelt. Der Emergenzbegriff steht für eine Vielfalt von Konzepten ein, die verschiedene Aspekte betonen oder sich zum Teil widersprechen. Insgesamt stellt sich, strukturell analog zum Komplexitätsbegriff, die Frage, ob der Begriff der Emergenz in einer kohärenten wissenschaftlichen Theorie abgedeckt werden kann oder ob es sich um eine breite Denkfigur handelt, die zwar als allgemeines Ordnungsparadigma unzweifelhaft einen heuristischen Mehrwert besitzt, in verschiedenen Fachdisziplinen aber zu unterschiedlichen konzeptionellen Ausarbeitungen führen muss (Greve/Schnabel 2011). Während der deutsche Terminus der Emergenz implizit in die erste Richtung deutet, ließe sich der englische Ursprungsbegriff der emergence durchaus alltagssprachlich-vorterminologisch verstehen. Aufgrund der Vielzahl unterschiedlicher Begriffsverwendungen und der partiellen Überschneidungen ihrer Anwendungsbereiche ist es unmöglich, eine umfassende Bestandsaufnahme aller emergenztheoretischen Überlegungen im Kontext der Komplexitätstheorie vorzunehmen. Mitunter beschreibt der Begriff lediglich das Auftreten von Neuem oder die Nichtvorhersagbarkeit zukünftiger Entwicklungen; einige Positionen subsumieren unter dem Emergenzkonzept ein Bedeutungsspektrum von Nichtvorhersagbarkeit bis zur Selbstorganisation (Stephan 1999). Seine ursprüngliche Bedeutung hat der Emergenzbegriff in den 1920er Jahren im britischen Emergentismus von Samuel Alexander und Charlie Dunbar Broad erhalten (Alexander 1966; Broad 1920); mit verschiedener Schwerpunktsetzung beschreibt Emergenz das Entstehen neuer Eigenschaften auf höheren Ebenen, die auf niedrigeren Ebenen noch nicht anzutreffen sind und schließt auf diese Weise an das Hierarchiemodell an (Kim 2000). Im 32 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Unterschied zu diesem postuliert das Emergenzkonzept keine lineare Zunahme von Komplexität von Ebene zu Ebene, sondern billigt jeder Ebene einen Eigenwert zu, der sich in der Entstehung kategorial neuer Qualitäten äußert, die auf niedrigerer Ebene noch nicht anzutreffen waren; auf diese Weise flankiert die Entstehung des Emergenzparadigmas eine Verschiebung in der Komplexitätstheorie von einem rein quantitativen zu einem qualitativen Verständnis (Anderson 1972). Ebenso, wie das Hierarchiemodell im 19. Jahrhundert deshalb erfolgreich war, weil es eine analoge Entsprechung in der Wissenschaftstheorie seiner Zeit fand, lässt sich auch der Erfolg des Emergenzkonzepts ab den 1920er Jahren im veränderten Wissenschaftsverständnis der Zeit sehen: In welcher Weise kann man sagen, dass die Phänomene, mit der die Soziologie zu tun hat, komplexer sind als die Phänomene, mit denen die Molekularbiologie konfrontiert ist? Was die Komplexität soziologischer respektive molekularbiologischer Fragestellungen ausmacht, muss anhand der spezifischen Qualitäten des jeweiligen Fachbereichs bestimmt werden. Die Vorstellung, dass sich die verschiedenen Wissenschaften nicht lediglich durch die Vergrößerungsstufe ihres Phänomenbereichs unterscheiden, sondern durch ihre speziellen Methoden qualitativ gänzlich verschiedene Vorgehensweisen und Perspektiven besitzen, hat in der Gegenwart dazu geführt, emergenztheoretisch die Unvereinbarkeit der einzelnen Wissenschaftsdisziplinen in einem gesamtwissenschaftlichen Modell zu fordern (Fodor 2008). Wirkungsgeschichtlich hat das Emergenzparadigma vor allem den Geistes- und Sozialwissenschaften dabei geholfen, die methodische Reduktion auf physikalische Erklärungsmodelle zu vermeiden. Bei der Abgrenzung verschiedener wissenschaftlicher Erklärungsebenen voneinander bietet sich eine Entscheidung anhand von Graden emergenter Komplexität generell an (Anderson 1972); welche Kriterien genau die verschiedenen Ebenen emergenter Komplexität besitzen sollen, ist eine weitaus schwieriger zu beantwortende Frage (Wimsatt 1994). Die meisten Verwendungsweisen des Emergenzbegriffs basieren auf dem Konzept der Irreduzibilität: Die Eigenschaften und Funktionen einer höheren Ebene lassen sich nicht auf die einer niedrigeren Ebene reduzieren. Ebenso, wie auf der atomaren Ebene zur Erklärung der Interaktionen von Teilchen lediglich physikalische Gesetze verwendet werden müssen, bedarf die Ebene der Menschen lediglich psychologische Erklärungskonzepte, um die Handlungen und Inter33 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

aktionen von menschlichen Individuen zu beschreiben. Weder ist für die physikalische Beschreibung der Bewegung aller Partikel, die den Oberschenkelknochen einer Person bilden, die Handlungsintention dieser Person relevant, noch ist für die psychologische Beschreibung des Bewegungsverhaltens dieser Person relevant, auf der Grundlage welcher physikalischen Prozesse der Oberschenkelknochen sich in Bewegung versetzt. Die Komplexität des jeweiligen Phänomenbereichs emergiert aus den qualitativen Eigenschaften der entsprechenden Ebene und kann nicht aus den spezifischen Funktionsweisen anderer Ebenen deduziert werden. Wissenschaftstheoretisch richtet sich die Irreduzibilitätsannahme gegen Reduktionsmodelle, die behaupten, wissenschaftliche Theorien ließen sich auseinander deduzieren und so auf fundamentale Basistheorien zurückführen (Nagel 1961). Diese Emergenzperspektive schließt an die gestalttheoretische Formel an, dass das Ganze etwas anderes ist als die Summe seiner Teile (Laughlin 2005). Inhaltlich lässt sich diese Emergenzvorstellung noch einmal unterteilen in ontologische und epistemologische Fassungen (van Gulick 2001), also die Frage, ob Emergenz in der realen Welt existiert oder ein Phänomen unseres erklärenden Denkens über die Welt darstellt. Eine weitere Position unterscheidet noch einmal zwei Formen der Emergenz, nämlich starke Emergenz, in der sich Eigenschaften der Makroebene aufgrund zu komplexer Interaktionsstrukturen nicht auf die Eigenschaften einer Mikroebene reduzieren lassen, und die schwache Emergenz, in der sich grundsätzlich Reduktionen vornehmen lassen (Wimsatt 1997). Schwache Emergenz wird also als epistemologisches Phänomen behandelt (Bedau 2008). Als solches ist es vor allem im Kontext von rechnergestützten Simulationsmodellen ein gängiges Konzept (Bedau 1997). Eine Schwierigkeit des Emergenzkonzepts besteht in der Frage der Kausalität. Wenn einzelne Ebenen irreduzibel sein sollen, ist damit nicht gesagt, es bestehe keine kausale Beziehung zwischen beiden. Dass die bestehenden physikalischen Strukturen auf atomarer Ebene Voraussetzung für die Existenz von Entitäten auf höheren Ebenen sein sollen, ist zumeist unstrittig. Hier ist vor allem die Frage, wie genau diese Abhängigkeit verstanden werden soll, ohne dass der zugrundeliegende Physikalismus wiederum in eine Identitätsbehauptung mündet (Kim 1993). Ob aber umgekehrt von höheren Ebenen kausaler Einfluss auf niedrigere Ebenen ausgeübt werden kann, ist ein steter Streitpunkt der Emergenztheorie. Eine mögliche Unter34 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

scheidung ist die zwischen einfachen Hierarchien, in denen kausale Wirkung sich von unten nach oben vollzieht, und Kontrollhierarchien, in denen das Verhalten der Entitäten auf niedrigerer Ebene nicht ausreichend beschrieben werden kann ohne einen kontrollierenden Einfluss von höheren Ebenen (Pattee 1973; Primas 1983). Diese Abwärtsverursachung lässt sich strukturell in bis zu drei verschiedene Formen unterscheiden (Emmeche et al. 2000) und wird häufig unter dem Schlagwort der Supervenienz diskutiert. In den Naturwissenschaften kann Abwärtsverursachung verhältnismäßig unproblematisch Ebenen übergreifend diskutiert werden, beispielsweise als Konvektion im Bereich der Fluiddynamiken (Bishop 2008). In den Neurowissenschaften und der Philosophie des Geistes hingegen ist das Konzept der Supervenienz weit problematischer, da Abwärtsverursachung häufig verwendet wird, um die Schwelle zwischen mentalen und physikalischen Zuständen zu überbrücken; die Frage nach Abwärtsverursachung betrifft also im Kern die Frage, ob mentale Zustände kausalen Einfluss auf physikalische Zustände ausüben können (Davidson 1980). Der Erklärungsmehrwert der Supervenienz ist hierbei strittig (Beckermann 1992), mitunter wird das Leitproblem der Emergenz sogar als Lösung der Supervenienzproblematik gesehen (Bunge 2003). In der aktuellen Diskussion der Philosophie des Geistes fordern prominente Stimmen, das Konzept der Supervenienz für die Geist-Gehirn-Debatte als unpassend zu begreifen und damit das Konzept der Willensfreiheit aufzugeben (Kim 2005). Mit satirischer Überspitzung ist vorgeschlagen worden, ein Supervenienzkonzept, das Phänomene höherer Ebenen mit den Mitteln niedrigerer Ebenen erklären können möchte, ohne dabei die adäquate Beschreibung der spezifischen emergenten Komplexität der höheren Ebene aufzugeben, als Superdupervenienz zu bezeichnen (Horgan 1993). Einen ganz anderen Zuschnitt hat der Emergenzbegriff in den Sozialwissenschaften eingenommen, was vorrangig an der Struktur des Fachbereichs liegt. Der Kausalitätsbegriff ist in einer Disziplin, deren Systemelemente allesamt aktiv und eigengesetzlich handelnde Individuen sind, anders gelagert als in den Naturwissenschaften. Emergenz wird häufig in einem weiteren Sinne verstanden als die nicht intentionale Entstehung von Makrostrukturen durch kollektiv handelnde Akteure, also in inhaltlicher Nähe zum Selbstorganisationsparadigma (Krohn/Küppers 1992). Als Gegenbegriff zur nicht intentionalen Emergenz von unten nach oben fungiert die von oben nach unten oktroyierte Organisationsentscheidung gesellschaftlicher 35 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Steuerungsorgane (Beckenkamp 2006). Dieses gegenseitige Verweisverhältnis von Mikroebene und Makroebene ist implizit im soziologischen Mikro-Makro-Modell angelegt (Coleman 1990). Aktuell wird der Emergenzbegriff auch explizit mit dem Mikro-MakroModell zusammengebracht (Hoyningen-Huene 1994; Heintz 2004). Da die Sozialwissenschaften annehmen, dass Phänomene der Makroebene durch individuelle Handlungen auf der Mikroebene hervorgebracht werden können (Sawyer 2001) und somit ein Emergenzverständnis zeigen, das mit der Irreduzibilität des naturwissenschaftlichen Emergenzverständnisses inkompatibel ist, bleibt zu fragen, ob sich der Emergenzbegriff in verschiedenen Disziplinen mittlerweile nicht unhaltbar aufgespalten hat. Ein nochmals anderes Verständnis von Emergenz unterscheidet nicht irreduzible ontologische respektive epistemologische Ebenen voneinander, sondern verwendet den Emergenzbegriff, um die Unvorhersagbarkeit von Prozessen zu beschreiben – Emergenz ist die Entstehung einer neuen Ordnung über Zeit hinweg. Diese Begriffsbesetzung mag der umgangssprachlichen Dimension des Englischen emergence geschuldet sein. Die Position der evolutionären Entstehung von Komplexität über Zeit hinweg ist, ohne explizite Verwendung des Emergenzbegriffs, bereits früh in der Forschung diskutiert worden (Simon 1962). Bei expliziter Verwendung des Emergenzbegriffs wird die Unterscheidung von gleichzeitiger und zeitlich ausgedehnter Emergenz terminologisch im Begriffspaar von synchroner und diachroner Emergenz gefasst (Stephan 1998). Dabei sind innerhalb der diachronen Emergenz nochmals verschiedene Schwerpunktsetzungen zu beobachten. Einerseits lässt sich das Konzept von Emergenz über Zeit hinweg an das Konzept der schwachen Emergenz und das komplexitätstheoretische Leitproblem der Mustererkennung und -vorhersage anschließen (Humphreys 2008), andererseits wird die Verbindung von Emergenz über Zeit mit der Konzeption starker Emergenz und der Vorstellung von Komplexität als Neuheit verbunden (Rueger 2000).

3.

Netzwerk und Muster

Ein zentrales Leitproblem für den Komplexitätsbegriff ist der Bereich von Netzwerken sowie Mustererkennung und -prognose. Kontrastiert mit der Vorstellung linearer Verbindung führt der Gedanke 36 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

einer auf netzwerkartigen Verknüpfungen basierenden Struktur unmittelbar zu der Vorstellung komplexer Musterbildungen. Der Netzwerkbegriff gehört disziplinübergreifend zur Grundausstattung wissenschaftlicher Theoriebildung und bietet ein alternatives Strukturkonzept zum Systembegriff. Analysiert man Netzwerke und Netzwerkstrukturen, lässt sich Komplexität als Metrik für verschiedene Qualitäten von Netzwerken verwenden. Bei diesem Leitproblem handelt es sich in zweifachem Sinn um ein Sammelproblem; erstens ließe sich diskutieren, ob der Musterbegriff nicht auch in anderen Leitproblemen der Komplexität relevant ist und zweitens werden unter dem Netzwerkbegriff wiederum eine Vielzahl teils disparater Theorien subsumiert. Insgesamt ähneln sich die impliziten Grundvorstellungen hinter den meisten Ansätzen aber in ausreichend großem Maße für diese Kategoriebildung. Der Netzwerkgedanke ist in Komplexitätsvorstellungen häufig implizit inbegriffen. In der einfachsten quantifizierenden Formalisierung bezeichnet Komplexität die Anzahl von Relationen zwischen den Elementen eines Systems, unterschieden von Kompliziertheit, womit die Anzahl der Elemente eines Systems bezeichnet wird (Klaus 1971). Eng verwandt ist die Unterscheidung von komplizierten Systemen, die aus einer Vielzahl über Kausalketten miteinander verbundener Elemente bestehen, und komplexen Systemen, deren Elemente interdependent wechselwirkend angeordnet sind (Mennin 2010). Hier wird zunehmende Komplexität nicht als Steigerung von Eigenschaften einzelner Elemente eines Systems verstanden, sondern als qualitative Zunahme ihrer Verbundenheit miteinander. Ebenfalls auf die Interaktionsmöglichkeiten von Elementen zielt die strukturelle Unterscheidung von Komplexität, Kompliziertheit und Komplikation (Günther 1968). Auch die Differenzierung von instrumenteller und konstruktioneller Komplexität bezieht sich auf die Verbindungs- und Einordnungskontexte eines Systems: Instrumentelle Komplexität beschreibt die Anzahl der Anwendungsmöglichkeiten eines Objekts, konstruktionelle Komplexität die Anzahl und Verbindungsstruktur der Bauteile eines Systems (Moles 1960). Eine ähnliche strukturelle Komplexitätsbestimmung subsumiert unter dem Begriff zwei Systemeigenschaften, die Struktur der irreduziblen Komponenten-Subsysteme und die qualitative Weise, in der die Komponenten miteinander verbunden sind (Casti 1979). Mitunter wird der Netzwerkgedanke auch als lediglich ein Komplexitätsaspekt verstanden, etwa, wenn Komplexität als Funktion 1.) der Anzahl von Systemkom37 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

ponenten, 2.) der relativen Variation von Komponenteneigenschaften und 3.) der Interdependenz der Systembestandteile definiert wird (La Porte 1975). Alternativ lässt sich der Netzwerkgedanke in komplexitätstheoretischen Überlegungen nicht nur auf der Seite objektiver Beobachtung, sondern auch als Strukturmerkmal komplexer Denkprozesse verwenden; komplexes Denken beschreibt dann die Fähigkeit, argumentative Evidenz aus der situativen Verknüpfung von musterförmig angeordneten Argumentstrukturen zu ziehen und nicht aus seriell-linear verknüpften argumentativen Beweisketten (Berve 2019). Insgesamt lassen sich so viele verschiedene Theorieverbindungen des Netzwerkgedankens mit dem Komplexitätsbegriff nachweisen, dass keine autoritative Analysemethode mehr sinnvoll erscheint (Hollstein/Straus 2006). In der Theorie der eingeschränkten Entstehungsprozesse (constrained generating procedures) wird der Netzwerkgedanke explizit mit dem Emergenzbegriff verkuppelt. Komplexität beschreibt hier den Spielraum zwischen systemischen Möglichkeiten und Beschränkungen, aus dem sich auf jeder Systemebene Mechanismen herausbilden, die sich dann in einem Netzwerk interdependenter Mechanismen dynamisch miteinander verbinden. Eine implizite Parallele zwischen dem Verhalten von Systemen und wissenschaftlicher Modellbildung besteht darin, von Details zugunsten allgemeiner Muster zu abstrahieren (Holland 1998). Ein in der Theorie der eingeschränkten Entstehungsprozesse selbst angeführtes Anwendungsbeispiel sind neuronale Netzwerke; in Übersichtswerken zur Evolution der Komplexität wird der Netzwerkgedanke häufig auf den Bereich der neuronalen Netzwerke bezogen (Mainzer 1994; 1997). Außerdem ist aus biologischer Perspektive Leben als sich selbst erhaltendes Netzwerk von Reaktionen, ein autokatalytischer Metabolismus, beschrieben worden (Kauffman 1995). Darüber hinaus gehören zu diesem Leitproblem der Komplexität zwei interdisziplinäre Netzwerkkonzepte, die sich explizit aus komplexitätstheoretischen Überlegungen entwickelt haben. Die AkteurNetzwerk-Theorie entstand in den 1980er Jahren zunächst in der Techniksoziologie (Latour 1987; Law et al. 1986) und möchte den Unterschied zwischen denkenden, intentional handelnden Individuen und technisch-materiellen Funktionssystemen aufheben; alle Entitäten eines Systems sollen mit den gleichen Strukturannahmen beschrieben werden können. Indem die Akteur-Netzwerk-Theorie alle Entitäten als Akteure (agents) beschreibt und lediglich hinsichtlich 38 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

ihrer Kapazität bewertet, Wirkung (agency) auf andere Akteure auszuüben, werden bewusst-zweckgerichtete menschliche Handlungen mit der gleichen Metrik beschrieben wie kausal-maschinelle Auswirkungen technischer Bauteile. Da sowohl Menschen als auch technische Bauteile und Ideen auf andere Akteure wirken können, spricht die Theorie von Aktanten anstelle von Akteuren. Erklärungsgegenstand der Akteur-Netzwerk-Theorie ist ein ganzheitliches Netzwerk, das aus einzelnen materiellen oder semiotischen Clustern besteht und dennoch als Einheit wahrgenommen wird. Bei einer Beschreibung der Funktionseinheit »Flugzeug« etwa füllen sowohl das Triebwerk als technisches Bauteil als auch der Pilot als menschlicher Akteur spezifische Funktionsstellen, die als separate Cluster der Funktionseinheit »fliegendes Flugzeug« beschrieben, aber nur vor dem Hintergrund des kohärenten Ganzen dieses Netzwerks verstanden werden können (Law 2002). Das Netzwerkkonzept zeigt sich an zwei Aspekten besonders deutlich. Zum einen verzichtet die Theorie auf hierarchische Stratifizierung in unterschiedliche Systemebenen, zum anderen charakterisiert sie alle Aktanten bedingt durch die Funktionsstelle, die sie in ihrem Netzwerk füllen, entweder als Zwischenglieder (intermediaries), die Wirkungen lediglich weiterleiten, oder Vermittler (mediators), die als Knotenpunkte des Netzwerks empfangene Wirkungen in andere Formen von Wirkung umformen (Latour 2005). Komplexität fungiert in der Akteur-Netzwerk-Theorie als generelles Beschreibungskriterium für Netzwerke und kann in weitere Komplexitätseigenschaften wie Verbundenheit, dynamische Interaktion, Kommunikation, Teilhabe, Anpassungsfähigkeit und Flexibilität ausdifferenziert werden. Die Akteur-Netzwerk-Theorie wird aktuell einerseits in den Sozialwissenschaften weiterentwickelt (Laux 2014) als auch in den Wirtschaftswissenschaften (Belliger/Krieger 2016) und der Medizin (Mol 2002) verwendet und hat mittlerweile ein eigenes Interpretationsparadigma etabliert (Blok et al. 2020). Das zweite interdisziplinäre, auf komplexitätstheoretischen Überlegungen beruhende Netzwerkkonzept ist die Theorie der Small World Networks, die zwei Theoriestränge zusammenbringt. Der Soziologie Stanley Milgram prägte den Begriff des Small World Problem (Milgram 1967), um ein Phänomen sozialer Netzwerke zu beschreiben, das seither auch als das Konzept der Six Degrees of Separation populär geworden ist. Untersucht man die Verbindungen zwischen einzelnen Personen, lässt sich mit großer Wahrscheinlichkeit innerhalb von sechs Verbindungsschritten eine mittelbare Be39 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

ziehung zwischen allen menschlichen Individuen auf diesem Planeten herstellen. Zur Beschreibung dieser Verbindungsstruktur bietet sich der Netzwerkbegriff an (Granovetter 1983). Dabei zeigen solcherart untersuchte Netzwerke charakteristische Eigenschaften; in der Soziologie haben die zuverlässig zu beobachtenden, bereits von Georg Simmel (Simmel 2013) postulierten triadischen Beziehungsmuster zu der Unterscheidung von starken und schwachen Verbindungen (strong respektive weak ties) geführt (Granovetter 1973). Der zweite Theoriestrang der Theorie der Small World Networks stammt aus der mathematischen Netzwerktheorie. Um die Wahrscheinlichkeit kalkulieren zu können, mit der eine beliebige Menge Entitäten durch zufällige Verbindungen zu einem Netzwerk verbunden werden kann, entwickelten Ende der 1950er Jahre verschiedene Mathematiker zeitgleich die Zufallsgraphen-Netzwerkkonzeption (Erdős/Rényi 1959; Gilbert 1959). Mit diesem Modell lassen sich die Anzahl der Verbindungsschritte, um von einem Element zu einem beliebigen anderen zu gelangen, prognostizieren, ohne dass jedoch Knotenpunkte und triadische Strukturen entstehen. Diese Ergänzung erfolgte etwa 40 Jahre später mit der Weiterentwicklung zur Theorie skalenfreier Netzwerke (scale-free networks), die sich an das soziologische Small Worlds Problem anschließen lässt (Watts/Strogatz 1998). Das Barabási-Albert-Modell hat den Anspruch, über eine rein mathematische Berechnungsform hinauszugehen und interdisziplinär anwendbar zu sein (Barabási 1999[a]). Im Unterschied zum Zufallsgraphen-Modell versteht sich die Theorie skalenfreier Netzwerke ausdrücklich als Theorie komplexer Netzwerke (Barabási 2002 [a]). Dabei wird der Netzwerkgedanke mit den Konzepten hierarchischer Ebenen und emergenter Strukturen verknüpft (Barabási 2002b). Die Komplexität eines Netzwerks beruht auf verschiedenen Eigenschaften; zum einen wird die strukturelle Anordnung von Knotenpunkten (hubs) und einfachen Elementen des Netzwerks berücksichtigt, zum anderen der effektive Durchmesser (diameter) des Netzwerks, also die Anzahl Verbindungen, die notwendig sind, um das System zu durchqueren (Barabási 1999[b]). Der allgemeine Geltungsanspruch der Theorie skalenfreier Netzwerke ist kritisch betrachtet worden; die Kritik hat innerhalb der Theorie eine Anzahl von Klassen skalenfreier Netzwerke unterschieden und festgestellt, dass viele der interdisziplinär als skalenfrei postulierten Systeme im strengen Sinn keine skalenfreien Netzwerke darstellen (Amaral et al. 2000). Dennoch hat die Vorstellung von 40 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Small World Networks breite Anwendung gefunden. Neben der Kybernetik (Liu et al. 2011) haben die Physik, zur Untersuchung kritischer Umschlagpunkte (Hinrichsen 2000), und die Biologie sich ihrer bedient (Jeong et al. 2000), vor allem die Ökologie zur Beschreibung von Nahrungsketten (Yodzis 2000; Williams et al. 2002). In der Medizin wird das Konzept etwa bei der Modellierung der Ausbreitung von Epidemien verwendet (Pastor-Satorras/Vespignani 2001). Dass die Theorie der Small Worlds Networks einen ihrer ersten Anwendungsfälle in der Beschreibung der Struktur des Internets gefunden hat, ist naheliegend (Barabási 1999[b]; Yook et al. 2002); darüber hinaus ist sie auch für die Beschreibung der Struktur wissenschaftlicher Kooperation herangezogen worden (Newman 2001). In populärwissenschaftlicher Verallgemeinerung kann die Theorie verwendet werden, um die Wirkung von Marketing, Viren und Ideen allgemein zu beschreiben (Watts 2004; Gladwell 2009). Dass der Mustergedanke eng mit dem Konzept von Netzwerken verknüpft ist, überrascht wenig. Wichtiger im Kontext der Komplexitätsdebatte ist die Verbindung von Mustererkennung und -vorhersage. Die Schwierigkeit, aus einer vollständigen Systembeschreibung zuverlässige Prognosen über das Verhalten des Systems ableiten zu können, ist disziplinübergreifend mit unterschiedlicher Schwerpunktsetzung in Natur-, Sozial- und Wirtschaftswissenschaften als zentrales Kennzeichen komplexer Systeme verstanden worden (Gell-Mann 1994, Dörner et al. 1983, Vieweg 2015). Konsequenterweise ist Komplexität in der Wissenschaftstheorie als kreativer Generator von qualitativ Neuem beschrieben worden (Poser 2012; Whitehead 1978; Stacey 1997). Man könnte formulieren, die Verbindung von Komplexität und prognostischer Unvorhersagbarkeit sei lediglich die Theoretisierung der praktischen Einsicht, dass der Kapazität moderner Wissenschaften, komplexe Interaktionsprozesse zu verstehen und Ergebnisse vorherzusagen, auf konkreter Ebene enge Grenzen gesetzt sind. In diesem Sinne ist Heisenbergs Unschärferelation als ein historisch früher Schritt auf dem Weg zum Komplexitätsparadigma bezeichnet worden (Chandler 2014). Ein wichtiger Beitrag zum musterbasierten Verständnis von Komplexität ist die Theorie komplexer Phänomene des Ökonomen Friedrich von Hayek (Hayek 1964). Ausgehend von der Feststellung, dass wir immer bereits in Mustern denken, wird die wissenschaftliche Aufgabe im Umgang mit komplexen Phänomenen verstanden als die Überprüfung implizit bereits vorhandener und eventuell die Schaf41 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

fung neuer Muster; während die Prognose einzelner Ereignisse in komplexen Systemen beinahe unmöglich ist, lassen sich unter gewissen Umständen Ereignismuster mit größerer Verlässlichkeit vorhersagen. Die Behauptung der strukturellen Unzulänglichkeit statistischer Methoden für die Analyse komplexer Systeme übernimmt die Theorie komplexer Phänomene von Weavers Unterscheidung unorganisierter und organisierter Komplexität, die für Phänomene organisierter Komplexität ebenfalls die Verwendung von aus dem menschlichen Kognitionsapparat stammenden Interpretationsmustern verlangt (Weaver 1948). Hayek leitet seinen Musterbegriff aus seinen eigenen Beiträgen zur Kognitionsforschung ab (Hayek 1952) und verwendet explizit neuronale Netzwerke als paradigmatische Beispiele für komplexe Systeme. Seine Beschreibung des menschlichen Gehirns als komplexes, selbstorganisierendes hierarchisches Netzwerk ähnelt dem Strukturverständnis von Komplexität, das die Theorie komplexer Systeme propagiert. Über das Gestaltparadigma haben auch andere Komplexitätskonzepte den Musterbegriff von der Psychologie in die Wirtschaftswissenschaften (Hartung 2014) respektive Stadtplanung (Eckardt 2009) überführt. Auch Emergenzkonzepte, die auf der Annahme gründen, das Ganze sei etwas anderes als die Summe seiner Teile, schließen implizit an die Gestalttheorie an (Laughlin 2005).

4.

Selbstorganisation

Das Selbstorganisationskonzept bildet eines der prominentesten Leitprobleme der Komplexitätstheorie. Mit der Erkenntnis, dass das Verhalten vieler Systeme in der Natur sich besser als selbstorganisierend denn als blind mechanisch beschreiben lässt, hat sich der Anspruch an die Definitionen dessen, was ein System ausmacht, was als Verhalten verstanden werden kann und welche Interaktionsmuster ein selbstorganisierendes System mit seiner Umwelt verbinden, in einem Ausmaß gesteigert, das den Komplexitätsbegriff als Beschreibungsmetrik attraktiv macht. Die Anwendungs- und Konzeptvielfalt, die sich unter dem Begriff der Selbstorganisation vereinigt, ist zu groß, um systematisch geschlossen dargestellt werden zu können. Da Komplexität in der Selbstorganisationsdebatte von Anfang an ein zentraler Begriff war, ist es im komplexitätstheoretischen Kontext sinnvoll, zunächst die 42 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Entwicklung des allgemeinen Begriffs der Selbstorganisation und anschließend, als spezielle Weiterentwicklung, das Konzept der Autopoiesis nachzuvollziehen. Im Selbstorganisationskonzept kommen zwei Theoriestränge zusammen. Der Begriff der Selbstorganisation stammt aus der Organisationstheorie und wurde seit dem Ende der 1940er Jahre maßgeblich von Ross Ashby geprägt, der zwei Formen selbstorganisierender Systeme unterscheidet: die triviale Form der Verbindung separater Elemente zu einem Elementverbund, die lediglich selbstverbindend (self-connecting) ist, sowie die eigentliche Selbstorganisation, die als dynamische Entwicklung eines Systems von schlechter zu guter Organisation beschrieben werden kann. Die neue Qualität der Selbstorganisationskonzeption liegt in der Behauptung, diese Organisationsdynamik sei spontan und jedes selbst organisierende System müsse als organismisch-lebendig handelnde Struktur verstanden werden, die sich, von chaotischen Anfangsbedingungen ausgehend, auf Gleichgewichtszustände hin entwickle. Im Fall simpler Mechaniken wie etwa einem Pendel führt dieses Selbstorganisationskonzept zu trivialen Ergebnissen, einen Erklärungsmehrwert liefert es bei komplexen, interaktiven und vielschichtigen Systemen wie etwa einer Gesellschaft menschlicher Individuen (Ashby 1962). Komplexität dient im Konzept der Selbstorganisation von Anfang an als Zielmetrik für den dynamischen Selbstorganisationsprozess, bleibt zunächst aber ein undefinierter Begriff. Der zweite Theoriestrang im Konzept der Selbstorganisation stammt aus der theoretischen Physik. Die allgemeine Systemtheorie entwickelt, ausgehend von der Frage, wie es sein könne, dass die Entropie im Universum stetig zunehme, zugleich aber auch die Entwicklung hin zu immer komplexeren und besser geordneten Systemen zu beobachten sei (Schrödinger 1948), die Unterscheidung offener und geschlossener Systeme; in geschlossenen Systemen – wie etwa dem Universum insgesamt – gilt der thermodynamische Entropiesatz uneingeschränkt, in offenen Systemen hingegen besteht andauernder Austausch von Energie und Informationen mit der Umwelt. Ludwig von Bertalanffy, nach dem heute der Ludwig von Bertalanffy Award in Complexity Thinking benannt ist, sieht die Notwendigkeit einer allgemeinen Systemtheorie ausdrücklich durch die Komplexität der modernen Umwelt gegeben (Bertalanffy 1968), ohne jedoch mit der Systemtheorie eine umfassende Komplexitätsdefinition zu verbinden. Dieser Ansatz wird in der Kybernetik weiter43 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

entwickelt zu der Hypothese, selbstorganisierende Ordnung entstehe aus Lärm (noise): Kleinere Systeme entziehen ihrer Umgebung Energie und Ordnung, wodurch sie selber zu Inseln der Ordnung in einer insgesamt entropischen Welt werden (Foerster 1984). Dabei können selbstorganisierende Systeme im Sinne der Emergenztheorie durchaus selber Binnenstratifikationen aufweisen, in denen sich die Entwicklung der Makroebene zu höherer Ordnung auf Kosten abnehmender Ordnung der Mikroebene auszeichnet (Kugler/Turvey 1987). In der Biologie ist Selbstorganisation verstanden worden als Ausbildung formativer Muster auf der Ebene des Gesamtsystems, die ausschließlich auf der auf lokale Information beschränkten Interaktion von Systemkomponenten niedrigerer Ebene beruhen, ohne geregeltem Einfluss von außen ausgesetzt zu sein (Camazine 2001). In diesem Kontext werden die Begriffe von Ordnung und Energie Schlüsselbegriffe der Selbstorganisation, wohingegen Komplexität als selbstverständliches Explanans fungiert. So kann etwa die Struktur selbstorganisierender Systeme darin gesehen werden, den Energieaufwand des Systems zu reduzieren und in Hinsicht auf Organisationsveränderung hin zu höherer Komplexität zu kanalisieren (Kauffman 2000). Insgesamt hat der Begriff der Selbstorganisation eine solche Anwendungsbreite erfahren, dass mit Recht gefragt werden darf, ob sich innerhalb des Selbstorganisationsparadigmas noch ein einheitliches Verständnis davon finden lässt, was Komplexität eigentlich bedeutet (Polani 2008). Im Kontext mathematischer Rechenmodelle ist das Selbstorganisationskonzept für Zellautomaten-Theorien verwendet worden. Ursprünglich aus der Berechnung des Verhaltens von zweidimensionalen Zellen entstanden (Neumann/Burks 1966), hat die Zellautomaten-Theorie sich zu einem klassifikatorischen Modell weiterentwickelt (Wolfram 1983), in dem das Verhalten von Zellsystemen in vier Klassen eingeteilt wird: stabile Systeme, oszillierende Systeme, quasi-chaotische Systeme und Systeme, in denen lokal stabile Strukturen einen interaktiven Gesamtkontext ergeben. Zwischen diesen vier Klassen wird eine Metrik ansteigender Komplexität angenommen (Wolfram 2002). Dieses Komplexitätsverständnis selbstorganisierender Muster schließt sich eng an Ilya Prigogines Unterscheidung thermodynamischer Systeme in vier Klassen an (Nicolis/Prigogine 1977). In der Theorie dissipativer Systeme entwickelt Prigogine eine Selbstorganisationstheorie, der ein ausgearbeitetes Komplexitätsverständnis zugrunde liegt. Komplex sind nicht Systeme per se, son44 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

dern lediglich deren Verhalten, genauer gesagt: die Fähigkeit zur adaptiven Verhaltensänderung. Komplexe Systeme sind Nichtgleichgewichtssysteme, in denen Fluktuationen nicht mehr, analog zu Weavers Konzept der unorganisierten Komplexität, auf statistische Mittelwerte heruntergerechnet werden können, sondern an Bifurkationspunkten aktiv für eine Entscheidung des Systems sorgen. Die Entscheidungsräume eines Systems bestehen an den Systemstellen, an denen sich Bifurkationen des Verhaltens beobachten lassen; komplexes Verhalten ist nur an denjenigen Funktionsstellen eines Systems möglich, an denen das System instabil ist und kritische Umschlagpunkte besitzt. Das aus der Chaostheorie übernommene Charakteristikum der Bifurkation bedeutet, dass es sich bei Systemen, die komplexe Verhaltensweisen zeigen, um nichtlineare Nichtgleichgewichtssysteme handelt (Nicolis/Prigogine 1987). Ein solches System weist zwei Eigenschaften auf: eine kurzkettige Zufälligkeit, die es ihm gestattet, auf der Mikroebene Handlungsspielräume auszuloten, und eine langkettige Stabilität auf der Makroebene, die den Gesamtordnungszustand des Systems dynamisch erhält. Eine weitgehend andere Struktur besitzt der Selbstorganisationsbegriff in den Sozialwissenschaften, wo er vor allem als Gegenbegriff zu kybernetischen Steuerungsaktivitäten verstanden wird und die Organisation von unten nach oben beschreibt (Beckenkamp 2006). Selbstorganisation steht in engem Zusammenhang mit den Phänomenen des kollektiven Handelns und der spontanen Organisation. In den Wirtschaftswissenschaften ist die spontane Selbstorganisation zu einem wirtschaftsliberalen Konzept weiterentwickelt worden, das vor dem Hintergrund der Komplexität sich dynamisch selbst regulierender Märkte gegen Staatsinterventionismus argumentiert (Hayek 1998); das Konzept der Selbstorganisation wird in den Wirtschaftswissenschaften auch verwendet, um auf Basis interdisziplinärer Erkenntnisse die Entstehung von Ordnung aus zufälligem Wachstum zu erklären (Krugman 1995). Einen zweiten Theorieschwerpunkt innerhalb des Leitproblems der Selbstorganisation stellt die Weiterentwicklung des Selbstorganisationskonzepts zum Konzept der Autopoiesis dar. Die ursprünglich spezifisch biologische Formulierung des Autopoiesis-Gedankens weist wenige komplexitätstheoretische Überlegungen auf, mit der paradigmatischen Erweiterung des Konzepts auf andere wissenschaftliche Disziplinen ergeben sich explizite Verbindungen von Autopoiesis und Komplexität. 45 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Die Theorie autopoietischer Systeme wurde von den Biologen Humberto Maturana und Francisco Varela als Konsequenz ihrer neurobiologischen Forschung an Nervenzellen formuliert. Die Selbsterhaltung von Nervenzellen lässt sich ihnen gemäß am besten beschreiben als ein kontinuierlicher Prozess basaler Zirkularität, in dem eine Zelle jeden von außen aufgenommenen Impuls als eine Störung dergestalt verarbeitet, dass sie dadurch ihre strukturelle Einheit wiederherstellt. Zellen als autopoietische Systeme sind also operativ geschlossen; sie stehen zwar in einem Stoffwechselaustausch mit ihrer Umgebung und sind damit offene Systeme gemäß der allgemeinen Systemtheorie, beziehen jedoch keinerlei Impulse für ihre Selbstorganisation von außen (Maturana 1998). Erkenntnistheoretisch besteht eine große Nähe zwischen der Theorie der Autopoiesis und dem radikalen Konstruktivismus. Autopoietische Systeme sind aus der Perspektive des Substanzparadigmas weder geschlossene noch offene Systeme, die durchgängig von ihrer Umwelt abhängen. Primäre Aufgabe autopoietischer Systeme ist die Reproduktion ihrer inneren Strukturdeterminiertheit, erst als Konsequenz ihrer fortgesetzten Selbstherstellung können sie in Interaktion mit ihrer Umwelt treten. Im Sinne des biologischen Autopoiesiskonzepts sind lediglich Zellen wirklich operativ geschlossen, also autonom. Metazellige Lebewesen besitzen keine vollständige Zirkularität, da sie sich adaptiv an wechselnde Umweltbedingungen anpassen müssen; in Anknüpfung an die Kybernetik zweiter Ordnung, die sich mit rekursiv selbstbeobachtenden Systemen beschäftigt (Foerster 1995), werden solche metazelligen Strukturen autopoietische Systeme zweiter Ordnung genannt (Maturana/Varela 2009). Bereits früh ist das Konzept der Autopoiesis als Paradigma auf andere Anwendungsgebiete übertragen worden. Maturana und Varela selbst haben versucht, ein formalisiertes Modell in Anlehnung an die Zellautomaten-Theorie zu entwickeln (Varela et al. 1981), diese Formalisierung ist bald auf soziologische Fragestellungen ausgedehnt worden (Zelený 1981). Aktuelle Formalisierungsversuche möchten das Autopoiesis-Konzept für den kognitionswissenschaftlichen Diskurs nutzbar machen (Allen et al. 2018) oder mathematisch beschreiben (Bourgine/Stewart 2004). Als allgemeines Beschreibungskriterium autopoietischer Systeme, das auch graduelle Abstufungen von Autopoiesis gestattet, ist anknüpfend an Ashbys Selbstorganisationskonzept die auch als Varietät des Systems beschreibbare Systemkomplexität vorgeschlagen worden: Das Verhältnis der Komplexität des 46 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Systems zur Komplexität seiner Umwelt beschreibt den Grad der Autopoiesis des Systems (Gershenson 2015). Die wichtigste Adaption des Autopoiesis-Konzepts stammt aus der Soziologie. Während bereits der Soziologe und Komplexitätstheoretiker Edgar Morin die Konzepte von Autopoiesis und Komplexität in einer soziologischen Theorie zusammenbringt (Morin 1977– 2001), hat vor allem die Systemtheorie Niklas Luhmanns den Gedanken der Autopoiesis paradigmatisch auf die Anwendung in sozialen Systemen erweitert (Luhmann 1984). Für diese Übertragung von biologischen Systemen auf soziologische Strukturen, die im orthodoxen Autopoiesis-Verständnis lediglich autopoietische Systeme zweiter Ordnung bilden, sind konzeptionelle Anpassungen notwendig. Sind die Grenzen einer Zelle als rekursiv geschlossenen Systems mit den Körpergrenzen einfach zu bestimmen, lässt eine solche Grenzziehung sich bei sozialen Systemen nicht materiell oder räumlich verstehen. Die soziologische Systemtheorie bestimmt die Grenzen eines sozialen Systems im Anschluss an die Phänomenologie als dessen Sinngrenze, also den Bereich, innerhalb dessen alle Teilsysteme sinnvoll miteinander kommunizieren können. Die Autopoiesis eines sozialen Systems ist seine operativ geschlossene Reproduktion von Sinn, die Abstimmung von Sinn geschieht über Kommunikation. Damit ist die Systemtheorie eine Kommunikationstheorie. Da Gesellschaften hochadaptive und zumindest kollektiv intentional handelnde Systeme sind, birgt das Konzept der basalen Zirkularität in der soziologischen Systembeschreibung wenig Erklärungswert. Stattdessen wird die rekursive Selbsterhaltung der Sinnstruktur eines Systems unter den Begriff der strukturellen Kopplung gebracht: Ein sich in Entwicklungsprozessen immer weiter ausdifferenzierendes soziales System wird immer mehr Handlungsoptionen zur adaptiven Reorganisation hervorbringen; diese Optionen sind für die Stabilität des Systems zugleich riskant, deshalb sind soziale Systeme bestrebt, die Möglichkeitsräume strukturell wieder zu reduzieren. Durch den Kontakt mit anderen Systemen werden die Handlungsoptionen eines sozialen Systems eingeschränkt. Der tatsächliche Handlungsraum eines sozialen Systems entsteht aus dem dynamisch sich ändernden Verhältnis von innerer Freiheit und äußerer Bedingtheit. Die Metrik, mit der die qualitativ verschiedenen Grade von Handlungsfreiheit eines Systems beschrieben werden, ist die Komplexität des Systems (Luhmann 1997). Der Komplexitätsbegriff der soziologischen Systemtheorie ist in der Folge in die fünf Dimensionen sachlicher, sozialer, zeitlicher, 47 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

operativer und kognitiver Komplexität weiter ausdifferenziert worden, mit denen jeweils Aspekte der rekursiven Selbstorganisation sozialer Systeme beschrieben werden (Willke 1996).

5.

Chaos und Nichtlinearität

Eine interessante Verwendung erfährt der Komplexitätsbegriff im Leitproblem von Chaos und Nichtlinearität. Die Chaostheorie könnte beschrieben werden als eine ursprünglich naturwissenschaftliche Reaktion auf die Entdeckung, dass viele in der Natur beobachtbare Systeme praktisch nicht berechnet oder zumindest ihre künftigen Verhaltensweisen nicht vorhergesagt werden können. Statt das Ende der aus linearer Prognostizierbarkeit entspringenden Ordnung zu bedauern, entdeckt die Chaostheorie in den nichtlinearen Dynamiken chaotischer Systeme eine neue Form von Ordnungsstrukturen, die sie mit der Komplexitätsmetrik beschreibt. Das Leitproblem von Chaos und Nichtlinearität ist im komplexitätstheoretischen Kontext aus drei Gründen anspruchsvoll. Erstens bildet die Chaostheorie selbst keine geschlossene Theorie, sondern eine Agglomeration verschiedener zumeist naturwissenschaftlicher Phänomenfelder unter einem Leitparadigma; je nach chaostheoretischer Emphase variiert also auch das korrespondierende Komplexitätsverständnis. Zweitens wird das zentrale Phänomen der Nichtlinearität auch unabhängig von der Chaostheorie in der Komplexitätstheorie verwendet. Drittens findet der Chaosbegriff zuweilen eine breite paradigmatische Anwendung, in der seine Beziehung zum Komplexitätsbegriff theorieübergreifend uneindeutig ist; mitunter gilt Komplexität als Metrik chaotischer Systeme, mitunter als Komplementärbegriff, mitunter wird gar das Begriffsdreieck von Komplexität, Kompliziertheit und Chaos voneinander unterschieden. Bereits der Begriff des Chaos ist uneindeutig. In überraschender Ähnlichkeit zum lebensalltäglichen Komplexitätsverständnis ließe sich sagen, Chaos sei eben ein Name für jede Form von Ordnung, die Konfusion in unserer Wahrnehmung produziere (Santayana 1995). Während es sich intuitiv anbietet, Chaos als das Gegenteil von Ordnung zu verstehen, lassen sich aus naturwissenschaftlicher Perspektive zwei grundsätzlich verschiedene Formen von chaotischer Unordnung formulieren: das passive Chaos einer Welt im Zustand maximaler Entropie und minimaler Organisation – Clausius’ »lau48 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

warmes Universum« (Clausius 1865) – sowie das aktive Chaos hochenergetischer, turbulenter Nichtgleichgewichtszustände (Prigogine & Stengers 1984). Statt der früheren Gleichsetzung zunehmender Entropie mit zunehmender Unordnung lässt sich die zunehmende Entropie chaotischer Strukturen auch als Chance für dynamische Komplexität verstehen (Kondepui & Prigogine 1998). In der Chaostheorie wird zumeist die zweite Bedeutung verwendet. Die Frage ist nicht, welchen abstrakten Gesamtwert von Ordnung ein chaotisches System besitzt, sondern, welche dynamischen Interaktionsmuster chaotische Systeme ausbilden; komplex sind nicht Systeme, sondern die Verhaltensweisen von Systemen (Nicolis & Prigogine 1987). Ebenso, wie Chaos nicht die Abwesenheit von Ordnung, sondern vielmehr eine spezifische Form von Ordnung ist, wird auch Komplexität spiegelbildlich nicht als maximale Ordnung verstanden, sondern als eine Eigenschaft von Systemen an kritischen Umschlagpunkten – komplexe Systeme entwickeln sich, in einem geflügelten Wort, am Rande des Chaos (Waldrop 1992, Stacey 1997, Lewin 2000). Die ambivalente Beziehung von Chaos und Ordnung ist in der Komplexitätstheorie mit dem ursprünglich von James Joyce stammenden Neologismus »Chaosmos« (griech. kósmos = Ordnung) ausgedrückt worden (Morin 1977–2001). Eine ähnliche Funktion erfüllt die Benennung von Vertretern der Chaostheorie als »Chaologisten« (griech. lógos = Vernunft, Rede) (Çambel 1993). Auch die Benennung der Chaostheorie war keineswegs ein Automatismus; der Chaosbegriff hat sich diskursintern gegen Umfassungstheoriekonzepte wie »Synergetik« durchgesetzt (Haken 2004). Die Chaostheorie hat vor allem in den 1980er Jahren, von Anfang an mit einem interdisziplinären Anspruch, einige naturwissenschaftlich-mathematische Erkenntnisse zusammengeführt. Mitunter ist die heisenbergsche Unschärferelation als Beginn der Einsicht in die fundamentale Unvorhersagbarkeit selbst einfacher Naturprozesse und damit als Beginn der Chaostheorie gesehen worden (Briggs/Peat 1990; Chandler 2014). Dieser weite Rückgriff droht, den Phänomenbereich zu verschleiern, von welchem chaostheoretische Überlegungen ihren Ausgang genommen haben – obwohl die Chaostheorie später auch mit der Quantenmechanik zusammengebracht wurde (Gutzwiller 1990). Die Chaostheorie verlagert den primären Problembereich von der Ebene physikalischer auf die Ebene chemischer und biologischer Prozesse. In einer frühen programmatischen Schrift werden als paradigmatisches Beispiel für den Problembereich chaoti49 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

scher Systeme das Flugverhalten eines Baseballs und das Flugverhalten eines Luftballons, dem Luft entweicht, gewählt. Dementsprechend bildet die mathematische Darstellung von Fluiddynamiken einen Kernbereich der Chaostheorie (Crutchfield et al. 1986). Charakteristisch für die Chaostheorie ist, dass bereits Systeme mit wenigen Freiheitsgraden hochkomplexe und kaum prognostizierbare Dynamiken ausbilden (Haken 2004). Eine der Gründungsentdeckungen der Chaostheorie, der Schmetterlingseffekt, der für das Konzept des Chaos paradigmatisch geworden ist (Breuer 1993), beruht auf einem meteorologischen Modell, das lediglich drei Freiheitsgrade besitzt (Lorenz 1963). Innerhalb der Chaostheorie ist mitunter das Maß der Freiheit der Systemkomponenten mit Komplexität gleichgesetzt (Briggs/Peat 1990) oder zumindest als ein Komplexitätscharakteristikum verstanden worden (Kondepui/Prigogine 1998). Chaotische Systeme können wenige Komponenten mit zudem geringen Freiheitsgraden enthalten und dennoch zu praktisch unvorhersagbaren Ergebnissen führen. Diese chaostheoretischen Überlegungen sind nicht auf naturwissenschaftliche Anwendungen beschränkt; in den Geschichtswissenschaften ist die Chaostheorie zur Erklärung der Entwicklungsdynamiken historischer Gesellschaftsstrukturen verwendet worden. Chaos bezeichnet den Grad an Instabilität gesellschaftlicher Systeme und kann sowohl in unorganisierten als auch in hyperorganisierten Gesellschaften – etwa der DDR – auftreten. Der Vernetzungsgrad eines Systems bezeichnet seine Komplexität; chaotische Entwicklungen finden zunächst auf der Mikroebene der Regionalgeschichte statt und können ihre Perturbationen durch ständige Iterationen von positiven und negativen Rückkopplungen auf das Gesamtsystem übertragen (Herbst 2004). Die Dynamiken chaotischer Systeme sind nichtlinear und iterativ; kleine Abweichungen der anfänglichen Bedingungen führen nicht zu proportional kleinen Unterschieden in den Ergebnissen, sondern können vollständig verschiedene und durch ständige Rückkopplungen ständig weiter verstärkte Ausgänge bewirken. Dies hat auf der praktischen Ebene zu der Schlussfolgerung geführt, dass naturwissenschaftliche Messungen niemals gut genug sein können (Crutchfield et al. 1986). Die Natur ist in der Chaostheorie nicht hierarchisch gegliedert, sondern auf allen Ebenen durch Rückkopplungen miteinander verbunden; aufgrund der Sensitivität chaotischer Systeme für minimale externe Einflüsse lassen sich chemische Prozesse nicht auf notwendigerweise abstraktive physikalische Erklärungen redu50 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

zieren. Die Feststellung, dass an die Irreversibilität chaotischer Dynamiken eine Irreversibilität naturwissenschaftlicher Erklärungsmodelle gekoppelt ist, hat zu einer Gleichsetzung des Maßes an Irreversibilität eines Systems mit seiner Komplexität geführt (Prigogine 1955). Dieses Konzept lässt sich in die Wissenschaftstheorie verlängern mit der Forderung, wissenschaftliche Erklärungsmodelle nicht hierarchisch zu gliedern, sondern Netzwerke interdependenter Erklärungsebenen zu bilden. Die Grenzen der verschiedenen Erklärungsmodelle sollen Komplexitätsschwellen dienen, an denen sich kritische Umschlagspunkte des Verhaltens von Systemen ergeben und ein qualitativ anderes Erklärungsmodell fordern (Prigogine 1980; Prigogine/ Stengers 1984). Solcherart resultieren die Dynamiken chaotischer Systeme nicht notwendigerweise in zunehmender Entropie, sondern in hochspezifischen, qualitativ andersartigen Strukturen. Man hat deshalb in einem metaphysischen Gedankengang gefolgert, Chaos sei kreativ (Prigogine 1980). Diese Überlegung schließt sich nahtlos an ein Komplexitätskonzept an, das aus der Vielfalt, Dynamik und Unvorhersagbarkeit komplexer Systeme den Schluss zieht, Komplexität sei eine kreative Kraft, die zu neuen Systemstrukturen führe (Poser 2012; Whitehead 1978; Stacey 1997). Eine weitere Komplikation erfährt die Beziehung zwischen den Konzepten von Chaos und Komplexität durch die paradigmatische Karriere des Begriffs der Nichtlinearität. In jedem Fall ist der Themenkomplex der Nichtlinearität zentral für die Chaostheorie; bisweilen ist sogar behauptet worden, die gesamte Chaostheorie sei eine Wissenschaft der Nichtlinearität (Bedau 1997). Wie problematisch der ins Allgemeine gewendete Charakter dieser Aussage ist, zeigt die berühmte apokryphe, wechselweise Stanisław Ulam oder John von Neumann zugeschriebene Feststellung, der Begriff einer nichtlinearen Wissenschaft sei das Gleiche wie die Bezeichnung des Großteils der Zoologie als die Wissenschaft von Nichtelefanten: ein Begriff, der keine positive Eigenbestimmung besitzt, sondern beliebige Entitäten umfasst, deren systematische Gemeinsamkeit sich lediglich negativ bestimmen lässt. Die Gründungstexte der Chaostheorie, die sich mit spezifischen Problemstellungen befassen, verwenden also auch keinen allgemeinen Begriff der Nichtlinearität, sondern setzen sich mit spezifischen nichtlinearen Phänomenen auseinander. Über die Frage, welche nichtlinearen Phänomene für die Chaostheorie relevant sind, lässt sich ebenso streiten wie über die Frage, welche Form der Klassifikation nichtlinearer Phänomene sinnvoll ist (Bak/Paczuski 1995). 51 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Eine Felddefinition für die Chaostheorie relevanter nichtlinearer Phänomene umfasst Fraktale, seltsame Attraktoren, Rückkopplungen, Selbstähnlichkeit und enge prognostische Beschränktheit als Kerneigenschaften (Boeing 2016). Der Begriff des Fraktals geht auf Benoît Mandelbrot zurück, der damit fragmentierte geometrische Formen bezeichnet, die in Teile zerlegt werden können, welche zumindest annäherungsweise die Form des Ganzen wiederholen (Mandelbrot 1983). Die in Iterationen unendlich oft wiederholbare Selbstähnlichkeit des Systems und seiner Teile hat weit über die Mathematik hinaus Anwendungsbereiche gefunden. Frühe Darstellungen der Chaostheorie nutzen ausführlich Fraktale als paradigmatische Beispiele für chaotische Systeme (Gleick 1988). Fraktale lassen sich – da sie unendlich viele Details besitzen – sowohl als unendlich komplex beschreiben als auch – da sie unendlich oft das gleiche Muster wiederholen – als einfach. Der Komplexitätsbegriff wird in der Fraktaltheorie zudem als Fachterminus verwendet, mit dem die fraktale Dimension des Fraktalmusters quantifiziert wird (Barnsley 2000). In der Philosophie ist die Denkfigur des Fraktals auf das alltägliche Denken vermittels Analogie übertragen worden, aus der unendlich iterativen Selbstähnlichkeit geometrischer Modelle wird die Selbstähnlichkeit analogischer Logikschlüsse abgeleitet (Gloy 2014). Ein weiteres Phänomen chaotischer Systeme, das zusätzlich zu seiner systemischen Bedeutung auch in seiner optischen Darstellung als ästhetisch komplex erscheint, ist die Bifurkation, die in nichtlinearen Funktionsgraphen auftreten kann. Bifurkationen sind Aufspaltungen des Verhaltenspfads eines Systems in zwei distinkte Pfade. Ab der Überschreitung der Verzweigungsstelle zeichnet sich das System nicht mehr durch Stabilität, sondern Bistabilität aus; obwohl dem System zwei Pfade offenstehen, kann es lediglich einen der beiden realisieren und wird einen Symmetriebruch vollziehen (Haken 2004). Die aufgespalteten Pfade können sich dann iterativ wiederum in jeweils zwei neue Pfade aufspalten. Geschieht dieser Prozess häufig genug, findet eine »Periodenverdopplung zum Chaos« statt (May 1973). Häufig lassen sich Schwellenwerte angeben, an denen das System einen Bifurkationsschub erfährt. Durch Bifurkationen geschieht eine Rhythmisierung chaotischer Dynamiken. Die Abfolge von Bifurkationen an kritischen Umschlagpunkten und den dazwischenliegenden Stabilitätsphasen – den Intermittenzen – hat zu Prigogines Analogieschluss zwischen durch Komplexitätsschwellen und Entro52 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

piebarrieren unterteilten komplexen Systemabfolgen in natürlichen Systemen und einer durch Komplexitätsschwellen untergliederten Netzwerkstruktur wissenschaftlicher Erklärungsmodelle geführt (Prigogine 1980). Das Konzept der Nichtlinearität ist, ausgehend von der Chaostheorie, weiterentwickelt und auf ein breiteres Anwendungsfeld bezogen worden. Bereits vor der Chaostheorie haben die Wirtschaftswissenschaften explizit mit nichtlinearen Rechenmodellen gearbeitet (Kaldor 1940; Goodwin 1951); seither sind weitere chaostheoretische Konzepte in das wirtschaftswissenschaftliche Instrumentarium übernommen worden (Day/Pavlov 2004). Ausdrücklich werden nichtlineare Dynamiken auch als Modellkomponenten biologischer Theoriebildungen verwendet (Bird 2003; Scott 2007). Daneben existieren Übertragungen des allgemeinen Konzepts der Nichtlinearität in komplexitätstheoretische Anwendungen. Während die Verwendung von Nichtlinearität schlechthin anstelle spezifischer nichtlinearer Funktionen ein stark formalisiertes Komplexitätsverständnis ergibt (Mainzer 2004), haben andere Komplexitätsauffassungen eine polare Unterscheidung von Chaos und Komplexität anhand des verallgemeinerten Gegensatzpaars der Linearität und Nichtlinearität vorgenommen, die überformalisiert wirkt. Man kann die Chaostheorie als deterministisch bezeichnen und als Gegenkonzept ein Verständnis von Komplexität entwickeln, das tatsächliche Zufälle beinhaltet (Lyotard 1984). Ausgehend hiervon aber die Chaostheorie als linear im Gegensatz zu nichtlinearen Komplexitätsstrukturen zu bezeichnen, missversteht die Chaostheorie fundamental. Dieses Manöver dient dazu, einen formalen Definitionsraum zu schaffen, in dem Chaostheorie und Komplexitätstheorie als Komplementärgegensätze erscheinen, um diesen Gegensatz anschließend ins Politische zu verlängern – die Vorstellung freier Märkte sei chaostheoretisch motiviert, die Vorstellung der Selbstorganisation emergenter politischer Systeme komplexitätstheoretisch (Chandler 2014). Tatsächlich ist das Verhältnis der Konzepte von Chaos und Komplexität intrikater. Komplexität wird in der Chaostheorie zunächst als selbstevidente Metrik neuentstehender und eben komplexerer Ordnungsstrukturen verwendet. Aspekte von Komplexität sind strukturelle Dynamik, Unvorhersagbarkeit, Verzweigungsvielfalt und Neuheit der Systeme. Mit der Theorie der Komplexitätsschwellen an Entropiebarrieren erfährt der Komplexitätsbegriff eine Formalisierung, in der Komplexität zur Eigenschaft nichtlinearer Nichtgleich53 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

gewichtssysteme wird, deren Verhalten durch die Eigenschaften kurzkettiger Zufälligkeit sowie langkettiger Stabilität gekennzeichnet ist (Nicolis/Prigogine 1987). Andererseits lässt sich jedoch auch eine Theoriestruktur aufstellen, die zwischen chaotischen und komplexen Systemen unterscheidet. In dieser Lesart ähneln sich chaotische und komplexe Strukturen darin, dass ihre Dynamiken vielschichtig verbunden und nichtlinear sind, unterscheiden sich allerdings in ihrem Verhalten: Chaotische Systeme sind ausgesprochen sensitiv gegenüber ihren Initialzuständen und können gänzlich wild variierende Ergebnisse erzeugen. Beispiele chaotischer Systeme beinhalten häufig ungerichtete Naturprozesse, etwa meteorologische Entwicklungen. Komplexe Systeme hingegen haben die Eigenschaft, verhältnismäßig unabhängig gegenüber ihren Initialbedingungen stabile Ergebniszustände hervorzubringen. Beispiele für komplexe Systeme beinhalten häufig absichtsvoll handelnde Prozesse, die mit der Geschichte ihres Systems vertraut sind und über gewisse Freiheitsgrade verfügen, Zielzustände zu intendieren und zu realisieren, etwa biologische Zellen oder menschliche Gesellschaften. Chaotische Systeme können aus verhältnismäßig wenigen interagierenden Teilsystemen bestehen; die Struktur ihrer Prozesse ist, wenngleich schwierig zu berechnen, formal einfach zu beschreiben, ihre Ergebnisse sind jedoch vielgestaltig. Komplexe Systeme bestehen aus einer Vielfalt von dynamisch miteinander interagierenden Subsystemen, die formal zu beschreiben die Möglichkeiten des Beobachters übersteigen kann; ihre Ergebnisse können jedoch häufig in eine übersichtliche Klasse von Zielzuständen gruppiert werden (Cilliers 1998; 2010). Diese Unterscheidung zwischen chaotischen und komplexen Systemen ähnelt der von ungerichteten Prozessen und Systemen autopoietischer Selbstorganisation. Anknüpfend hieran kann noch eine weitere Klasse von Systemen mit schwierigem Verhalten bestimmt werden, nämlich komplizierte Systeme, die zwar über eine Vielzahl an Komponenten verfügen können, aber lineare Verhaltensdynamiken aufweisen und damit berechenbar sind (Norman 2011). Man könnte spekulieren, ob der Wechsel von chaostheoretischen zu komplexitätstheoretischen Erklärungsmodellen mit der primär behandelten Phänomenebene zusammenhängt. Bewegt man sich in wissenschaftlichen Theoriediskursen, in denen die Berechenbarkeit des Verhaltens eines Systems zum integralen disziplinären Selbstverständnis gehört, birgt das Modellangebot der Chaostheorie das Versprechen eines großen impliziten Mehrwerts; gehört zu den Grund54 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

annahmen der Disziplin die irreduzible Intentionalität der individuellen Systembestandteile und damit ein zentraler Verhaltensbegriff, erscheint ein Theoriemodell zielgerichtet selbstorganisierender, komplexer Systeme naheliegend.

5.

Handlung und Entscheidung

Ein wichtiges Leitproblem der Komplexität bildet der Kontext von Handlungen und Entscheidungen. Ein lebensweltliches Begriffsverständnis von Komplexität bezieht sich nicht nur auf objektive Systeme, sondern auch darauf, wie unsere Wahrnehmung der Welt und, konsequenterweise, unser Umgang mit ihr beschaffen ist. Unsere Verhaltensweisen sind ein Resultat sowohl der uns bedingenden realen Welt als auch unserer kognitiven Verarbeitungsprozesse. Beeinflusst wird unser Verhalten zudem durch die Vollständigkeit an Informationen über unsere Situation – verkomplizierend wirken können sowohl objektiver Informationsmangel als auch unzulängliche kognitive Verarbeitungskapazitäten. Komplexität wird häufig als Metrik für Situationen verwendet, die als eine Kombination solcher äußeren und inneren Faktoren beschreibbar sind. Jenseits des wissenschaftlichen Kontexts ist dieses Komplexitätsverständnis besonders prominent, vor allem in der programmatischen Zuspitzung auf Komplexitätsreduktion. Wissenschaftsimmanent lässt sich das Leitproblem von Handlung und Entscheidung in einer interdisziplinären Entwicklungsdynamik nachvollziehen, die in zwei Stränge getrennt werden kann. Bereits bei der Formulierung des Selbstorganisationskonzepts spielt der Handlungsbegriff eine Rolle. In den Anfängen der Kybernetik wird die Selbstorganisation eines Systems verstanden als die Reaktion des Systems auf Perturbationen. Innerhalb des Systems lassen Perturbationen sich als Rückkopplungen beschreiben, jede Rückkopplung muss durch eine Gegenaktion des Regulators kompensiert werden. Die frühe Selbstorganisationstheorie ist durch die mathematische Kommunikationstheorie beeinflusst und leitet aus Shannons zehntem Theorem (Shannon/Weaver 1949) das Gesetz der notwendigen Vielfalt (Law of Requisite Variety) ab: Je größer die Vielfalt an Handlungsoptionen eines Systems ist, desto größer ist die Anzahl an Störungen, die es kompensieren kann (Ashby 1962). Je größer der Grad der Selbstorganisation eines Systems, desto größer ist auch die 55 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Anzahl seiner Handlungsmechanismen. Handeln bedeutet also Selektion durch den Regulator des Systems. Selbst auf der Ebene kausal berechenbarer Prozesse spricht die Selbstorganisationstheorie von Selektion und Wahl des Systems, die Verwendung des Handlungsbegriffs ist also konsequent. Allerdings sieht die Selbstorganisationstheorie explizit die Notwendigkeit, ihre Kernbegriffe je nach Anwendungsbereich neu zu bestimmen – im Kontext eines Pendelschwungs, wo er eine basale Prozesszirkularität beschreibt, muss der Begriff der Rückkopplung anders bestimmt werden als im Kontext sozialer Systeme, wo er eines ausdifferenzierten sozialen Handlungsmodells bedarf. Gleiches gilt für Gleichgewichtszustände; während der Ruhezustand eines Pendels eine triviale wissenschaftliche Beobachtung ist, birgt die Beschreibung einer Gesellschaft in einem Gleichgewichtszustand erheblichen sozialwissenschaftlichen Mehrwert (Ashby 1956). Den Unterschied zwischen beiden Formen selbstorganisierender Systeme bildet ihre Komplexität, also die Vielfalt an Perturbationsstrukturen und eine korrespondierende Vielfalt an Handlungsreaktionsmustern des Systems. Aus dieser Bestimmung lässt sich die Forderung ableiten, ein System müsse komplexer sein als ein anderes System, um dieses kontrollieren zu können. Der handlungstheoretische Ansatz der kybernetischen Selbstorganisationstheorie findet eine Entsprechung in der fundamentalen Feststellung der Chaostheorie, es sei weitaus interessanter, ein komplexes System in Hinsicht auf sein Verhalten zu betrachten als in Hinsicht auf seine materielle Struktur (Nicolis/Prigogine 1987). Ein wichtiges Anwendungsgebiet der Steuerungstheorie sind Sozial- und Politikwissenschaften. Die kybernetische Komplexitätsvorstellung änderte sich ab den 1970er Jahren, parallel zum Nachlassen des Planbarkeitsgedankens, über ein breites soziopolitisches Spektrum hinweg (Braun 2005). Anstelle des hierarchischen Konzepts eines Regulators entwickelte sich ein akteurszentrischer Steuerungsbegriff, der auf einem Netzwerkkonzept beruht und anstelle hierarchischer Strukturen komplexe Formen der Konsensbildung betont (Münch 2001). Sowohl das Steuerungssubjekt als auch die Steuerungsobjekte werden durch die Handlungen und Interaktionen miteinander verbundener individueller sowie kollektiver Akteure ersetzt (Mayntz 2009); das als Netzwerk beschreibbare Steuerungsfeld weist strukturelle Ähnlichkeit zur Akteur-Netzwerk-Theorie auf. Die Komplexität eines sozialen Systems ist nun nicht mehr durch die Varietät seiner rekursiven Handlungsoptionen bestimmt, sondern durch 56 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

die Qualität und Dynamik der Handlungsmuster aller Akteure, die das Steuerungsfeld konstituieren. Damit einher geht eine Umdeutung des Demokratiebegriffs zur »Idee der Selbstorganisation komplexer Sozialsysteme« (Willke 2001), also einer komplexitätstheoretischen Kenngröße funktional ausdifferenzierter, heterarchischer Gesellschaften. Dieses Komplexitätsverständnis bildet die Grundlage der modernen Resilienzforschung im Kontext politischer Steuerungstheorie (Chandler 2014). Mit der autopoietischen Wende hat sich der Handlungsbegriff des Selbstorganisationskonzepts auf den Bereich der Epistemologie verlängert. In einem autopoietischen System besteht eine basale Zirkularität von Erkennen und Handeln, die bereits auf der Ebene einfacher biologischer Zellstrukturen zur Beschreibung von Stoffwechselprozessen verwendet wird und in dem Aphorismus »jedes Tun ist Erkennen, und jedes Erkennen ist Tun« zum Ausdruck kommt (Maturana/Varela 2009). Die Embodiment-Forschung fasst jede Form von Kognition als verkörperte Handlung auf und vermeidet so die Reduktion des Kognitionsprozesses auf entweder eine realistische oder eine idealistische Position (Varela/Thompson 1993). In der soziologischen Systemtheorie folgt aus dem Konzept der Autopoiesis die Feststellung, dass das Komplexitätsgefälle zwischen System und Umwelt umgekehrt werden müsse. Anstelle des aus dem Gesetz der notwendigen Vielfalt resultierenden Grundgedankens der frühen Selbstorganisationstheorie, ein System müsse komplexer sein als ein anderes System, um dieses kontrollieren zu können, gilt nun die Grundannahme, ein System sei weniger komplex als seine Umwelt (Bandte 2007). Aufbauend auf das Konzept der doppelten Kontingenz, wonach die innere Komplexität eines Systems Handlungsoptionen eröffnet und die äußere Komplexität der Umwelt das Handlungsfeld des Systems einschränkt, entsteht aus dieser Umkehrung des Komplexitätsverhältnisses ein Handlungsdruck auf das System. Um das Komplexitätsgefälle auszugleichen, muss das System über eine bessere Selektivität verfügen – nur durch Handeln kann ein Komplexitätsnachteil ausgeglichen werden (Luhmann 1984). Ausdrücklich beschreibt Komplexität nicht mehr die reine Anzahl der möglichen Handlungsoptionen, sondern deren Selektivität (Luhmann 1973). Damit gewinnt das System eine operative Offenheit; je geringer die Vorhersagbarkeit des Handlungsmusters eines Systems ist, desto größer ist dessen praktische Entscheidungsfreiheit. Die so entstehende Systemkomplexität ist unbestimmt, im Kontrast zur bestimmten, 57 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

also in höherem Maße prognostizierbaren, Komplexität der Umwelt (Bliss 2000). Grundsätzlich bezeichnet Komplexität die Schwierigkeit des Systems, aus dem Feld seiner möglichen Verhaltensweisen eine Option zu wählen und zu verwirklichen; Komplexität ist also exklusiv in Bezug auf systemisches Handeln definiert. Aus diesem Grund können Entscheidungen ebenfalls als Elemente des Systems betrachtet werden (Luhmann 1980). Die verschiedenen Formen, in denen sich die Komplexität sozialer Systeme ausdrücken kann, sind in der soziologischen Systemtheorie auf die Formel gebracht worden, Komplexität bezeichne den Grad der Vielschichtigkeit, Vernetzung und Folgelastigkeit eines Entscheidungsfeldes (Willke 1996). Mit dem Faktor der Folgelastigkeit wird eine Komplexitätseigenschaft formuliert, die in der kybernetischen Selbstorganisationstheorie noch keine Rolle spielt: die potenziellen Konsequenzen einer Handlung. In einer gewissen Analogie zu Shannons Informationstheorie, wonach der Informationsgehalt einer Nachricht dessen Überraschungswert entspricht (Shannon/Weaver 1949), ist Komplexität nun keine Kenngröße mehr, die aus einer – wenn überhaupt möglichen – objektiven Analyse der Eigenschaften eines Systems und seiner Umwelt gewonnen werden kann, sondern hängt zudem mit einer Evaluation von ihrer potenziellen Kapazität zusammen, das Entscheidungsfeld zu verändern. Der Preis einer Steigerung unbestimmter Systemkomplexität ist die gleichzeitige Zunahme der Instabilität des Systems. Den zweiten Strang komplexitätstheoretischer Überlegungen im Zusammenhang mit dem Leitproblem von Handlung und Entscheidung bildet die Auseinandersetzung mit dem Konzept der Problemkomplexität. Diese Spielart der Komplexitätstheorie beschäftigt sich mit der Frage, welche Formen von Komplexität für Entscheidungsfindungsprozesse relevant sind und findet vor allem in der Soziologie und den Wirtschaftswissenschaften Anwendung. Aufgrund der Praxisnähe vieler Anwendungsbereiche hat das Feld der Problemkomplexität weniger zu Theoriebildung als zu bereichsspezifischen Organisationsmodellen geführt. Über den kybernetischen Ansatz hinaus, in dem die handlungstheoretische Überlegung sich hauptsächlich auf die Pfadabhängigkeit des Regulationsapparates eines Systems bezieht, umfasst das Konzept der Problemkomplexität noch die weitere Dimension der unvollständigen Information, die in zwei Formen artikuliert werden kann – aus technologischer Perspektive als Unvollständigkeit des Zustandswissens über ein System, woraus die Forderung nach besserer informationstechnischer Durchdringung 58 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

und Verarbeitung abgeleitet wird, sowie aus kognitionswissenschaftlicher Perspektive als Überforderung der handelnden Menschen, die Informationsvielfalt eines Entscheidungskontexts kognitiv adäquat zu erfassen (Bandte 2007). Beide Formen der unvollständigen Information führen zu jeweils neuen komplexitätstheoretischen Grenzproblemen. Bezüglich der Verbesserung von Informationsmodellen komplexer Systeme lässt sich einwenden, dass zunehmende Detailkenntnis nicht notwendigerweise zu eindeutigeren Prognosen führen muss, sondern durch die Zunahme an Parametern sogar in größerer Uneindeutigkeit resultieren kann (Mitchell 2008). Bezüglich der kognitiven Überforderung von handelnden Individuen ist der für eine Entscheidung zur Verfügung stehende Zeitraum wichtig; dieser hat zur Formulierung des Konzepts der Zeitkomplexität (Luhmann 1980) geführt. Eine weitere, eng mit der Zeitkomplexität verbundene Dimension von Entscheidungskomplexität liegt in dem Umstand, dass der Entscheidungs- und Handlungsprozess selbst nach der Entscheidung für eine Handlungsoption in seinem Ausgang unabsehbar sein kann. Wenn ein Prozess zum Erreichen eines Zielzustands zudem in Teilziele untergliedert werden kann, die untereinander partielle Inkompatibilitäten aufweisen, lässt sich diese Polytelie in Bezug auf Entscheidungen als Entscheidungsnebel bezeichnen (Dörner 2003). Problemkomplexität umgreift konzeptionell die Vorstellungen objektiver – also als Eigenschaft eines Systems beobachtbarer – und subjektiver – also als Eigenschaft des kognitiven Verarbeitungsprozesses empfundener – Komplexität: Ein Problem hat sowohl eine objektive Komponente, die sich aus der Beobachtung eines Systems ergibt, als auch eine subjektive Komponente, denn aus einer Systembeobachtung wird nur im Abgleich mit den Erwartungen an das Systemverhalten und dem diesem System zugesprochenen Sinn ein Problem (Willke 2001). Ändert sich nachweislich seit einigen Jahrzehnten in globalem Maßstab das Klima, ist dieser Umstand zunächst erst einmal eine objektive Beobachtung. Erst durch die darüberhinausgehende Feststellung, dass man diese Veränderung vermeiden möchte, wird aus der Beobachtung ein Problem und es entsteht Handlungsbedarf, der wiederum Zielsetzungen und Entscheidungsfelder erzeugt. Problemkomplexität im Kontext sozialer Systeme hängt eng mit dem Konzept der Rückkopplung zusammen. Hiermit ist, anders als in der ursprünglichen kybernetischen Bedeutung (Ashby 1956), nicht nur der ständige iterative Selbstbezug des Systems gemeint, sondern zusätzlich die kognitive Schwierigkeit, in Be59 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

zug auf die eigene Zielsetzung Haupt- und Nebenwirkungen zu unterscheiden, aus den ständigen dynamischen Interaktionen des Systems situationsangemessene Ursache-Wirkungs-Zusammenhänge zu extrahieren und mit einer Kombination von Interventionen ein Cluster von Teilzielen zu bedienen (Dörner et al. 1983). Diese Form von Problemkomplexität tritt vor allem in Anwendungsbereichen auf, in denen Komplexität hauptsächlich im Umsetzungsprozess von Entscheidungen verortet wird, und wird zumeist durch eine Steigerung der Prozesskontrolle bearbeitet. Dies kann über eine systemtheoretische Herleitung (Rittmann 2014), über ein Modell der Prozessschrittsegmentierung (Höge 1995) oder über ein kostenquantifizierendes Modell (Bohne 1998) erfolgen. Im Zusammenhang mit der Problemkomplexität lässt sich auch die lebensweltlich prominente Verbindung des Komplexitätsbegriffs mit der Forderung nach Komplexitätsreduktion verorten. Die soziologische Systemtheorie hat im komplexitätstheoretischen Kontext als Mechanismus sozialer Komplexitätsreduktion den Begriff des Vertrauens operationalisiert; Vertrauen als riskante Vorleistung reduziert soziale Komplexität, indem es äußere Sicherheit durch innere Sicherheit ersetzt. Auf diese Weise wird das Komplexitätsgefälle zur komplexeren Umwelt internalisiert (Luhmann 1973). Anschließend an die systemtheoretischen Überlegungen zur Komplexitätsreduktion ist vonseiten verschiedener Fachdisziplinen eine Formalisierung des Konzepts versucht worden, um eine optimale Komplexitätsreduktion zu erreichen (Ballwieser 1990). In das für Problemkomplexität zentrale Anwendungsfeld der Unternehmensorganisation ist das Konzept der Komplexitätsreduktion über eine transdisziplinäre Synthese komplexitätstheoretischer Leitprobleme zurückgeführt worden (Stüttgen 2003).

5.

Ausblick

Welche Perspektiven auf Komplexität insgesamt ergeben sich aus einem Überblick über die Leitprobleme, in deren Kontext der Begriff seine verschiedenen wissenschaftlichen Aufladungen entwickelt hat? Überschaut man die Leitprobleme der Komplexitätstheorie, so bieten sich der Betrachtung einige Phänomenbereiche dar, die in unterschiedlicher Weise unzweifelhaft komplex sind. Was Komplexität aber allgemein bedeuten soll, erschließt sich daraus nicht. Einige der Leitprobleme haben komplexere Theoriebildungen als andere her60 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

vorgebracht; einige werden recht fachspezifisch verwendet, andere ausgesprochen interdisziplinär; einige weisen implizite Überschneidungsbereiche mit weiteren Leitproblemen auf, andere sind in bestimmten Punkten untereinander inkompatibel. Es erschiene einfach, die Terminologien verschiedener Leitprobleme aufzuaddieren und auf diese Weise das kleinste gemeinsame Vielfache aller Ansätze zu bilden. An Homogenisierungsversuchen hat es der Komplexitätstheorie in der Vergangenheit nicht gemangelt. Ob aber die ursprünglichen Grundüberlegungen der einzelnen Leitprobleme noch adäquat berücksichtigt sind, wenn man als Beispiel einer komplexen Substanz Mayonnaise wählt, weil deren Eigenschaften in einem selbstorganisierten, irreversiblen Prozess emergiert sind (Cilliers 1998), darf bezweifelt werden. Aus einer Untersuchung komplexitätstheoretischer Leitprobleme sollte zumindest ersichtlich werden, was die Beweggründe sind, die hinter den verschiedenen Perspektiven auf den Komplexitätsbegriff stehen. Wenn sich aus der Zustandsbeschreibung der Leitprobleme, innerhalb derer Komplexität behandelt wird, also kein kohärentes Komplexitätskonzept ergibt, ließe sich vermuten, dass die Komplexitätsforschung damit beginnen sollte, erst einmal die Aufgabe zu definieren, der eine allgemeine Komplexitätstheorie genügen können sollte. Hierzu gehörte vor allem die Klärung des Verhältnisses von Fachterminologie und Analogieschluss. Ein zutiefst interdisziplinäres Phänomen wie Komplexität lässt sich nur in fachübergreifender Kommunikation mit Mehrwert behandeln; solch ein Austausch kann nur gelingen, wenn die jeweiligen feinkörnigen fachterminologischen Definitionsräume der Einzelwissenschaften zugleich eine paradigmatische Ergänzung durch breit verstandene Konzepte anderer Disziplinen zulassen. Das analogische Verständnismodell stellt in diesem Fall keine pejorativ besetzte Form der wissenschaftlichen Beziehung dar, sondern ermöglicht, dass in einer Gesamtproblemlage, in der alle Fragestellungen letztlich miteinander verwoben sind und wechselseitig aufeinander zurückwirken, jede Fachperspektive erwarten kann, mit ihrem spezifischen Beitrag wahrgenommen zu werden: Der Preis dafür, einen eigenen thematischen und methodischen Schwerpunkt in die Untersuchung einzubringen, ist auf der anderen Seite eine spekulative Öffnung für Konzepte fremder Disziplinen, die für den eigenen Problemkreis keine hinreichend große Bedeutung haben, als dass sie zu einer terminologisch-methodischen Verdichtung geführt hätten. Wenn Komplexi61 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

tät in der Moderne tatsächlich zu einem zentralen Problem geworden ist, das in den unterschiedlichen Wissenschaften in vielen Gestalten auftritt, verspricht ein interdisziplinärer Ausgleich über die Formen von Komplexität zugleich einen Austausch über die spezifischen Problemlagen, die in den einzelnen Disziplinen diskursbildend sind. Als Präzisierung dieser allgemeinen Überlegung lassen sich einige Fragestellungen benennen, die für eine ausführlichere komplexitätstheoretische Ausarbeitung Mehrwert versprechen. Ein zentrales Phänomen beinahe aller Leitprobleme ist die Dynamik, die komplexe Situationen entfalten. Diese Dynamik lässt sich in unterschiedlichen Strukturgestalten beschreiben, hierzu zählen die Konzepte der Selbstorganisation ebenso wie chaotische Nichtgleichgewichtssysteme sowie die Schwierigkeiten von Mustervorhersage und Entscheidungskomplexität. Ein Anwendungsfeld der Komplexitätstheorie wäre, die Formenvielfalt dieser Dynamik in eine adäquate Theorieform zu bringen. Dazu gehört auch, die Struktur der Prozesse selbst zentraler zu behandeln als häufig üblich. Im Kontext komplexer Prozessstrukturen lassen sich objektive Systemeigenschaften ebenso unterbringen wie Eigenschaften subjektiver Intentionalität – Ziele, Erwartungshaltungen, Unwissenheit und Entscheidungsnebel. Komplexität oder Chaos als kreativ zu verstehen bedeutet ebenfalls, das maßgebliche Wirkungsgebiet von Komplexität in den Prozessen selbst zu verorten. Ein zweites mögliches Anwendungsgebiet betrifft das methodische Selbstverständnis der Komplexitätstheorie. Bisher wenig Aufmerksamkeit erfahren hat das komplexitätstheoretische Verhältnis der Grundstrukturen von System und Netzwerk. Beide Konzepte formen explizit Leitprobleme der Komplexitätstheorie und werden implizit in anderen Leitproblemen referiert. Mitunter ließen sich beide als Grundstruktur verwenden. Abhängig von dieser Entscheidung ergeben sich jedoch andere Ausformungen von Komplexität und andere Folgeprobleme. Die Diskussion von Komplexität gewönne an analytischer Schärfe, wenn sie das Verhältnis von System und Netzwerk wissenschaftstheoretisch mitreflektierte. Der dritte Anwendungsbereich der Komplexitätstheorie, der bisher wenig Aufmerksamkeit erfahren hat und dennoch einigen Erkenntnismehrwert verspricht, wäre die Untersuchung der kulturellen Dimension der Komplexitätstheorie. Wie alle wissenschaftlichen Paradigmen hat sich auch das Konzept der Komplexität ursprünglich in der unmittelbaren Auseinandersetzung mit Sachphänomenen ent62 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

wickelt. Wie bei den meisten Paradigmen der Wissenschaft wird ab einer gewissen Geltungsdauer des Paradigmas dessen Zeitindex relevant: Mit der Frage, warum sich zu bestimmten Zeitpunkten fächerübergreifend komplexitätstheoretische Fragestellungen entwickelt und rapide eine charismatische Anziehungskraft entfaltet haben, ist aus der Perspektive kulturwissenschaftlicher Reflexion zugleich die Frage nach den diffusen, aber massiven gesellschaftlichen Beweggründen gestellt, auf deren Rücken wissenschaftliche Paradigmen sich erst entfalten können. Die wissenschaftshistorische Aufarbeitung von Komplexität ist zu Beginn des 21. Jahrhunderts unverzichtbar geworden, um, auf eine breite Grundlage gestellt, untersuchen zu können, wie aus dem dialektischen Bezug von Komplexität und Komplexitätsreduktion, analog zum Narrativ von Kontrolle und Kontrollverlust, eine zentrale Denkfigur der Moderne entstehen konnte.

6.

Bibliographie

Alexander, Samuel (1966): Space, Time, and Deity. London. Allen, Micah/Friston, Karl (2018): From Cognitivism to Autopoiesis: Towards a Computational Framework for the Embodied Mind, in: Synthese 195 (6), 2459–2482. Amaral, Luís/Scala, Antonio/Barthelemy, Marc/Stanley, Eugene (2000): Classes of Small World Networks, in: Proceedings of the National Academy of Sciences 97 (21), 11149–11152. Anderson, Philip W. (1972): More is different: Broken symmetry and the nature of the hierarchical Structure of Science, in: Science 177, 393–396. Anderson, Philip W. (1999): The Eightfold Way to the Theory of Complexity: a prologue, in: George Cowan/David Pines/David Meltzer (Hg.) (1999): Complexity: metaphors, models, and reality. Cambridge, 7–16 Ashby, Ross (1956): An Introduction to Cybernetics. London. Ashby, Ross (1962): Principles of the self-organizing system, in: Heinz von Foerster (Hg.) (1962): Principles of Self-Organization: Transactions of the University of Illinois Symposium. London, 255–278. Ashby, Ross (1973): Some peculiarities of complex systems, in: Cybernetic Medicine 9, 1–7. Bak, Per/Paczuski, Maya (1995): Complexity, Contingency, and Criticality, in: Proceedings of the National Academy of Sciences of the United States of America 92 (15), 6689–6696. Ballwieser, Wolfgang (1990): Unternehmensbewertung und Komplexitätsreduktion. Wiesbaden. Bandte, Henning (2007): Komplexität in Organisationen: Organisationstheoretische Betrachtungen und agentenbasierte Simulationen. Wiesbaden.

63 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Barabási, Albert-László (1999a): Emergence of scaling in random networks, in: Science 286, 509–512. Barabási, Albert-László (1999b): Diameter of the world wide web, in: Nature 401, 130–131. Barabási, Albert-László (2002a): Statistical mechanics of complex networks, in: Reviews of Modern Physics 74, 47–97. Barabási, Albert-László (2002b): Hierarchical organization of modularity in metabolic networks, in: Science 297, 1551–1555. Barnsley, Michael (2000): Fractals Everywhere. Burlington, Massachusetts. Bastardas-Boada, Albert (2019): Complexics as a meta-transdisciplinary field, in: Ders. (2019): From language shift to language revitalization and sustainability. A complexity approach to linguistic ecology. Barcelona, 337– 349. Beckenkamp, Martin (2006): The Herd moves? Emergence and Self-Organisation in collective Actors, in: Preprints of the Max Planck Institute for Research on Collective Goods, Bonn 2006/14. Beckermann, Ansgar (1992): Supervenience, Emergence, and Reduction, in: Ansgar Beckermann/Hans Flohr/Jaegwon Kim (Hg.) (1992): Emergence or Reduction? Essays on the Prospects of Nonreductive Physicalism. Berlin, 94–118. Bedau, Mark (1997): Weak Emergence, in: James Tomberlin (Hg.) (1997): Philosophical Perspectives 11: Mind, Causation, and World. Malden, Massachusatts, 375–399. Bedau, Mark (2008): Is weak Emergence just in the Mind?, in: Minds and Machines 18, 443–459. Belliger, Andréa/Krieger, David (2016): Organizing Networks: An Actor-Network Theory of Organizations. Bielefeld. Berve, Aljoscha (2019): Historische Philosophie als Wissenschaft komplexer Umgebungsnetzwerke, in: David Hommen/Dennis Sölch (Hg.): Philosophische Sprache zwischen Tradition und Innovation. Berlin/Bern, 135– 166. Bierce, Ambrose (1996): Des Teufels Wörterbuch. München. Bird, Richard (2003): Chaos and Life: Complexity and Order in Evolution and Thought. New York. Bishop, Robert (2008): Downward Causation in Fluid Convection, in: Synthese 160, 229–248. Bliss, Christoph (2000): Management von Komplexität: Ein integrierter, systemtheoretischer Ansatz zur Komplexitätsreduktion. Wiesbaden. Blitz, David (1992): Emergent Evolution: Qualitative Novelty and the Levels of Reality. Dordrecht. Blok, Anders/Farías, Ignacio/Roberts, Celia (Hg.) (2020): The Routledge Companion to Actor-Network Theory. London. Boeing, Geoff (2016): Visual Analysis of Nonlinear Dynamical Systems: Chaos, Fractals, Self-Similarity and the Limits of Prediction, in: Systems 4, 37.

64 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Bohne, Fabian (1998): Komplexitätskostenmanagement in der Automobilindustrie: Identifizierung und Gestaltung vielfachsinduzierter Kosten. Wiesbaden. Bourgine, Paul/Stewart, John (2004): Autopoiesis and Cognition, in: Artificial Life 10, 327–345. Braun, Dietmar (2005): Steuerungstheorien, in: Dieter Nohlen/Rainer-Olaf Schultze (Hg.) (2005): Lexikon der Politikwissenschaft, Band 2. München, 971–977. Breuer, Reinhard (Hg.) (1993): Der Flügelschlag des Schmetterlings: Ein neues Weltbild durch die Chaosforschung. Stuttgart. Briggs, John/Peat, David (1990) Die Entdeckung des Chaos: Eine Reise durch die Chaos-Theorie. München. Broad, Charlie Dunbar (1925): The Mind and ist Place in Nature. London. Bunge, Mario (1973): Method, Model and Matter. Dordrecht. Bunge, Mario (2003): Emergence and Convergence: Qualitative Novelty and the Unity of Knowledge. Toronto. Byrne, David/Callaghan, Gillian (2014): Complexity Theory and the Social Sciences: The State of the Art. London. Camazine, Scott (2001): Self-Organization in Biological Systems. Princeton. Çambel, Ali Bulent (1993): Applied Chaos Theory: A Paradigm for Complexity. Boston. Casti, John (1979): Connectivity, Complexity, and Catastrophe in Large-Scale Systems. Chichester /New York. Chandler, David (2014): Resilience: The Governance of Complexity. London/ New York. Cilliers, Paul (1998): Complexity and Postmodernism: Understanding Complex Systems. London. Cilliers, Paul (2010): Complexity, Difference and Identity: An Ethical Perspective. Dordrecht. Clausius, Rudolf (1865): Über verschiedene, für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie, in: Annalen der Physik und Chemie 125, 353–400. Coleman, James Samuel (1990): Foundations of Social Theory. Cambridge, Massachusetts. Comte, Auguste (1949): Cours de philosophie positive (première et deuxième leçons); discours sur l’esprit positif. Paris. Cowan, George/Pines, David/Meltzer, David (Hg.) (1999): Complexity: metaphors, models, and reality. Cambridge. Craver, Carl (2007): Explaining the Brain – Mechanisms and the Mosaic Unity of Neuroscience. Oxford. Crutchfield, James/Farmer, Doyne/Packard, Norman/Shaw, Robert (1986): Chaos, in: Scientific American 254 (12), 46–57. Davidson, Donald (1980): Essays on Actions and Events. Oxford. Day, Richard; Pavlov, Oleg (2004): Computing Economic Chaos, in: Computational Economics 23 (4), 289–301.

65 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Dörner, Dietrich/Kreuzig, Heinz/Reither, Franz/Stäudel, Thea (Hg.) (1983): Lohhausen: Vom Umgang mit Unbestimmtheit und Komplexität. Bern. Dörner, Dietrich (2003): Die Logik des Misslingens: Strategisches Denken in komplexen Situtationen. Reinbek. Eckardt, Frank (2009): Die komplexe Stadt: Orientierungen im urbanen Labyrinth. Wiesbaden. Emmeche, Claus/Køppe, Simo/Sternfelt, Frederik (2000): Levels, Emergence, and Three Versions of Downward Causation, in: Peter Andersen (Hg.) (2000): Downward Causation: Minds, Bodies and Matter. Aarhus, 13–34. Erdős, Paul/Rényi, Alfréd (1959): On random Graphs. I, in: Publicationes Mathematicae 6, 290–297. Fine, Kit (1994): Compounds and Aggregates, in: Nous 28, 137–158. Fisch, Rudolf/Wolf, Michael (1990): Die Handhabung von Komplexität beim Problemlösen und Entscheiden, in: Wolfgang Fisch/Margarete Boos (Hg.) (1990): Vom Umgang mit Komplexität in Organisationen: Konzepte – Fallbeispiele – Strategien. Konstanz, 11–39. Flood, Robert (Hg.) (1988): Dealing with Complexity: An Introduction to the Theory and Application of Systems Science. New York/London. Fodor, Jerry (2008): Special Sciences (Or: The Disunity of Sciences as a Working Hypothesis), in: Mark Bedau (Hg.) (2008): Emergence: Contemporary Readings in Philosophy and Science. Cambridge, Massachusetts. Foerster, Heinz von (1984): Observing Systems. Salinas. Foerster, Heinz von (1995): Cybernetics of Cybernetics, The Control of Control and the Communication of Communication. Minneapolis. Gell-Mann, Murray (1994): The Quark and the Jaguar: Adventures in the Simple and the Complex. New York. Gell-Mann, Murray (1995): Let’s Call It Plectics, in: Complexity 1 (5), 3. Gershenson, Carlos (2015): Requisite Variety, Autopoiesis, and Self-organization, in: Kybernetes 44 (6–7), 866–873. Gilbert, Edgar (1959): Random Graphs, in: Annals of Mathematical Statistics 30 (4), 1141–1144. Gladwell, Malcolm (2009): The Tipping Point: How Little Things can make a Big Difference. London. Gleick, James (1988): Chaos: Making a new Science. New York. Gloy, Karen (2014): Komplexität: Ein Schlüsselbegriff der Moderne. Paderborn. Goodwin, Richard M. (1951): The Nonlinear Accelerator and the Persistence of Business Cycles, in: Econometrica 19 (1), 1–17. Granovetter, Mark (1973): The Strength of Weak Ties, in: American Journal of Sociology 78, 1360–1380. Granovetter, Mark (1983): The Strength of Weak Ties: A Network Theory Revisited, in: Sociological Theory 1, 203–233. Greve, Jens/Schnabel, Annette (Hg.) (2011): Emergenz: Zur Analyse und Erklärung komplexer Strukturen. Berlin. Günther, Gotthard (1968): Kritische Bemerkungen zur gegenwärtigen Wissenschaftstheorie, in: Soziale Welt 19, 328–341.

66 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Gutzwiller, Martin (1990): Chaos in Classical and Quantum Mechanics. New York. Haken, Hermann (2004): Die Selbstorganisation komplexer Systeme: Ergebnisse aus der Werkstatt der Chaostheorie. Wien. Hartmann, Nicolai (1940): Der Aufbau der realen Welt: Grundriß der allgemeinen Kategorienlehre. Berlin. Hartung, Stephanie (2014): Gestalt im Management: Eine andere Sicht auf Marken- und Unternehmensführung in komplexen Märkten. Berlin/ Heidelberg. Hayek, Friedrich August von (1952): The Sensory Order: An Enquiry into the Foundations of Theoretical Psychology. Chicago. Hayek, Friedrich August von (1964): The Theory of Complex Phenomena, in: Mario Bunge (Hg.) (1964): The Critical Approach to Science and Philosophy. London, 332–349. Hayek, Friedrich von (1998): Law, Legislation and Liberty: A new Statement of the Liberal Principles of Justice and Political Economy. London. Heintz, Bettina (2004): Emergenz und Reduktion. Neue Perspektiven auf das Mikro-Makro-Problem, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie 56, 1–31. Herbst, Ludolf (2004): Komplexität und Chaos: Grundzüge einer Theorie der Geschichte. München. Hinrichsen, Haye (2000): Critical Phenomena in Nonequilibrium Systems, in: Advances in Physics 49, 815–958. Hoffman, Joshua/Rosenkrantz, Gary (1999): On the Unity of Compound Things: Living and Non-living, in: David Oderberg (Hg.) (1999): Form and Matter: Themes in Contemporary Metaphysics. Oxford, 76–102. Höge, Robert (1995): Organisatorische Segmentierung: Ein Instrument zur Komplexitätshandhabung. Wiesbaden. Holland, John (1998): Emergence: From Chaos to Order. Oxford. Hollstein, Betina/Straus, Florian (Hg.) (2006): Qualitative Netzwerkanalyse: Konzepte, Methoden, Anwendungen. Wiesbaden. Horgan, Terence (1993): From Supervenience to Superdupervenience: Meeting the Demands of a Material World, in: Mind 102, 555–586. Hoyningen-Huene, Paul (1994): Zu Emergenz, Mikro- und Makrodetermination, in: Weyma Lübbe (Hg.) (1994): Kausalität und Zurechnung. Über Verantwortung in komplexen kulturellen Prozessen. Berlin, 165–195. Hübner, Johannes (2007): Komplexe Substanzen. Berlin/New York. Humphreys, Paul (2008): Synchronic and diachronic Emergence, in: Minds and Machines 18, 431–442. Jeong, Hawoong/Tombor, Bálint/Albert, Réka/Oltvai, Zoltan/Barabási, Albert-László (2000): The large-scale organization of metabolic networks, in: Nature 407, 651–654. Johnson, Neil F. (2010): Simply Complexity: A Clear Guide to Complexity Theory. Oxford. Kaldor, Nicholas (1940): A Model of the Trade Cycle, in: Economic Journal 50 (197), 78–92.

67 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Kauffman, Stuart (1995): Der Öltropfen im Wasser: Chaos, Komplexität, Selbstorganisation in Natur und Gesellschaft. München. Kauffman, Stuart (2000): Investigations. Oxford. Kim, Jaegwon (1993): Supervenience and Mind. Cambridge. Kim, Jaegwon (2000): Making Sense of Downward Causation, in: Peter Andersen (Hg.) (2000): Downward Causation: Minds, Bodies and Matter. Aarhus, 305–321. Kim, Jaegwon (2005): Physicalism, or something near enough. Princeton. Klaus, Georg (Hrsg.) (1971): Wörterbuch der Kybernetik. Frankfurt a. M. Kleineberg, Michael (2017). Integrative Levels, in: Knowledge Organization 44 (5), 349–379. Klir, George (1985): Complexity: Some general observations, in: Systems Research 2 (2), 131–140. Kondepui, Dilip/Prigogine, Ilya (1998): Modern Thermodynamics: From Heat Engines to Dissipative Structures. Chichester. Krohn, Wolfgang/Küppers, Günter (1992): Emergenz. Die Entstehung von Ordnung, Organisation und Bedeutung. Frankfurt a. M. Krugman, Paul (1995): The Self Organizing Economy. Cambridge, Massachusetts. Kugler, Peter/Turvey, Michael (1987): Information, Natural Law, and the SelfAssembly of Rhythmic Movement. Hillsdale. La Porte, Todd (Hg.) (1975): Organized Social Complexity: Challenge to Politics and Policy. Princeton. Latour, Bruno (1987): Science in Action: How to follow Scientists and Engineers through Society. Cambridge, Massachusetts. Latour, Bruno (2005): Reassembling the Social: An Introduction to Actor-Network-Theory. Oxford. Laughlin, Robert (2005): A Different Universe: Inventing physics from the bottom down. New York. Laux, Henning (2014): Soziologie im Zeitalter der Komposition. Koordinaten einer integrativen Netzwerktheorie. Weilerswist. Law, John/Callon, Michel/Rip, Arie (Hg.) (1986): Mapping the Dynamics of Science and Technology, Sociology of Science in the Real World. London. Law, John (2002): Aircraft Stories: Decentering the Object in Technoscience. Durham. Law, John/Mol, Annemarie (Hg.) (2002): Complexities: Social Studies of Knowledge Practices. Durham. Lewin, Roger (2000): Complexity: Life at the Edge of Chaos. Chicago. Liu, Yang-Yu/Slotine, Jean-Jacques/Barabási, Albert-László (2011): Controllability of complex networks, in: Nature 473, 167–173. Lorenz, Edward (1963): Deterministic Nonperiodic Flow, in: Journal of the Athmospheric Sciences 20, 130–141. Luhmann, Niklas (1973): Vertrauen: Ein Mechanismus der Reduktion sozialer Komplexität. Stuttgart.

68 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Luhmann, Niklas (1975): Soziologische Aufklärung 2: Aufsätze zur Theorie der Gesellschaft. Köln. Luhmann, Niklas (1980): Komplexität, in: Erwin Grochla (Hg.) (1980): Handwörterbuch der Organisation. Stuttgart. Luhmann, Niklas (1984): Soziale Systeme: Grundriß einer allgemeinen Theorie. Frankfurt a. M. Luhmann, Niklas (1990): Soziologische Aufklärung 5: Konstruktivistische Perspektiven. Köln. Luhmann, Niklas (1997): Die Gesellschaft der Gesellschaft. Frankfurt a. M. Lyotard, Jean-Francois (1984): The Postmodern Condition: A Report on Knowledge. Manchester. Mainzer, Klaus (1994): Thinking in Complexity: The Complex Dynamics of Matter, Mind, and Mankind. Berlin. Mainzer, Klaus (1997): Gehirn, Computer, Komplexität. Berlin. Mainzer, Klaus (2004): Thinking in Complexity: The Computational Dynamics of Matter, Mind, and Mankind. Berlin. Malaina, Alvaro (2015): Two complexities: The need to link complex thinking and complex systems science, in: Emergence: Complexity and Organization 17 (1), 1–9. Mandelbrot, Benoît (1983): The Fractal Geometry of Nature. San Francisco. Massip-Bonet, Àngels/Bastardas-Boada, Albert (Hg.) (2014): Complexity perspectives on language, communication and society. Heidelberg. Maturana, Humberto (1998): Biologie der Realität. Frankfurt a. M. Maturana, Humberto/Varela, Francisco (2009): Der Baum der Erkenntnis: Die biologischen Wurzeln menschlichen Erkennens. Frankfurt a. M. May, Robert (1973): Stability and Complexity in Model Ecosystems. Princeton. Mayntz, Renate (2009): Über Governance: Institutionen und Prozesse politischer Bildung. Frankfurt a. M. Mennin, Stewart (2010): Self-organisation, integration and curriculum in the complex world of medical education, in: Medical Education 44 (1), 20– 30. Milgram, Stanley (1967): The Small-World Problem, in: Psychology Today 1, 60–67. Mitchell, Sandra (2008): Komplexitäten: Warum wir erst anfangen, die Welt zu verstehen. Frankfurt a. M. Mol, Annemarie (2002): The Body Multiple: Ontology in Medical Practice. Durham. Moles, Andre (1960): Über konstruktionelle und instrumentelle Komplexität, in: Max Bense (Hg.): Grundlagenstudien aus Kybernetik und Geisteswissenschaft, Band 1. Stuttgart, 33–36. Morin, Edgar (1977–2001): La Méthode, Band 1–5. Paris. Morin, Edgar (2007): Complexité restreinte, complexité générale, in: JeanLouis Le Moigne/Edgar Morin (Hg.): Intelligence de la complexité. Epistémologie et pragmatique. Paris, 28–50.

69 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Münch, Richard (2001): Politische Steuerung als gesellschaftlicher Prozess, in: Hans-Peter Burth/Axel Görlitz (Hg.) (2001): Politische Steuerung in Theorie und Praxis. Baden-Baden, 187–220. Nagel, Ernest (1961): The Structure of Science: Problems in the Logic of Scientific Explanation. New York. Neumann, John von/Burks, Arthur (1966): Theory of self-reproducing automata. Urbana. Newman, Mark (2001): The Structure of Scientific Collaboration Networks, in: Proceedings of the National Academy of Sciences of the Unites States of America 98, 404–409. Nicolis, Grégoire/Prigogine, Ilya (1977): Self-Organization in Nonequilibrium Systems. New York. Nicolis, Grégoire/Prigogine, Ilya (1987): Die Erforschung des Komplexen. München. Norman, Geoff (2011): Chaos, Complexity and Complicatedness: Lessons from Rocket Science, in: Medical Education 45, 549–559. Parsons, Talcott (1967): The Social System. London. Pastor-Satorras, Romuald/Vespignani, Alessandro (2001): Epidemic Spreading in Scale-Free Networks, in: Physical Review Letters 86, 3200–3203. Pattee, Howard (1973): Hierarchy Theory: The Challenge of Complex Systems. New York. Pettersson, Max (1996): Complexity and Evolution. Cambridge. Polani, Daniel (2008): Foundations and formalizations of self-organization, in: Mikhail Prokopenko (Hg.) (2008): Advances in Applied Self-Organizing Systems, London, 19–37. Poli, Roberto (2001): The Basic Problem of the Theory of Levels of Reality, in: Axiomathes 2 (2), 261–283. Poser, Hans (2012): Wissenschaftstheorie: Eine philosophische Einführung. Stuttgart. Prigogine, Ilya (1955): Introduction to Thermodynamics of Irreversible Processes. New York. Prigogine, Ilya (1979): Vom Sein zum Werden: Zeit und Komplexität in den Naturwissenschaften. München. Prigogine, Ilya/Stengers, Isabelle (1984): Order out of Chaos: Man’s new Dialogue with Nature. London. Primas, Hans (1983): Chemistry, Quantum Mechanics and Reductionism: Perspectives in Theoretical Chemistry. Berlin. Rasmussen, Steen/Baas, Nils/Mayer, Bernd/Nilsson, Martin/Olesen, Michael (2002): Ansatz for Dynamical Hierarchies, in: Artificial Life 7, 329–353. Rittmann, Günter (2014): Der Umgang mit Komplexität: Soziologische, politische, ökonomische und ingenieurswissenschaftliche Vorgehensweisen in vergleichender systemtheoretischer Analyse. Baden-Baden. Rueger, Alexander (2000): Physical Emergence, diachronic and synchronic, in: Synthese 124, 297–322. Rueger, Alexander (2001): Explanations at Multiple Levels, in: Minds and Machines 11, 503–520.

70 https://doi.org/10.5771/9783495825464 .

Komplexität und Komplexitäten

Santayana, George (1995): Dominations and Powers: Reflections on Liberty, Society, and Government. New York. Sawyer, Keith (2001): Emergence in Sociology: Contemporary Philosophy of Mind and Some Implications for Sociological Theory, in: American Journal of Sociology 107, 551–585. Schark, Marianne (2005): Lebewesen versus Dinge: Eine metaphysische Studie. Berlin. Scott, Alwyn (2007): The nonlinear Universe: Chaos, Emergence, Life. Berlin. Shannon, Claude/Weaver, Warren (1949): The Mathematical Theory of Communication. Urbana, Illinois. Simmel, Georg (2013): Gesamtausgabe, Band 11: Soziologie. Untersuchungen über die Formen der Vergesellschaftung. Frankfurt a. M. Simon, Herbert (1962): The Architecture of Complexity, in: Proceedings of the American Philosophical Society 106 (6), 467–482. Simon, Herbert (1991): Models of My Life. New York. Simons, Peter (1996): Parts: A Study in Ontology. Oxford. Spencer, Herbert (1966): The Works of Herbert Spencer: The System of Synthetic Philosophy, Band 1–10. Osnabrück. Stacey, Ralph (1997): Unternehmen am Rande des Chaos: Komplexität und Kreativität in Organisationen. Stuttgart. Stephan, Achim (1998): Varieties of Emergence in Artificial and Natural Systems, in: Zeitschrift für Naturforschung 53, 639–656. Stephan, Achim (1999): Von der Unvorhersagbarkeit zur Selbstorganisation. Dresden. Stüttgen, Manfred (2003): Strategien der Komplexitätsbewältigung in Unternehmen: Ein transdisziplinärer Bezugsrahmen. Bern/Stuttgart. van Gulick, Robert (2001): Reduction, Emergence and Other Recent Options on the Mind-Body-Problem: A Philosophical Overview, in: Journal of Consciousness Studies 8, 1–34. Varela, Francisco/Maturana, Humberto/Uribe, Ricardo (1981): Autopoiesis: The Organization of Living Systems, lts Characterization and a Model, in: Cybernetics Forum 10 (2/3), 7–13. Varela, Francisco/Thompson, Evan (1993): The Embodied Mind: Cognitive Sciences and Human Experience. Cambridge, Massachusetts. Vieweg, Wolfgang (2015): Management in Komplexität und Unsicherheit. Wiesbaden. Vollmer, Gerhard (1992): Das Ganze und seine Teile: Holismus, Emergenz, Erklärung und Reduktion, in: Wolfgang Deppert (Hg.): Wissenschaftstheorien in der Medizin: Ein Symposion. Berlin. Waldrop, Mitchell (1992): Complexity: The Emerging Science at the Edge of Order and Chaos. New York. Watts, Duncan (2004): Six Degrees: The Science of a Connected Age. London. Watts, Duncan/Strogatz, Steven (1998): Collective Dynamics of ›SmallWorld‹ Networks, in: Nature 393, 440–442. Weaver, Warren (1948): Science and Complexity, in: American Scientist 36, 536–544.

71 https://doi.org/10.5771/9783495825464 .

Aljoscha Berve

Whitehead, Alfred North (1978): Process and Reality: An Essay in Cosmo5logy. New York. Whitehead, Alfred North (2015): The Concept of Nature: The Tarner Lectures delivered in Trinity College, November 1919. Cambridge. Williams, Richard/Berlow, Eric/Dunne, Jennifer/Barabási, Albert-László/ Martinez, Neo (2002): Two Degrees of Separation in Complex Food Webs, in: Proceedings of the National Academy of Sciences of the Unites States of America 99 (20), 12913–12916. Willke, Helmut (1996): Systemtheorie I: Grundlagen. Stuttgart. Willke, Helmut (2001): Systemtheorie III: Steuerungstheorie. Stuttgart. Wimsatt, William (1994): The Ontology of Complex Systems: Levels, Perspectives, and Causal Thickets, in: Mohan Matthen/Christopher Stephens (Hg.) (1994): Biology & Society: Reflections on Methodology. Calgary, 207–274. Wimsatt, William (1997): Aggregativity: Reducing Heuristics for Finding Emergence, in: Philosophy of Science 64 (Supplement. Proceedings of the 1996 Biennials Meetings of the Philosophy of Science Association. Part II), 372–384. Wolfram, Stephen (1983): Statistical Mechanics of Cellular Automata, in: Reviews of Modern Physics 55 (3), 601–644. Wolfram, Stephen (2002): A new Kind of Science. Champaign, Illinois. Yodzis, Peter (2000): Diffuse Effects in Food Webs, in: Ecology 81, 261–266. Yook, Soon-Hyung/Jeong, Hawoong/Barabási, Albert-László (2002): Modelling the Internet’s Large-Scale Topology, in: Proceedings of the National Academy of Sciences of the Unites States of America 99 (21), 13382– 13386. Zelený, Milan (1981): Self-Organization of Living Systems: A Formal Model of Autopoiesis, in: Cybernetics Forum 10 (2/3), 24–38.

72 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik? Anmerkungen zum Begriff der Komplexität in den Kultur- und Literaturwissenschaften Achim Geisenhanslüke

1.

Komplexe Fragen – Fragen der Komplexität

Tragfähige Definitionen von Begriffen zu entfalten ist eine der wesentlichen Aufgaben der Philosophie – nicht allein ihre, aber zweifellos eine ihrer Stärken. Vielleicht wäre die Aufgabe der philosophischen Reflexion jedoch besser beschrieben, wenn von einer kritischen Prüfung von Begriffen gesprochen werden würde, von Begriffen also, die nicht selbst entwickelt, sondern von woanders gegeben werden. Komplexität ist zweifellos ein solcher Begriff. In den naturwissenschaftlichen Disziplinen scheint er – zumindest auf den ersten Blick – einen festen Ort zu besitzen, in der Ökonomie ebenso eine Rolle zu spielen wie in der Soziologie Luhmannscher Prägung (vgl. Mainzer 2008). Schwieriger wird es jedoch, wenn sich der Blick auf ästhetische und poetologische Zusammenhänge richtet. Nicht nur existiert bis heute kein verbindlicher theoretischer Zugriff auf den Begriff der Komplexität: »Eine umfassende Theorie ästhetischer Komplexität liegt bisher nicht vor« (Koschorke 2017, 8), bemerkt schon Albrecht Koschorke im Blick auf ein wesentliches Desiderat der Forschung. Die Frage, welche Rolle der Begriff der Komplexität in ästhetischen Zusammenhängen spielt, kann gar nicht durch den Versuch einer Definition beantwortet werden. Was dem vorausgehen muss, ist die kritische Überprüfung der vorliegenden Definitionen der Komplexität aus anderen Wissensbereichen, und was damit geklärt werden kann, ist die Frage nach dem Recht und den Grenzen der Übertragbarkeit des Komplexitätsbegriffs auf im weiteren Sinne geisteswissenschaftliche und im engeren Sinne ästhetische Zusammenhänge. Wenn die Evolution komplexer Systeme vor diesem Hintergrund als ein zeitlicher Prozess und komplexe als offene Systeme beschrieben werden, die aus heterogenen Elementen bestehen, welche in wechselseitigen Wechselwirkungen zueinander stehen, dann sind 73 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

damit allgemeine Vorgaben gemacht, deren Gültigkeit hier gar nicht in Frage stehen solllen, deren Aussagekraft für literarische Systeme jedoch zumindest diskutiert werden können. Schon von einem literarischen System im Sinne Luhmanns und nicht etwa von Literatur im Allgemeinen oder einem literarischen Diskurs, literarischer Kommunikation o. ä. im Besonderen zu sprechen, bedeutet, eine theoretische Vorentscheidung zu treffen, die nach weiteren Begründungen verlangt. Um diese theoretischen Vorentscheidungen soll es hier jedoch gar nicht gehen, sie würden wohl allein zu der an eine Tautologie grenzenden Aussage führen, dass das Feld der Literaturtheorie selbst ein komplexes ist. Selbst wenn Komplexität in sozialen Systemen als Vielschichtigkeit, Vernetzung und Folgelastigkeit bestimmt wird, ist unklar, was das in ästhetischen Zusammenhängen genau bedeutet. Dass ästhetische Systeme wie das der Literatur komplex sind, wäre vor diesem Hintergrund ein Beschreibungsmerkmal, dessen Gültigkeit erst einmal überprüft und dann gegebenenfalls präzisiert werden müsste. Ohne diese Aufgabe ganz erfüllen zu können, will der vorliegende Beitrag einen ersten Schritt in diese Richtung unternehmen. Es geht ihm also nicht darum, einen tragfähigen Begriff der Komplexität zu entwickeln, der im vielgestaltigen Bereich des Ästhetischen als einheitlicher Begründungszusammenhang anerkannt werden könnte. Das Ziel ist bescheidener: Noch vor der Frage nach der Übertragung eines Komplexitätsbegriffs, der seinen Ursprung in der naturwissenschaftlichen Forschung hat, geht es darum, zu prüfen, ob und inwiefern der Begriff der Komplexität in ästhetischen und poetologischen Diskussionen über Literatur sowie in der Literatur selbst einen Ort hat. Sollte sich dieser Ort auch als ein begrenzter herausstellen, dann wäre damit dennoch zumindest ein Anfang gemacht.

2.

Vom Geschmack der Komplexität

Vor diesem Hintergrund stellt sich zunächst eine ernüchternde Diagnose. Denn in ästhetischen und poetologischen Theoriezusammenhängen spielt der Begriff der Komplexität so gut wie keine Rolle. Er ist in der antiken Rhetorik ebenso wenig zu Hause wie in der philosophischen Ästhetik, spielt in der Hermeneutik so wenig eine Rolle wie in neuen Literaturtheorien. Geschichts- und wesenlos, ebenso vage wie vielsagend, markiert der Begriff der Komplexität in Lehren des Geschmacks eine nicht ausgefüllte Leerstelle. Wer von einer 74 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

Komposition Beethovens, einem Bild Picassos oder einem Gedicht Hölderlins sagt, es sei komplex, macht sich des Dilettantentums verdächtig, weil der Grund seines Lobes allzu selbstverständlich scheint. Das Urteil der Komplexität fällt auf den selbsternannten Geschmacksrichter zurück und lässt ihn als Banausen dastehen. Es gibt nur ein im weitesten Sinne mit dem Thema des Geschmacks verbundenes Gebiet, in dem der Begriff der Komplexität sich etabliert hat: die Önologie, eine verhältnismäßig junge Wissenschaft, die in den letzten Jahrzehnten allerdings große Fortschritte gemacht hat. Komplexität gehört zu den festen Bestandteilen der Weinsprache. Auch dort aber haftet dem Begriff der Komplexität eine kaum zu übersehene Unschärfe an. Komplex wird ein Wein genannt, um seine geschmackliche Vielseitigkeit zu fassen, das Zusammenspiel der fünf Grundeigenschaften der Süße, der Säure, des Tannins, des Alkohols und des Körpers, ebenso aber seine Entstehung, die durch so unterschiedliche Dinge wie Boden, Klima und Reifebedingungen sowie den Ausbau gekennzeichnet ist. Die Rede von der Komplexität eines Gewächses ist in der Weinsprache dementsprechend keineswegs nur eine beschönigende Selbstbeschreibung, die der besseren Vermarktung dienen soll. Sie verdankt sich vielmehr der wissenschaftlich fundierten Beschreibung eines Weines durch den Experten, den Önologen. Die Herstellung eines komplexen Weines wäre vor diesem Hintergrund zugleich als eine Kunstleistung zu verstehen, als kulturelle Veredelung eines Naturgewächses. Daher kann die Weinrebe bei Friedrich Hölderlin, der einige seiner bedeutendsten Gedichte nach einem kurzen Aufenthalt als Hauslehrer bei einem deutschen Weinhändler in Bordeaux schrieb, auch als Sinnbild für die Überführung von Natur in Kunst gelten: »Wenn nämlich der Rebe Saft, / Das milde Gewächs suchet Schatten / Und die Traube wächset unter dem kühlen / Gewölke der Blätter,« (Hölderlin 2005, 382) so lautet Hölderlins Bestimmung der natürlichen Bedingungen des Wachstums der Weinrebe zwischen dem Feuer des Himmels und den Schatten der Erde. Und sicherlich ist ein großer Bordeaux, wenn er denn unter diesen Bedingungen gelungen ist, komplex zu nennen. Aber schon der einfache Blick auf das Gegenteil zeigt die Unschärfe des Begriffes, der durch sehr unterschiedliche, ja widersprüchliche Synonyme zu ersetzen wäre: Ein nicht-komplexer, gleichwohl fehlerfreier Wein wäre flach, eindimensional, ein komplexer Wein daher mit dem gleichen Recht vielschichtig zu nennen. Es gibt wohl keinen Fall, in dem der Begriff der Komplexität als Ausdruck eines positiven Geschmacksur75 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

teils nicht ohne großen Bedeutungsverlust durch ein Synonym wie Vielschichtigkeit zu ersetzen wäre. Umgekehrt kann Komplexität auch in gesellschaftspolitischen Zusammenhängen in einem eher kritischen Sinne fast immer durch andere Begriffe wie etwa den der Unübersichtlichkeit wiedergegeben werden: Komplex ist die politische Situation in Großbritannien vor dem Brexit, da die unterschiedlichen Interessenlagen der beteiligten Akteure kein verlässliches Gesamtbild ergeben, so dass ganz unterschiedliche Lösungen – weicher Brexit oder No deal – zum gleichen Zeitpunkt gleich wahrscheinlich sind. Und wenn Jürgen Habermas in den achtziger Jahren Die Neue Unübersichtlichkeit (vgl. Habermas 1985) beklagt, dann bezieht er sich kritisch auf eine mit der französischen Postmoderne verbundene geistesgeschichtliche Entwicklung, durch die vertraute Muster wie die politische Unterscheidung von rechts und links fragwürdig geworden sind und die eben deswegen in einem vielleicht neutraleren Sinne komplex genannt werden kann. Damit deutet sich zugleich an, dass der Begriff der Komplexität in ästhetischen und in politischen Zusammenhängen unterschiedlich gebraucht wird: Einen Wein komplex zu nennen, ist Ausdruck einer Wertschätzung, die Komplexität der Brexitfrage stellt den Beobachter hingegen vor Probleme. Komplexität kann also in unterschiedlichen Kontexten ganz unterschiedliche Bedeutungsnuancen annehmen, meint in Fragen des Geschmacks aber fast immer ein positives Werturteil, das in der Bedeutung von vielschichtig zwar ein Beschreibungsbild für alles bildet, was Kunst sein soll, dabei aber so allgemein bleibt, dass keine weiteren Spezifizierungen möglich sind. Das Dilemma des ästhetischen Urteils der Komplexität zeigt sich besonders deutlich an der Frage, was denn eine nicht komplexe Kunst sei. Die spontane Antwort lautet, nicht komplexe Kunst sei eben überhaupt keine Kunst, weil Kunst Komplexität in irgendeiner Weise voraussetzt. Das bestätigt noch die im Anschluss an André Jolles in der Literaturwissenschaft fest etablierte Rede von »einfachen Formen«, die sich auf Gattungen bezieht, die sich auf der Schwelle zwischen dem Vorliterarischen und dem Literarischen befinden. Jolles spricht in diesem Zusammenhang von »jenen Formen, die weder von der Stilistik, noch von der Rhetorik, noch von der Poetik, ja, vielleicht nicht einmal von der ›Schrift‹ erfaßt werden, die, obwohl sie zur Kunst gehören, nicht eigentlich zum Kunstwerk werden, die, wenn auch Dichtung, so doch keine Gedichte darstellen, kurz mit jenen Formen, die man als Legende, Sage, Mythe, Rätsel, Spruch, Kasus, 76 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

Memorabile, Märchen oder Witz zu bezeichnen pflegt« (Jolles 1930, 10). Mit dem Begriff der einfachen Form versucht Jolles Gattungen zu erfassen, die bisher von der Literaturwissenschaft stiefmütterlich behandelt wurden, weil sie nicht den Status des Kunstwerks erreichen: »obwohl sie zur Kunst gehören, nicht eigentlich zum Kunstwerk werden«, so lautet die paradoxe Formel, mit der Jolles operiert. Seiner Auffassung zufolge zerfällt das Reich der Kunst demnach in einfache vorliterarische und komplexe literarische Formen, wobei die einfachen Formen meist mündlich bestimmt sind und sich nicht einmal zur Schrift erheben müssen. Aber die Schwelle von Oralität zu Literalität kennzeichnet nicht allein einfache Formen wie das Märchen, sondern ebenso das griechische Epos, und die nicht einfach zu beantwortende Frage, die sich damit verbindet, lautet, warum am Anfang der europäischen Literaturgeschichte ein so komplexes Kunstwerk wie die Ilias steht, die Entwicklung der Literatur also keineswegs zu beschreiben ist als der kontinuierliche Weg von einfachen zu immer komplexeren Formen. Vielmehr scheint es in der Kunst so zu sein, dass jede Epoche ihre eigenen einfachen wie komplexen Formen ausbildet, und die Kritik des ästhetischen Geschmacks bestünde dementsprechend darin, beiden, einfachen wie komplexen Formen, das gleiche Recht zukommen zu lassen. Die Schwierigkeit, in ästhetischen Fragen mit dem Gegensatz von einfach und komplex zu arbeiten, kann ein Blick auf eines der bekanntesten Gedichte Joseph von Eichendorffs verdeutlichen: Mondnacht Es war, als hätt’ der Himmel Die Erde still geküßt, Daß sie im Blüten-Schimmer Von ihm nun träumen müßt’. Die Luft ging durch die Felder, Die Ähren wogten sacht, Es rauschten leis die Wälder, So sternklar war die Nacht. Und meine Seele spannte Weit ihre Flügel aus, Flog durch die stillen Lande, als flöge sie nach Haus. (Eichendorff 2006, 322)

77 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

Joseph von Eichendorffs Gedicht Mondnacht aus dem Jahre 1837 zählt zu den bekanntesten und meistkommentierten Texten der deutschsprachigen Dichtung. Die enorme Popularität des Gedichts geht nicht zuletzt auf seine scheinbare Einfachheit zurück: Sowohl in formaler als auch in inhaltlicher Hinsicht scheint der Text dem Leser zunächst keinerlei Verständnisschwierigkeiten entgegenzusetzen. Die Formel- und Chiffrenhaftigkeit, die Eichendorffs Gedichten als Ausdruck einer symbolischen Sprachmagie immer wieder zugesprochen wurde, führt in Mondnacht zu einer Evidenzerfahrung, die sich auf der formalen Ebene in dem klaren Aufbau und inhaltlich in der scheinbaren Trivialität des Bildes vom Himmelskuss bemerkbar macht. Die Volksliedstrophe, auf die Eichendorff zurückgreift, entspricht dieser kaum hinterfragbaren Evidenz ebenso wie der klare Aufbau des Gedichts, den schon Wolfgang Frühwald herausgestellt hat: »Zwei auffällig vom Konjunktiv geprägte Strophen, mit der korrespondierenden ›als-ob‹-Figur, umschließen eine von Verben im Indikativ getragene Mittelstrophe.« (Frühwald 1984, 397). Wie Frühwald ausführt, geht die einfache Bewegung des Gedichtes in der ersten Strophe mit einer vertikalen Bewegung einher, die in der ersten Strophe von oben nach unten führt, in der dritten Strophe jedoch in umgekehrter Weise von unten nach oben verläuft: »Die sprachliche Bewegung führt dabei in der ersten Strophe von oben nach unten, vom Himmel zur Erde, in der letzten Strophe aber wechselt die Perspektive, es ist, als ob die Seele aus der dunklen Welt zum Himmel flöge.« (Frühwald 1984, 397). Die Volksliedstrophe, der dreihebige Jambus, der Kreuzreim und die auffällige Assonanz von »Himmel« und »Schimmer« in der ersten Strophe, die gegenläufige Bewegung der ersten und der dritten Strophe, die dem entsprechende Verteilung des Konjunktivs auf die erste und die dritte Strophe, von der sich der Indikativ der zweiten Strophe und der ersten drei Verse der letzten Strophe abhebt, erzeugen eine sprachlich ebenso schlichte wie eingängige Form, die die enorme Popularität des Gedichts möglich machte. Auf der anderen Seite wurde aber gerade diese Schlichtheit der Form Eichendorff oft zum Nachteil gerechnet. Schon Theodor W. Adorno berichtet im Blick auf den einleitenden Himmelskuss von dem vielkolportierten Vorwurf der Trivialität des Bildes, auf den er keine rechte Antwort zu geben wusste: »Ich war unfähig, der Kritik zu begegnen, ohne daß sie mich doch recht überzeugt hätte, wie denn Eichendorff allen Einwänden preisgegeben ist. Aber dennoch gefeit 78 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

gegen jeglichen.« (Adorno 1997, 71) Adornos Verteidigung Eichendorffs richtet sich gerade gegen die scheinbare Trivialität des Gedichtes. In Mondnacht erkennt er vielmehr eine künstlerische Artistik am Werk, die den komplexen Gebilden der Moderne um nichts nachsteht. Die Faszination, die Adornos Eichendorff-Lektüre vermerkt, umfasst eine geheime Ambivalenz, die dem Gedicht gerade in seiner formalen Schlichtheit zukommt und es so eben zu einem komplexen Gebilde werden lässt. Zum Ausdruck kommt diese Ambivalenz aber nicht allein auf der formalen Ebene des Gedichtes, die mit dem Instrumentarium, das dem Literaturwissenschaftler zur Verfügung steht, ja vollständig beschreibbar ist und eigentlich keine Fragen offen lässt. Als ein extrem komplexes und im Übrigen keineswegs triviales Gedicht erweist sich Mondnacht vielmehr durch die Überlagerung des antiken, Hesiods Theogonie entlehnten Bildes des Himmelskusses mit christlichen Motiven der Marienverehrung. Auf die christliche Bildlichkeit des Gedichts, insbesondere die geheimen Marienbezüge, hat Georg Kaiser nachdrücklich verwiesen. Ihm zufolge ist die »Luft«, die in der zweiten Strophe die Erde streichelt, als Pneuma, Heiliger Geist zu lesen, in der Mondnacht insgesamt darüber hinaus der Mai als der Marienmonat und mit ihr die christliche Schöpfungsidee aufgerufen: »Die Erde in Eichendorffs Gedicht erinnert an die in Maria verheißene sündenlose Schöpfung.« (Kaiser 1988, 115). Dennoch warnt Kaiser, das Gedicht sei »nicht als religiöser Klartext« (Kaiser 1988, 118) zu lesen. Vielmehr erkennt er in Mondnacht einen sentimentalischen Zug, der der christlichen Versöhnungsverheißung widerspreche, da die Spannung zwischen dem einleitenden Himmelskuss und dem abschließenden Seelenflug, doppelt markiert durch die Klammerfunktion der Konjunktive »hätt« und »flöge«, gerade nicht aufgelöst werde: Es bleibt offen, ob hier erotische Vereinigung oder Todeserfahrung oder beides zugleich im Mittelpunkt steht. Eichendorffs scheinbar so schlichtes Gedicht erweist sich so nicht nur als ein überraschend komplexes sprachliches Gebilde. Der Vorwurf der Trivialität prallt an dem Gedicht ab, weil nicht allein die Form, sondern erst das Zusammenspiel von Form und Motiv eine Ambivalenz erzeugt, die für die Komplexität verantwortlich ist. Damit zeigt sich zugleich, dass die Unterscheidung von einfach und komplex im Rückgriff auf die Form allein zu kurz greift. Komplexität ist kein Formbegriff, sondern Ausdruck einer Dialektik von Inhalt und Form, die sich an einfachen wie komplexen Formen gleichermaßen ablesen lässt, und die Aufgabe des Literaturwissen79 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

schaftlers bestünde dementsprechend weniger darin, problemlösend Komplexitätsreduktion als vielmehr problementdeckend Komplexitätssteigerung zu betreiben. Die Abwesenheit des Komplexitätsbegriffes in der Ästhetik und Poetik verdankt sich demnach einer theoretischen Unbestimmtheit, die es nicht erlaubt, ein sicheres Kriterium für die Unterscheidung zwischen komplex und nicht-komplex allein im Blick auf die Form anzugeben. Vor diesem Hintergrund stellt sich zunächst die Frage, ob die Abwesenheit des Komplexitätsbegriffes in der Ästhetik und Poetik durch andere Disziplinen, in denen der Begriff einen festen Ort hat, kompensiert werden kann. In den geisteswissenschaftlichen Disziplinen sind es vor allem die den Naturwissenschaften nahestehende Wissenschaftsgeschichte und die Soziologie, in der sich der Begriff der Komplexität etabliert hat. Können Ästhetik und Poetik aber überhaupt etwas von dem wissenschaftlichen Umgang mit dem Begriff der Komplexität in anderen Disziplinen lernen, oder müssen sie ganz eigene Kriterien entwickeln, um sich angemessen mit dem Thema der Komplexität auseinandersetzen zu können, oder sollten sie den Begriff vielleicht sogar besser ganz aufgeben? Der Blick auf die Wissenschaftsgeschichte und die Systemtheorie kann die Abwesenheit des Komplexitätsbegriffs in den Geisteswissenschaften im Allgemeinen und der Literaturwissenschaft im Besonderen sicherlich nicht einfach beheben. Was er aber sehr wohl vermag, ist die Aufmerksamkeit auf die Problemzusammenhänge zu lenken, die mit der Einführung des Komplexitätsbegriffes in die geisteswissenschaftliche Diskussion verbunden sind. Im Folgenden wird es daher vor allem darum gehen, aus der kritischen Diskussion der Wissenschaftsgeschichte und der Systemtheorie heraus ein Gespür für eine genauere Verortung des Komplexitätsbegriffes zu entwickeln, um einen ersten Schritt in Richtung einer eigenständigen Theorie der Komplexität zu gehen, die auch für ästhetische Zusammenhänge von Relevanz sein könnte.

3.

Probleme der Wissenschaftsgeschichte: Komplexität, Kreativität, Modernität

Um eine Brücke zwischen Natur- und Geisteswissenschaften zu schlagen, scheint ein wissenschaftstheoretischer Ansatz zunächst einmal ein vielversprechender Ansatz zu sein, reflektiert er doch auf die 80 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

Art und Weise, wie Wissenschaften unterschiedlicher Provenienz sich selbst zum Gegenstand nehmen. Wie sich schnell zeigt, wirft auch ein solcher Ansatz, wie ihn Hans Poser in seiner philosophischen Einführung in die Wissenschaftstheorie präsentiert, dennoch kritische Fragen auf. Diese Fragen betreffen nicht allein die grundsätzlichen Schwierigkeiten, einen im Wesentlichen von den empirischen Naturwissenschaften abgeleiteten Begriff der Komplexität einfach auf die Geisteswissenschaften zu übertragen. Sie richten sich darüber hinaus auf bestimmte Begriffe, auf die Poser rekurriert, um das Phänomen der Komplexität zu erläutern, Begriffe, die alles andere als selbstverständlich sind, vielmehr ein metaphysisches Erbe mit sich tragen, das ihre Erläuterungsfunktion zu neutralisieren scheint. Nicht von ungefähr enden die Ausführungen Posers mit dem Verweis auf ein nicht empirisches oder formallogisches, sondern eben metaphysisches Prinzip, nämlich einen bestimmten Begriff der Kreativität. »Die Natur als Ganzes ist kreativ auf ihrem Weg der Emergenz zu immer höheren Ordnungsstrukturen« (Poser 2001, 311), heißt es da. So gut wie jeder Begriff, auf den Poser zurückgreift, ist erläuterungsbedürftig: der der Natur, des Ganzen, der Emergenz, der Ordnung, besonders aber der der Kreativität. Was die Natur als Ganzes sein kann, ist eine Frage von so allgemeiner Tragweite, dass gänzlich unklar bleibt, was für ein Naturbegriff hier zugrunde gelegt wird: Ist es eher Darwins Idee einer sich in beständiger Evolution bewegenden Natur oder Spinozas Deus sive Natura, die Idee einer ganz von Gott erfüllten Natur im Zeichen der Immanenz fern jeder Transzendenz und Teleologie? In ähnlicher Weise voraussetzungsreich ist der Zusammenhang zwischen Komplexität und Emergenz, der die Frage aufwirft, ob beide Begriffe überhaupt scharf unterschieden werden können oder ob das Wesen der Komplexität nicht geradezu in der Emergenz besteht (Greve/Schnabel 2011). Und schließlich ist auch nicht entschieden, was höhere Ordnungsstrukturen sein sollen – höher in einem naturwissenschaftlichen oder in einem theologischen Sinne, höher im Vergleich zum Chaos, aus dem schon Hesiod die Welt in seiner Theogonie hat entstehen lassen, oder höher im Vergleich zu anderen Ordnungen, die dann als weniger komplex und womöglich in einer ganz und gar nicht selbstverständlichen Wendung als primitiver zu bezeichnen wären? Die Begriffe der Natur, des Ganzen, der Emergenz, der Ordnung und schließlich der Kreativität transportieren ein ganzes Bündel von ungelösten Problemen mit sich, das zugleich auf die Fragwürdigkeit des gesamten Unterfangens Po81 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

sers hinweist, eine Fragwürdigkeit, die sich insbesondere an einer Verpflichtung seiner Ausführungen gegenüber einem implizit zugrunde gelegten Begriff der Modernität zeigen lässt. So scheint eine wesentliche Voraussetzung, von der Poser ausgeht, der innere Zusammenhang zwischen der Komplexität und dem Neuen zu sein. Poser bezieht Komplexitätstheorien explizit auf »das Auftreten des unvorhersehbar Neuen.« (Poser 2012, 292). Lässt sich aus einer bereits bestehenden Ordnungsstruktur eine gesicherte Aussage über andere Ordnungsstrukturen ableiten, die aus ihr hervorgehen, so wäre nicht von Komplexität zu sprechen. Erscheint eine Ordnungsstruktur dagegen nicht auf eine oder mehrere ihr vorausgehende Ordnungen reduzierbar, so wäre der Begriff der Komplexität am Platz. Der Begriff der Komplexität impliziert demnach so etwas wie einen nach vorne gerichteten zeitlichen Ablauf, der vor allem durch das Auftreten einer Form des Neuen charakterisiert zu sein scheint, die sich nicht vorhersagen lässt: »Von Komplexitätstheorien zu sprechen bedeutet, einen zeitlichen Ablauf als einen geschichtlichen Ablauf so zu strukturieren, dass er nicht von kausalen Gesetzen allein abhängt, sondern dass das Auftreten von etwas unvorhersehbar Neuem das entscheidende Element ist.« (Poser 2012, 292). So einleuchtend diese Überlegung auf den ersten Blick erscheinen mag, so sehr bringt sie mit dem Begriff des radikal Neuen eine Kategorie in Anschlag, die selbst geschichtlich bestimmt ist. Denn der Begriff des Neuen ist alles andere als ein voraussetzungsloser Begriff. Er steht vielmehr in einem engen Zusammenhang mit dem geschichtlichen und ästhetischen Begriff der Moderne, die sich geradezu dadurch definiert, im Vergleich zum Alten das Neue zu sein. Diese Hinwendung zum Neuen, die sich in der Literatur der Moderne paradigmatisch an Charles Baudelaires Fleurs du mal ablesen lässt, deren letztes Gedicht mit dem Schlusswort »nouveau« das neue Ufer der Moderne als ihr Ziel ausruft, ist selbst etwas spezifisch Modernes: Wenn von der Dichtung verlangt wird, ständig Neues zu produzieren, dann setzt sie sich von allen ihr vorausgegangenen Formen der Dichtung ab, denen es eher darum ging, in der Orientierung an der Regelpoetik ein Kunstwerk zu schaffen, das nicht neu zu sein braucht, solange es eben den Regeln entspricht. Bei Baudelaire heißt es dagegen:

82 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

Verse-nous ton poison pour qu’il nous réconforte! Nous voulons, tant ce feu nous brûle le cerveau, Plonger au fond du gouffre, Enfer ou Ciel, qu’importe? Au fond de l’Inconnu pour trouver du nouveau! (Baudelaire 1975, 134)

Was Baudelaire von der Moderne verlangt, ist ein durch kein Sicherungsnetz abgefederter Sprung in den Abgrund, um das Unbekannte und Neue zu finden, das seinem Begriff der Modernität zugrunde liegt. Das Neue, auf das sich Poser beruft, ist aus der Sicht der Geistes- und Kulturgeschichte alles andere als ein unschuldiger Begriff, untrennbar verbunden mit der Frage nach der Genese der Moderne und damit der Frage nach der Modernität der Komplexität selbst: Wie das Neue, so ist auch die Komplexität Bestandteil einer spezifisch modernen Ausrichtung des Denkens. Und vor diesem Hintergrund ist es gerade dieser innere Zusammenhang von Komplexität und Moderne, den Poser bei allen Unterschieden, die sie sonst trennen, mit Luhmann teilt.

4.

Der Anspruch der Systemtheorie: Komplexität in der Risikogesellschaft

Eine zentrale Rolle spielt der Begriff der Komplexität in der Systemtheorie Niklas Luhmanns. Die Systemtheorie, die Luhmann selbst nicht unbescheiden als »eine besonders eindrucksvolle Supertheorie« (Luhmann 1987, 19) bezeichnet hat, ist eine Theorie, die nicht nur für ihren Gegenstand, das moderne Gesellschaftssystem, sondern auch für sich selbst Komplexität beansprucht. »Wenn überhaupt an gesellschaftsstrukturelle Korrelationen gedacht wird, müßte die Theorie entsprechende Komplexität bieten, das heißt auch das Gesellschaftssystem abstrakt und differenziert genau analysieren können« (Luhmann 1993, 15). Genau das nimmt Luhmann sich vor, wenn er die Gesellschaftsstruktur im Wesentlichen durch eine Form der Systemdifferenzierung zu erklären sucht, die in einem engen Zusammenhang mit dem Thema der Komplexität steht. »Wir gehen im weiteren aus von einem Zusammenhang zwischen Komplexität und Systemdifferenzierung« (Luhmann 1993, 21), konstatiert Luhmann, um dem Begriff einen Ort in seiner Theorie zuzuweisen. Der Zusammenhang zwischen Komplexität und Systemdifferenzierung, der Luhmann lei83 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

tet, schlägt sich in einer präzisen Definition nieder: »Ein System ist komplex, wenn es nicht mehr jedes seiner Elemente mit jedem anderen verknüpfen kann; wenn es also in der Relationierung seiner Elemente selektiv verfahren muß« (Luhmann 1993, 21). Luhmann definiert den Begriff der Komplexität auf der Basis der Unterscheidung von Element und Relation, wobei er der Prämisse folgt, dass die einzelnen Elemente nicht unabhängig von Systemen zu bestimmen sind. Versammelt ein System eine Vielzahl von Elementen unter sich, wird es unmöglich, jedes Element zu jedem anderen des Systems in eine Beziehung zu setzen. Komplexität im Luhmannschen Sinne richtet sich demnach auf eine den Systemen immanente Beschränkung der Verknüpfungsmöglichkeiten einzelner Elemente, was zugleich zu Selektionszwang führt. »Komplexität in dem angegebenen Sinne heißt Selektionszwang, Selektionszwang heißt Kontingenz, und Kontingenz heißt Risiko« (Luhmann 1987, 47), fasst Luhmann lakonisch zusammen. Komplexität hängt seiner Auffassung zufolge mit Kontingenz zusammen, da aufgrund des Selektionszwangs stets die Möglichkeit einer anderen, womöglich besseren Kombination der Elemente gegeben ist, somit auch das Risiko des Verfehlens der besten Lösung stets gegeben ist. Komplexität erweist sich als selbstreferentielles Kennzeichen zunehmend komplexerer Systemstrukturen: Je komplexer das System, desto kontingenter die Selektion und desto höher das Risiko. Vor dem Hintergrund dieser Ausführungen Luhmanns wird zugleich deutlich, dass wachsende Komplexität in politischen Systemen zu dem führt, was Ulrich Beck die moderne Risikogesellschaft genannt hat: »Die Risikogesellschaft ist eine katastrophale Gesellschaft. In ihr droht der Ausnahmezustand zum Normalzustand zu werden.« (Beck 1986, 31). Was die reflektierte Moderne, eine Moderne zweiter Ordnung, Beck zufolge kennzeichnet, ist das beständige Risiko eines Systemkollapses, der sich in subjektiven Szenen der Bedrohung und Angst niederschlägt. Komplexität geht notwendigerweise einher mit Krisenerfahrungen als der Konfrontation mit scheinbar unlösbaren Problemen, und der Ruf nach einfachen Lösungen wäre vor diesem Hintergrund nichts anderes als Ausdruck des auf Komplexität zurückgehenden Selektionsdrucks, der in modernen Gesellschaften ansteigt, bis der Ausnahmezustand, wie Beck meint, zum Normalzustand geworden zu sein scheint. Luhmanns Begriff der Komplexität ist daher in ähnlicher Weise wie der Posers mit dem einer fortschreitenden und darüber hinaus selbstreferentiellen Moderne verbunden. Zwar versichert Luhmann, 84 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

der Zusammenhang von Komplexität und Systemdifferenzierung solle »nicht als ein kontinuierlicher unilinearer Steigerungszusammenhang aufgefaßt werden. Unsere inhaltliche Hypothese ist vielmehr, daß die Komplexität, die ein Gesellschaftssystem erreichen kann, abhängt von der Form seiner Differenzierung.« (Luhmann 1993, 22). Dennoch zeigt sich seiner Meinung nach eindeutig, dass die funktionale Struktur der Moderne eine höhere Komplexität aufweist als vormoderne Ordnungen: »Dadurch entsteht in einer funktional differenzierten Gesellschaft sehr viel höhere Komplexität als in stratifizierten Gesellschaften« (Luhmann 1993, 29), versichert Luhmann im Blick auf die zunehmende Ausdifferenzierung der Teilsysteme in der Moderne. Komplexität erscheint in diesem Zusammenhang wieder als eine Mischform aus Vielschichtigkeit und Unübersichtlichkeit, die in der Moderne zwar wächst, deren Aufkommen aber insgesamt unvorhersehbar bleibt: »Sinnbildung aufgrund von Komplexitätsänderungen sind unprognostizierbar und deshalb auch theoretisch nicht antezipierbar.« (Luhmann 1993, 34 f.). Komplexität führt die Theorie der Gesellschaft, die die Systemtheorie sein will, an eine Grenze, weil sie mit strukturellen Formen des Nichtwissens konfrontiert: Steigende Komplexität bedeutet steigenden Selektionsdruck bedeutet wachsendes Risiko ohne Rückversicherung, da keine wissenssoziologisch relevanten Aussagen über die Zukunft gemacht werden können. Der ursprünglich offene Horizont der Neuzeit, den Luhmanns Kollege, der Bielefelder Historiker Reinhart Koselleck, auf die wachsende Differenz zwischen vergangenheitsorientierter Erfahrung und zukunftsorientierter Erwartung zurückgeführt hat (vgl. Koselleck 1979), schließt sich zu einem apokalyptisch geschlossenen Rahmen zusammen, in dem sich zugleich die Ohnmacht einer Gesellschaft spiegelt, die dem gesteigerten Selektionsdruck, der mit der Komplexität einhergeht, nicht länger standhalten kann. Als Ausdruck für die Unlösbarkeit gesellschaftlicher Problemzusammenhänge ist Komplexität, ein Begriff ohne Geschichte und Tradition, daher zur Grundlage einer Selbstbeschreibung der reflektiven Moderne im Zeichen von Krise und Katastrophe geworden. Was sich mit dem Begriff der Komplexität nach Luhmann öffnet, ist ein fundamentaler Zusammenhang zwischen der Genese der Moderne und dem Moment des Nichtwissens, das dem Soziologen Peter Wehling folgend unlösbar mit Modernisierungsbewegungen zusammenhängt (Wehling 2006; Baecker/Düchting 2005). Dem Zusammenhang zwischen Komplexität und Nichtwissen in gesellschaftlichen wie ästhetischen Fragen 85 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

nachzugehen, wäre vor diesem Hintergrund ein Weg, den die Soziologie und die Ästhetik gemeinsam einschlagen könnten, um Antworten auf die Krisenhaftigkeit zu finden, die die Moderne seit Baudelaires Sprung in den Abgrund des Neuen auszeichnet. 1

5.

Literatur und Komplexität: Eine komplexe Angelegenheit?

Vor dem Hintergrund der Bedeutung, die der Begriff der Komplexität in der Soziologie als Selbstbeschreibungsmodell einer krisenhaft erfahrenen Jetztzeit gewonnen hat, stellt sich zugleich die Frage, wie der Komplexitätsbegriff Eingang in die Geistes- bzw. Kulturwissenschaften finden kann. Der am weitesten führende Versuch, dieser Frage nachzugehen, stammt von Albrecht Koschorke. 2 Im Blick auf Luhmann betont er zunächst die »Allianz mit systemanalytischen Ansätzen« (Koschorke 2017, 1), die die Komplexitätsforschung bis heute bestimmt, erkennt im Begriff der Komplexität darüber hinaus eine »Schlüsselkategorie in der Organisationstheorie, Netzwerkforschung und Informatik« (Koschorke 2017, 1) und hebt zugleich ihre Bedeutung als ein »zeitdiagnostisches Schlagwort und als Metapher« (Koschorke 2017, 1) hervor. Aber er stellt auch fest, »dass der Begriff der Komplexität im Bereich ästhetischer Phänomene bisher keine allgemein akzeptierte definitorische Schärfung erfahren hat.« (Koschorke 2017, 6). Elementare Fragen, die in den naturwissenschaftlichen Zugängen zum Problem der Komplexität eine zentrale Rolle spielen wie die Frage nach der Möglichkeit einer quantitativen Bestimmbarkeit der Komplexität lassen sich im Rahmen der Kulturwissenschaften gar nicht beantworten: »Welche Potentialitäten und Referenzen ein Kunstwerk enthält, ist nicht ein für alle Mal quantifizierbar« (Koschorke 2017, 6), versichert Koschorke im Anschluss an Luhmann. Zugleich hebt er hervor: »Die intuitive Vorstellung, dass mehr Einfachheit weniger Komplexität bedeutet und umgekehrt, hält einer genaueren Nachprüfung nicht stand.« (Koschorke 2017, 4). Selbst die scheinbar so einfache Unterscheidung zwischen dem Einfachen und dem Komplexen erweist sich für die Kulturwissenschaften als eine zu komplexe Angelegenheit. Wenn aber nichts und alles kom1 2

Aus der Perspektive der Literaturwissenschaft vgl. dazu Geisenhanslüke 2011. Aus fachgeschichtlicher Perspektive vgl. dazu Bogdal 2003, 104–127.

86 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

plex heißen kann, scheint die Begriffsbildung an eine Grenze gekommen zu sein, über die hinaus sie sich nicht zu bewegen vermag. Konfrontiert mit der kaum aufzuhebenden Vagheit des Komplexitätsbegriffs bleibt den Kulturwissenschaften nichts als die Kapitulation vor einem Problem, zu dem nichts weiter zu sagen bleibt, als dass es in seiner Einfachheit zu komplex und in seiner Komplexität zu einfach ist, um einer befriedigenden Lösung zugeführt werden zu können. Angesichts dieser wenig verheißungsvollen Ausgangslage scheint der Spielraum des Komplexitätsbegriffes in der Ästhetik und Poetik begrenzt zu sein. Fragen des Geschmacks, das wusste schon Kant, sind eben besonderer Natur, nicht auf das Objekt, sondern auf »das Subjekt, wie es durch die Vorstellung affiziert wird, sich selbst fühlt« (Kant 1974, B 3), gerichtet, das ästhetische vom logischen Urteil geschieden, da »alle Geschmacksurteile einzelne Urteile« (Kant 1974, B 150) sind, weil sie nicht auf allgemeinen Begriffen ruhen, sondern mit einzelnen empirischen Vorstellungen verbunden sind. Dennoch betrifft der Begriff der Komplexität eine Grundfrage der Literaturwissenschaft, die nach dem Verhältnis von Kunst und Wirklichkeit, wie sie sich in der Moderne besonders im Medium des Romans stellt. Es kann in diesem Zusammenhang nicht darum gehen, dem modernen Roman im Sinne einer geschichtlichen Evolution eine höhere Komplexität als dem antiken Epos zuzuschreiben: Schon die einfache Tatsache, dass James Joyce im Ulysses, dem vielleicht komplexesten und zumindest meistkommentierten Roman der Moderne, eine heroische Figur der Antike in das prosaische Dublin seiner eigenen Zeit befördert, verbietet eine solche Einschätzung. Vielmehr wäre der moderne Roman gerade in seiner monumentalen Ausprägung bei Joyce, Proust oder Musil als eine Reaktion auf die in der Moderne zunehmende Konfrontation mit Formen unbeherrschbarer Komplexität zu verstehen, die die Literatur dazu zwingt, eine eigene Formsprache zu entwickeln, um dieser immer mehr an Kontingenz gewinnenden Welt gerecht werden zu können. Und dieser Prozess ist mit Joyce, Proust und Musil keineswegs abgeschlossen: Am Ende des 20. Jahrhunderts zeigt ein Autor wie David Foster Wallace mit einem epochalen Werk wie Infinite Jest, dass der Komplexitätsgewinnung im Roman keine Grenzen gesetzt sind. Der Roman aus dem Jahr 1996 beginnt mit einer irritierenden Szene. Der Protagonist des Romans mit dem Namen Hal Incandenza, ein vielversprechender Tennisnachwuchsspieler mit überragenden 87 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

Leistungen in nahezu allen Schulfächern aufgrund eines photographischen Gedächtnisses, stellt sich an einer amerikanischen Universität vor. Das Bewerbungsgespräch eskaliert, als er nur unartikulierte Laute herauszubringen scheint, die von der beteiligten Jury in den Bereich des Monströs-Kreatürlichen verwiesen werden. Hal wehrt sich gegen die Zuschreibung, tierhafte Laute hervorzubringen, indem er auf seiner in Frage stehenden Identität als Mensch besteht: ›My application is not just bought,‹ I am telling them, calling into the darkness of the red cave that opens out before closed eyes. ›I am not just a boy who plays tennis. I have an intricate history. Experiences and feelings. I’m complex.‹ (Wallace 1996, 11)

Das Wort komplex fällt an dieser Stelle nicht zufällig. Es dient in eben dem Sinne der Vielschichtigkeit, für die Komplexität so oft als Synonym zur Verfügung steht, der Kritik an einer Form der Bewertung, die auf Eindeutigkeit dringt. Hal setzt sich gegen die Einschätzung zu Wehr, dass er nur ein sehr guter Tennisspieler sei, der sich durch sein sportliches Talent einen Platz an der Universität erschleiche. Vielmehr beruft er sich auf seine intellektuellen Qualitäten, um den stummen Vorwürfen aus dem Weg zu gehen: ›I’m not a machine. I feel and believe. I have opinions. Some of them are interesting. I could, if you’d let me, talk and talk. Let’s talk about anything. I believe the influence of Kierkegaard on Camus is underestimated. I believe Dennis Gabor may very well have been the Antichrist. I believe Hobbes is just Rousseau in a dark mirror. I believe, with Hegel, that transcendence is absorption. I could interface you guys right under the table,‹ I say. ›I’m not just a creâtus, manufactured, bred for a function.‹ (Wallace 1996, 12)

Hal besteht auf der Differenz zwischen Mensch und Maschine, und er begründet diese Differenz mit dem Hinweis auf die eigenen Gefühle und Meinungen, die er zum Ausdruck bringen möchte. Als »komplex« bezeichnet er sich und in gewisser Weise den Menschen überhaupt, da er nicht auf eine Funktion reduziert werden kann. Seine Überlegungen beziehen sich nicht nur zu großen Teilen auf die Geschichte der Philosophie – warum Dennis Gabor, der Erfinder der Holographie, der Antichrist sein soll, bleibt in diesem Zusammen88 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

hang ein wenig rätselhaft –, sie versuchen, selbst eine Antwort auf eine philosophische Frage zu geben, die Frage, was das Wesen des Menschen ausmacht und ihn von einer Maschine oder etwas bloß Gemachtem unterscheidet. Damit wird nicht nur deutlich, dass der Roman im Rahmen der Fiktion über Komplexität reflektiert. Darüber hinaus zeigt er in seiner szenischen Gestaltung, dass sich die Komplexität, auf die er reflektiert, noch durch das menschliche Sprachvermögen erhöht. Das Problem, mit dem Hal konfrontiert wird, ist die Tatsache, dass die anderen ihn nicht verstehen, da er nur unverständliche und darüber hinaus in den Ohren der anderen tierische Laute hervorzubringen scheint. Das Ergebnis dieser Kommunikationssituation ist nicht das von Hal intendierte Überzeugen der Kommission, sondern seine Isolierung und der anschließende Abtransport in ein Krankenhaus, wobei sich ironischerweise nicht der Sport-, sondern der Literaturdozent besonders hervortut: »My forehead is pressed into parquet I never knew could be so cold. I am arrested. I try to be perceived as limp and pliable. My face is mashed flat; Comp.’s weight makes it hard to breathe.« (Wallace 1996, 12). An die Stelle sprachlicher Kommunikation tritt physische Gewalt, die Hal widerstandslos erleiden muss. In einer an Kafka anknüpfenden Form der literarischen Groteske, die zugleich auf Wittgensteins Problem des Solipsismus eingeht 3, schildert David Foster Wallace Komplexitätsreduktion – die Wahrnehmung von Hal als Tier oder Monstrum – als ein Phänomen der Gewalt, an dem die dem Menschen durch Sprache gegebenen Möglichkeiten des Austausches zerbrechen. Alles, was Hal bleibt, ist auf der Differenz zu bestehen, die zwischen ihm und dem Bild besteht, das sich die anderen von ihm machen. »›I am not what you see and hear‹«, sind seine letzten Worte zur Jury: »›I’m not‹, I say.« (Wallace 1996, 13). Die Szene in David Foster Wallace’ Roman ist in mehrerlei Hinsicht aufschlussreich. Sie verrät nicht nur etwas über den Zusammenhang von Komplexität und narratologischen Fragen, sondern ebenso über die Art und Weise, in der Komplexität in der Literatur überhaupt eine Rolle spielt. Denn in der Form des Romans, den Wallace gewählt hat, partizipiert die Literatur offenkundig an einer ästhetisch bzw. poetisch fundierten Steigerung von Komplexität, indem sie Problemstellungen aus den Bereichen der Gesellschaft, Wissenschaft, Politik und Kunst in die eigene Form überträgt: Der mehr als 10003

Vgl. die ausführlichere Darstellung in Geisenhanslüke 2015, S. 99–111.

89 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

seitige Roman, der zudem mit einem umfangreichen Zitatverzeichnis versehen ist, wie es eigentlich eher in wissenschaftlichen Texten üblich ist, gibt sich selbst als ein durch und durch komplexes Unterfangen zu erkennen, dessen Kritik an der modernen Gesellschaft, wie sie in Hals Kollaps zum Ausdruck kommt, nicht in einer einfachen Begrifflichkeit zusammengefasst werden kann. Infinite Jest ist vor diesem Hintergrund nicht nur als ein besonders exponiertes Beispiel für den modernen Roman zu verstehen, sondern zugleich als Hinweis auf die eigentümliche Verflechtung von Literatur und Komplexität im Medium des Romans überhaupt. An Infinite Jest lässt sich beobachten, wie die Bereiche der Ökonomie, des Sozialen und Politischen sowie der Kunst und Wissenschaft sich im Medium des Romans zu einem vieldeutigen Gebilde verdichten, das einfachen Erklärungsversuchen widersteht. Beschreibbar wird dieser Prozess gerade an den Widerständen, denen der nicht gerade kurze Roman dem Leser bietet, indem er ihn ständig dazu auffordert, sich auf die destabilisierende eigene Formbildung einzulassen, um gerade aus der Konfrontation mit Erfahrungen des Kontrollverlustes Kontrolle zu gewinnen. Paradox formuliert: Orientierung gibt der Roman, indem er, auf diese Weise Robert Musils Der Mann ohne Eigenschaften nicht unähnlich, Desorientierung zum Thema macht. Erst auf dieser reflexiven Ebene lässt sich der enge Zusammenhang zwischen Roman und Komplexität in der Moderne nachvollziehen, der den Ausgangspunkt der Überlegungen bildet, die auch Poser und Luhmann geleitet haben. Der kurze Blick auf Infinite Jest sollte allerdings nicht dazu verführen, von der kulturwissenschaftlich ausgerichteten Literaturwissenschaft zu erwarten, was Rhetorik und Poetik in der über zweitausend Jahre währenden Geschichte ihrer Theoriebildungsprozesse nicht geleistet haben: eine eigene Theorie der Komplexität zu entfalten. Wie sich gezeigt hat, ist Komplexität ein genuin moderner Begriff, verbunden mit genuin modernen Erfahrungen von Kontingenz und Krise. Dennoch taugt er nicht dazu, eine Privilegierung der Moderne gegenüber scheinbar weniger komplexen Gesellschaftsformen zu begründen: Sogenannte primitive Gesellschaften weisen, was die ihnen zugrundeliegenden Tauschformen angeht, eine eigene Komplexität auf, die durchaus mit der der modernen Ökonomie zu vergleichen wäre, und ebenso unsinnig, wie primitive und moderne Gesellschaften gegeneinander auszuspielen, wäre die Idee, Homers Odyssee und Joyce’ Ulysses in das Schema von primitiv und modern 90 https://doi.org/10.5771/9783495825464 .

Ästhetische Komplexität – komplexe Ästhetik?

zu pressen. Die Entgegensetzung von komplex und primitiv ist ebenso wenig aussagekräftig wie die von komplex und einfach, und die Leichtigkeit, mit der sich Synonyme für komplex, die Schwierigkeit, mit der sich Antonyme für komplex bilden lassen, sprechen für eine gewisse Vorsicht im Umgang mit dem Begriff. Eines ist damit klar: Der Begriff der Komplexität lässt sich vor diesem Hintergrund nicht in einem normativen Sinne verwenden. Und selbst auf der deskriptiven Ebene scheint er nicht viel leisten zu können, da die Idee eines nicht-komplexen Kunstwerks unsinnig wäre. Ebenso wenig taugt der Komplexitätsbegriff dazu, reine Formaspekte in den Blick zu nehmen. Um die formale Beschaffenheit zum Beispiel eines Gedichts zu erfassen, liegen genügend Begriffe aus dem Bereich von Rhetorik und Poetik vor, um dies ohne die Hinzunahme des Attributs komplex leisten zu können. Natürlich kann auch ein Gedicht wie etwa ein Wein fehlerhaft sein, zum Beispiel durch Mängel in der metrischen Gestaltung oder referentielle Verirrungen. Der Versuch, den Begriff der Komplexität systematisch zu erfassen, kommt im Blick auf das weite Feld der Literatur so an eine innere Grenze. Vielmehr bestätigt sich, was schon Peter Szondi in seinen Überlegungen zur philologischen Erkenntnis formuliert hat: »Denn die Texte geben sich als Individuen, nicht als Exemplare.« (Szondi 1978, 274 f.) Gerade von dieser Individualität hat David Foster Wallace in Infinite Jest gezeigt, dass sie sich allen auf Eindeutigkeit abzielenden Erklärungsversuchen gegenüber als zu komplex erweist. Insofern taugt die Komplexität, wie gezeigt, nicht als Grundbegriff der Rhetorik, Ästhetik und Poetik, sondern vielmehr als eine Herausforderung für die Literaturwissenschaft, die stets aufs Neue den Spagat machen muss zwischen der Individualität des Textes und der Komplexität der sie umgebenden gesellschaftlichen Welt. Komplex in diesem Sinne sind weniger die Dichtung oder die Welt, nicht Kunst und Wirklichkeit an sich, sondern das Verhältnis, das zwischen ihnen waltet. Über Kunst zu sprechen erweist sich damit in der Tat als eine komplexe Angelegenheit.

Literatur Adorno, Theodor W. (1997): Zum Gedächtnis Eichendorffs, in: Noten zur Literatur. Frankfurt a. M. 1997, 69–94. Baecker, Dirk/Düchting, Susanne (2005): Nichtwissen. Lüdenscheid.

91 https://doi.org/10.5771/9783495825464 .

Achim Geisenhanslüke

Baudelaire, Charles (1975): Les Fleurs du Mal, in: Œuvres Complètes I. Texte établi, présenté et annoté par Claude Pichois. Paris. Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne. Frankfurt a. M. Bogdal, Klaus-Michael (2004): (EIN)FACH? Komplexität, Wissen, Fortschritt und die Grenzen der Germanistik, in: Walter Erhart (Hg.): Grenzen der Germanistik. Rephilologisierung oder Erweiterung? DFG-Symposium 2003. Stuttgart-Weimar, 104–127. Eichendorff, Joseph von (2006): Sämtliche Gedichte. Versepen. Hg. v. Hartwig Schultz. Frankfurt a. M. Frühwald, Wolfgang (1984): Die Erneuerung des Mythos. Zu Eichendorffs Gedicht Mondnacht, in: Wulf Segebrecht (Hg.): Gedichte und Interpretationen. Band 3. Klassik und Romantik. Stuttgart, 395–407. Geisenhanslüke, Achim (2011): Dummheit und Witz. Poetologie des Nichtwissens. München. Geisenhanslüke, Achim (2015): ›Completely horizontal‹. Das erschöpfte Selbst in David Foster Wallace’ Infinite Jest, in: figurationen 16, 99–111. Greve, Jens (2011): Emergenz in der Soziologie. Eine Kritik des nichtreduktiven Individualismus, in: Jens Greve/Annette Schnabel (Hg.): Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Berlin, 286–316. Greve, Jens/Schnabel, Annette (Hg.) (2011): Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Berlin. Habermas, Jürgen (1985): Die Neue Unübersichtlichkeit. Kleine politische Schriften V. Frankfurt a. M. Hölderlin, Friedrich (2005): Sämtliche Gedichte. Hg. v. Jochen Schmidt. Frankfurt a. M. Jolles, André (1930): Einfache Formen. Legende, Sage, Mythe, Rätsel, Spruch, Kasus, Memorabile, Märchen, Witz. Halle (Saale). Kaiser, Gerhard (1988): Geschichte der deutschen Lyrik von Goethe bis Heine. Ein Grundriß in Interpretationen. Erster Teil. Frankfurt a. M. Kant, Immanuel (1974): Kritik der Urteilskraft. Werkausgabe Band X. Hg. v. Wilhelm Weischedel. Frankfurt a. M. Koschorke, Albrecht (2017): Komplexität und Einfachheit. DFG-Symposion 2015, Stuttgart. Koselleck, Reinhart (1979): Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt a. M. Luhmann, Niklas (1987): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a. M. Luhmann, Niklas (1993): Gesellschaftsstruktur und Semantik. Studien zur Wissenssoziologie der modernen Gesellschaft, Band 1. Frankfurt a. M. Mainzer, Klaus (2008): Komplexität. München. Poser, Hans (2001): Wissenschaftstheorie. Eine philosophische Einführung, Stuttgart 2001. Szondi, Peter (1978): Schriften I. Frankfurt a. M. Wallace, David Foster (1996): Infinite Jest. A Novel. New York. Wehling, Peter (2006): Im Schatten des Nichtwissens. Konstanz 2006.

92 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften Martin Hauff

1.

Einleitung

Unter den Sozialwissenschaften werden verschiedene Disziplinen zusammengefasst. Gemeinsam haben alle Sozialwissenschaften, dass es – so könnte man vorschlagen – um die Erforschung zwischenmenschlicher Beziehungen und Zusammenhänge geht. Gesellschaften sind durch eine große Vielfalt unterschiedlicher Arten von sozialen Beziehungen geprägt. Es kann sich dabei um Tauschgeschäfte zwischen wirtschaftlichen Akteuren, Verhandlungen zwischen politischen Repräsentanten, Interaktionen zwischen Mitgliedern von Organisationen, Austausch zwischen und innerhalb religiöser Gruppen und vieles mehr handeln. Die verschiedenen Arten zwischenmenschlicher Beziehungen finden darüber hinaus nicht isoliert voneinander statt, sondern beeinflussen sich gegenseitig. Die Beschreibung dieser Abhängigkeitsverhältnisse ist Aufgabe der Gesellschaftstheorie. Aber nicht nur der Aufbau der Gesellschaft, sondern auch die Dynamik gesellschaftlicher Strukturen liegt im Interesse der Forschung. So stellen sich die Sozialwissenschaften die Fragen: Wie kommt es zu gesellschaftlichem Wandel? Welche Bedingungen verursachen Krisen oder Umbrüche und welche Faktoren führen wieder zu Stabilisierung? Diese Überlegungen zeigen an, dass es in den Sozialwissenschaften von Interesse ist, wie aus einer Vielzahl von Akteuren und ihren sozialen Beziehungen zueinander ein gesellschaftliches Ganzes hervorgeht, das eigene Verhaltensweisen und Dynamiken aufweist. Gesellschaftliche Strukturen wiederum prägen und ermöglichen das Handeln individueller Akteure. Gesellschaftliche Prozesse sind daher kompliziert und es ist nahezu unmöglich, ihre zukünftige Entwicklung vorherzusagen. Es kommt erst einmal darauf an, Theorien zur Beschreibung und Erklärung von Gesellschaften zu entwickeln. 93 https://doi.org/10.5771/9783495825464 .

Martin Hauff

Seit Längerem ist in den Sozialwissenschaften das Schlagwort der Komplexität populär und findet Verbreitung in theoretischen und empirischen Arbeiten (Castellani/Hafferty 2009). Der Begriff der Komplexität findet auch in der Alltagssprache Verwendung und erweckt Assoziationen von Kompliziertheit und Unübersichtlichkeit. Die Suggestivkraft dieser Assoziationskette bereichert die zeitdiagnostischen Beschreibungen von Gesellschaften. Phänomene der Globalisierung, Digitalisierung oder Beschleunigung moderner Gesellschaften können daher mit dem Prozess der Steigerung von Komplexität reformuliert werden (Urry 2003). Die Anforderung an die Sozialwissenschaften besteht nun darin, dass ihre Methoden und Theorien so konzipiert werden müssten, dass diese die gesellschaftliche Komplexität auch hinreichend berücksichtigen können. Dabei bleibt aber umstritten, wie und ob der Begriff der Komplexität definiert werden kann und was die Komplexität von Gesellschaft ausmache. Bei der konzeptionellen Fassung von Komplexität fallen m. E. zwei Positionen auseinander. Auf der einen Seite steht die Annahme, dass sich eine einheitliche Definition von Komplexität angeben ließe, die nicht nur die Komplexität von Gesellschaften modellieren könne, sondern auch die Komplexität von physikalischen, chemischen und biologischen Systemen. Dahinter steht der Anspruch, dass sich eine generelle Theorie der Komplexität formulieren ließe, die formale Kriterien beschreibt, welche komplexe Systeme in allen Disziplinen charakterisieren (Holland 2000). Eine solche einheitliche Begriffsbildung von Komplexität wird durch den am Anfang dieses Sammelbands vorgestellten Katalog allgemeiner Kriterien vorgeschlagen. Jedoch wird auch vermehrt eine Skepsis gegenüber der Verwirklichung eines so anspruchsvollen Projektes einer generellen Komplexitätstheorie geäußert. Darüber hinaus wird die prinzipielle Unmöglichkeit einer vereinheitlichenden Komplexitätstheorie angenommen, da es unterschiedliche, nicht vereinheitlichende Konzeptionen von Komplexität gäbe. Komplexität selbst sei ein komplexer Begriff (Alhadeff-Jones 2008). In diesem Aufsatz wird die zweite Position verteidigt und es soll gezeigt werden, dass es hauptsächlich drei verschiedene Konzepte von Komplexität gibt, die jeweils unterschiedliche Theorietraditionen in den Sozialwissenschaften beeinflusst haben. Der Kriterienkatalog vom Anfang des Sammelbandes wird eine Hilfe sein, zu zeigen, dass

94 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

die verschiedenen Komplexitäts-Konzepte unterschiedliche Punkte des Katalogs akzeptieren oder ablehnen. Vorerst soll begriffsgeschichtlich rekonstruiert werden, wie das Problembewusstsein von Komplexität in den Wissenschaften entstand, um damit die Rekonstruktion der Entstehung der drei Komplexitätsbegriffe systematisch vorzubereiten (2). Nach dieser Vorarbeit wird ein Schlaglicht darauf geworfen, wie die Begriffe der Komplexität und des Komplexen in der frühen und klassischen Soziologie verwendet und wie diese Begriffe durch die Kybernetik geschärft wurden (3). Daraufhin wird die Richtung der Sozialwissenschaften vorgestellt, in der sich die Agent-based Modelle als Hauptmethode zur Beschreibung komplexer sozialer Systeme etabliert haben. Diese Richtung orientiert sich stark an den Naturwissenschaften. Ihr Komplexitätsbegriff entspricht allen Kriterien der Definition Komplexer Systeme in diesem Band (S. 17 ff.). (4). Von dieser naturwissenschaftlich geprägten Richtung wird eine zweite abgegrenzt, die sich durch eine stärkere Distanz zu den Naturwissenschaften und durch das Plädoyer für eine Methodenvielfalt in der Komplexitätsforschung auszeichnet. Diese Richtung akzeptiert die meisten Punkte des Kriterienkatalogs von S. 17 ff., besitzt jedoch ein anderes Verständnis von Emergenz (Punkt 11) (5). Im deutschsprachigen Raum ist im Themenbereich Komplexität die Soziologie Niklas Luhmanns sehr einflussreich. Luhmanns Konzept von Komplexität unterscheidet sich aufgrund seines nicht-ontologischen Charakters von den beiden anderen Komplexitätsbegriffen radikal. Aus Luhmanns Perspektive wäre der Punkt 3 des Kriterienkatalogs abzulehnen, wodurch die anderen Punkte, die darauf aufbauen, hinfällig werden (6). In diesem Artikel soll gezeigt werden, dass die Sozialwissenschaften ein Schlaglicht darauf werfen, dass verschiedene, nicht aufeinander zurückführbare Modelle von Komplexität von Bedeutung sein können. Es wird argumentiert, dass die Komplexität des Komplexitätsbegriffs eine Bereicherung der Komplexitätsforschung sein kann. Durch die Klarstellung der konzeptionellen Differenzen zwischen den Modellen könnte der interdisziplinäre Dialog erleichtert und die demotivierende Wirkung von Missverständnissen vermieden werden.

95 https://doi.org/10.5771/9783495825464 .

Martin Hauff

2.

Kurze Begriffsgeschichte und systematische Schärfung des Begriffs Komplexität

Um die drei Modelle der Komplexität, die sich im 20. Jahrhundert etablieren, zu verstehen, ist es hilfreich, die Geschichte des Begriffes in aller Kürze zu rekonstruieren. So lässt sich der Bedeutungswandel des Begriffes und seine Verwendungsweise im jeweiligen historischen Kontext aufklären (Koselleck 1979). Aus dieser Bedeutungsvielfalt schöpfen die verschiedenen Komplexitätsmodelle auf unterschiedliche Weise. Im Lateinischen existiert das Wort complexio, was so viel heißt wie Verknüpfung, Zusammenfassung. 1 Gemeint ist dabei die Zusammenfügung von Teilen zu einem Ganzen bzw. das Verhältnis von Einheit zum Mannigfaltigen (Luhmann 1975). Thomas von Aquin verwendet das Wort complexio in diesem Sinn für den Aufbau des Körpers aus Organen oder auch für die Mischung der Körpersäfte (Von Aquin 1994). In der Neuzeit wird der Begriff prominent bei John Locke verwendet, indem er simple ideas von complex ideas unterscheidet (Locke 2014). Dabei sind die komplexen Ideen aus einfachen Ideen zusammengesetzt. In seiner traditionellen Bedeutung ist das Komplexe der Zusammenhang von Elementen (Abb. 1). Das Komplexe

Element 1

Element 2 …

Element n

Abb. 1

In der neuzeitlichen Philosophie kommt daraufhin die Frage ins Spiel, ob das Komplexe auf das Einfache vollständig reduziert werden kann. Die Bejahung dieser Frage ist mit dem zu dieser Zeit dominierenden mechanistischen Weltbild und mit dem Geist der Aufklärung verknüpft. Bei Descartes sind materielle Dinge durch ihre Ausgedehntheit charakterisiert und diese treten nur durch Druck und Stoß, also durch Kontaktwirkung, in Verbindung. Alle weltlichen Erscheinungen lassen sich auf diese Mechanik reduzieren. Obwohl die klassische 1 Auch das von der Etymologie her griechische Wort System meint ursprünglich einen Zusammenhang von Teilen. Es hat in der europäischen Geistesgeschichte eine andere begriffliche Entwicklung erfahren als das Wort Komplex.

96 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

Mechanik durch die Physik des 19. Jahrhunderts erweitert wurde, hielt sich das Ideal des Reduktionismus bis ins 20. Jahrhundert. Z. B. schreibt der frühe Wittgenstein in seinem Tractatus: »Jede Aussage über Komplexe läßt sich in eine Aussage über deren Bestandteile und in diejenigen Sätze zerlegen, welche die Komplexe vollständig beschreiben.« (Wittgenstein 1984, 2.0201) Bereits im 19. Jahrhundert kommen erste Zweifel an diesem Ideal auf. Zuerst bei den Romantikern, dann bei den Wissenschaftsphilosophen selbst. Im Kapitel »The composition of causes« in seinem einflussreichen Buch A System of Logic von 1843 beschreibt John Stuart Mill den Fall, dass das Zusammenwirken zweier Faktoren andere Auswirkungen habe, als wenn diese Faktoren isoliert voneinander ihre Wirkung entfalten. George Henry Lewes, ein Schüler von Mill, wird 1874 in seinem Werk Problems of Life and Mind für diese wissenschaftstheoretische Beobachtung den Begriff der Emergenz einführen und damit die Britischen Emergentisten der 1920er Jahre beeinflussen. Mill selbst verwendet den Begriff complex oder complexity in seiner Logik noch im traditionellen, reduktionistischen Sinne. Jedoch verbreitet sich ab der zweiten Hälfte des 19. Jahrhunderts die Verwendungsweise, worin das Komplexe nicht vollständig auf seine Bestandteile zurückzuführen ist. So verwendet bereits Charles Darwin die Begriffe complex und complexity im nicht-reduktionistischen Sinn. Wenn Darwin schreibt: »The results of the various, unknown, or but dimly understood laws of variation are infinitely complex and diversified.« (Darwin 2011, 7), dann suggeriert dieser Satz die Unmöglichkeit, dass etwas unendlich Komplexes irgendwann aufgeklärt werden könne. Prominent kommt das Wort sogar in einer Überschrift vor, die da lautet »Complex Relations of All Animals and Plants to Each Other in The Struggle for Existence« und man gewinnt den Eindruck, dass auch die Beziehungen zwischen den Tieren und Pflanzen nicht restlos aufgeklärt werden können. Darwins Theorie ist in vielerlei Hinsichten ein Bruch mit den damals gültigen Vorstellungen über die Welt. Das Argument, dass durch die Evolution etwas prinzipiell Neues entstehen kann, wird durch die Britischen Emergentisten in den 1920ern durch die Theorie der Emergenz untermauert. Während Lloyd Morgan und Samuel Alexander den Schwerpunkt auf den zeitlichen Aspekt und die diachrone Emergenz legen, entwickelt C. D. Broad eine Theorie nichtzeitlicher, synchroner Existenz emergenter, systemischer Eigenschaften (Stephan 2007). Der Anspruch dieser Philosophen war es, dem 97 https://doi.org/10.5771/9783495825464 .

Martin Hauff

Vorbild der Naturwissenschaften zu folgen und im Rahmen eines naturalistischen Weltbildes zu bleiben. Sie lehnten den Vitalismus zur Erklärung des Lebens ab, weil er ihnen als unwissenschaftlich erschien. Wie ist aber die Entstehung von Neuartigem und von Emergenz im Rahmen des Naturalismus erklärbar? Sie fanden die Lösung darin, dass gerade durch die Zunahme der Komplexität von natürlichen Zusammenhängen neuartige und emergente Qualitäten entstehen. So betont Samuel Alexander, dass Komplexität und Emergenz zusammenhängen: »But as in the course of Time new complexity of motions comes into existence, a new quality emerges, that is, a new complex possesses as a matter of observed empirical fact a new or emergent quality. The case which we are using as a clue is the emergence of the quality of consciousness from a lower level of complexity which is vital« (Alexander 1920, 45). Emergenz besteht dann, wenn das Verhalten des Ganzen nicht aus dem Verhalten seiner Komponenten abgeleitet werden kann. Die systemischen Eigenschaften des Komplexen sind ab einen bestimmten Grad an Komplexität irreduzibel und somit prinzipiell nicht vorhersagbar.

3.

Komplexität in der frühen Soziologie und in der Kybernetik

Vor dieser begrifflichen Schärfung des Verhältnisses zwischen Teil und Ganzen durch die Britischen Emergentisten entwickelte sich im 19. Jahrhundert die Soziologie in Auseinandersetzung mit den Naturwissenschaften. Im Zuge dessen entstand in der frühen Soziologie, bei Spencer, Durkheim und Weber bereits ein Problembewusstsein, das die Verwendung des Komplexitätsbegriffs vorbereitete. Darwin hatte großen Einfluss auf die frühe Soziologie, besonders auf Herbert Spencer. Spencer lässt sich stark von den Naturwissenschaften in seiner Gesellschaftstheorie inspirieren und bezeichnet die Gesellschaft als sozialen Organismus. In seinen Principles of Biology beschreibt Spencer den biologischen Organismus nicht nur als funktionalen Zusammenhang von Organen zu einem einheitlichen Ganzen. Die Komplexität des Organismus ist es auch, die Forscher daran hindert, das Phänomen des Lebens vollständig zu verstehen (Spencer 1894). Wenn Spencer die Gesellschaft als sozialen Organismus beschreibt, heißt das nicht nur, dass die Gesellschaft aus funktionalen Teilbereichen zusammengesetzt ist, sondern auch, dass die 98 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

Gesellschaft als Ganzes ähnlich wie das Phänomen des Lebens nicht aus der Analyse der Einzelteile heraus verstanden werden kann. Charakteristisch für Spencer ist auch, dass für ihn Gesellschaften dem Prozess der Evolution und Ausdifferenzierung unterworfen sind (Spencer 1898). Spencer hatte damals die tiefgreifenden gesellschaftlichen Umbrüche im Zuge der Industrialisierung vor Augen. Moderne Gesellschaften werden nach Spencer immer komplexer, heterogener und lassen mehr Beziehungen zwischen ihren Elementen entstehen. Dabei ist es wichtig, dass die komplexen gesellschaftlichen Strukturen sich zwar aus den früheren einfachen Elementen entwickeln, aber die evolutionäre Ausdifferenzierung der Gesellschaft lässt Neues entstehen. Die Evolution von Neuem ist mit dem mechanistischen Reduktionismus nicht zu vereinen. Jedoch hält Spencer die Überbewertung des Ganzen für problematisch, da er dem Individualismus verpflichtet ist. Geprägt von Spencer ist Emile Durkheim, ein weiterer Klassiker der frühen Soziologie. In seinen Werken verwendet er das Wort komplex, wenn er von komplexen Regeln (»règles très complexes«), komplexen Gesetzen oder komplexen Beziehungen spricht. Bei diesen Formulierungen schwingt eine gewisse Undurchschaubarkeit und Unübersichtlichkeit mit. Es bleibt unklar, ob sich die Verworrenheit aufklären lässt oder nicht. Durkheim will aber nicht nur eine Bestandsaufnahme der aktuellen gesellschaftlichen Situation geben, sondern beschreibt auch die Dynamik der Gesellschaft und konstatiert, dass die gesellschaftliche Entwicklung zu mehr Komplexität führt. »En effet, comme les milieux dans lesquels elles vivent deviennent de plus en plus complexes et, par conséquent, de plus en plus mobiles, pour durer, il faut qu’elles changent souvent« (Durkheim 2002, 58). 2 Damit folgt Durkheim der Diagnose von Spencer, wobei er nicht wie Spencer von Differenzierung, sondern von sozialer Arbeitsteilung spricht. Mit dieser Formulierung distanziert sich Durkheim von einer zu starken Nähe zu den Naturwissenschaften, da Durkheim auch den Anspruch hat, die Soziologie als eigenständige wissenschaftliche Disziplin zu begründen (Tyrell 1985). Die Soziologie hat nach Durkheim ihre Eigenberechtigung, weil sie die ErDeutsche Übersetzung: »Da die Milieus, in denen beide sich reproduzieren [das individuelle und soziale Bewusstseinsfeld, M. H.], tatsächlich immer komplexer und folglich immer veränderlicher werden, müssen sie, um zu überdauern, ihrerseits sich oftmals verändern.« (Durkheim 2016, 98).

2

99 https://doi.org/10.5771/9783495825464 .

Martin Hauff

forschung eines ganz bestimmten Gegenstandes zum Ziel hat, des sozialen Tatbestandes (»fait sociale«). Dieser besitzt eine eigene Realität, lässt sich nicht auf die Handlungen und Vorstellungen einzelner Menschen zurückführen und beeinflusst diese sogar (Durkheim 1970). Hier sollte die Verwendung des Komplexitätsbegriffs in der frühen Soziologie nur kurz angerissen werden. Für mehr Details siehe den Artikel von Felix Steilen in diesem Band. Max Weber hatte ebenfalls den Anspruch, die Soziologie als Fach zu begründen. Bei ihm besitzt die Theorie gesellschaftlicher Differenzierung keinen großen Stellenwert. Weber geht es viel eher um die begriffliche Fassung des sinnhaften und sozialen Handelns als Grundkategorie der Soziologie. Dabei unternimmt er eine wissenschaftstheoretische Erörterung, um die Soziologie von anderen Fächern abzugrenzen. Weber grenzt sich von der Unterscheidung zwischen nomothetischen und idiographischen Wissenschaften ab und verteidigt die These, dass menschliches Handeln nicht weniger rational sein muss als die wissenschaftliche Erklärung natürlicher Phänomene. Bemerkenswert ist Webers Argument, dass natürliche Prozesse auch unberechenbare (irrationale) Aspekte haben, wie z. B. die Verteilung der Splitter eines zerbrechenden Felsens. So besitzen die Natur und soziale Phänomene komplexe Aspekte. »Aehnlich komplex und individuell verzweigt, wie in dem Beispiel von der Gruppierung des Felsblocksplitter, liegen nun die Chancen des kausalen Regressus normalerweise auf dem Gebiet des geschichtlich relevanten menschlichen Tuns, sei es, daß es sich um konkrete, geschichtlich relevante Handlungen eines Einzelnen, oder daß es sich etwa um den Ablauf einer Veränderung innerhalb der sozialen Gruppenverhältnisse handelt, an deren Herbeiführung viele Einzelne in komplexer Verschlingung beteiligt gewesen sind.« (Weber 1988, 67) Die meisten Autoren im 19. Jahrhundert und Anfang des 20. Jahrhunderts besitzen keinen streng definierten Begriff von Komplexität. In dem Begriff schwingen verschiedene Bedeutungen mit, die mal mehr und mal weniger ausdrücklich gebraucht werden. Zum einen wird die traditionelle Bedeutungsdimension des Komplexen als das Zusammengesetzte, das auf seine Bestandteile vollständig zurückgeführt werden kann, verwendet. Diese Begriffsverwendung ist nicht notwendigerweise mit einem reduktionistischen Wissenschaftsideal verknüpft, sondern kommt auch in alltäglichen Sprachverwendungen, wie dem Gebäudekomplex oder Maschinenkomplex, vor. Zum anderen kann in der Alltagssprache die Sprechweise von der 100 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

Komplexität einer Sache den Verlust von Übersicht und Kontrolle ausdrücken. Zusätzlich wird der Begriff des Komplexen nach und nach durch zwei ideengeschichtliche Entwicklungen angereichert. Einerseits wird im Zusammenhang mit der Evolutionstheorie festgestellt, dass in der natürlichen (und in der sozialen) Evolution etwas Neuartiges entsteht und der Trend zur Ausdifferenzierung besteht. Gegenüber diesem diachronen Aspekt lässt sich der synchrone Aspekt abgrenzen, der die Irreduzibilität emergenter Eigenschaften eines Komplexes meint. Diese Anreicherungen des Begriffs verfestigen die Verwendungsweise, so dass sich komplexe Zusammenhänge nicht einfach durchschauen und kontrollieren lassen. Letztlich bedürfe es neuer Methoden, um das Komplexe wieder in den Griff zu kriegen. Noch während des Zweiten Weltkriegs wird das Problem des Komplexen stärker untersucht. Im Zusammenhang mit der Elektround Regelungstechnik entwickelte sich ab den 1940ern die Kybernetik als eine neuartige Betrachtungsweise, die wechselwirkende Zusammenhänge in unterschiedlichsten Bereichen streng zu beschreiben versucht. In den grundlegenden Büchern der Kybernetik kommen die Begriffe complex und complexity nicht nur häufig vor, sondern erhalten einen zentralen Stellenwert. So schreibt Ashby: »The second peculiar virtue of cybernetics is that it offers a method for the scientific treatment of the system in which complexity is outstanding and too important to be ignored. Such systems are, as we well know, only too common in the biological world!« Und weiter: »[It is] clearly recognised that there are complex systems that just do not allow the varying of only one factor at a time—they are so dynamic and interconnected that the alteration of one factor immediately acts as cause to evoke alterations in others, perhaps in a great many others. Until recently, science tended to evade the study of such systems, focusing its attention on those that were simple and, especially, reducible« (Ashby 1957, 4 f.). Die Grundintention der Kybernetik ist es, mit einer formalen Sprache komplexe Zusammenhänge und deren Wechselwirkungen in Form von Rückkopplungsschleifen beschreibbar zu machen. Sie kritisiert traditionelle Ansätze, die das Zusammenwirken der Elemente eines Systems ignorieren. Damit wendet sich die Kybernetik gegen den Reduktionismus, der den Anspruch vertrat, Komplexe auf ihre Elemente vollständig zurückführen zu können. Die Kybernetik der 1950er und 60er drückte den Optimismus der damaligen Zeit aus, mit Hilfe neuer Methoden und des Computers die komplexe Welt regulierbar machen zu können. 101 https://doi.org/10.5771/9783495825464 .

Martin Hauff

Weitere einflussreiche Texte in dieser Zeit prägten die begriffliche Schärfung des Komplexitätsbegriffs. So grenzt der Kybernetiker Warren Weaver die organisierte von der unorganisierten Komplexität ab. Letztere bezeichnet den Zusammenhang einer unübersichtlich großen Anzahl an Elementen, deren Zusammenwirken sich mit den Methoden der Statistik modellieren lässt. Wenn Prozesse nicht so viele Elemente enthalten und nicht so viele Daten liefern, lassen sie sich nicht statistisch beschreiben. Und wenn diese Prozesse mehr als drei Elemente besitzen, lassen sich die Differentialgleichungen, die diese Prozesse beschreiben, nicht analytisch lösen, wie das Dreikörperproblem zeigt. Diese Zusammenhänge mittleren Umfangs, deren Elemente wechselwirken, bezeichnet Weaver als organisierte Komplexität. Weil die organisierte Komplexität weder mit den Methoden der klassischen Mechanik, noch mit denen der Statistik bearbeitbar ist, kann der Verlauf solcher Prozesse nur schwer vorhergesagt werden. Es bedürfe neuer Konzepte und Methoden, die Weaver in der Kybernetik erblickt (Weaver 1948). Dass komplexe Phänomene mit Hilfe der Statistik nicht beherrschbar seien, ist auch für den Ökonomen F. A. Hayek ein zentrales Kriterium der Komplexität (Hayek 1972). Mit den anderen Kybernetikern teilt Hayek auch die Annahme, dass kybernetische Systeme aufgrund ihrer Rückkopplungsschleifen viel umständlicher zu beschreiben sind als die Fälle der klassischen Mechanik. Interessanterweise bezieht sich Hayek, wenn er das Auftauchen von neuen Mustern in komplexen Phänomenen betont, in Fußnoten auf die Autoren des Emergenzbegriffs, wie Morgan, Lewes und Mill. Ein dritter einflussreicher Text aus dieser Zeit ist der Aufsatz The Architecture of Complexity von Herbert Simon aus dem Jahr 1962 (Simon 1962). Nach Simon sind komplexe Systeme dadurch ausgezeichnet, dass ihr Ganzes mehr ist als die Summe ihrer Teile. Mit dieser Formel, die letztlich Aristoteles zugesprochen wird, bezieht sich Simon implizit auf den Emergenzbegriff. Simon entwickelt Weavers Konzept der organisierten Komplexität weiter, indem er die Bedeutung von Hierarchie und evolutionärer Entwicklung von komplexen Systemen betont. Nach dem Zweiten Weltkrieg war es auch in der Soziologie sehr verbreitet, Gesellschaften als Systeme aufzufassen. Als Begründer der soziologischen Systemtheorie gilt Talcott Parsons. Parsons hat seinen Systembegriff in der Auseinandersetzung mit den Begründern der Soziologie entwickelt. In seinem ersten Hauptwerk The Structure 102 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

of Social Action von 1937 argumentiert er, dass der Handlungsbegriff aus der utilitaristischen Tradition (Marshall, Pareto, Durkheim) und der aus der idealistischen Tradition (Weber) jeweils nur einen Aspekt des Handelns von realen Personen betonten. Um den Handlungsbegriff realistischer zu konzipieren, schlägt Parsons vor, dass eine Handlung stets aus mehreren Handlungsorientierungen besteht. Diese These entwickelt Parsons in seinem Buch The Social System von 1951 weiter. Eine Handlung ist nur als ein Handlungssystem zu verstehen. Ein Handlungssystem setzt sich aus einem kulturellen, persönlichen und einem sozialen System zusammen (Parsons 1964, 6). Das kulturelle System ist ein Zusammenhang von Werten, Bräuchen, Sitten, Traditionen. Das Persönlichkeitssystem ist aus Kognitionen, Wünschen, Bedürfnissen, Charaktereigenschaften zusammengesetzt. Und das soziale System beschreibt die Interaktion individueller Akteure. Parsons entwickelt also das Konzept eines Handlungssystems, das wiederum aus Systemen zusammengesetzt ist. Das Ganzheitliche der Systeme lässt sich bei Parsons nicht auf die Summe der Einzelteile reduzieren, da die Beschreibung von Teilen lediglich das Produkt einer Abstraktionsleistung ist. »The ›part‹ of an organic whole is an abstraction because it cannot be observed existing in concreto apart from its relations to the whole.« (Parsons 1966, 34). Diese Grundüberlegungen zur Ganzheitlichkeit sind auf den Einfluss Alfred North Whiteheads zurückzuführen (Wenzel 1990). Wie der Artikel von Aljoscha Berve (in diesem Band) zeigt, besitzt Whitehead einen elaborierten Begriff von Komplexität. Systeme stellen somit für Parsons ganzheitliche und komplexe Zusammenhänge dar, die nicht auf ihre Einzelteile zurückzuführen sind. Die Begriffe complexity und complex tauchen daher bei Parsons recht häufig auf. So betont er, dass eine soziologische Beschreibung der Gesellschaft ihrer Komplexität entsprechen muss. »This is a somewhat elaborate classification but a simpler one will not do justice to the complexity of the subject-matter« (Parsons 1964, 98). In weiteren Büchern entwickelte Parsons eine detaillierte Beschreibung der Zusammensetzung sozialer Systeme. Das Gesellschaftssystem kann analytisch in unterschiedliche Teilsysteme aufgeteilt werden, die jeweils eigene Funktionen für die Gesellschaft und füreinander erfüllen. So dient das Wirtschaftssystem der Anpassung des gesellschaftlichen Ganzen an die Umwelt und das politische System hat den Zweck, gesellschaftliche Ziele zu verfolgen. Bei aller Komplexität der Gesellschaft besitzt Parsons jedoch die Zuversicht, 103 https://doi.org/10.5771/9783495825464 .

Martin Hauff

dass sich soziale Systeme mit den Methoden der soziologischen Systemtheorie hinreichend gut beschreiben lassen. Den Anspruch, mit neuen Methoden soziale und technische Zusammenhänge besser verstehen und regulieren zu können, teilt Parsons mit anderen Systemtheoretikern und Kybernetikern. Dieser Optimismus in Bezug auf die wissenschaftliche Aufklärbarkeit und politisch-technische Kontrollierbarkeit komplexer Systeme legt sich Ende der 1960er/Anfang der 1970er. Gründe dafür gibt es viele. Zu nennen wären u. a. der Vietnam-Krieg, das Ende des Bretton-Woods-Systems 1971, hohe Inflationsraten und die Ölpreiskrise 1973. Der Begriff der Komplexität verknüpfte sich in dieser Zeit immer stärker mit Assoziationen, wie Unübersichtlichkeit, Unvorhersagbarkeit und Unkontrollierbarkeit. In diesem Sinne wurde der Begriff in der Soziologie bei Luhmann verwendet oder auch bei La Porte, der 1975 einen Sammelband mit dem Titel Organized Social Complexity: Challenge to Politics and Policy herausbrachte (Leendertz 2015). Es wurde deutlich gemacht, dass die Geschichte des Begriffs des Komplexen bzw. der Komplexität lang und verwickelt ist und dass daher der Komplexitätsbegriff vielschichtig ist. Daher war und ist es möglich, dass sich verschiedene Richtungen der Sozialwissenschaften auf verschiedene Bedeutungstraditionen beziehen, wenn sie von Komplexität sprechen. So haben sich im 20. Jahrhundert spätestens nach dem Zweiten Weltkrieg drei Modelle der Komplexität entwickelt, die auf unterschiedliche Weise das Verhältnis zwischen Komplexem/ Ganzem und den Elementen/Teilen konzipieren.

4.

Die naturwissenschaftlich geprägte Richtung

In den 1950er und 60er Jahren hatte man große Erwartungen an die Kybernetik gehabt. Man erhoffte sich, mit Hilfe von Prozessdiagrammen, der Berücksichtigung aller Rückkopplungsschleifen eines Systems und mit der Weiterentwicklung der Rechenleistung der Computer die Wirkungsweise komplexer Systeme verstehen und somit regulieren zu können. Nicht nur die politischen und ökonomischen Problemlagen in den 1970ern führten zu einem Schwinden dieses Optimismus, sondern auch theoretische Probleme. Die Kybernetiker hatten die Eigendynamik nichtlinearer Prozesse unterschätzt. Die Chaosforschung zeigte ausführlich, dass Nichtlinearitäten zu deter104 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

ministischem Chaos führen können und dass die Vorhersagbarkeit physikalischer Modelle begrenzt ist. In den 1970ern wurden die ersten Aufsätze von Feigenbaum, May und Mandelbrot publiziert und der Aufsatz von Lorenz aus dem Jahr 1963 wiederentdeckt, die später zu den Klassikern der Chaostheorie wurden. Auch Hermann Haken und Ilya Prigogine publizierten wichtige Arbeiten zu Synergetik und Selbstorganisation (Paslack 1991). Auf diesen Arbeiten bauten die ForscherInnen des 1984 in New Mexico gegründeten Santa Fe Instituts auf und entwickelten erste naturwissenschaftliche Komplexitätstheorien (Krakauer 2019; Mitchell 2009; Waldrop 1992). In dieser Tradition stehen auch viele populäre Einführungen ins Thema Komplexität (Füllsack 2011; Mainzer 2008). Leider scheinen diese Darstellungen das Konzept der Komplexität heutzutage stark zu prägen. Die reiche und differenzierte Geschichte des Komplexitätsbegriffs geht dabei verloren. In dieser Forschungsrichtung ist daher auch der Anspruch verbreitet, mit einer generellen Komplexitätstheorie nicht nur physikalische, chemische und biologische, sondern auch soziale Systeme methodisch und mathematisch fassen zu können. In der Verfolgung dieses Anspruchs wurden in den 1990er Jahren im Santa Fe Institute die Agent-based Modelle entwickelt. Diese beruhen ursprünglich auf der Idee von John von Neumann über sich selbst reproduzierende Automaten. Aufgrund dieser Idee entwickelte John Conway in den 1960ern das Game of Life, das auf dem Prinzip der zellulären Automaten beruht. Das Spiel gibt wenige Regeln vor, wann schwarze und weiße Kästchen eines Gitternetzes ihre Farbe wechseln. Obwohl das Spiel durch die Regeln vollständig determiniert ist, lässt es in seinem Verlauf Strukturen mit neuartigen Eigenschaften entstehen. Diese Spiellogik lieferte die Grundlage für Computersimulationen, die Joshua Epstein und Robert Axtell, Forscher am Santa Fe Institute, in den 1990er Jahren entwickelten. Damit modellierten sie künstliche »Gesellschaften« und untersuchten, wie aus dem Zusammenspiel einer Vielzahl von Akteuren Muster und Strukturen entstehen (Axtell/Epstein 1996). Andere Forscher des Santa Fe Instituts nutzen diese Computermodelle für die Beschreibung von Märkten (Arthur et al. 1997) und anderen sozialen Prozessen, z. B. die Entstehung von Rebellionen (Epstein 2002). Der Grund für die Entwicklung der Agent-based Modelle war, dass sich die in der naturwissenschaftlichen Komplexitätstheorie üblichen Equation-based Modelle nicht auf soziale Prozesse übertragen ließen, da diese nicht 105 https://doi.org/10.5771/9783495825464 .

Martin Hauff

hinreichend mathematisch formalisierbar sind (Helbing 2011). Trotzdem halten sich die Agent-based Modelle nah am naturwissenschaftlichen Vorbild, da hier die Akteure in sozialen Zusammenhängen als soziale Atome behandelt werden, sodass man soziale Prozesse ähnlich wie die Fluktuation von Atomen in Gasen oder Flüssigkeiten modellieren kann. Die soziologische Forschung, die in dieser Tradition steht, ist von der Notwendigkeit der Ver(natur-)wissenschaftlichung der Soziologie überzeugt. So haben sich in diesem Zusammenhang auch die Begriffe Sociophysics (Buchanan 2007) oder Econophysics etabliert. Ebenfalls ist das Schlagwort Computational Social Science für diese Richtung populär (Squazzoni 2012). In den Wirtschaftswissenschaften hat sich die Bezeichnung Complexity Economics eingebürgert. Pioniere dieser Richtung sind Brian Arthur, der zu den Gründern des Santa Fe Instituts gehört, (Brian 2015) und auch Doyne Farmer (Farmer/Foley 2009). Gemeinsam ist diesen Ökonomen die Überzeugung, mit den komplexitätstheoretischen Methoden Märkte realistischer beschreiben zu können, als es die neoklassischen Modelle vermögen. Für die genannten Autoren entsteht Komplexität in sozialen Systemen durch die Interaktionen einer Vielzahl von Agenten. Bewegungs- oder Transaktionsmuster können mit Hilfe von Computersimulationen modelliert werden. Aufgrund der Nichtlinearität der Prozesse ist die Prognosefähigkeit der Modelle eingeschränkt. Aber es lassen sich durch die Simulationen Tipping-Points ausmachen, an denen das System in chaotische Zustände umschlagen oder neuartige Strukturen entstehen lassen kann. Die Nähe dieser Agent-based Modelle zu naturwissenschaftlichen Modellen, wie z. B. in der Klimaforschung, ist offenkundig.

5.

Die nicht-naturwissenschaftlich geprägte Richtung

Diese große Nähe zu den Naturwissenschaften wird von einigen SoziologInnen bemängelt, da jene Modelle dem Typischen des Sozialen nicht gerecht würden. Renate Mayntz hält den komplexitätstheoretischen Modellen zugute, dass sie einen Beitrag zur Lösung des in der Soziologie vielfach diskutierten Mikro-Makro-Problems anböten (Mayntz 1991). Jedoch funktionierten diese Modelle nur in einem Vielteilchensystem, d. h. als Beobachtungsgegenstand können nur Interaktionen vieler Agenten – also Individuen, Unternehmen oder 106 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

Organisationen – dienen. Der Nachteil der Eingeschränktheit der Modelle auf Prozesse kollektiven Verhaltens besteht nach Mayntz zum einen darin, dass sich im sozialen Bereich die Regeln, an denen sich die Akteure orientieren, aufgrund von Lernverhalten ändern und dies von den Modellen nicht berücksichtigt werden könne. Zum anderen gehen Agent-based Modelle von der Startbedingung einer Vielzahl einzelner Agenten aus. Die vielfältigen Interaktionen von unterschiedlichen organisationalen Ebenen institutioneller Strukturen können daher nicht modelliert werden. Der Bottom-up-Ansatz der komplexitätstheoretischen Simulationen sei blind für Wirkungen kollektiver Zielsetzungen. Mayntz plädiert daher für die Existenz starker Emergenz in der Gesellschaft (Mayntz 2019) Ähnliche Argumente wie Renate Mayntz, aber unabhängig von ihr, bringt der britische Soziologe David Byrne gegen eine zu starke Orientierung der Komplexitätsforschung an den Naturwissenschaften vor. Byrne warnt sogar vor einem »hard science imperialism« (Byrne 2014, 40). Er macht aber gleichzeitig deutlich, dass er Agentbased Modelle nicht als nutzlos betrachtet. Diese Modelle leisteten eine großartige Arbeit und könnten der Komplexitätsforschung ein empirisch überprüfbares Fundament geben. Simulationen seien für eine soziologische Komplexitätstheorie nicht nichts, aber auch nicht alles. »The great deficit in agent-based modelling is its incapacity to deal with any social which pre-exists and shapes the context of the actions of actors.« (Byrne 2014, 162). Wie Mayntz kritisiert Byrne, dass Agent-based Modelle mit den Agenten zeitlich beginnen und aus ihren Interaktionen Strukturbildung herleiten. Vorher bereits existierende Strukturen oder Hierarchien verschiedener Strukturebenen, die wiederum das Verhalten der Agenten prägen, könnten dabei nicht berücksichtigt werden. Anders als Mayntz erarbeitet Byrne seine Argumente in Zusammenhang mit dem Vorhaben der Entwicklung einer soziologischen Komplexitätstheorie. Grundlage für Byrne ist der ontologische Ansatz des Wissenschaftstheoretikers Roy Bhaskar, den er in seinem Buch Complexity Theory and the Social Sciences von 1998 für eine soziologische Komplexitätstheorie fruchtbar zu machen versuchte (Byrne 1998). Bhaskar entwickelte 1975 das Programm eines »kritischen Realismus« und behauptete, dass emergente Phänomene real seien, weil sie aufgrund ihrer Irreduzibilität eine eigene ontologische Qualität besäßen (Bhaskar 2008). In Anwendung seines kritischen Realismus auf die soziologische Theoriebildung kritisiert Bhaskar 107 https://doi.org/10.5771/9783495825464 .

Martin Hauff

den methodologischen Individualismus und verteidigt gegen diesen die Annahme, dass auch Zusammenschlüsse von Individuen, wie Familien, Organisationen oder Staaten, einen eigenen ontologischen Status besäßen. Bhaskars Ansatz wird bereits 1992 von Reed und Harvey in Zusammenhang mit den Forschungen von Prigogine gebracht (Reed/Harvey 1992). Byrne verknüpft in seinem Buch von 1998 diesen Ansatz in Bezug auf die vielen anderen Ergebnisse der Komplexitätsforschung. Zu dieser Zeit bestand Byrnes Anliegen darin, eine realistische Interpretation der Komplexitäts- und Chaosforschung zu geben und diese gegen – wie er es nannte – postmoderne Vereinnahmungen zu verteidigen. Für Byrne ist mit der Komplexitätsforschung die Prognosefähigkeit der Wissenschaft nicht unmöglich, sondern lediglich schwieriger geworden. In seinem Buch Complexity Theory and the Social Sciences von 2014 kontrastiert Byrne diesen Realismus gegenüber der Forschung, die durch Agent-based Modelle dominiert wird. Diese Abgrenzung untermauert er systematisch mit der Unterscheidung zwischen restricted und general complexity, die er von Edgar Morin übernimmt. »We deny neither the reality of restricted complexity nor the at least potential value of agent-based modelling. Rather we assert with Morin that there is another form of complexity« (Byrne 2014, 5). Der Philosoph Morin bringt das Konzept der restricted complexity ausdrücklich mit den Forschungen des Santa Fe Instituts in Zusammenhang. Der Vorteil dieser Form der Komplexität bestünde darin, dass sie Fortschritte in der Formalisierung und in den Möglichkeiten der Modellierung komplexer Systeme angeleitet hätte. Nachteil dabei wäre jedoch, dass das Konzept der restricted complexity noch teilweise den Prinzipien der traditionellen Wissenschaft verpflichtet wäre (Morin 2007). Morin meint mit traditioneller Wissenschaft das Ideal des Reduktionismus. Dagegen entwickelt Morin den Begriff der general complexity, der sich durch die Dimension der Emergenz auszeichne. Jedoch beanspruchen die ForscherInnen des Santa Fe Instituts ebenfalls, den Begriff der Emergenz theoretisch und methodisch geschärft zu haben (Holland 2000). Worin nun der Unterschied zwischen diesen beiden Konzeptionen von Komplexität besteht, lässt sich durch die Unterscheidung von starker und schwacher Emergenz verständlich machen. Diese beiden Formen der Emergenz beschreibt der Philosoph David Chalmers und bezeichnet die Variante der Emergenz als schwach, die die Forschungen der »complex systems theory« anleitet (Chalmers 2006). Er 108 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

meint damit das Prinzip der zellulären Automaten, das hinter den Agent-based Modellen steht. Phänomene einer höheren Ebene besitzen schwache Emergenz, wenn sie von einer unteren Ebene abgeleitet werden können. Die Vorhersage dieser Ableitung emergenter Phänomene ist aufgrund von nichtlinearen Dynamiken jedoch begrenzt. Der traditionelle (oder starke) Reduktionismus leugnet im Unterschied dazu die Existenz emergenter Phänomene, weil er von einfachen Ableitungsregeln und von einem starken Determinismus ausgeht, wodurch Prognosen stets möglich sind. Daraus folgert der Reduktionismus, dass Phänomene einer höheren Ebene (resultierende Phänomene nach Lewes) vollständig auf das Wirken der niederen Ebene zurückzuführen seien. Für Vertreter der schwachen Emergenz ist eine vollständige Reduktion systemischer Phänomene auf die zugrundeliegenden Bestandteile nicht möglich. Jedoch können sich die emergenten Eigenschaften nicht ändern, ohne dass sich die Verhältnisse auf der unteren Ebene ändern. Dieses Verhältnis wird als Supervenienz bezeichnet. Achim Stephan charakterisiert die neueren Ansätze der Synergetik, Theorien der Selbstorganisation und der Chaostheorie als Theorien schwacher Emergenz, weil sie mit Vorstellungen eines schwachen Reduktionismus kompatibel seien (Stephan 2007, 232–248). In einem schwachen Sinn ist auch der Emergenzbegriff von John Holland zu verstehen, einem der einflussreichsten Mitarbeiter des Santa Fe Instituts. Holland versucht, mit Hilfe zellulärer Automaten und Agent-based Modellen das Phänomen der Emergenz in einer wissenschaftlichen Terminologie zu erklären. Im Zusammenspiel vieler Agenten entsteht ein emergentes Verhalten des Systems, das über die Möglichkeiten der isolierten Einzelnen hinausgeht und nicht antizipierbar ist. Das Modell ist jedoch völlig auf die Regeln reduzierbar, die es definiert (Holland 2000, 5): »Here we see that emergence in rule-governed systems comes close to being the obverse of reduction.« (Holland 2000, 8). Bei Holland sind Emergenz und Reduktionismus miteinander kompatibel. Im Gegensatz dazu trifft starke Emergenz dann zu, wenn die Eigenschaften der höheren Ebene prinzipiell nicht von der unteren Ebene deduziert werden können. Emergente Phänomene haben ganz eigene Qualitäten. Für Chalmers ist das menschliche Bewusstsein ein Beispiel für starke Emergenz. Vertreter einer Theorie starker Emergenz sind nach Chalmers vor allem die Britischen Emergentisten der 1920er Jahre. Jedoch ist der starke Emergentismus nicht unproblematisch. Eine zentrale Eigenschaft eines stark emergenten Phänomens 109 https://doi.org/10.5771/9783495825464 .

Martin Hauff

besteht darin, dass es das Verhalten der Bestandteile der unteren Ebene kausal beeinflusst. Jedoch funktioniere eine abwärts-gerichtete Verursachung oder downward causation nur, wenn die systemischen Eigenschaften auf ihre Bestandteile reduzierbar sind, was jedoch der starke Emergentismus ablehnt. Mit diesem Argument wirft der Philosoph Jaegwon Kim dem Begriff starker Emergenz konzeptionelle Schwächen vor und argumentiert für einen reduktiven Physikalismus. Die facettenreiche Debatte um den Emergenzbegriff wird detailreich von Achim Stephan rekonstruiert (Stephan 2007). Tabelle 1 veranschaulicht die Unterscheidungskriterien zwischen dem klassischen Reduktionismus, den Agent-based Modellen des Santa Fe Instituts und der Richtung, die durch Morin und Byrne vertreten wird. Reduktionismus

Santa Fe Institute

Morin/Byrne

Komplexes = bloß Zusammengesetzes

Restricted Complexity

General Complexity

Starker Determinismus

Schwache Emergenz

Starke Emergenz

Tabelle 1

Dieser kurze Einblick in die Debatte um den Emergenzbegriff sollte die soziologischen Grundannahmen von David Byrne klarer aufgezeigt haben. Byrne entwickelt also mit der Ontologie von Bhaskar und mit dem Begriff der general complexity von Morin, der mit Hilfe des Konzepts der starken Emergenz erläutert werden konnte, eine Komplexitätstheorie, die seiner Ansicht nach gesellschaftliche Phänomene besser beschreibe als der Agent-based Ansatz. So gelingt es ihm, die Komplexität der Interaktionen zwischen den verschiedenen ontologischen Ebenen einzelner Akteure, Gruppen, Organisationen, Zusammenschlüsse von Organisation etc. beschreibbar zu machen. Kausale Verursachungen gehen dementsprechend von allen Ebenen in alle Richtungen aus. Erklärungen für soziale Prozesse müssen deshalb auf allen Ebenen, nicht nur auf der Ebene der Individuen gesucht werden. Aufgrund des anders gelagerten Emergenzkonzepts setzt der Komplexitätsbegriff von Byrne und Morin bei Punkt 11 des Kriterienkatalogs einen anderen Schwerpunkt. Jedoch hat auch der Begriff der starken Emergenz seine Schwachpunkte. Wie der Soziologe Jens Greve zeigt, lässt sich Jaegwon Kims Kritik am Begriff der starken Emergenz auf die Soziologie übertragen, wodurch Greve einen reduktiven Individualismus in der soziologischen Theorie zu begrün110 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

den versucht (Greve 2015). Greves Kritik kann somit gegenüber dem Komplexitätsbegriff von Byrne vorgebracht werden. In der soziologischen Theorie wurde die Debatte über die Rolle der Emergenz im Sozialen kontrovers diskutiert und es besteht kein Konsens, ob das Konzept der schwachen oder der starken Emergenz geeigneter zur Beschreibung der Gesellschaft ist (Greve/Schnabel 2019).

6.

Komplexität bei Niklas Luhmann

In der deutschsprachigen Soziologie ist Luhmanns Systemtheorie sehr wirkmächtig. Auch durch Luhmanns Einfluss hat das Wort Komplexität seit den 1970ern in Deutschland eine große Popularität erhalten, wobei es nicht immer im Sinne von Luhmann gebraucht wird. In diesem Aufsatz wird die These vertreten, dass Luhmann einen nicht-ontologischen Begriff von Komplexität besitzt und daher nicht zu den anderen beiden vorgestellten Traditionslinien der Komplexitätsforschung gerechnet werden kann. Somit kann Luhmann die Debatte zwischen Emergenz und Reduktionismus umgehen, weil er mit seinem nicht-ontologischen Ansatz nicht von einer Relation zwischen Teil und Ganzem ausgeht. Was heißt es, einen nicht-ontologischen Begriff von etwas zu haben? Für Luhmann gibt es Dinge nicht an sich, sondern immer nur für einen Beobachter bzw. ein beobachtendes System. Beobachter konstruieren stets das, was sie beobachten. Sie haben nie einen direkten Zugang zur Wirklichkeit, was immer auch »Zugang« und »Wirklichkeit« heißen mögen. Luhmann rechnet sich selbst dem radikalen Konstruktivismus zu (Luhmann 1987) und ist stark durch die Kybernetik zweiter Ordnung beeinflusst (von Foerster 1993). Diese Richtung der Erkenntnistheorie wird auch von Neurologen unterstützt (Roth 1997). Diese epistemologischen Entscheidungen der Theorie haben die philosophischen Konsequenzen, dass unser Wissen über »die Welt« keine Seins-Garantie besitzt. Die Unterscheidung zwischen Teil und Ganzen, die der Welt eine Ordnung verleiht, sollte fallen gelassen werden (Luhmann 1997). Wie anfangs gezeigt, beruht der traditionelle Begriff der Komplexität auf der Beziehung der Teile zu ihren Ganzen. Wird aus epistemologischen Erwägungen die Annahme verweigert, dass es Einzeldinge gibt, die sich zu einem Ganzen zusammenschließen, verliert sowohl das Konzept der restricted Complexity wie auch das der general Complexity seine Überzeugungs111 https://doi.org/10.5771/9783495825464 .

Martin Hauff

kraft. Während die restricted Complexity allen Punkten des Kriterienkatalogs entspricht und die general Complexity bei Punkt 11 einen anderen Emergenzbegriff hineinbringt, würde Luhmann verweigern, Punkt 3 anzunehmen. Für ihn stehen am Anfang keine einfachen Elemente, woraus sich komplexe Zusammenhänge entwickeln können. Weil die weiteren Punkte des Kriterienkatalogs auf Punkt 3 aufbauen, werden auch sie nicht auf Luhmanns Komplexitätsbegriff anwendbar. Soziale Systeme sind nach Luhmann nicht durch Wechselwirkungen geprägt (Punkt 4), der Funktionsbegriff besitzt bei Luhmann eine ganz eigene Fassung (Punkt 6) und Hierarchie wird als eine nicht notwendige Strukturierungsmöglichkeit von Systemen behandelt (Punkt 8). Nicht nur Luhmanns Komplexitätsbegriff, sondern auch sein Systembegriff ist nur von seinen epistemologischen Grundüberzeugungen her zu verstehen. Ein System ist für Luhmann nicht, wie es traditionell aufgefasst wird, der Zusammenhang vieler Elemente und deren Relationen zueinander 3. Stattdessen ist ein System nur in Bezug auf seine Umwelt zu konzeptionalisieren. Für Luhmann ist eine Beobachterin bereits ein beobachtendes System, weil eine Beobachterin notwendigerweise zwischen System und Umwelt unterscheiden muss. Eine Beobachterin kann nicht alle Sinnesreize, die sie empfängt, verarbeiten, sonst würde sie aufgrund von Reizüberflutung gar nichts wahrnehmen. Sie muss filtern und Unterscheidungen treffen: Unterscheidungen zwischen Relevantem und nicht Relevantem, zwischen dem beobachteten Objekt und seiner Umgebung, zwischen dem beobachteten Objekt und sich selbst als Beobachterin (hier bereits liegt der Aspekt der Selbstreferenz begründet, der für Luhmanns Systemtheorie einen zentralen Stellenwert besitzt). Jede Beobachtung ist bereits eine Selektionsleistung, eine Auswahl von Relevantem und der Ausschluss von Unwichtigem. Das Irrelevante kann aber irgendwann relevant oder auch nützlich oder gefährlich werden. Deshalb bleibt das Irrelevante erst einmal latent in der Umwelt. Eine ontologische Terminologie, die durch die Unterscheidung zwischen Sein und Nichtsein geprägt ist, versagt bereits hier, denn das Latente ist nicht Nichts, aber auch nicht etwas. Die Umwelt besitzt keinen eigenen Seinsbereich, sondern die Unterscheidung zwischen System und Umwelt sprengt jegliche Ontologie. Im Gegensatz zu Luhmann definiert David Byrne System sehr traditionell, wenn er ein System als ein »set of inter-related elements« bezeichnet (Byrne 2014, 4).

3

112 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

Diese Überlegungen haben radikale Auswirkungen auf den Begriff der Komplexität. Die Latenz der Umwelt negiert die traditionellen Unterscheidungen zwischen Sein/Nicht-Sein und wahr/falsch. Für das System ist nichts gegeben, sondern alles wird konstruiert (auch das System konstruiert sich selbst durch Selbstbeobachtung). Es gibt somit keine Seins-Garantie im Einfachen. Komplexität verliert damit ihren Halt im Einfachen, ihrem traditionellen Gegenbegriff. Komplexität wird haltlos (Luhmann, 1990). Auch das Konzept der Emergenz wird hinterfragt. »Für das klassische Systemdenken war Emergenz hauptsächlich ein methodologisches Problem gewesen, Stichwort: Reduktionismus. Diese Problemstellung ist schon deshalb obsolet, weil es nichts letztlich ›Einfaches‹ gibt, auf das hin reduziert werden könnte. Damit entfällt auch die Vorstellung, daß man eine adäquate Systemzustandsbeschreibung in der Form einer Beschreibung des Zustands aller seiner Elemente liefern könnte.« (Luhmann 1990, 71). In der Literatur über den Emergenzbegriff bei Luhmann werden dessen radikale epistemologische Überzeugungen zu wenig berücksichtigt (Lohse, 2011). Komplexität wird so zu einem relationalen Begriff. Er ist nur im Verhältnis zwischen System und Umwelt verstehbar. Weil die Umwelt notwendigerweise komplexer als das System ist, ist die Grenze zwischen Umwelt und System durch ein Komplexitätsgefälle bestimmt. Um dieses Gefälle quantifizierbar zu machen, lohnt es sich, den Elementbegriff wieder einzuführen. Dies geschieht, indem stets mitreflektiert wird, dass Elemente nicht unabhängig von Systemen bestimmbar sind. Die Identität der Elemente wird dadurch bestimmt, dass sie als für ein System nicht weiter auflösbare Einheiten fungieren. Interessant wird es, wenn es bei der Zunahme der Zahl der Elemente irgendwann nicht mehr möglich ist, jedes Element mit jedem anderen zu verknüpfen. Es folgt daraus, dass vom System eine bestimmte Verknüpfung ausgewählt werden muss. Weil jede Selektionsentscheidung letztlich kontingent ist und vielleicht brauchbarere Selektionen nicht beachtet werden, ist jede Auswahl riskant. Gerade dadurch wird eine evolutionäre Bewährung der Strukturentwicklung von Systemen angestoßen. Der Reiz bei diesem konzeptionellen Vorgehen ist, dass das System/Umwelt-Verhältnis und der Komplexitätsbegriff definitorisch voneinander abhängen. Die Unterscheidung zwischen System und Umwelt wird durch das Komplexitätsgefälle charakterisiert. Komplexität wird aber nur durch Selektion bestimmbar, welches das Haupt113 https://doi.org/10.5771/9783495825464 .

Martin Hauff

charakteristikum eines Systems ist. Mit dieser Strategie unterläuft Luhmann die gängigen Kontroversen zwischen Holisten bzw. Emergentisten und Reduktionisten. Auch der Vorwurf des Dualismus (Greve, 2015) lässt sich mit dem Verweis abweisen, dass Luhmann mit seinem konstruktivistischen Ansatz gar nicht in den Konflikt zwischen Dualismus und substantiellem Monismus gerät. Durch die systemtheoretische Reformulierung des Komplexitätsbegriffs gibt es kein Komplexitätskontinuum von den letzten Elementen bis zur Welt im Ganzen (Luhmann, 1975). Das Ganze ist daher nicht mehr als die Summe seiner Teile, sondern kann auch weniger sein. Luhmann zieht aus diesen Erwägungen die Konsequenz, dass ein Überblick über die Welt, den zu erreichen eine generelle Komplexitätstheorie vielleicht der letzte Versuch war, nicht möglich ist. Komplexität ernst nehmen heißt für Luhmann daher, der Beschränktheit seiner eigenen Beobachterperspektive gewahr zu werden. Diese Einsicht erkauft Luhmann jedoch aufgrund seines radikalen Konstruktivismus mit einer höchst abstrakten Theorie, der es (noch) an empirischer Anwendbarkeit mangelt.

7.

Fazit

In diesem Aufsatz wurde der Versuch unternommen, die verwickelte Geschichte nachzuzeichnen, unter welchen erkenntnistheoretischen Voraussetzungen der Begriff der Komplexität in den Sozialwissenschaften auftauchte und wie er aufgrund seiner Ambiguität das Entstehen von drei Modellen der Komplexität beeinflusste, die nach dem Zweiten Weltkrieg in der Soziologie relevant wurden. Diese drei vorgestellten Konzepte von Komplexität beruhen auf ganz eigenen Prämissen und epistemologischen Grundüberzeugungen und entnehmen ihre Rechtfertigung aus unterschiedlichen Denktraditionen. Während in den Naturwissenschaften nur ein Komplexitätsbegriff vorherrscht, zeigen die Sozialwissenschaften die Vielgestaltigkeit und Ambivalenz unterschiedlicher Herangehensweisen an das Phänomen Komplexität auf. In den Sozialwissenschaften ist zum einen ein Komplexitätsbegriff verbreitet, der durch die Anregung und durch den Einfluss der Naturwissenschaften geprägt ist und in Computermodellen Anwendung findet. Trotz seiner klaren Formalisierbarkeit und Anwendbarkeit in der empirischen Forschung besitzt dieser Ansatz seine Schwachpunkte. Nicht nur werden hier menschliche 114 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

Subjekte als bloß soziale Atome behandelt. Der Agent-based Ansatz vermag den Einfluss von Ordnungen höherer Ebene auf das Handeln der Einzelnen nicht hinreichend zu erklären. Diese Defizite versuchen einige Autoren durch einen ontologisch andersartigen Komplexitätsbegriff und den Gedanken der starken Emergenz zu beseitigen. Doch das Konzept der starken Emergenz ist den Vorwürfen gegenüber den konzeptionellen Schwächen der abwärts-gerichteten Verursachung ausgeliefert. Diese beiden Konzepte von Komplexität sind ontologisch verfasst, weil sie beide von dem Einfachen ausgehen, das sich zum Komplexen zusammenschließt. Eine dritte Konzeptionalisierung von Komplexität versucht, solche ontologischen Annahmen von vornherein zu vermeiden und verstärkt damit die Verbindung zwischen Komplexität und Unsicherheit. Somit vermag Niklas Luhmann, die Schwächen der anderen beiden Komplexitätsansätze zu umgehen, gerät durch seinen radikalen Konstruktivismus jedoch in andere Probleme. Ohne eine Entscheidung treffen zu wollen, welches dieser drei Modelle der Komplexität das Geeignetste für die soziologische Forschung sei, konnte gezeigt werden, dass diese drei Konzepte sich nicht unter einem einheitlichen Komplexitätsbegriff verbinden lassen, sondern sie demonstrieren viel eher die Ambiguität der Komplexität selbst. Es lohnt sich also, diese Vielfalt in den Sozialwissenschaften zu beachten, denn sie zeigt, dass der Komplexitätsbegriff selbst komplex ist. Sich dessen zu vergewissern, kann zumindest dazu beitragen, in einem interdisziplinären Dialog die Begriffe und Prämissen klarer werden zu lassen und somit die Verständigung zu erleichtern.

8.

Literatur

Alexander, Samuel (1920): Space, Time, and Deity. Vol. II. New York. Alhadeff-Jones, Michael (2008): Three Generations of Complexity Theories: Nuances and ambiguities, in: Educational Philosophy and Theory, 40 (1), 66–82. Arthur, Brian et al. (1997): Asset Pricing Under Endogenous Expectations in an Artificial Stock Market, in: Brian Arthur/Stephen N. Durlauf/David Lane (Hg.): The Economy as an Evolving Complex System II. Reading, 15–44. Arthur, Brian (2015): Complexity and the Economy. Oxford. Ashby, W. Ross (1957): Introduction to Cybernetics. London.

115 https://doi.org/10.5771/9783495825464 .

Martin Hauff

Aquin, Thomas von. (1994): Summa Contra Gentiles. Hg. und übers. von K. Albert und P. Engelhardt. Darmstadt. Axtell, Robert/ Epstein, Joshua M. (1996): Growing Artificial Societies: Social Science From the Bottom Up. Washington D.C. Bhaskar, Roy (2008): A Realist Theory of Science. London. Buchanan, Mark (2008): avid S. (1998): Complexity Theory and the Social Science. An Introduction. London: Routledge. Buchanan, Mark (2007): The Social Atom. New York. [aus dem Engl. von Birgit Schöbitz (2008): Warum die Reichen immer reicher werden und Ihr Nachbar so aussieht wie Sie: neue Erkenntnisse aus der Sozialphysik. Frankfurt a. M.]. Byrne, David S. (1998): Complexity Theory and the Social Sience. An Introduction. London. Byrne, David S./Callaghan, Gillian (2014): Complexity Theory and the Social Science. The State of the Art. London. Castellani, Brian/Hafferty, Frederic William (2009): Sociology and Complexity Science. A New Field of Inquiry. Berlin. Chalmers, David J. (2006): Strong and Weak Emergence, in: Philip Clayton, (Hg.): The Re-emergence of Emergence. Oxford. Darwin, Charles (2011): The Origin of Species. London. Durkheim, Émile (1970): Regeln der soziologischen Methode. Berlin. Durkheim (2016): Über soziale Arbeitsteilung. Frankfurt a. M. Durkheim, Émile (2008): De la division du travail social. Elektronische Ausgabe hg. von Jean-Marie Tremblay [dt. Übersetzung: Durkheim, E. (2016): Über soziale Arbeitsteilung. Frankfurt a. M.]. Epstein, Joshua (2002): Modeling Civil Violence: An Agent-based Computational Approach, in: Ders. (2006): Generative Social Science. Studies in Agent-based Cornputational Modeling. Princeton. Farmer, J. Doyne/Foley, Duncan (2009): The economy needs agent-based modelling, in: Nature, 460 (6), 685–686. Füllsack, Manfred (2011): Gleichzeitige Ungleichzeitigkeiten. Eine Einführung in die Komplexitätsforschung. Wiesbaden. Greve, Jens (2015): Reduktiver Individualismus. Zum Programm und zur Rechtfertigung einer sozialtheoretischen Grundposition. Wiesbaden. Greve, Jens/Schnabel, Annette (Hg.) (2019): Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Berlin. Hayek, Friedrich August von (1972): Die Theorie komplexer Phänomene. Tübingen. Helbing, Dirk/Balietti, Stefano (2001): How to Do Agent-Based Simulations in the Future: From Modeling Social Mechanisms to Emergent Phenomena and Interactive Systems Design, in: Santa Fe Institute Working Paper. Holland, John H. (2000): Emergence. From Chaos to Order. Oxford. Koselleck, Reinhart (Hg.) (1979): Historische Semantik und Begriffsgeschichte. Stuttgart.

116 https://doi.org/10.5771/9783495825464 .

Drei Modelle der Komplexität in den Sozialwissenschaften

Krakauer, David C. (Hg.) (2019): Worlds Hidden in Plain Sight. The Evolving Idea of Complexity at the Santa Fe Institute 1984–2019. Santa Fe. Leendertz, Ariane (2015): Das Komplexitätssyndrom. Gesellschaftliche »Komplexität« als intellektuelle und politische Herausforderung in den 1970er-Jahren, in: MPIfG Diskussion Paper 15/7. Locke, John (2014): An Essay Concerning Human Understanding. Hertfordshire. Lohse, Simon (2011): Zur Emergenz des Sozialen bei Niklas Luhmann, in: Zeitschrift für Soziologie 40 (3), 190–207. Luhmann, Niklas (1975): Komplexität, in: Soziologische Aufklärung 2, 204– 220. Luhmann, Niklas (1987): Soziale Systeme. Grundriß einer allgemeinen Theorie. Frankfurt a. M. Luhmann, Niklas (1990): Haltlose Komplexität, in: Soziologische Aufklärung 5, 59–76. Luhmann, Niklas (1997): Die Gesellschaft der Gesellschaft. Frankfurt a. M. Mainzer, Klaus (2008): Komplexität. Stuttgart. Mayntz, Renate (1991): Naturwissenschaftliche Modelle, soziologische Theorie und das Mikro-Makro-Problem, in: Wolfgang Zapf (Hg.) (1990): Die Modernisierung moderner Gesellschaften. Verhandlungen des 25. Deutschen Soziologentages in Frankfurt a. M. 1990, 55–68. Mayntz, Renate (2019): Emergenz in Philosophie und Sozialtheorie, in: Jens Greve/Annette Schnabel (Hg.) (2019): Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Frankfurt a. M., 156–186. Mitchell, Melanie (2009): Complexity. A Guided Tour. Oxford. Morin, Edgar (2007): Restricted Complexity, General Complexity, in: Carlos Gershenson et al. (2007): Worldviews, Science and Us, Philosophy and Complexity. Singapore, 5–30. Parsons, Talcott (1964): The Social System. New York. Parsons, Talcott (1966): The Structure of Social Action. New York. Paslack, Rainer (1991): Urgeschichte der Selbstorganisation. Wiesbaden. Reed, Michael/Harvey, David L. (1992): The New Science and the Old: Complexity and Realism in the Social Sciences, in: Journal for the Theory of Social Behaviour 22 (4), 353–380. Roth, Gerhard (1997): Das Gehirn und seine Wirklichkeit. Kognitive Neurobiologie und ihre philosophischen Konsequenzen. Frankfurt a. M. Simon, Herbert A. (1962): The Architecture of Complexity, in: Proceedings of the American Philosophical Society, 106 (6), 467–482. Spencer, Herbert (1894): The Principles of Biology. Vol. I., London. Spencer, Herbert (1898): Principles of Sociology. Vol. I. New York. Squazzoni, Flamino (2012): Agent-Based Computational Sociology. Sussex. Stephan, Achim (2007): Emergenz. Von der Unvorhersagbarkeit zu Selbstorganisation. Paderborn. Tyrell, Hartmann (1985): Emile Durkheim – Das Dilemma der organischen Solidarität, in: Niklas Luhmann (Hg.) (1985): Soziale Differenzierung. Zur Geschichte einer Idee. Opladen, 181–204.

117 https://doi.org/10.5771/9783495825464 .

Martin Hauff

Urry, John (2003): Global Complexity. Cambridge. Foerster, Heinz von (1993): Wissen und Gewissen. Versuch einer Brücke. Frankfurt a. M. Waldrop, M. Mitchell (1992): Complexity. The Emerging Science at the Edge of Order and Chaos. New York. Weaver, Warren (1948): Science and Complexity, in: American Scientist 36, 536–544. Weber, Max (1988): Knies und das Irrationalitätsproblem, in: Ders. (1988): Gesammelte Aufsätze zur Wissenschaftslehre. Tübingen, 42–105. Wenzel, Harald (1990): Die Ordnung des Handelns. Talcott Parsons’ Theorie des allgemeinen Handlungssystems. Frankfurt a. M. Wittgenstein, Ludwig (1984): Tractatus logicus-philosophicus. Frankfurt a. M.

118 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme Philosophische Überlegungen im Anschluss an die Systemtheorie von Niklas Luhmann Matthias Lutz-Bachmann

Der Begriff eines Systems bezeichnet in ontologischer wie in epistemologischer Hinsicht einen ganz besonderen Typ von Einheit. Bereits im Blick auf seine etymologische Herkunft kann festgehalten werden, dass ein System eine Ganzheit oder eine Gesamtheit von Momenten darstellt, die mehr umfassen muss als lediglich die Summe der beteiligten Elemente. 1 Die Einheit eines Systems zu erfassen, verlangt einen anderen Blick auf die Phänomene als die komparativen Verfahren der Beobachtung und deren statistische Auswertung. Diese gelangen zur Feststellung bestimmter Korrelationen von einzelnen Phänomenen, nicht jedoch zur Erkenntnis eines systemischen Zusammenhangs, der zwischen den protokollierten Phänomenen besteht. Die Einsicht in einen systemischen Zusammenhang von Phänomenen gewinnen wir somit nicht bereits aus der Beobachtung statistisch signifikanter Korrelationen von Elementen, sondern aus der Einsicht, dass die Elemente, die zusammen die Teile eines Systems bilden, ihrerseits in einem Verhältnis zueinander stehen, indem sie etwa aufeinander dynamisch einwirken oder einander sogar kausal bedingen. Doch damit die Rede von einem zusammengesetzten Sachverhalt als einem Ganzen im Sinne eines Systems gerechtfertigt erscheint, müssen seine Teile nicht nur in einem erkennbaren Zusammenhang miteinander stehen; dieser Zusammenhang muss derart sein, dass er seinerseits auf die Teile einwirkt wie umgekehrt sie auf ihn, wobei die Teile, die ein System bilden, und ihr innerer Zusammenhang ihrerseits in einer Beziehung auf eine dem System äußere Umgebung stehen. Dieses Außen können wir auch als die Umwelt bezeichnen, die ein jedes System umgibt, wie umgekehrt auch die 1 Abgeleitet aus dem griechischen Wort systema, das aus den Wortbestandteilen syn (i. S. von zusammen) und (h)istemi (i. S. von setzen) besteht, also das Zusammengesetzte.

119 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

Umwelt eine Beziehung auf das gesamte System und nicht nur auf einzelne seiner Elemente aufweist. Ein im ersten Umriss so skizzierter Systembegriff findet sich erstmals bereits in der griechischen Antike, und zwar nicht nur in der Philosophie, wie etwa bei Platon, sondern auch in den medizinischen Schriften von Galenos, aber auch in der Logik, in der Mathematik oder in der Theorie der Musik. In der Philosophie des Mittelalters scheint zumindest der Begriff des Systems nicht prominent verwandt worden zu sein. Das ändert sich in der neuzeitlichen Philosophie. Hier begegnet der Begriff eines Systems als ein umfassendes Ordnungsprinzip sowohl von wissenschaftlichem Wissen überhaupt als auch einer Verfasstheit der Natur als ganzer. Philosophisch zentral wird dieser Begriff vor allem in der Theorie des Deutschen Idealismus, so insb. bei Hegel und Schelling, aber auch bei den Kritikern der idealistischen Philosophie wie bei Marx und in dessen Schule. Den Vertretern des Idealismus ging es mit der Rede vom System des Wissens nicht mehr nur, wie noch Kant, um die Begründung eines den Prinzipien der Vernunft folgenden Erkenntnisverfahrens, sondern um die Darstellung eines Systems des Wissens und der Wissenschaften, die die Einheit der Natur und der menschlichen Geschichte auf den Begriff bringen soll. Natur und Geschichte werden auf diesem Weg als Gestalten eines Lebens des Ganzen verstanden und mithilfe des Begriffs der Totalität als Momente der Entwicklung der äußeren Natur und der Entfaltung der Menschheitsgeschichte interpretiert. Doch auch nach der Kritik an den idealistischen Prämissen dieser Philosophie durch Marx und durch die empirischen Wissenschaften bleibt der Systembegriff ein integraler Bestandteil der modernen Wissenschaftsdebatte. So verwenden etwa die zeitgenössische Biologie und die Sozialwissenschaften heute den Systembegriff, um einerseits die besondere Wirkungsweise von Organismen und ihre Einheit sowie andererseits den Funktionszusammenhang sozialer Organisationen, ihrer Entstehung und ihres Erhalts wissenschaftlich zu analysieren. Dabei bezeichnet die Rede von biologischen Systemen und von sozialen Systemen nicht nur den Einsatz von Modellen zur Interpretation und Erklärung von Sachverhalten, die von den Wissenschaften gewissermaßen von außen an die beobachteten Phänomene herangetragen werden, sondern sie verweist auf Eigenschaften, die diese Systeme selbst prägen, also sie in ihrem eigenen Status bestimmen. Zu diesen Eigenschaften wird vor allem die Komplexität von Syste120 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

men, manchmal auch deren Emergenz gezählt. 2 Dabei folgt die Verwendung des Systembegriffs in der Soziologie, die sich als eine eigenständige Wissenschaft seit Auguste Comte und seinen Nachfolgern im 19. Jahrhundert entwickelt, über weite Strecken dem Gebrauch des Begriffs in der Biologie und der Psychologie. Für die Beschreibung der von diesen Disziplinen untersuchten komplexen Systeme des Lebensvollzugs von Lebewesen sowie des Funktionszusammenhangs von Organen, des Seelenlebens von Individuen oder des Zusammenlebens von Menschen in der Gesellschaft ist die semantische Unterscheidung von komplex und kompliziert von grundlegender Bedeutung; denn die geläufige Rede von einem komplizierten Sachverhalt verweist in der Regel darauf, dass die Momente, aus denen sich der so bezeichnete Sachverhalt zusammensetzt, ein signifikantes Maß von Inhomogenität, ggf. sogar von Heterogenität oder zumindest von Unübersichtlichkeit für den Betrachter aufweisen, so dass die Struktur und Bestimmtheit eines bestimmten Bereichs von Phänomenen nicht leicht zu erfassen sind. Demgegenüber verweist die Rede von der Komplexität eines Sachverhalts stets auf dessen Systemcharakter im oben erläuterten Sinn. Dabei mögen die Elemente eines Systems ggf. sogar homogener Natur sein, sich also gerade als nicht heterogen erweisen und, sollte dies der Fall sein, wären die Verhältnisse eines solchen Systems auch nicht als kompliziert zu bezeichnen. Die Beschreibungen eines Sachverhalts als kompliziert bzw. als komplex müssen somit streng unterschieden werden. Elemente eines komplexen Systems verhalten sich so zueinander, dass sie und ihre Relationen untereinander eine Einheit bilden, die es erlaubt, diese Einheit nicht nur von ihrer Umgebung als ihrer Umwelt zu unterscheiden, sondern an ihnen selbst Eigenschaften zu identifizieren, die den Elementen, wenn wir sie isoliert und unabhängig von dem System betrachten, das sie gleichwohl bilden, nicht in gleicher Weise zugeschrieben werden könnten. Das gilt gleichermaßen für statische Systeme, die für ihren Betrachter eigentümlich zeitlos oder zeitunabhängig wirken mögen und daher auch nicht emergieren, wie für dynamische Systeme, d. h. für Systeme, die sich in der Zeit herausbilden, sich also entwickeln und mit der Zeit verändern. Im Blick auf dynamische Systeme lässt sich feststellen, dass sie häufig Prozesse durchlaufen, die allein aus ihren Anfangs- (oder Vgl. hierzu die von Harald Schwalbe vorgelegte Definition von Komplexität in diesem Band, insb. die Elemente 1–7 seiner Definition; vgl. S. 18 f.

2

121 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

Antezedenz-)Bedingungen und den Eigenschaften ihrer Elemente nicht hinreichend erklärt oder deterministisch abgeleitet werden können. Jeder einzelne Prozess durchläuft seine eigene Entwicklung, und für zukünftige Entwicklungen lassen sich nur statistisch gesicherte Wahrscheinlichkeiten prognostizieren, die im Einzelfall durchaus erhebliche Abweichungen zulassen. Diese Eigenschaft komplexer Systeme, deren innere Ursache/ Wirkungszusammenhänge nicht-linear verlaufen, lässt sich mit dem Begriff der Kontingenz bezeichnen. Er verweist auf die potentiellen, auf die noch unausgeschöpften Möglichkeiten von Systemen, die für die Dynamiken der Entwicklung geltend gemacht werden können. Es ist offensichtlich, dass mit der Herausbildung komplexer Systeme in der Natur und in der Gesellschaft, wie sie in der Biologie und den Sozialwissenschaften untersucht werden, ganz zu schweigen von komplexen Systemen des menschlichen Geistes und des gesellschaftlich-sozialen Lebens von uns Menschen, wie sie in der Sprache, in der Kultur oder auch in der Politik ausgewiesen werden können, das seit Newton verbreitete Verständnis eines deterministisch gedeuteten, eines geschlossenen Kausalmechanismus ›der Natur‹ nicht unerheblich unter Druck gerät; denn für diese Art komplexer Systeme gilt nicht, dass ihr Verlauf in einem einfachen Sinn verstanden jederzeit und gleichsinnig reproduzierbar ist. Dies hat natürlich auch Folgen für die Prognosegewissheit. Es lassen sich aufgrund der Gauß’schen Berechnung der Normalverteilung allenfalls stochastisch gewisse statistische Durchschnittswerte errechnen als Anhaltspunkte für die Wahrscheinlichkeit bzw. Erwartbarkeit zukünftiger Entwicklungen und Resultate. Wenn man angesichts dessen aber im Blick auf komplexe Systeme von einer Entwicklung im Sinne einer Evolution komplexer Systeme sprechen will, so muss bei einer solchen Redeweise genau geprüft werden, was hiermit gemeint ist. Ich möchte mit meinen Überlegungen zur Frage Stellung nehmen, ob und inwiefern es berechtigt ist, das in den Lebens- und Naturwissenschaften verwendete Konzept komplexer Systeme auch auf die Gesellschafts-, Kultur- und Humanwissenschaften anzuwenden. Im Blick darauf ist auch die Frage zu stellen, ob und, falls ja, an welcher Stelle die Univozität des wissenschaftlichen Gebrauchs des Begriffs der Komplexität endet. Damit werden sowohl Probleme der Ontologie als auch der Epistemologie berührt. Diese Fragen möchte ich im Blick auf die von Niklas Luhmann konzipierte Systemtheorie diskutieren, in deren Mittelpunkt die Frage nach der inneren Logik 122 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

sozialer Systeme steht (1). Der Beitrag von Luhmann führt uns auf die Frage nach dem philosophisch interessanten Zusammenhang von Komplexität und Sinn (2) sowie von Komplexität und Kontingenz (3). Schließlich frage ich, in welchem Sinn man im Anschluss an Niklas Luhmann von einer Evolution sozialer Systeme und ggf. auch von Emergenz sprechen kann (4).

1.

Komplexität sozialer Systeme

Die modernen Systemtheorien sind in zentraler Hinsicht das Resultat einer konstruktivistisch genannten Wissenschaftstheorie. Auf diese bezieht sich Niklas Luhmann, wenn er das von früheren Autoren definierte Konzept einer Systemtheorie auf sein Programm einer Theorie der Gesellschaft insgesamt hin auslegt. Es ist offensichtlich, dass Luhmann mit seiner Fassung der Unterscheidung von System und Umwelt dem Begriff der Komplexität eine begrifflich neue Wendung gibt. Die in der Mitte des 20. Jahrhunderts einsetzende Diskussion zur Systemtheorie vertieft frühere Ansätze in der Biologie, in den Wirtschafts- und Sozialwissenschaften sowie den Ingenieursund Kommunikationswissenschaften (vgl. hierzu Bertalanffy et al. 1956 ff.; Bertalanffy 1969). Was zunächst mit einer Modellbildung von kybernetischen Regelkreisläufen zur Optimierung von zweckgerichteten Verfahren beginnt, wird als ein Erkenntnisprogramm zunehmend auch auf natürliche und schließlich auch auf gesellschaftliche Prozesse übertragen, um die hier beobachtbaren Entwicklungslogiken zugleich als systemische Abläufe zu bestimmen, die Wechselwirkungen zwischen bestimmten Elementen und ihrer Umwelt zu analysieren und im Sinne funktionaler Zusammenhänge angemessen verstehen zu können. Auf diesem Weg werden Systeme identifiziert, die sich als Konstruktion von Beobachtern erweisen. Zunehmend kommt für die Systemtheorie auf diesem Weg auch die Rolle des Beobachters in den Blick. Diese Tendenz erlaubt es der Systemtheorie, durchaus auch im Sinne der zweiten Stufe einer selbstreflexiven Relation, auch den Beobachter als einen Teil desjenigen Systems zu thematisieren, das er gleichzeitig selbst konstruktiv hervorbringt. Im Zuge der Entwicklung einer »Kybernetik der zweiten Ordnung« (vgl. hierzu u. a. Förster 1962; 1979; 1982) werden die Vertreter der Systemtheorie des inneren Zusammenhangs von System und Beobachtung, von Konstruktion und Realität, von Theorie und Wirklichkeit 123 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

gewahr. Was wirklich ist, das lässt sich als die Folge mentaler bzw. psychologischer und auch gesellschaftlich vermittelter Systemmodellierung darstellen, wobei die Leistungen des Beobachters, der die Wirklichkeit systemisch rekonstruiert, ihrerseits als ein Teil der Realität zu begreifen sind. Der Konstruktivismus der Systemtheorie wird bereits vor Luhmann auf diesem Weg nicht nur selbstreferentiell, sondern er nimmt auch, wie vor ihm schon Hugo Maturana und Francisco Varela (Maturana/Varela 1960), die Vorstellung einer »Autopoiesis« von lebendigen Systemen auf, also den aus der Zelltheorie der Biologie und Chemie auf eine allgemeine Eigenschaft von Systemen übertragenen und ontologisch generalisierten Gedanken, dass es die Systeme selbst sind, die als komplexe Netzwerke verstanden sich selbst und die Relationen zwischen ihren Elementen hervorbringen. Indem sie aus sich heraus oder, wie manche sagen, autonom auf ihre Umwelt reagieren und in diesem Prozess nicht nur sich selbst als Systeme hervorbringen, sondern sich zugleich erhalten und weiterentwickeln, bringen sie selbst auch die Differenz von System und Umwelt hervor. Die Komplexität von in diesem Sinn als auto-poietisch (in wörtlichem Sinne verstanden als sich selbstständig hervorbringend) verstandenen Systemen wird durch die Elemente des Systems und deren Beziehungen zueinander sowie durch die innere Einheit der Teile und deren Beziehung gegenüber einer differenten äußeren Umwelt konstituiert. Niklas Luhmann schließt mit seiner Theorie der Gesellschaft einerseits an diese systemtheoretische Tradition einer in der Biologie verankerten Theorie menschlicher Sprache und Erkenntnis an, andererseits verändert er deren theoretische Gestalt. So sieht Luhmann die autopoietischen Systeme weniger in den physikalisch, chemisch oder biologisch beschreibbaren Prozessen der Natur als in der Funktion von Kommunikation innerhalb und zwischen Systemen und ihren jeweiligen Zuständen begründet. Dabei dürfen wir im Blick auf die Träger der Kommunikation nicht an Menschen als einzelne und miteinander sprachlich interagierende Subjekte denken, sondern es sind nach Luhmann die Systeme selbst, die miteinander und untereinander Informationen austauschen, worin für ihn der Prozess der Kommunikation besteht. Auch die Wissenschaften sind in diesem Sinne verstanden Systeme. Sie erweisen sich selbst als Träger von Wissen und Information und können als Zustände gedeutet werden, die durch das System der Gesellschaft erzeugt einen bestimmten Status von Kommunikation darstellen. Im Vergleich mit seinen Vor124 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

läufern stellt Luhmann einen doppelten Begriff von Komplexität zur Diskussion: Komplex sind für ihn Systeme nicht nur aufgrund der bereits von der früheren Systemtheorie thematisierten Verbindung der Elemente untereinander, die auf der Grundlage dieser Relationen ein System nach innen integrieren und nach außen funktional abgrenzen. Komplex sind Systeme, weil und insofern sie neben der Herstellung eines Funktionszusammenhangs zwischen ihren Elementen zugleich auch eine Reduktion der intern möglichen Beziehungen der Elemente auf eine faktisch stets begrenzte, und das heißt, auf eine kontingente Auswahl von Elementen und Anzahl von Relationen vornehmen. Jedes System hat nur eine Chance, als System zu funktionieren, wenn es nach innen zugleich eine Reduktion möglicher Komplexität vornimmt. Erst dies erlaubt es einem System, angesichts einer weitaus höheren Komplexität der Umwelt sich von dieser zu unterscheiden, sich dadurch allererst selbst zu erzeugen und ggf. auch zu erhalten. Der Begriff Komplexität bestimmt nach Luhmann somit nicht nur generell eine besondere Verfassung von Systemen, sondern er bezeichnet speziell deren produktive Fähigkeit, die Möglichkeiten und Relationen zwischen den Elementen, die ein System ausmachen, so zu reduzieren, dass das System als ein Ganzes funktional wirken kann. Damit bezieht Luhmann den Begriff der Komplexität zugleich auch auf die Umwelt von Systemen, von denen sich Systeme dadurch unterscheiden, dass sie ihre Binnenkomplexität in stetiger Abgrenzung von der Umwelt reduzieren. Das soziale System der modernen Gesellschaft als ganzer zerfällt Luhmann zufolge seinerseits in funktional differenzierte Teilsysteme wie die Systeme des Rechts und der Politik, der Wirtschaft, der Kultur, der Religion usw., deren Differenz zueinander auf der Grundlage des binären Codes System/Umwelt durch jedes Teilsystem selbst beständig autopoietisch hervorgebracht und auf diesem Weg auch erhalten wird. Diese Teilsysteme funktionieren aber auch nicht vollständig unabhängig voneinander, sondern sie stehen in einem vielfältigen Beziehungsgefüge und Geflecht von Überschneidungen zueinander. Doch sie folgen unterschiedlichen Aufgabenstellungen und besitzen voneinander verschiedene Systemlogiken. Von anderen, nicht gesellschaftlich verfassten Systemen wie etwa den rein organischen Systemen von Lebewesen unterscheidet sich die Gesellschaft als ein soziales System mit ihren Teilsystemen durch ihren Bezug auf das, was Luhmann allgemein »Sinn« nennt. Mit dem Begriff des Sinns bezieht sich Luhmann auf etwas, was er die primäre »Ord125 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

nungsform menschlichen Erlebens« (Luhmann 1971, 61) 3 nennt. Dabei definiert Luhmann den Begriff des Sinns anders als die Soziologie bei Max Weber oder die Phänomenologie bei Edmund Husserl, nämlich ohne Bezug auf ein erkennendes oder handelndes Subjekt (bzw. einen Beobachter), weil der Begriff eines Erkenntnissubjekts, im Sinne der Bewusstseinsphilosophie verstanden als eine »sinnhaft konstituierte Identität«, »den Sinnbegriff schon voraussetzt.« (Luhmann 1971a, 28). 4 Für soziale Systeme ist ein solcher, gleichsam entsubjektivierter Begriff des Sinns von grundlegender Bedeutung. Es ist die Funktionsweise der Verarbeitung von Informationen, die für das System der Gesellschaft die Aufgabe der erforderlichen »Reduktion und Erhaltung von Komplexität« (Luhmann 1971a, 37) leistet, nicht die in den gesellschaftlichen Systemen lebenden Menschen und gar deren mentale Akte. Doch die von den gesellschaftlichen Systemen selbst geleistete Sinnvermittlung ist den Menschen kognitiv zugänglich. Das mental-psychologische Erleben von Sinn, schreibt Luhmann, »[durchsetzt] das unmittelbar gegebene, evidente Erleben … mit Verweisungen auf andere Möglichkeiten und mit reflexiven und generalisierenden Negationspotentialen« (Luhmann 1971a, 37). Mit dieser Aussage schließt Luhmann ausdrücklich an Edmund Husserls Analysen des bewussten Erlebens an, in denen sich so etwas wie eine Konstitution von Sinn dadurch vollzieht, dass sich in Akten des Bewusstseins eine Erkenntnis der bewusstseinstranszendenten Welt vollzieht: »Was es zu verstehen und im Begriff der Konstitution zu fassen gilt, ist jenes Verhältnis einer selektiv verdichteten Ordnung zur Offenheit anderer Möglichkeiten, und zwar als ein Verhältnis des Wechselseitig-sich-Bedingenden, des Nur-zusammen-Möglichen« (Luhmann 1971a, 30). Anders aber als bei Husserl sind die Menschen nicht als die Autoren der Sinnerschließung zu verstehen, sondern sie sind das Produkt der Kommunikation, die die Systeme der Gesellschaft vollbringen. Das von der Bewusstseinsphilosophie Husserls ins Zentrum gerückte Thema der Erschließung der Welt durch Akte des menschlichen Bewusstseins, die das Bewusstsein transzendieren, wird in »Sinn ist die Ordnungsform menschlichen Erlebens, die Form der Prämissen für Informationsaufnahme und bewusste Erlebnisverarbeitung, und ermöglicht die bewusste Erfassung und Reduktion hoher Komplexität.« (Ebd.). 4 »Der Sinnbegriff ist primär, also ohne Bezug auf den Subjektbegriff zu definieren, weil dieser als sinnhaft konstituierte Identität den Sinnbegriff schon voraussetzt.« (Ebd.). 3

126 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

Luhmanns Theorie somit systemtheoretisch reformuliert und auf diesem Weg in eine Theorie der Gesellschaft transferiert. Die Einsichten der Systemtheorie sollen dazu beitragen, die klassischen Fragen der philosophischen Erkenntnistheorie der Neuzeit seit Descartes und Kant widerspruchsfrei, und das heißt ohne das bekannte Problem von deren dualistischer Ontologie von Erscheinung und Ding an sich, in der Sache aufzunehmen, um sie nun aber im Blick auf die Leistungsfähigkeit sozialer Systeme zu beantworten. Bei diesem Schritt von Niklas Luhmann fällt auf, was in der Forschung bislang nicht deutlich genug wahrgenommen worden ist, dass er bei seinem Versuch, die erkenntnistheoretischen Schwierigkeiten der Philosophie der Neuzeit zu überwinden, auf Problemlagen stößt, die bereits in den subtilen Untersuchungen der mittelalterlichen Vorgeschichte und der Anfänge der Transzendentalphilosophie bei Johannes Duns Scotus verhandelt worden waren. 5 Ich komme hierauf noch zurück.

2.

Komplexität und Sinn

Als Grundbegriff der Soziologie artikuliert bei Niklas Luhmann der Begriff des Sinns die Erfahrung einer radikalen Kontingenz der Welt, die den Menschen der modernen Gesellschaft in einer gegenüber der vormodernen Welt neuen, weil gesellschaftlich vermittelten Weise prägt. Es ist nicht mehr der unmittelbare Bezug zu einer natürlichen oder kosmisch geprägten Welt, der das menschliche Leben beeinflusst, sondern es ist der Bezug auf die Welt als Gesellschaft, die die Besonderheit der modernen Lebensform ausmacht. Naturkatastrophen (wie im Mittelalter z. B. die Pest oder in der frühen Neuzeit das berühmte Erdbeben von Lissabon) nehmen in der Moderne mehr und mehr die Form der Erfahrung einer gesellschaftlichen Kontingenz an. Vgl. hierzu ausführlich die Analysen von Ludger Honnefelder (Honnefelder 1990). Luhmann selbst verweist in seinem Eintrag Komplexität im Historischen Wörterbuch der Philosophie (Luhmann 1976, 939–934) auf die transzendentale Theorie des ontologisch Möglichen, Wirklichen und Notwendigen bei Johannes Duns Scotus, dessen Theorie einen dreifachen Vorschlag enthält, wie das Problem der Einheit des Mannigfaltigen der Welt logisch ausgedrückt werden kann, nämlich »teils als Frage nach der concomitierenden Notwendigkeit bei kontingent Zusammengesetztem, teils als Frage der kategorialen Identität von Sein und Erkennen oder in letzter Abstraktion als Modus des Seins« (Luhmann 1976, 940). Diese philosophische Einsicht bei Johannes Duns Scotus versucht Luhmann mit seiner Theorie der Komplexität soziologisch einzuholen.

5

127 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

Heute erleben wir auch Pandemien, doch wir erleben sie weniger als pure Naturereignisse, sondern als gesellschaftlich vermittelte Herausforderungen. Das Gleiche gilt für die Erfahrung eines rasanten Klimawandels, der als ein Prozess der Veränderung der äußeren Natur erlebt wird, aber doch als ein gesellschaftlich induziertes Geschehen begriffen wird. Auch die von den Wissenschaften zusammenfassend als eine drohende Klimakatastrophe bezeichneten Ereignisse sind ohne Rekurs auf das Wirken gesellschaftlicher Systemzwänge nicht zu verstehen. Es ist die Erfahrung der Welt als ein Ausdruck gesellschaftlich vermittelter Kontingenz der Welt und die mit der Kontingenzerfahrung verbundene Unbestimmtheit, die das Leben der Menschen in der Gegenwart bestimmt: »Dem gerade akut bewussten Erleben steht eine Welt anderer Möglichkeiten gegenüber« (Luhmann 1971a, 32). So wird in jedem Bewusstseinsakt, wie vermittelt auch immer, die radikale Kontingenz der Welt als Gesellschaft erfahren. Dies markiert für Luhmann jedoch zugleich das Problem einer strukturellen »Selbstüberforderung des Erlebens durch andere Möglichkeiten«. Gebannt wird diese drohende Selbstüberforderung des Menschen durch die »Doppelstruktur von Komplexität und Kontingenz«, die sich in jeder Welterfahrung vollzieht. »Durch den Begriff Komplexität soll bezeichnet werden, dass es stets mehr Möglichkeiten des Erlebens und Handelns gibt, als aktualisiert werden können. Der Begriff Kontingenz soll sagen, dass die im Horizont aktuellen Erlebens angezeigten Möglichkeiten weiteren Erlebens und Handelns nur Möglichkeiten sind, daher auch anders ausfallen können, als erwartet wurde.« (Luhmann 1971a, 32). Damit indiziert der Begriff der Komplexität den praktischen, also im Handeln aufgegebenen Zwang, sich die gesellschaftlich bestimmte Welt selektiv anzueignen, und der komplementäre Begriff der Kontingenz heißt für Luhmann »praktisch Enttäuschungsgefahr und Notwendigkeit, sich auf Risiken einzulassen.« (Luhmann 1971a, 33). Beide Dimensionen laufen im Begriff des Sinns bei Luhmann zusammen. Denn anders als bei organischen Systemen in der belebten Natur und anders als bei vor-organischen Systemen in der unbelebten Natur ist für gesellschaftliche Systeme »das bewusste Erleben« konstitutiv, das »sich selbst durch Überforderung steuert, indem Komplexität und Kontingenz in einer genau bestimmbaren Weise, nämlich in der Form von Sinn, die selektive Erlebnisverarbeitung regulieren.« (Luhmann 1971a, 33). Für diese Selektion bleibt es im Blick auf soziale Systeme aber entscheidend, dass die Komplexität 128 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

der Welt, die als prinzipiell unendlich, weil unbestimmt erlebt wird, im sozialen System zugleich reduziert wird. Die »Komplexität anderer Möglichkeiten [wird] im Erleben selbst konstituiert und [bleibt] erhalten« (Luhmann 1971a, 33). Das unterscheidet das Konzept der Komplexität bei Luhmann auch von den meisten der heute eingesetzten Programmen der künstlichen Intelligenz (Artificial Intelligence); denn in sozialen Systemen, wie Luhmann sie versteht, bleibt die Kontingenz der nur gesellschaftlich vermittelt erlebbaren Welt trotz aller Reduktion erhalten. Sie wird im Zuge der Systembildung nur geltungstheoretisch eingeklammert, aber selbst nicht eliminiert, und genau das soll mit dem Begriff der Reduktion zum Ausdruck gebracht werden. »Sinn fungiert« daher, so Luhmann, »als Prämisse der Erlebnisverarbeitung in einer Weise, die die Auswahl von Bewusstseinszuständen ermöglicht, dabei das jeweils nicht Gewählte aber nicht vernichtet, sondern es in der Form von Welt erhält und zugänglich bleiben lässt.« (Luhmann 1971a, 34). Das unterscheidet den für das Funktionieren sozialer Systeme konstitutiven Begriff des Sinns von dem der Information; denn, so Luhmann, »die Funktion von Sinn liegt nicht in der Information, also nicht in der Behebung eines systemrelativen Ungewissheitszustands über die Welt«. Anders als das für die Computersprachen zentrale Konzept der Information fungiert das, was der Begriff »Sinn« im Blick auf soziale Systeme artikuliert, nicht auf der Ebene der Beziehung zwischen den Elementen eines Systems, die miteinander durch Informationsaustausch kommunizieren, sondern er beschreibt das grundlegende Verhältnis der vergesellschafteten Menschen zur Kontingenz der Welt, die in ihrer faktischen Realität zugleich die nichteingrenzbare Vielfalt unendlich erscheinender Möglichkeiten repräsentiert; denn, so schreibt Luhmann, »Sinn ist kein selektives Ereignis, sondern eine selektive Beziehung zwischen System und Welt, aber auch damit nicht ausreichend charakterisiert« (Luhmann 1971, 34); »vielmehr liegt das eigentlich Besondere sinnhafter Erlebnisverarbeitung darin, Reduktion und Erhaltung von Komplexität zugleich zu ermöglichen, nämlich eine Form von Selektion zu gewährleisten, die verhindert, dass die Welt im Akt der Determination des Erlebens auf nur einen Bewusstseinsinhalt zusammenschrumpft und darin verschwindet.« (Luhmann 1971a, 34). Und Luhmann fügt dieser Aussage einen weiteren wichtigen, weil weiterführenden Gedanken hinzu: »Die Konstitution einer solchen das Erleben beständig-gegenwärtig begleitenden Welt von augenblicklich inaktuellen Potentialitäten beruht auf der eigen129 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

tümlich-menschlichen Fähigkeit zur Negation. Ihre begriffliche Nachkonstruktion setzt Klarheit über den funktionellen Primat der Negativität im sinnkonstituierenden Erleben voraus.« (Luhmann 1971a, 35). Die Bedeutung der Fähigkeit des Menschen zur Negation resultiert für Luhmann nicht nur daraus, dass die sprachliche Form der Negation »das am universellsten verwendbare Sprachsymbol« ist, sondern in der Negation artikuliert sich »die Universalität« des menschlichen Erkennens gerade als Ausdruck des »Weltbezugs der Lebenspraxis schlechthin« (Luhmann 1971a, 35): »Die spezifische Potenz des Negierens, die sich in der reinen Gegebenheit aktueller Eindrücke, in Wahrnehmung und Vorstellung nicht findet, beruht auf der ihr eigenen Kombination von Reflexivität und Generalisierung« (Luhmann 1971a, 36); jede Negation kann auf sich selbst angewendet werden und eröffnet so als reflexive Einstellung in der Struktur des menschlichen Erlebens von Welt zugleich die Möglichkeit zur Verallgemeinerung; denn alles Negieren eines bestimmten Weltbezugs »verbleibt« nach Luhmann »in einer unaufhebbaren Vorläufigkeit« und »schließt den Zugang zum Negierten nicht aus. Nur die Zeit, nicht die Negation, eliminiert Möglichkeiten definitiv«. So bleibt die »Welt« in ihrer radikalen Kontingenz auch in den Sinnsystemen, die den Gesellschaften durch Reduktion von Komplexität zugrunde liegen, erhalten (vgl. hierzu Luhmann 1971a, 37). 6 Dieser soziologische Begriff des Sinns tritt bei Luhmann an die Stelle der kognitiven Leistungen des vereinzelten Erkenntnissubjekts, das in der sog. Bewusstseinsphilosophie von Descartes bis Husserl ins Zentrum einer Theorie der Erkenntnis der Welt und der Normen richtigen Handelns gerückt worden war. Die epistemologische Leistung einer grundlegenden, weil auf die Faktizität der Welt bezogenen und zugleich auch normativen Welterschließung sollen nun die sozialen Systeme selbst leisten, indem ihnen Luhmann die Aufgabe der Konstitution von Sinn zuschreibt. Wie wir gesehen hatten, ist der soziologische Sinnbegriff für das Funktionieren sozialer Systeme charakteristisch, wobei der Sinnbegriff nicht an die Bewusstseinsakte einzelner Subjekte gebunden, sondern auf ein Kollektiv bezogen »Zusammenfassend lässt die gesuchte Funktionsweise sinnhafter Erlebnisverarbeitung sich nunmehr in einem ersten und grundlegenden Moment genauer bestimmen: Sie leistet Reduktion und Erhaltung von Komplexität dadurch, dass sie das unmittelbar gegebene, evidente Erleben durchsetzt mit Verweisungen auf andere Möglichkeiten und mit reflexiven und generalisierenden Negationspotentialen und es dadurch für riskante Selektivität ausrüstet.« (Ebd.).

6

130 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

wird, dessen epistemisches Verhältnis zur Welt im Ganzen durch die Reduktion von Komplexität und die riskante Selektivität der Auswahl funktional organisiert wird. Die Verfahren, die dies organisieren, sind auf ein Verhältnis der sozialen Systeme zur Welt angewiesen, ein Verhältnis, das seinerseits als prinzipiell unabschließbar erscheint und deshalb für das Faktum der Realität einer radikal kontingent erscheinenden Welt stets offen bleibt; denn auch sozialen Systeme stehen keine beliebigen Möglichkeiten in ihrem Verhältnis zur Welt zur Verfügung. Sie haben in ihrem Bezug zur Welt »ein selektives Verhältnis insofern, als sie als Systeme nur Ausschnitte aus einer überkomplexen Welt sind«, doch auch als solche »können sie nur bestehen, wenn der Ausschnitt nicht-beliebig gewählt ist« (Luhmann 1971b, 307). Soziale Systeme unterscheiden sich genau dadurch von biologischen Systemen, wie sie in Organismen oder Zellen angetroffen werden, dass diese auf der Basis von Lebensvollzügen, jene aber »auf der Basis von Sinn« integriert sind; denn, so Luhmann, »Organismen sind lebende Ganzheiten, die aus lebenden Teilen bestehen; von Sozialsystemen kann man dagegen weder sagen, dass sie als Ganzes leben, noch dass sie aus lebenden Teilen, etwa aus Menschen bestehen« (Luhmann 1971a, 93 f.). Soziale Systeme konstituieren sich Luhmann zufolge durch »sinnhaft identifizierbare Handlungen«, deren Realität sich aus vielen Momenten und deren Relationen zueinander reflexiv und nicht nur funktional, vor allem aber in Bezug auf das konstituiert, was Luhmann den Sinn und seinen zukunftsoffenen Horizont der Welterschließung nennt (Luhmann 1971a, 94). Dies unterscheidet soziale Systeme nicht nur von biologischen Systemen wie Organismen, sondern auch von Systemen, die durch Maschinen oder auch durch Computer auf der Basis von Algorithmen erzeugt werden, die sich aus der Menge von Daten speisen, die in der Vergangenheit gesammelt wurden und zur prädiktiven Deutung der Zukunft herangezogen werden, während sie doch nur die bereits bekannten Muster der Vergangenheit reproduzieren. Sie werden damit aber der Innovationskraft sozialer Handlungssysteme, der unableitbaren und niemals hinreichend antizipierbaren Dynamik zur Veränderung, die sozialen Systemen eigentümlich ist, nicht gerecht, die aus der Verarbeitung der unbeschränkten Kontingenz der Welt und ihrer nur durch die Zeit ausgeschöpften Möglichkeiten resultieren. »Was zu begreifen wäre«, schreibt Luhmann im Blick auf die so verstandenen sozialen Systeme, »ist also letztlich dieser Gewinn an 131 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

Kapazität für den Aufbau komplexer und kontingenter Möglichkeiten und für die selektive Orientierung an ihnen« (Luhmann 1971a, 94), wodurch für Luhmann soziale Systeme ausgezeichnet sind. »Die Art, wie Organismen, Maschinen und sinnkonstituierende Systeme, nämlich Persönlichkeiten und Sozialsysteme«, die Leistung der Systembildung erbringen, »unterscheidet sich« grundlegend dadurch voneinander, »dass bei sinnhaft-bewusster Erlebnisverarbeitung höhere, prinzipiell unbegrenzte Komplexität als Auswahlbereich zugänglich wird, also aus mehr Möglichkeiten besser gewählt werden kann« (Luhmann 1971a, 94). Ob eine solche Möglichkeit auch rein algorithmisch definierten Systemen zukommt, muss die Zukunft erweisen. Hier ist m. E. eine gewisse Skepsis geboten, da in gesellschaftlichen Systemen, die über »Sinn« konstituiert werden, wie etwa in Systemen lebendiger, weil gesprochener Sprachen auch und gerade durch die hier stets mögliche Verletzung bislang geltender Regeln jeweils neue Sprachformen und mit ihnen nicht nur neue Weltzugänge eröffnet, sondern neue Welten erschlossen werden. Darüber belehren uns ausdrücklich die Poesie und die Fiktionalität von Literatur, aber auch die Musik oder die darstellende Kunst. Wie grundsätzlich jedes neu gesprochene Wort erzeugen sie eine neue Welt, indem sie die ihnen zugrunde liegenden Regeln performativ jeweils neu zur Geltung bringen, wobei gerade auch Verletzungen bislang eingeübter Regeln und überraschend neue, bislang nicht gehörte Aussagen über die Welt von den Computersprachen, die auf dem Informationsbegriff aufbauen und in Form algorithmisch gesteuerter Systeme verfasst sind, von diesen in der Regel nicht als Innovation und Konstruktion einer neuen Welt, sondern als grammatische oder syntaktische Fehler identifiziert werden und auf diesem Weg in ihrer etwaigen semantischen Bedeutsamkeit oder ihrem möglichen performativen Potential eingeklammert erscheinen. Im Blick auf die Debatten zur Künstlichen Intelligenz könnte sich die für Luhmann zentrale Differenz von Information und Sinn noch als wichtig erweisen. Philosophisch erhält im Denken von Luhmann jedenfalls der Gedanke einer radikalen Kontingenz der Welt eine Aktualität, die in dieser Form weder von der Transzendentalphilosophie noch von der Phänomenologie erfasst wurde – geschweige denn von Heideggers am Ende gescheitertem Versuch in seinem Werk Sein und Zeit, sich von der Bewusstseinsphilosophie seines Lehrers Husserl auf dem Weg einer neuen Existenzialontologie abzusetzen. So möchte ich festhalten, dass gerade Luhmanns soziologische Theorie des Sinns als konstitutiv 132 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

für das Funktionieren sozialer Systeme auch einen eigenständigen Beitrag zur Diskussion der Aufgabe der Philosophie heute leistet, gleichsam nach dem Ende der klassischen Transzendentalphilosophie und deren Kritik durch die Philosophie des Idealismus und Erkenntnisskeptizismus. Der funktionalistische Zugang Luhmanns zur Analyse der Rolle des Sinns in sozialen Systemen markiert jedoch zugleich auch eine spezifische Grenze der Leistungsfähigkeit seiner Theorie. Die Beobachtung einer fundamentalen Differenz biologischer von sozialen Systemen führt Luhmann zu der Einsicht, dass soziale Systeme durch die Doppelstruktur einer gleichzeitigen »Reduktion und Steigerung von Komplexität« beschrieben werden können, wobei die »Steigerung von Komplexität« gerade durch die »Reduktion von Komplexität« erzielt werden soll (Luhmann 1971b, 309). Dies trifft ihm zufolge jedoch nur auf das Handeln in menschlichen Gesellschaften, nicht aber auf biologische Systeme zu. Die Welt wird von Menschen als überaus komplex, als »absolut kontingent« und in diesem Sinne als eine schier unerschöpfliche Quelle nichtrealisierter Möglichkeiten erfahren. Der Begriff des Sinns steht bei Luhmann dafür, dass Menschen aus dieser Überkomplexität der Welt bestimmte Ausschnitte auswählen, wodurch sie allererst einen bestimmten Begriff von »Welt« erzeugen. Die so durch eine mentale Selektion Luhmann zufolge erst hergestellte Welt erweist sich als das »Woraus« der Selektion, als jener potentiell unendliche »Horizont«, demgegenüber sich das soziale System einer durch Sprache, Kommunikation und Handlung konstituierten menschlichen Gesellschaft in Akten der Reduktion der Komplexität der Welt nicht nur »als System« selbst erzeugt, sondern eben auch »die Welt« als ein Gegenüber zum jeweiligen gesellschaftlichen System. Diesen Zusammenhang soll das Konzept des Sinns auf den Begriff bringen. Sind soziale Systeme erst einmal entstanden, so gibt es für das, was der soziologische Begriff des Sinns artikuliert, »keine Analogien im Bereich physischer oder organischer Systeme« (Luhmann 1971b, 308), wobei auch »die menschlichen Ehrentitel wie Bewusstsein oder Vernunft«, also die klassischen Begriffe der Tradition neuzeitlicher Bewusstseinsphilosophien von Descartes bis Husserl, »als Anthropologica« für Luhmann »nur ein unzureichender Ausdruck sind«; denn der für die Erzeugung der Welt und des sozialen Systems gleichermaßen konstitutive Sinnbegriff bestimmt ein gesellschaftliches, ein übersubjektives und in diesem Sinne soziales Geschehen, das primär aus 133 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

Handlungen, gesellschaftlich erprobten Handlungsregeln und Handlungskontexten besteht und sich nicht auf den mentalen Akt des einsamen Trägers eines Bewusstseins zurückführen lässt, wie es Descartes und Husserl in ihren philosophischen Meditationen vorgeführt hatten.

3.

Komplexität und Kontingenz

Die durch Sinn erst mögliche Reduktion der potentiell unendlichen Komplexität der Welt wird innerhalb des sozialen Systems der Gesellschaft wiederum gesteigert. Luhmann spricht selbst, wie wir gesehen haben, von einer »Steigerung von Komplexität« durch eine »Reduktion von Komplexität«, wobei aus der innergesellschaftlichen Komplexitätssteigerung zugleich eine Zunahme von Ungewissheit und Kontingenz folgt. Als Beispiel für einen solchen komplementären Vorgang nennt Luhmann die Konstruktion des Gesellschaftsvertrags bei Thomas Hobbes. Aus ihm und dem mit ihm verbundenen Gewaltverzicht folgt allererst die Ordnung des Rechts im Sinne der politischen Verfassung des absolutistischen Staats. Mit diesem Akt ist für Luhmann auf der einen Seite die Reduktion von Komplexität im Inneren der Gesellschaft wie die Vermeidung eines stets drohenden »Krieges aller gegen alle« (»bellum omnium contra omnes«) verbunden, auf der anderen Seite machen sich die jetzt dem Recht des absolute Macht beanspruchenden Staats Unterworfenen von der Kontingenz und Unübersichtlichkeit der Rechtsverfahren und der Entscheidung der die moderne Staatsgewalt ausübenden politisch Mächtigen abhängig. So erleben die Menschen im politischen Absolutismus der Neuzeit neben der Reduktion der Gefahren, die aus der Gesellschaft für ihr Leben erwachsen, zugleich eine Steigerung von Kontingenz, die aus dem gesellschaftlich verfassten System von Politik und Recht resultiert. Daraus zieht Luhmann den Schluss, dass in sozialen Systemen Prozesse der »Absicherung gegen Kontingenz auch über eine Vermehrung von Kontingenz laufen« (Luhmann 1971b, 311). Dies stellt, wie Luhmann einräumt, den Begriff der Komplexität »auf eine Zerreißprobe«; denn der für Luhmanns Systemtheorie zentrale Begriff der Komplexität »muss von der Ebene des faktisch Verwirklichten auf die Ebene des Möglichen transponiert werden; er muss nicht nur die Welt- oder Systemzustände be-

134 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

zeichnen, sondern auch und vor allem mögliche Welt- oder Systemzustände« (Luhmann 1971b, 311). Mit solchen Überlegungen nähert sich Luhmann philosophisch dem Begriff der »möglichen Welten« an, der bei Leibniz als ein zentraler Begriff seiner Metaphysik fungiert. So schreibt Luhmann: »Ansatzpunkte« für das Verständnis seines Begriffs von Komplexität »finden sich in der philosophischen Tradition am ehesten wohl bei Leibniz. Leibniz stellt nämlich das Problem der Weltkomplexität in der Form, dass er Welt im Rahmen des logisch Möglichen als kontingent begreift und die beste der möglichen Welten als eine solche definiert, die das Problem der Weltkomplexität optimal gelöst hat, indem sie ein höchstes Maß an Varietät mit einem Minimum an Mitteln und begrifflichen Hypothesen – modern gesprochen: mit einem Minimum von Steuerungseinrichtungen – verbindet« (Luhmann 1971b, 313). Die begrifflichen Mittel, die Wirklichkeit der Welt nicht primär aus der geschlossenen Kausalität der Naturgesetze im Anschluss an Newton und den szientistischen Naturalismus der Physik der frühen Neuzeit, sondern aus der Perspektive einer radikal ausgelegten Kontingenz der Welt zu verstehen, entstammen – gerade auch bei Leibniz – der Philosophie des Johannes Duns Scotus. Dieser hatte uns gelehrt, dass der Gedanke einer – später von Leibniz wie von Luhmann festgestellten – »radikalen Kontingenz« der Welt nicht physikalistisch umgedeutet oder missverstanden werden darf im Sinne eines vermeintlichen »Zufalls«, also einer Abweichung von Naturgesetzen innerhalb einer deterministisch gedachten Natur, und auf diesem Weg als ein Gegenbegriff zur »Notwendigkeit« kausaler Naturgesetze erscheint. Die Einsicht in eine radikale Kontingenz des möglichen Seienden im Sinne von Scotus, aber auch von Leibniz, führt auch nicht zu einer Theorie eines wissenschaftlich vermeintlich oder tatsächlich nicht erklärbaren, unableitbaren »Chaos« in der Natur oder zu einer Theorie grundlegender »Indeterminiertheit« alles dessen, was in der Welt geschieht. Die von Johannes Duns Scotus formulierte Einsicht in die radikale Kontingenz der Welt enthält vielmehr das Bewusstsein von der immer auch nichtrealisierten, aber logisch ohne Widerspruch denkbaren und in diesem Sinn nicht ausgeschöpften Vielfalt von Möglichkeiten, die der Wirklichkeit selbst ontologisch zugrunde liegen; denn die Rede von »möglichem Seiendem« bringt zum Ausdruck, dass es dem so bezeichneten Seienden »nicht widerspricht zu sein« (»non repugnat esse«) und somit ein Konzept der Wirklichkeit im Ganzen gedacht werden muss, das phi135 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

losophisch nicht auf das »notwendigerweise Wirkliche« im Sinne eines »ontologischen Determinismus« der modernen Physik im Anschluss an Newton begrenzt werden darf (vgl. hierzu die Analysen von Honnefelder 1979). Luhmann folgt Leibniz nicht auf dessen Weg einer logischen Rechtfertigung der Welt als der »besten« unter den »möglichen Welten«. Bekanntlich konnte sich Voltaire in seinem Candide angesichts des als Naturkatastrophe erlebten Erdbebens von Lissabon hierüber nur lustig machen (oder auch empören), da er philosophisch die Pointe nicht verstanden hatte, was Leibniz mit dem Begriff einer »möglichen Welt« aussagen wollte. Sie besteht darin, die gegebene, also die faktische Welt nicht naturalistisch zur einzig möglichen Welt zu erklären, indem man sie im Paradigma einer physikalistischen Weltdeutung (oder mittels anderer Muster) zu einer durch strengen Determinismus bestimmten, einzig notwendigen Wirklichkeit (v)erklärt. Dagegen steht Luhmann mit seinem Ansatz bei einem (auch ontologisch) radikalen Konstruktivismus ein. Luhmann gibt in seiner Rede von der Kontingenz der Welt dem Begriff einer »möglichen Welt«, wie er uns bei Leibniz begegnet, auch eine neue Bedeutung; denn es ist genau dieser Begriff, der es Luhmann erlaubt, die Distinktion von »System« und »Welt im Ganzen«, wie er sagt, vorzunehmen. Erst auf diesem Weg kann Luhmann »nicht nur von Systemkomplexität als Selektionskriterium« sprechen, sondern zugleich »von Weltkomplexität als Woraus der Selektion«, wobei Luhmann selbst darauf hinweist, dass »in beiden Hinsichten in je anderer Weise Komplexität auf die Kontingenz des Gegebenen im Lichte anderer Möglichkeiten« (Luhmann 1971b, 314) bezogen wird. Dabei wirft Luhmann die philosophisch spannende, weil weiterführende Frage auf, ob die Systemtheorie nicht darauf angewiesen ist, dass wir philosophisch über eine rein modallogische Fassung des Begriffs der Möglichkeit hinausgehen müssen, um eine ontologische Dimension unserer Rede vom Möglichen zu erschließen, die einem Konzept der naturalistischen Reduktion des Wirklichen auf das Notwendige widerspricht. In letzter Instanz bleibt Niklas Luhmann auf diese Frage eine zufriedenstellende Antwort schuldig. Seine Antwort liegt nämlich im Horizont der Beschreibung der Aufgaben der Soziologie, also nicht einer Metaphysik oder Ontologie, und diese sieht Luhmann in einer systemtheoretischen Explikation der Struktur sozialer Systeme auf der Grundlage des Sinnbegriffs. Ganz im Rahmen dieser Aufgabenstellung schlägt Luhmann aber immerhin vor, »Möglichkeit« – und damit meint er nicht den modallogischen Begriff, son136 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

dern die von ihm bezeichnete (»ontologische«) Verfassung der Welt in ihrer Kontingenz – »als eine Generalisierung von Wirklichkeit zu begreifen« (Luhmann 1971b, 315). Dass dieser radikale Gedanke seine Vorgeschichte in der Transzendentalphilosophie des Mittelalters, insbesondere bei Johannes Duns Scotus hat, darauf hat Luhmann selbst affirmativ hingewiesen. Ohne weiter auf die philosophischen Implikationen seines eigenen Vorschlags einzugehen, expliziert er den systemtheoretischen Gehalt dieses Gedankens, der uns, wie Luhmann sehr wohl weiß, bei Duns Scotus begegnet, und was er aus ihm in seiner Übertragung in eine Theorie sozialer Systeme macht, mit folgenden Worten: »Man könnte damit Erzeugung von Möglichkeiten, wie Generalisierung schlechthin, als strukturabhängige Leistung zu begreifen versuchen und würde in den Systemstrukturen zugleich die jeweils maßgebenden ›Bedingungen der Möglichkeit‹ lokalisieren. Die Ebenen des Möglichen und des Wirklichen wären nicht mehr durch identisch bleibende (nur modalisierte und ummodalisierbare) Substrate verbunden, sondern durch selektive Prozesse, von deren Kapazität weitgehend abhängt, was jeweils als möglich entworfen werden kann« (Luhmann 1971b, 315). Hier spricht Luhmann nun von einem mehrdimensionalen Begriff der Komplexität, der an die prozessualen Dynamiken sozialer Systeme wie menschlicher Gesellschaften und Kulturen zurückgebunden wird, zu denen neben Recht und Politik auch Kunst und Literatur, Wissenschaft und Religion zu zählen sind. »In diesem sehr weiten Rahmen könnten sowohl die vorliegenden Bemühungen«, schreibt Luhmann, »von denen wir ausgegangen sind, als auch die Unterscheidung von unbestimmbarer und bestimmbarer Komplexität und schließlich auch die mit dem Sinnbegriff zusammenhängenden Vorstellungen eingearbeitet werden als Reduktionen der Komplexität des Begriffs der Komplexität« (Luhmann 1971b, 315).

4.

Evolution sozialer Systeme

Diese Überlegungen gestatten es Luhmann, im Anschluss an Talcott Parsons seinerseits auch von einer »Evolution« der sozial verfassten Handlungssysteme zu sprechen, da sie in der Lage sind, beständig neue Differenzierungen und Sinnentwürfe zu verwirklichen. Den Begriff der »Emergenz« benutzt Luhmann in diesem Zusammenhang (zunächst) aber nicht. Soziale Systeme stellen insofern einen Sonder137 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

fall innerhalb der allgemeinen Evolution des Lebens dar, da sie für Luhmann »in ihren späten, den Menschen voraussetzenden Phasen sinngesteuert« (Luhmann 1971a, 95) verläuft. Der die sozialen Systeme konstituierende »Sinn« ist es also, der auch deren Entwicklung oder Evolution von der Entwicklung oder Evolution der belebten Natur unterscheidet. Ihr Entwicklungspfad ist somit nicht durch vermeintlich natural vorgegebene Mechanismen oder Gesetze determiniert und bewegt sich »weder zwangsläufig noch kontinuierlich« (Luhmann 1971a, 95) in die Richtung einer »Stabilisierung von Möglichkeiten der Kombination größerer Freiheiten der Anpassung an komplexe und wechselnde Umweltlagen« (Luhmann 1971a, 95). Von entscheidender Bedeutung ist hierbei für Luhmann die »Analyse der Funktion und des Leistungsmechanismus sinnhafter Erlebnisverarbeitung«, durch die, wie wir gesehen haben, die sozialen Systeme im Unterschied zu anderen Systemen charakterisiert sind. Anders als das Denken der Evolutionsbiologie mit seiner (vergleichsweise schlichten, ja intendiert einfachen) Modellierung von Evolution als Mutation (bzw. Variation) und Selektion im Dienst von Art- und Gattungserhaltung (Stabilität) begreift Luhmann die Evolution sozialer Systeme als eine beständig neue Auslegung von Sinn unter der Maßgabe der Differenz von »Welt« und »System« gemäß der doppelten Dynamik von Reduktion und gleichzeitiger Steigerung von Komplexität: »Strukturelle Veränderungen in einzelnen Systemen machen die Umwelt anderer Systeme komplexer, worauf diese durch Ausschöpfung neuer Möglichkeiten, Anpassung oder Differenz – in jedem Falle durch Steigerung der Selektivität ihres Zustands reagieren« (Luhmann 1971a, 95 f.). Damit treten auch andere Kriterien hervor, anhand deren Luhmann den Strukturwandel bestimmt, den soziale Systeme in der Geschichte ihrer Entwicklung durchlaufen. Nicht die Stabilität von Stoffwechselprozessen zwecks Erhaltung des Lebens gibt der sozialen Evolution von menschlichen Gesellschaften ihren Kompass; denn vermeintliche oder wirkliche »vorteilhafte Strukturveränderungen der sich anpassenden Systeme können die Umwelt anderer Systeme erneut möglichkeitsreicher [und damit kontingenter, also risikoreicher und nicht stabiler – MLB] werden lassen, so dass im Laufe der Evolution zwar nicht notwendig die Komplexität aller Systeme bzw. Systemarten steigt, wohl aber die Komplexität ihres Zusammenhangs, der dann für sinnhaftes Erleben als Welt erfahrbar wird« (Luhmann 1971a, 96).

138 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

Damit wendet sich Luhmann gegen die älteren Annahmen einer Evolutionstheorie, die die Prozesse wie bei George Herbert Spencer als einen naturkausalen Prozess verstand. »Ihnen gegenüber« sieht Luhmann den Vorzug seines Konzepts von Evolution darin, »dass die Evolutionstheorie nicht mehr analog zu Naturgesetzen als Gesetz des Entwicklungsprozesses selbst formuliert zu werden braucht, sondern als Theorie der Systemstrukturen und -prozesse, die Evolution hervorbringen, aber nicht Evolution sind« (Luhmann 1971b, 362). Und gegen Karl Marx gewandt fügt Luhmann hinzu: »Entsprechend sehe ich das Evolutionsproblem bei Sinnsystemen nicht in Veränderungen der ›Reproduktion des Lebens‹ – und sei es des guten, kulturell interpretierten Lebens oder des materiell gut dotierten Lebens, also in der Reproduktion der Produktivkräfte und Produktionsverhältnisse –, sondern in Veränderungen der ›Reproduktion von Komplexität‹« (Luhmann 1971b, 362 f.). Dabei nimmt Luhmann aus der Evolutionstheorie durchaus die Konzepte von Variation, Selektion und Stabilisierung auf, um ihnen im Blick auf die sozialen Systeme allerdings auch eine neue, eine systemtheoretische Wendung zu geben: »Mein Vorschlag für den Fall des Gesellschaftssystems ist nun: den Variationsmechanismus primär in der Sprache, den Selektionsmechanismus primär in den Kommunikationsmedien und den Stabilisierungsmechanismus primär in den Systembildungen der Gesellschaft zu sehen« (Luhmann 1971b, 364). Damit stellt er den Prozess einer Differenzierung von Sprache und die Ausbildung der Medien der Kommunikation als Indikatoren gesellschaftlicher Modernisierungsprozesse analytisch neben die Systembildung der Gesellschaft und deutet sie als einander »gleichgeordnete, nicht aufeinander zurückführbare Funktionen« (Luhmann 1971b, 368). Diese Einsicht verdeutlicht die Grenzen der Übertragbarkeit der klassischen Begriffsinstrumente (Variation, Selektion und Stabilisierung) der in der Biologie erfolgreichen Theorie der Evolution des Lebendigen auf die Geschichte der menschlichen Gesellschaften. Auf diesem Weg kann Luhmann mit seinen Ausführungen sowohl eine Brücke zu Talcott Parsons als auch zu Jürgen Habermas bauen, die beide in ihren Theorien der Gesellschaft, wenn auch auf unterschiedliche Weise, auf die Differenz der Logik von Sprechakten, der Kommunikation zwischen Kommunikationsteilnehmern und der Ausbildung gesellschaftlicher Systeme unter Einschluss der für die modernen Gesellschaften typischen Subsysteme verweisen. So schreibt Luhmann: »Systembildung wäre somit nur ein evolutionäres Moment neben 139 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

anderen und hätte Sprache ebenso wie Wahrheit als unabhängige, wenngleich interdependente Momente neben sich« (Luhmann 1971b, 368). 7 Von speziellem Interesse ist in diesem Zusammenhang sein Vorwurf gegenüber Jürgen Habermas, dass dieser sich (und das betrifft die Jahre 1970/71) noch an den Prämissen der Marx’schen Geschichtsphilosophie und deren Nähe zu Darwins Vorstellung einer auch die Entwicklung der menschlichen Gesellschaften einschließenden Evolutionstheorie orientiert. Beide, Marx wie Habermas, so lautet der Vorwurf von Luhmann, argumentieren »noch unter den Denkvoraussetzungen der alteuropäischen Tradition; sie beziehen sich noch auf die Befriedigung von Bedürfnissen des organischen und gesellschaftlichen Lebens« (Luhmann 1971b, 372). Damit begeht Jürgen Habermas für Niklas Luhmann aber einen »Kategorienfehler«, der daraus resultiert, dass er den von der Biologie ausgearbeiteten Begriff des Lebens in die Theorie der Gesellschaft einführt und für eine Theorie des menschlichen Handelns als in letzter Instanz normativ bedeutungsvoll unterstellt. Diese Beobachtung trifft in der Sache zu, wie man auch an der Korrektur ablesen kann, die Habermas an seiner eigenen Theorie im Zuge der Ausarbeitung der (deutlich später erschienenen) Theorie des kommunikativen Handelns (vgl. Habermas 1981) ablesen kann. Dort legt Habermas eine Theorie der Gesellschaft vor, die sich von solchen Prämissen freigemacht hat und Kriterien nicht nur der Funktionalität gesellschaftlicher Systeme des Zusammenlebens, sondern auch der Geltung für die Wahrheit von Aussagen über die Welt, für die Richtigkeit grundlegender Normen des menschlichen Zusammenlebens und der Authentizität ästhetischer Urteile aus einem Konzept verständigungsorientierten Handelns und dessen Situierung in unserer Sprache gewinnt. Mit diesem Vorschlag soll Luhmanns Konzept komplexer Systeme des sozialen Handelns abschließend verglichen werden. Mit seiner grundlegenden Kritik an einem letztlich naturalistischen Paradigma der Deutung evolutionärer Entwicklung wehrt Luhmann, wie man am Beispiel seiner Korrekturen an Habermas sehen

An dieser Stelle fährt Luhmann wie folgt fort: »Diese Problemfassung erlaubt es, einerseits auf die Kritik von Habermas, andererseits auf die alten Kontroversen zwischen Systemtheorien und Theorien sozialen Wandels differenzierter, nicht mehr nur dichotomisch angesetzte Antworten zu suchen«, womit Luhmann sich ausdrücklich auf Talcott Parsons bezieht.

7

140 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

kann, durchaus erfolgreich den Vorschlag ab, eine Theorie sozialer Systeme aus einer Entsprechung zu einer Theorie organischer Systeme des Lebens zu entwickeln, wie dies bis in die Gegenwart immer wieder versucht wird. Aus dieser, wie Luhmann zurecht sieht, illegitimen Übertragung von Vorstellungen des Organischen auf die Systeme von Gesellschaft, Kultur und Politik resultieren methodisch begründete Fehlleistungen, die z. T. zu politisch tiefgehenden Verwerfungen führen, nicht zuletzt in der Gegenwart im Angesicht der Probleme einer von Fehlentwicklungen menschlicher Systeme des Handelns (in Wirtschaft, Politik oder Kultur), in jedem Fall multifaktoriell verursachten und durch viele Umstände ausgelösten sowie in der Gegenwart tendenziell sogar verstärkten Klimakatastrophe, die manche Sozialtheorien dadurch auflösen wollen, dass sie sich an einem Denken in Regelkreisläufen »der Natur« (d. h. an dem, was sie dafür halten) orientieren. Die Übertragung von Vorstellungen des organischen Lebens auf soziale Systeme führt in aller Regel theoretisch, und nur das interessiert hier, zu einem naturalistischen Reduktionismus, wie er uns zeitgenössisch auch in manchen sozialwissenschaftlichen Beiträgen zur menschlichen Intentionalität, zur Entwicklung von sozialen Systemen und deren »Emergenz« begegnet. Die Ursache für den Fehler eines naturalistischen Reduktionismus in den Sozialwissenschaften sieht Luhmann in der Übertragung der Vorstellung organischer Systeme und ihrer Funktionalität auf die menschliche Gesellschaft und Kultur. Er spricht selbst von »zwei Fallen«, die die »Organismus-Analogie« dem »Soziologen« stellt: »Die erste Falle geht auf die wesentlich höhere strukturelle Invarianz organischer Systeme zurück, die in sozialen Systemen keine Entsprechung hat […] Die andere Fehlerquelle besteht darin, dass Organismen lebende Systeme sind, die aus lebenden Teilen bestehen, die mit anderen Worten auf Wiederholung des lebensförmigen System/Umwelt-Prozesses in ihren Teilen angewiesen sind. Auch das gilt für soziale Systeme nicht« (Luhmann 1971b, 372). Daher erscheint es auch nicht überzeugend, die Dynamiken, die gesellschaftliche Systeme – wie alle durch Sinn integrierten sozialen Systeme – im Anschluss an Luhmann mit dem Begriff der »Emergenz« zu beschreiben (vgl. hierzu Greve/Schnabel 2011). Dem Emergenz-Konzept haftet eine philosophisch wie wissenschaftstheoretisch unklare Position zwischen einem ontologischen, antireduktionistischen Dualismus und einem physikalistisch begründeten, ontologischen Monismus an, die beide an der Einsicht von Luhmann vorbei141 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

zielen, wenn diese Theorien versuchen, die besondere Verfassung der Komplexität sozialer Systeme mit Hilfe ihrer Prämissen zu verstehen. Insbesondere nimmt die Debatte um den Begriff der Emergenz nicht hinreichend die Einsicht auf, dass die Rede von komplexen Systemen in der Biologie und der Chemie paradigmatisch klar von der Verwendung des Begriffs der Komplexität in den Handlungs- und Sozialwissenschaften unterschieden werden muss. Im Streit um den Begriff der Emergenz zur Interpretation des Begriffs der Komplexität sozialer Systeme wird von allen beteiligten Seiten die von Luhmann formulierte Einsicht – die ihn, bei manchem, was sie trennt, mit Parsons und Habermas verbindet – in die Konstitution sozialer Systeme durch Sinn und Handeln affirmiert. Aus Luhmanns Rekonstruktion des soziale Systeme erst ermöglichenden Sinns resultiert nicht nur seine Einsicht in die Doppelstruktur der Reduktion und Steigerung von Komplexität sowie in die kulturell wie politisch gleichermaßen wichtige Rolle der Erfahrung radikaler Kontingenz und der unbegrenzbaren Bestimmung der Möglichkeiten von Welt. An diese Einsichten von Luhmann, so unvollkommen sie philosophisch sein mögen, reicht die zeitgenössische Debatte zu der Frage, ob in sozialen Systemen Neues emergiert, was nicht bereits aufgrund der Struktur des Systems deterministisch angelegt war, nicht einmal von außen heran. Die Emergenz-Theorie verdankt sich einer problematischen Übertragung biologischer und physikalischer Systemkonzepte auf den Raum des gesellschaftlichen oder intersubjektiven Handelns und seiner Systembedingungen. So begegnen uns in dieser Diskussion die theoretisch problematischen Alternativen einer Reduktion von gesellschaftlich identifizierbaren sog. Makroprozessen auf die sog. Mikroebene von Systemelementen, die Annahme einer Verursachung von der Systemebene nach unten (downward causation) oder die Annahme einer Irreduzierbarkeit aller Systemzustände und Ereignisse auf die Ausgangsbedingungen eines sozialen Systems, ganz so, als hätte nicht bereits Luhmann aufgezeigt, dass es in sozialen Systemen – recht verstanden – keinen Primat des Systems vor seinen Elementen und umgekehrt gibt. Die Herkunft der Emergenz-Debatte aus der Naturalismus-Debatte der Biologie des 19. Jahrhunderts wird auch daran deutlich, dass hier eine weitere, philosophisch unaufgeklärte Debatte fortgeführt wird, die in der zeitgenössischen Handlungstheorie zwischen Theorien ausgetragen wird, die einerseits die Freiheit im menschlichen Handeln aus Gründen einer naturalistischen Ontologie leugnen und als Grund für 142 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

ihre Annahme auf einige intrinsische Dispositionen des Menschen und seines Gehirns verweisen, und solchen Theorien andererseits, die die menschliche Handlungsfreiheit nur um den Preis der Behauptung einer physikalistischen Indeterminiertheit der Welt im Ganzen verstehen wollen und einer Theorie des ontologischen Zufalls das Wort reden, der die physikalisch geschlossene Kette der determinierenden Ursachen aufsprengt. Beide Seiten der Diskussion lassen sich aber als eine falsch gestellte Alternative verstehen – und so führt diese Debatte nur in eine Aporie. Diese Debatte leidet ersichtlich an einer philosophisch unaufgeklärten Beziehung unseres Verständnisses von Natur und Kultur sowie unserer Rede von Gesetzen der Natur und Regeln der Freiheit – und die Frage nach einer Emergenz von gesellschaftlich Neuem in sozialen Systemen verspricht infolge dessen keine Einsicht, die wir nicht schon besser bereits bei Luhmanns Theorie komplexer sozialer Systeme begründet und pointierter formuliert finden könnten; denn das Vorliegen von Emergenz wird in dieser Debatte davon abhängig gemacht, ob bestimmte Ereignisse in sozialen Systemen aus der Struktur des Systems gleichsam kausal folgen oder ob sie nicht auf die Strukturbedingungen des Systems zurückgeführt werden können, also irreduzibel sind und daher etwas unvorhersehbar Neues beinhalten. Diese Alternative entspringt dem Paradigma einer naturwissenschaftlichen Fragestellung und erscheint auf dem Hintergrund des Beitrags von Niklas Luhmann zur Theorie der Gesellschaft als komplexem System selbst als unterkomplex, insofern bereits Luhmann gezeigt hatte, dass auf soziale Systeme durchaus beide Bestimmungen angewandt werden können, da sie durch Komplexitätssteigerung und Komplexitätsreduktion die Ausgangsbedingungen und die Weltaneignung grundlegend verändern, somit Neues herstellen und doch dabei nur erfolgreich sind, wenn dies gleichsam mit den Vorgaben der Welt, ihrer kausalen Verfassung und der funktionalen Realität der Gesellschaft geschieht. Daher schlage ich vor, den Begriff der Emergenz im Blick auf die Frage nach dem Funktionieren und der Evolution sozialer Systeme, in denen wir immer auch auf handelnde Personen, die ihre Einsicht in Gründe und nicht zuletzt ihre Einsicht in das, was Luhmann soziologisch den Sinn nennt, treffen, möglichst selten zu gebrauchen; denn der Diskussion des Emergenz-Begriffs in den Sozialwissenschaften haften z. T. unklare, z. T. aber philosophisch unzulängliche Alternativen an, die um der Klarheit der hier zu verwendenden Begriffe willen zu vermeiden sind. So schließe ich mich allenfalls der vorsichtigen Beobachtung 143 https://doi.org/10.5771/9783495825464 .

Matthias Lutz-Bachmann

von Renate Mayntz an, die im Blick auf die gegenwärtige sozialwissenschaftliche Diskussion der Frage, ob der Begriff der Emergenz zur sozialwissenschaftlichen Auslegung der spezifischen Eigenart komplexer Systeme des Sozialen einen wichtigen Beitrag leistet oder nicht, eher zurückhaltend Folgendes feststellt: »Biologie und physische Anthropologie können vielleicht mit einem Konzept einer kontextfreien, universellen ›menschlichen Natur‹ arbeiten, aber die Soziologie kann das nicht. ›Isoliert‹ betrachtet besitzt homo sapiens nur einige wenige und hochgradig allgemeine Verhaltensdispositionen. Die Verhaltensdispositionen sozialer Akteure werden dadurch geformt, dass sie in eine spezifische Kultur sozialisiert sind sowie durch die Opportunitäten und Restriktionen, die ein gegebenes System den Akteuren liefert bzw. denen sie unterliegen. Daher macht es keinen Sinn, das Verhalten von sozialen Akteuren als Ausdruck kontextfreier, intrinsischer Verhaltensdispositionen zu verstehen. Die Kontextabhängigkeit der Eigenschaften sozialer Institutionen oder, in anderen Worten, ihre historische Natur ist noch evidenter. Soziale Institutionen, von spezifischen Normen bis hin zu Regelsystemen, die verschiedene Lebenssphären steuern (z. B. Erziehung, Arbeit, Heirat und Familie) werden durch die Entwicklung und den Stand der Gesellschaft geformt, deren Teil sie sind. Wenn die Teile eines sozialen Systems Eigenschaften aufweisen, die durch dieses System und seine Geschichte bestimmt werden, dann kann der Effekt ihrer Handlungen kausal aus der Mikrostruktur dieses bestimmten Systems abgeleitet werden, ist aber […] irreduzibel und folglich emergent im strikten philosophischen Sinn« (Mayntz 2011, 182).

Literatur Bertalanffy, Ludwig von (1969): General Systems Theory. Foundations, Development, Applications. Überarb. Ausg. New York. Bertalanffy, Ludwig von et al. (Hg.) (1956): General Systems Yearbook. Ann Arbor, Michigan. Förster, Heinz von (1982): Observing Systems. Seaside. Förster, Heinz von (1962): Principles of Self Organization. New York. Förster, Heinz von (1979): Cybernetics of Cybernetics, in: Klaus Krippendorff (Hg.) (1979): Communication and Control in Society. New York. Greve, Jens/Schnabel, Annette (Hg.) (2011): Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Berlin.

144 https://doi.org/10.5771/9783495825464 .

Komplexität sozialer Systeme

Habermas, Jürgen (2020): Auch eine Geschichte der Philosophie, Band 1: Die okzidentale Konstellation von Glauben und Wissen. Berlin. Habermas, Jürgen (1981): Theorie des kommunikativen Handelns, Band 1: Handlungsrationalität und gesellschaftliche Rationalisierung, Band 2: Zur Kritik der funktionalistischen Vernunft. Frankfurt a. M. Honnefelder, Ludger (1990): Scientia transcendens. Die formale Bestimmtheit der Seiendheit und Realität in der Metaphysik des Mittelalters und der Neuzeit (Duns Scotus, Suárez, Wolff, Kant, Peirce). Hamburg. Luhmann, Niklas (1976): Komplexität, in: Historisches Wörterbuch der Philosophie, Bd. 4. Hg. von Joachim Ritter/Karlfried Gründer. Basel, 939– 934. Luhmann, Niklas (1971a): Sinn als Grundbegriff der Soziologie, in: Jürgen Habermas/Niklas Luhmann (Hg.) (1971): Theorie der Gesellschaft oder Sozialtechnologie – Was leistet die Systemforschung? Frankfurt a. M., 25–100. Luhmann, Niklas (1971b): Systemtheoretische Argumentationen. Eine Entgegnung auf Jürgen Habermas, in: Jürgen Habermas/Niklas Luhmann (Hg.) (1971): Theorie der Gesellschaft oder Sozialtechnologie – Was leistet die Systemforschung? Frankfurt a. M., 291–405. Maturana, Humberto R./Varela, Francisco (1960): Autopoiesis and Cognition. Dordrecht. Mayntz, Renate (2011): Emergenz in Philosophie und Sozialtheorie, in: Jens Greve/Annette Schnabel (Hg.) (2011): Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Berlin, 156–186.

145 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen Demokratische Verzweiflung und adaptive Hoffnung 1 Yael Peled »›Ich wollte nur darauf hinweisen, dass der Mensch von Natur aus ein mythenschaffendes Wesen ist.‹ ›Was soll das heißen?‹ fragte der Oberste Hirte. ›Es bedeutet, dass wir dauernd improvisieren‹, erklärte der Dekan, ohne aufzusehen.« (Terry Pratchett, Schweinsgalopp)

1.

Einleitung: Die Auswirkungen von Komplexität auf (demokratische) normative Ordnungen

Die Vorstellung von menschlichen Gesellschaften als ergebnisoffen, emergent, selbstorganisierend, anpassungsfähig, nichtlinear, unvorhersehbar, unscharf abgegrenzt, empfindlich gegenüber ihren Ausgangsbedingungen, und die darüber hinaus in sich selbst eine Vielzahl komplexer Entitäten vereinen, stellt eine wesentliche – wenngleich nicht unüberwindbare – Herausforderung für die Frage normativer Ordnungen dar. Dies rührt daher, dass die Untersuchung normativer Ordnungen mindestens teilweise von der Erwartung – oder einfach nur dem Glauben – abhängt, dass individuelles und kollektives menschliches Handeln fähig ist, die sozialen und politischen Strukturen, in denen sie zu Hause sind, zum Besseren hin zu beeinflussen und zu formen. Im liberalen Gedankengut wird diese Erwartung beispielsweise durch die Idee der Vernünftigkeit (reasonableness) ausgedrückt, was als praktisches logisches Denken verstanden wird:

Der Dank der Autorin gilt der Forschungsgruppe Komplexität in Wissenschaft, Kultur und Gesellschaft für ihre hilfreichen Anmerkungen zum Text. Die Autorin dankt insbesondere Till van Rahden und Jakob Huber für ihre kritischen Anregungen und Kommentare; und Thomas Schimmer und Jakob Huber für ihre freundliche Hilfe bei der Vorbereitung einer deutschen Fassung des Manuskripts.

1

146 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

»The ›reason‹ of ›a reasonable man‹ is akin to common sense; and the ›reasonable man‹ himself is a ›common man‹, not a member of any elite. The concept of ›a reasonable man‹ is democratic, as well as pragmatic: it is linked with the belief that most ordinary people are ›reasonable people‹ and that their thinking is essentially good and trustworthy – not because these ordinary people will always know the truth in some absolute sense, but because in most situations they will be able to think well enough for practical purposes« (Wierzbicka 2006, 107–108).

Was passiert also, wenn allgemein verbreitete Erwartungen, Glaubenssätze oder Überzeugungen über die Fähigkeit menschlicher Akteure, historische, soziale und politische Prozesse auf informierte und systematische Weise zu gestalten, enttäuscht werden? Wenn normative Ordnungen tatsächlich ungewiss und emergent sind, welche Rolle spielt dies dann für prinzipientreues moralisches Handeln? Wenn es keine richtige Seite der Geschichte oder keinen Bogen der Gerechtigkeit gibt, wohin sich das moralische Universum schließlich beugt, was bedeutet das für jede Art von Bemühungen um moralische Besserung, sowohl durch institutionelle Gestaltung als auch durch Normgestaltung? An sich ist natürlich die Erfahrung frustrierter Erwartungen der Politik als menschlicher Tätigkeit keineswegs fremd. Wenn überhaupt: »The underlying rationale of politics is the quest for finality and decisiveness in the affairs of groups, ends that are permanently frustrated by the slippery and inconclusive circumstances in which that quest occurs. One of the salient forms of human thinking is that associated with attaining ends, reaching conclusions, closing disputes, removing items from the agenda, overcoming uncertainties, or solving disagreements – all of those in conjunction with others. The finality drive is a quest rather than a realized journey because, at every stage along the projected or imagined route, the frequently displayed desire to marshal a group of people on that journey has to confront contingency, indeterminacy, and plurality, and make do with partial, temporary, and disintegrating arrangements, even when they are not immediately visible as such. Strikingly and in parallel, the entire lan-

147 https://doi.org/10.5771/9783495825464 .

Yael Peled

guage of politics – that is to say, political thinking as detectable through its written and oral articulation – is shot through with the vocabulary of finality« (Freeden 2003, 2). 2

Die Erfahrung einer permanent frustrierten Endgültigkeitssuche der Politik stellt eine doppelte Herausforderung dar. Die einfachere der beiden Herausforderungen hat mit dem verständlichen Wunsch der Gewinner zu tun, politische Siege zu verankern, wie z. B. das allgemeine Wahlrecht. Die zweite und anspruchsvollere hat mit einer Haltung des Zynismus oder der Verzweiflung gegenüber der Idee einer normativen Ordnung selbst und ihrer Tragfähigkeit überhaupt zu tun. Mit anderen Worten, erstere drückt Zweifel an Erfolg und Tragfähigkeit einer normativen Ordnung aus, die nach moralischer Besserung strebt, während letztere Zweifel an der Fähigkeit von normativen Ordnungen überhaupt aufkommen lässt, sich selbst zu erhalten, ohne sich aufzulösen. Im Kontext des demokratischen Lebens kann erstere die moralischen Bindungen, die demokratische Gesellschaften zusammenhalten, erheblich belasten. Aber letztere, die sich als die dunkle(re) Seite der demokratischen Verzweiflung manifestiert, kann für diese Bindung potenziell tödlich sein.

2.

Die dunkle Seite der demokratischen Verzweiflung

Das demokratische Leben ist trotz seines oft selbstbewussten und unbeirrbaren Auftretens harte Arbeit. Es erfordert die Auseinandersetzung mit einer dauerhaft ungeklärten Machtstruktur, in der sich die relative Bedeutung konkurrierender Werte wie Freiheit, Gleichheit, Gegenseitigkeit und Solidarität nicht einfach nach einer theoretischen Prioritätensetzung einordnen lässt. Aber auch die Alltagsdemokratie ist harte Arbeit, weil sie demokratische Bestrebungen mit demokratischen Realitäten konfrontiert, die diese Bestrebungen nur selten vollständig erfüllen. Mit anderen Worten: Das demokratische Leben erfordert eine kontinuierliche und konstruktive Auseinander-

Dieses Vokabular umfasst »Autorität, Souveränität, Herrschaft, Hegemonie, Ordnung, Legitimität, Wahlsieg oder Wahlniederlage, die Absolutheit und Nichtverhandelbarkeit von Rechten« usw. (Freeden 2013, 23). Im englischen Original: »authority, sovereignty, rule, hegemony, order, legitimacy, electoral victory or defeat, the absoluteness and non-negotiability of rights«.

2

148 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

setzung mit der Kluft zwischen demokratischen Bestrebungen (oder sogar Erwartungen) und der oft »enttäuschenden Realität der Demokratie, wie sie ist, und der demokratischen Bürger, wie sie sein könnten« 3 (Deneen 2005, 7). Gutartigere Formen demokratischer Enttäuschung streben möglicherweise eine bessere Übereinstimmung zwischen demokratischen Bestrebungen einerseits und demokratischen Realitäten andererseits an. Aber demokratische Desillusionierungen und Hoffnungslosigkeiten können eine viel tiefere Skepsis gegenüber der Fähigkeit der Demokratie verkörpern, eine normative Ordnung aufrechtzuerhalten, was entweder zur Suche der Akteure nach alternativen (und vermeintlich stabileren) Ordnungen oder zu einem tieferen Verlust des Vertrauens in die Tragfähigkeit einer normativen Ordnung führt. Diese dunklere Seite der demokratischen Verzweiflung kann als demokratischer Zynismus verstanden werden. Paradoxerweise geht Letzterer oft von politischen Akteuren aus, die sich in bester Absicht für demokratische Nachhaltigkeit engagieren: »›Democratic faith‹ and ›democratic cynicism‹ arguably coexist in a mutually reinforcing cycle: democratic faith’s exaggerated and unrealizable vision of democracy leads to disillusionment; a response that dismisses ›faith‹ is the result, leading to a cynical democratic theory premised upon the inescapability of interest and manipulation; in turn, idealists resort to more fervent calls for democratic faith and ever greater resulting expressions of disillusionment, even despair. In the end, calls for a moderate and decent democracy are abandoned in this struggle between softhearted (headed?) true belief and hard-headed (hearted?) cynicism. Indeed, the increasing inability of ›normative‹ democratic theorists and ›realist‹ empirical analysts of democracy to speak with each other suggests a worrisome divide: democratic theorists today prefer the company of members of philosophy departments, whereas political scientists find more in common with faculty in economics departments. Connections to the world of politics, politicians, and citizens are in jeopardy, thus suggesting a problem that is more than merely ›academic‹ in nature« (Deneen 2005, 8). Im englischen Original.: »disappointing reality of democracy as it is and democratic citizens as they might be«.

3

149 https://doi.org/10.5771/9783495825464 .

Yael Peled

Zynismus bedroht das demokratische Leben nicht so sehr wegen des spezifischen Inhalts des zynischen Denkens, soweit es so etwas gibt, sondern wegen der Haltung, die ihm zugrunde liegt. Genauer gesagt: »[C]ynicism is essentially an attitude towards human beings and the world they create through their institutions. We aren’t cynical about nature or artefacts or God … though we can say we are cynical about the religions and their institutions. […] It is a habitual and cultivated attitude of skepticism or distrust regarding people’s professed values and motivations, or their strength and nobility of character; it can be allied to contempt for their efforts to do good. […] It is also an attitude of disengagement with the human world, though this can be more or less judgmental or contemptuous … [c]ynics believe that social structures and systems of thoughts are tools for those in power to manipulate others for their own self-interest. There is really no such thing as living by an untainted, pure ideal, because humans are not the sort of creatures to be properly moved by purity or loftiness. They can only respond to considerations of self-interest. People’s expressed intentions, motivations and ideals cannot therefore be taken at face value, however sincere – thus the cynical mistrust« (Vice 2010, 272–273).

Zynismus und demokratischer Zynismus sind also schlechte Nachrichten für das demokratische Leben. Sie sind es jedoch noch mehr in einem demokratischen Rahmen, der auf Erkenntnissen über Komplexität beruht. Wenn die normativen Ordnungen, die dem demokratischen Leben zugrunde liegen, tatsächlich viel weniger vorhersehbar, vernünftig und umsetzbar sind als allgemein angenommen, was sind dann die Implikationen für jede Art von systematischem Bemühen, einen auf moralischen Fortschritt ausgerichteten moralischen Rahmen zu konstruieren? Warum ein guter Mensch sein in einer Welt, deren Handlungsregeln so unsicher sind? Wie kann man überhaupt ableiten, was gut und richtig ist, in einer Welt, die in Bezug auf die moralische Entwicklung alles andere als prozedural zu sein scheint? Auch wenn eine zynische Haltung an sich keine vollwertige Erfahrung von Verzweiflung darstellt, kann sie dennoch als ein kräftiger Impuls dienen, der von der Skepsis gegenüber demokratischen normativen Ordnungen im Besonderen zur Skepsis gegenüber der Mög-

150 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

lichkeit einer normativen Ordnung jeglicher Art im weiteren Sinne führt. Wie kann man konstruktiv mit einem von Enttäuschungen herrührenden Zynismus in der demokratischen Politik umgehen? Eine Möglichkeit bestünde darin, Frustration als konstitutives Element der Begriffe und Bedingungen des »Endgültigkeitsstrebens« der Politik als menschlicher Praxis aufzuzeigen. Eine andere Möglichkeit wäre, mit spezifischeren Details eine praktische Idee eines »post-cynical humanism« (Amichai 1994) zu konstruieren, eine Form des Humanismus, die eher politisch als vorpolitisch ist und die nicht aus einer imaginären Form menschlicher Gemeinsamkeit entsteht, sondern eher aus der gemeinsamen menschlichen Erfahrung von Enttäuschungen und Desillusionierungen. Im Kontext eines moralischen Vokabulars für eine komplexitätsinformierte normative Ordnung konzentriert sich die Idee des post-cynical humanism nicht so sehr auf zeitlose und spezielle Konzepte von Gerechtigkeit oder Gleichheit, sondern vielmehr auf einen Begriff der adaptiven Hoffnung.

3.

Adaptive Hoffnung

Die Kluft zwischen Idealen und Realitäten einer Demokratie kann ganz von selbst demokratischen Zynismus hervorrufen. Demokratischer Zynismus kann durch komplexitätsbezogene Einsichten jedoch noch verstärkt werden und eine viel grundlegendere skeptische Haltung gegenüber der Möglichkeit einer normativen Ordnung hervorrufen, die in Ermangelung jeglicher Art sozialer oder politischer Garantien, die aus einer offenen, nichtlinearen, unvorhersehbaren und sich herausbildenden Welt hervorgehen, existieren könnte. Diese Realitäten konfrontieren demokratische politische Akteure mit der Notwendigkeit, sogenannte wicked problems anzugehen – soziale Herausforderungen, für die es kein Rezept gibt, keine eindeutigen Regeln, die angewandt werden können; für die es vielleicht gute und schlechte, aber keine wahren und falschen und erst recht keine sofortigen und endgültigen Lösungen geben kann; bei denen es keine Möglichkeit gibt, durch Versuch und Irrtum zu lernen; die im Wesentlichen einzigartig sind und zugleich als Symptom eines anderen wicked problem betrachtet werden können; die in hohem Maße von der Art und Weise abhängig sind, wie sie erklärt werden und die Fra-

151 https://doi.org/10.5771/9783495825464 .

Yael Peled

gen betreffen, bei denen den Verantwortlichen im Falle eines Irrtums keinerlei Immunität gewährt wird (Rittel/Webber 1973, 161–167). Die Unvermeidbarkeit von wicked problems stellt eine weitere Herausforderung für die demokratische Politik dar, die bereits »grenzenlose Hoffnungsreserven gegen den Rückzug in einfachen Optimismus oder die Versuchung zu einer Art demokratischem Zynismus oder Verzweiflung fordert« 4 (Deneen 2005, 12). Bemerkenswert an der Hoffnung in dieser Hinsicht ist jedoch, dass sie ein wichtiges Merkmal mit dem Zynismus gemeinsam hat: Sie ist nämlich weniger ein ausgeprägter Glaube als vielmehr eine Haltung gegenüber den Menschen, ihrem Denken und Handeln und den von ihnen geschaffenen und erhaltenen Institutionen. Und so wie Zynismus eine destruktive (oder zumindest ätzende) Kraft im demokratischen Leben sein kann, kann die Hoffnung als ihr konstruktives oder produktives Gegenstück betrachtet werden. Um das zu verstehen, ist es wichtig, den Unterschied zwischen Hoffnung und Optimismus hervorzuheben, der im Gegensatz zur Hoffnung in einem gewissen Grad an Wahrscheinlichkeit wurzelt: »We can hope that a favoured candidate will win an election even when we are not optimistic that she will win. This can be because she has less money than her opponent, the polls reveal that she is behind, or we know for some other reason that the odds are stacked against her. Indeed, we can have hope even when there is scant reason for optimism – as when we hope that our team, which has been badly beaten the first three games, will win the playoffs. Being hopeful is also different from being happy. One can be unhappy in an unrewarding job or a bad marriage, yet hopeful that these circumstances might improve. Whereas the antithesis of optimism is pessimism and the antithesis of happiness is unhappiness, the antithesis of hope is despair. These distinctions help us make sense of Martin Luther King’s sober observation to his Atlanta congregation near the end of his life that, while he was no longer an optimist, he still had hope« (Shapiro 2016, 12).

Im englischen Original: »calls for limitless reservoirs of hope against the retreat into easy optimism or the temptation to a kind of democratic cynicism or despair«.

4

152 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

Interessanterweise ist Hoffnung im moralischen Vokabular zeitgenössischer praktischer Philosophen und insbesondere demokratischer Theoretiker relativ unbedeutend geblieben und dies umso mehr im Vergleich zu konkurrierenden Konzepten wie Gerechtigkeit, Freiheit, Gleichheit, Toleranz oder Inklusivität. Dies mag wiederum darauf zurückzuführen sein, dass Hoffnung, ähnlich wie Zynismus, nicht so sehr als ein eigenständiges normatives Prinzip, sondern eher als eine normative Haltung angesehen werden kann und daher im Hinblick auf ihre Rolle bei der Gestaltung von Moralsystemen, Wissen und Handlungsfähigkeit weniger zu berücksichtigen ist: »Why does hope strike so many theorists as unworthy of serious consideration? Perhaps one reason is that there is something intellectually unsatisfactory about being in hope. We often express a hope in contexts where we are hesitant, uncertain, not fully convinced, or lacking in confidence about our ability to convince others. […] In intellectual matters, recourse to hope often reflects a lack of conviction, and in some contexts it can amount to an avowal of ignorance. To acknowledge that one merely hopes is to concede that one doesn’t really know. From the point of view of theory, then, hope can look very much second rate. Hope lacks the justification that self-respecting theorists demand of their convictions and beliefs. The realm of hope is vague and imprecise, and for that reason uninteresting. Hope’s lack of refinement is objectionable not only from a cognitive point of view, but also from an aesthetic one. There is something common, unsophisticated, amateurish about it. Think of the way expressions like ›hit and hope‹ or ›the hopeful ball‹ are used in football talk. If you kick the ball hard enough up field, there’s a chance it will find one of your players. The long, hopeful ball may not be pretty but it is effective, as the saying goes. The contrast here of course is with a skilful, controlled and self-possessed style, one that leaves minimum scope for luck, and hope. The hit-and-hoper, or the player of the hopeful ball, amateurishly leaves things to chance. Here, hope seems to mark the threshold of ability: a player, as much as an actor, musician or writer, starts to hope as she approaches and crosses (what she believes to be) the limits of her powers. ›Those who can, do‹, we could say, ›those who can’t, hope‹. Hope and hopefulness in these and other contexts signifies something crude, ugly and vulgar.

153 https://doi.org/10.5771/9783495825464 .

Yael Peled

Aesthetic aloofness about hope easily merges with moral qualms. Hope and hopefulness are often associated with a naïve and superficial optimism, acceptable perhaps for children and women but unbecoming for a philosopher. From the point of view of the philosopher, whose arduously attained freedom from illusion is such a cherished source of pride, hope can seem a lowly and demeaning form of comfort. Hope and hopefulness, from this perspective, are regressive dispositions that allow fantasy to predominate over reality. This is not only unedifying, it also has bad consequences for the hopeful person. By prolonging attachment to desires that cannot be satisfied, hope generates frustration, resentment, and a proneness to disappointment that can easily result in reactive violence and destruction. This is the reason for the Stoics’ negative evaluation of the hopeful disposition in ancient times, and it stands behind Nietzsche’s often quoted modern indictment of hope. One might also question the value of hope on the grounds that it deals with an unsatisfactory present not by practically engaging with it, but by projecting an imaginary future in which satisfaction is miraculously secured. The problem here is that, in functioning as a form of compensation, hope lends itself to passivity and indifference towards instigating change. To the extent that the hoper relates to a given desirable outcome simply by waiting for it, hope becomes problematic not just from an ethical but also from a political point of view« (Smith 2005, 46–47). 5

Die Wahrnehmung, dass Hoffnung irgendwie unpolitisch ist, erscheint nur dann verlockend, wenn Politik als menschliche Aktivität in einer relativ reduktiven Weise verstanden wird, die das Interesse an spezifischen moralischen Lösungen angesichts der Herausforderungen von Differenz und Interdependenz betont, und zwar auf Kosten der Art und Weise, wie politische Akteure Macht mobilisieren und ausüben. Eine weniger reduktive Sichtweise von Politik, die sich stattdessen auf die praktische Vernunft zwischen unterschiedlichen, aber voneinander abhängigen Mitbürgern konzentriert, birgt Hoffnung als zentrale politische Tugend in sich. Sie betont ihren Beitrag zur demokratischen Entschlossenheit, in Übereinstimmung mit anFür einen aktuellen Überblick über die Skepsis gegenüber der Hoffnung in der politischen Philosophie siehe Huber 2019.

5

154 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

deren zu handeln und eine Haltung des Vertrauens gegenüber ihnen (Huber 2019, 11–16), ihrer bestehenden Form, ihren Fähigkeiten und ihrem Verhalten gegenüber zu erzeugen. So verstanden ist Hoffnung für demokratische Politik unverzichtbar, da sie »am dringendsten in Kontexten benötigt wird, die uns akut mit unseren Handlungsbeschränkungen konfrontieren« 6 (Huber 2019, 13). Dies ist umso dringlicher in einer komplexitätsinformierten Demokratietheorie, in der Merkmale wie nichtlineare Dynamiken und emergente Verhaltensweisen Handlungsspielräume scheinbar noch weiter einschränken. Unter solchen Bedingungen scheint Hoffnung besonders nützlich zu sein, wenn sie im Rahmen der adaptiven politischen Theorie (Shapiro 2016, 10–11) konzeptualisiert wird, die sich um die Idee dreht, dass normative Ordnungen besser mit der Haltung wir erfinden die Dinge, während wir voranschreiten angegangen werden, als durch eine apolitische (oder vorpolitische) Verpflichtung auf einen universellen und zeitlosen kategorischen Imperativ. Die Bedeutung von Hoffnung und insbesondere der adaptiven Hoffnung bringt aus diesem Grund mehr mit sich als eine Haltung der Bereitschaft, gemeinsam mit anderen auf ein gemeinsames Ziel hinzuarbeiten, auch wenn die Chance, es zu erreichen, gering ist. Sie bringt vielmehr die Bereitschaft mit sich, dies in einer Welt zu tun, in der diese Chance sogar noch geringer ist und in der es von vornherein wenig Gewissheit darüber gibt, wie der moralische Bogen des Universums aussieht oder wohin er genau führt.

4.

Adaptive demokratische Hoffnung als kollaborative Bedeutungsgebung

Eine adaptive Idee von demokratischer Hoffnung, wie sie oben vorgeschlagen wurde, basiert notwendigerweise auf zwischenmenschlicher Kommunikation und Interaktion zwischen »verständigen Akteuren, die in der Lage sind, Gründe anzubieten, auszutauschen und zu beurteilen« 7 (Huber 2019, 14) 8 – eine Bedingung, die die entscheiIm englischen Original: »is most urgently needed in contexts that acutely confront us with our agential limitations«. 7 Im englischen Original: »conversable agents capable of offering, exchanging and adjudicating reasons«. 8 Zur zentralen Bedeutung von Sprachvermögen und sprachlichem Handeln für das politische Leben siehe auch Kymlicka/Donaldson 2016. 6

155 https://doi.org/10.5771/9783495825464 .

Yael Peled

dende Rolle der Sprache in diesem Prozess hervorhebt. Dies legt nahe, dass adaptive Hoffnung in verschiedenen Formen und Kontexten der Bedeutungsgebung (meaning-making) im demokratischen Leben eine besonders entscheidende Rolle spielt. Denn sie unterstützt die Fähigkeit erfahrener politischer Akteure zur Zusammenarbeit bei der Bildung, Prüfung und Anfechtung des moralischen Vokabulars der normativen Ordnungen, für die sie stehen. Welche Ideen umfasst dieses Vokabular? Wer darf sie definieren und in einem bestimmten Begriffscluster einordnen? Wer darf diese Ordnungen in Frage stellen, sie neu ordnen und neue Elemente einführen? Diese und ähnliche Fragen bilden die Grundlage der demokratischen Bedeutungsgebung. Eine adaptive und hoffnungsgeleitete Herangehensweise an die demokratische Bedeutungsgebung, die durch kooperative und symmetrischere Formen der Interaktion zwischen den Mitbürgern erleichtert wird, kann daher als besonders wertvoll für die Linderung der drohenden demokratischen Verzweiflung angesehen werden. Eine solche demokratische Bedeutungsgebung ist harte Arbeit. Sie erfordert von den Mitbürgern eine aktive Zusammenarbeit über Sprachbarrieren und ihre sozialen, politischen, kulturellen und religiösen konzeptuellen Besonderheiten hinweg. Sie erfordert eine Verpflichtung zum Zuhören bei gleichzeitigem Recht zu sprechen (Dobson 2014) und das Bewusstsein, dass sprachliche Vorurteile oft sowohl in Bezug auf den Inhalt als auch auf die Art und Weise der Rede einer Person entstehen, wenn beides mit den vorherrschenden kommunikativen Normen unvereinbar ist (Peled/Bonotti 2019; Peled 2018a). Im Zusammenhang mit politischen Vokabularen kann man davon ausgehen, dass demokratische Bedeutungsgebung die natürlich umstrittene Substanz politischer Konzepte in erster Linie eher verschlimmert als verbessert und die Begriffscluster, aus denen diese Konzepte ihre Bedeutung und ihren Sinn beziehen, weiter verkompliziert. Diese Herausforderung wird in vielfältigen (und vor allem superdiversen) Gesellschaften insofern besonders deutlich, als diese Vielfalt »einige scharfe empirische Herausforderungen an die traditionellen Vorstellungen über die Erreichbarkeit gegenseitigen Verstehens und die zentrale Bedeutung gemeinsamer Konventionen stellt« 9 (Blommaert/Rampton 2012, 15; siehe auch Arnaut et al. 2016; BlomIm englischen Original: »throws up some sharp empirical challenges to traditional ideas about the achievability of mutual understanding and the centrality of shared convention«.

9

156 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

maert 2013), und zwar aufgrund einer heterogeneren Vielfalt an unterschiedlichen Hintergründen, Ressourcen und Kommunikationsweisen, die die indexikalische Interpretation pluralisieren und der Verhandelbarkeit erhebliche Grenzen setzen (Blommaert/Rampton 2012, 15). Der Prozess der adaptiven und hoffnungsgeleiteten demokratischen Bedeutungsgebung wird ebenso und vielleicht sogar noch mehr durch Zynismus und Verzweiflung herausgefordert, die nicht nur das Vertrauen der Bürgerinnen und Bürger ineinander und in die öffentlichen Institutionen, sondern auch in die Möglichkeit einer normativen Ordnung selbst untergraben können. Diese Skepsis spiegelt sich in der besonderen Art der sprachlichen Handlungsfähigkeit wider, die diesem Glauben zugrunde liegt und die von diesen skeptischen Akteuren entweder als Unfähigkeit oder als nur begrenzte Fähigkeit zur Teilnahme an einem Prozess der Bedeutungsgebung erlebt wird. Dies kann durch inter- oder intralinguistische Sprachbarrieren, Konflikte bei kommunikativen Normen, Erwartungen oder Überzeugungen, epistemische Erfahrungen wie Unaussprechlichkeit und Unbeschreiblichkeit (Kidd/Carel 2016, 183–187), language nausea (Ratcliffe 2019) oder verschiedene Permutationen dieser drei Gründe bedingt sein. In einem demokratischen Rahmen, der von Wissen über Komplexität geprägt ist, kann diese kommunikative Herausforderung als unüberwindbar angesehen werden, wenn man bedenkt, dass zusätzliche normative Stressoren in die bereits angespannte und unzusammenhängende Erfahrung der sozialen und politischen Welt einwirken. Unvorhersehbarkeit, Nichtlinearität, Ergebnisoffenheit und emergentes Verhalten sind solche Kräfte, die die normativen Ordnungen gestalten. Paradoxerweise sind es gerade diese komplexitätsbedingten Unsicherheiten und Unvorhersehbarkeiten, die der Hoffnung im moralischen Vokabular demokratischer normativer Ordnungen eine solch große Bedeutung verleihen. Hoffnung, und insbesondere die adaptive Hoffnung, bietet keine spezifischen Lösungen, weder normativer noch anderer Art, da dies einer auf Komplexität basierenden politischen Welt nicht-komplexe Formen des Denkens aufzwingen würde. Vielmehr kultiviert die adaptive Hoffnung eine Haltung, die es unterschiedlichen, jedoch voneinander abhängigen politischen Akteuren ermöglicht, angesichts von Unsicherheiten normative Lösungen durch praktische Argumentation zu erarbeiten. Adaptive Hoffnung kann durch kooperative Handlungen der Bedeutungsgebung über 157 https://doi.org/10.5771/9783495825464 .

Yael Peled

Sprachbarrieren und kommunikative Normen, Ansichten und Überzeugungen hinweg sinnvoll trainiert und geübt werden, wenn sie in einer Sprachethik begründet ist, die von Andersheit statt Einheit ausgeht (Peled 2020). 10 Der Prozess der hoffnungsgeleiteten kollaborativen Bedeutungsgebung im Angesicht der Ungewissheit und als Antwort auf die Herausforderung der Komplexität an die normativen Ordnungen verwandelt so den Prozess des Erfindens von Dingen während wir voranschreiten von einem Marker philosophischer Schwäche und politischer Unfähigkeit in eine Quelle ausgeprägter Stärke moralischer und politischer Handlungsfähigkeit in einer unvorhersehbaren Welt mit offenem Ende.

5.

Ethik der demokratischen Komplexität: Kollaborative Bedeutungsgebung und der sich schließende Kreis der menschlichen Vernünftigkeit

Die gemeinsame Bedeutungsgebung wurde bisher als entscheidender Schlüssel für eine konstruktive Antwort auf die mögliche Verzweiflung identifiziert, die die Erkenntnisse über Komplexität in demokratischen Gesellschaften hervorrufen können. Dieser kooperative Prozess der Bedeutungsgebung in sprachlich und diskursiv heterogenen Umfeldern, so wurde oben argumentiert, muss sich auf eine gemeinsame Haltung der Hoffnung stützen, die auf einem adaptiven Ansatz beruht, der den zentralen Merkmalen der Komplexität wie Nichtlinearität, Ergebnisoffenheit und Emergenz Rechnung trägt. Dieser adaptive Ansatz muss nicht nur die deskriptiven Darstellungen der Welt, sondern auch den normativen Rahmen, die Konzeptionen und die Instrumente berücksichtigen, die zur Entwicklung geeigneter normativer Ordnungen verwendet werden, die den komplexen deskriptiven Realitäten besser entsprechen. Solche Realitäten machen die Ethik nicht unnötig oder gar unmöglich, sondern unterstreichen vielmehr ihre zentrale Bedeutung für die Entwicklung der Komplexitätstheorie selbst. Wie Kunneman bemerkt: »In my opinion complexity is not only the central scientific, but also the central ethical problem of our time.« (Kunneman 2010, 132). Doch gerade diese Zentralität erfordert einen sehr vorsichtigen – oder »bescheidenen«, wie es die Ein ähnlicher Ansatz, wenn auch ohne Appell an die Idee der Andersheit, scheint Kunneman 2010 zugrunde zu liegen.

10

158 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

Komplexitätsethiker vorschlagen (Cilliers/Preiser 2010) – Ansatz zur Theoretisierung der Ethik angesichts einer komplexen Welt. Die Idee einer bescheidenen Herangehensweise an die Komplexitätsethik und insbesondere die Komplexitätsethik in demokratischen Gesellschaften ist grundlegend für die Vorstellung eines hoffnungsgeleiteten Prozesses der kooperativen Bedeutungsgebung, wie sie oben identifiziert und umrissen wurde. Der Grund dafür ist, dass dieser Prozess der Bedeutungsgebung sich kritisch der Tatsache bewusst ist, dass er vor einem sprachlichen und epistemischen Hintergrund stattfindet, der niemals vollständig homogenisiert und/oder universalisiert werden kann. In einer mehrsprachigen Welt, die selbst wieder aus mehrsprachigen Gesellschaften und Individuen besteht, spiegelt sich die Unfähigkeit, über vollkommenes Wissen zu verfügen, auch in der Unfähigkeit, sich in einer universellen Sprache zu konsolidieren, in der dieses unvollkommene Wissen diskutiert und theoretisiert werden könnte. Mit anderen Worten, die Unvermeidbarkeit von Sprachbarrieren in diesem kollaborativen Prozess der Bedeutungsgebung wirkt paradoxerweise als eine wichtige epistemische Überprüfung der Überzeugungen der Akteure, dass die Realitäten einer komplexen Welt nur die Botschaft (d. h. die eigentliche Natur einer komplexen Welt) in Frage stellen, nicht aber das Medium (d. h. die spezifische Sprache, in der diese Botschaft innerhalb und insbesondere über Sprachgrenzen hinweg entwickelt, artikuliert und vermittelt wird). Dies gilt umso mehr, wenn man bedenkt, dass Sprache selbst als eine komplexe Einheit verstanden werden kann, ebenso wie die Vielzahl natürlicher Sprachen mit ihren historischen Mustern der Entstehung, Selbstorganisation und Wechselwirkungen untereinander (z. B. Ellis/Larsen-Freeman 2009; Kretzschmar 2015; Massip-Bonet et al. 2019). 11 Diese Interdependenz zwischen Botschaft und Medium sollte als grundlegendes Merkmal moralischer und ethischer Theoretisierung betrachtet werden, insbesondere in demokratischen Kontexten (Peled 2018b, insbes. 177–180). Sie sollte ebenfalls nicht nur auf den intellektuellen Prozess der Entwicklung und Verfeinerung der Komplexitätstheorie in wissenschaftlichen Kreisen ausgedehnt werden, sondern auch auf die extramuralen Auswirkungen Ein komplexitätsbasiertes Herangehen an Sprache öffnet die Tür für neue Wege in der Theoretisierung von Komplexität in den Sprachkünsten im weiteren Sinne. Ein aufschlussreiches Beispiel aus der Übersetzungswissenschaft ist Marais/Mayleartes 2019.

11

159 https://doi.org/10.5771/9783495825464 .

Yael Peled

des Komplexitätsdenkens auf die demokratische Argumentation im weiteren Sinne. Die Erkenntnis, dass eine demokratiezentrierte Komplexitätsethik nicht nur die Botschaft charakterisiert, sondern auch das Medium, rückt die Frage der Handlungsfähigkeit und die Fähigkeit der demokratischen Komplexitätsethik, darüber zu informieren, wie demokratische Akteure interagieren, verstehen und in einem hoffnungsgeleiteten Prozess der Bedeutungsgebung miteinander zusammenarbeiten, noch stärker in den Vordergrund. Dies ist natürlich eine dringende Frage für politische Akteure in der realen Welt und in den verschiedenen Gesellschaften. Es ist jedoch auch eine dringende Frage für die zugrunde liegende ethische Theorie, die erforderlich ist, um ihr Handeln und ihre Interaktion zu begründen. Der Grund dafür ist, dass die nichtlineare, emergente und ergebnisoffene Natur der Komplexität in einem klaren Spannungsverhältnis zur Ethik steht, die sich auf eine prinzipienorientierte und vor allem verallgemeinerbare Untersuchung von Fragen wie Was ist richtiges/gutes Handeln und Wie sollten wir miteinander umgehen konzentriert. Um Kunnemans obige Ansicht zu wiederholen, ist es genau diese Spannung zwischen dem ständigen Bemühen der Ethik, einerseits Moral zu kodifizieren und der unvermeidlichen, störenden Frustration dieser Bemühungen durch Komplexität andererseits, die die Komplexitätsethik (einschließlich der demokratischen Komplexitätsethik) zum zentralen ethischen Problem unserer Zeit macht. Doch gerade diese Spannung veranschaulicht, warum der Prozess der Bedeutungsgebung der Schlüssel zur produktiven Lösung dieser Spannung sein kann. Um das zu verstehen, sollte man Freedens Definition von Politik als einer permanent frustrierter Endgültigkeitssuche betrachten, die gezwungen ist, »sich mit Kontingenz, Unbestimmtheit und Pluralität zu konfrontieren und sich mit partiellen, temporären und sich auflösenden Arrangements zu begnügen« 12 (Freeden 2013, 23). Der Prozess der Politik kann, wie Freeden später anmerkt, als die Rangordnung und die Verteilung von Signifikanz auf Grundlage dessen verstanden werden, was als entscheidend, dringend und wichtig angesehen wird (Freeden 2013, 132–165). Der Begriff Signifikanz kann aber auch etwas anders verwendet werden, um nicht nur die relative Wichtigkeit bestimmter Entitäten (z. B. Ideen, Prinzipien, Individuen, Im englischen Original: »to confront contingency, indeterminacy, and plurality, and to make do with partial, temporary, and disintergrating arrangements«.

12

160 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

Gruppen) zu beschreiben, sondern auch die Bedeutung selbst, die ihnen zukommt. Dies gilt insbesondere dann, wenn wir uns daran erinnern, dass der hier vorgeschlagene Prozess der Bedeutungsgebung vor dem Hintergrund eines unvollständigen Wissens und eines epistemischen Umfelds stattfindet, das sich in einem ständigen Wandel befindet, der wiederum durch die Existenz von Sprachbarrieren noch verstärkt wird. Dieser Umstand unterstreicht nicht nur die entscheidende Bedeutung der Bedeutungsgebung als einer diskursiven »Endgültigkeitssuche« an sich, sondern unterstreicht auch, warum der Prozess der Bedeutungsgebung als Teil seiner adaptiven Entwicklung einen hoffnungsgeleiteten und kooperativen Ansatz erfordert. Im Zusammenhang mit der Idee einer demokratischen Komplexitätsethik ist die Frage, wer am Prozess der Bedeutungsgebung teilnehmen darf, von zentraler Bedeutung, denn demokratische Prinzipien stellen egalitäre Anforderungen an die Machtverteilung zwischen den Akteuren, einschließlich der Macht über den Prozess der Bedeutungsgebung selbst. Wie Kraus feststellt, wenn er sich auf Deutschs Definition von Macht als »die Fähigkeit, es sich leisten zu können, nicht zu lernen« 13 (Deutsch 1963 zitiert nach Kraus 2019, 766) beruft, sind Macht und Sprache sehr eng miteinander verflochten und meist ungleich zwischen und innerhalb von Gesellschaften verteilt (Kraus 2019, 766). Dies wiederum hat zur Folge, dass unter dem demokratischen Vorbehalt der Komplexitätsethik ein dafür notwendiger Bedeutungsgebungsprozess von kollaborativer Art sein muss, in dem sprachliche, kommunikative und diskursive Machtverhältnisse gerechter verteilt sind. Dieser Beitrag ist aus der geäußerten Besorgnis heraus entstanden, dass die Erkenntnisse von Komplexität bei demokratischen Akteuren und Gesellschaften ein Gefühl der Verzweiflung hervorrufen könnten. Dieses resultiert aus der Spannung zwischen den Komplexitätsmerkmalen von Nichtlinearität, Unberechenbarkeit, Ergebnisoffenheit und Emergenz und der Idee demokratischer normativer Ordnungen, die durch moralische und praktische menschliche Vernunft hergestellt werden können. Paradoxerweise, und auch glücklicherweise, scheint es, dass die Erkenntnisse von Komplexität in mancher Hinsicht demokratische normative Ordnungen eher unterstützen als bedrohen. Genauer gesagt bietet die demokratische Kom13

Im englischen Original: »the ability to afford not to learn«.

161 https://doi.org/10.5771/9783495825464 .

Yael Peled

plexitätsethik, wie sie in diesem Kapitel vorgeschlagen wird, eine konstruktive und produktive Antwort auf die Herausforderung der demokratischen Verzweiflung. Sie tut dies, indem sie dem Prozess der hoffnungsgeleiteten und kooperativen Bedeutungsgebung eine zentrale Stelle einräumt, die eine wichtige epistemische Überprüfung der Voraussetzungen hinsichtlich der sprachlichen Natur und Form des Wissens ermöglicht. Indem dieser Beitrag eine bescheidenere Herangehensweise an die linguistische Frage der demokratischen Komplexitätsethik vorschlägt, entkoppelt er auf sanfte Weise Wissen von Vernunft. Und damit rückt er näher an die bescheidene, aber mächtige Idee der menschlichen Vernunftfähigkeit (wie sie gleich zu Beginn angeführt wurde) heran, mit ihren eher praktischen als absolutistischen Fähigkeiten und ihrem hoffnungsvollen Glauben an eine gemeinsame Handlungsfähigkeit für das Gute als Grundlage demokratischer normativer Ordnungen.

6.

Schlussfolgerung

In einer Welt, die unvorhersehbar, ergebnisoffen, nichtlinear und emergent ist, geben empirische Unsicherheiten, die sich aus solchen Realitäten ergeben, Anlass zu normativen Bedenken. Wenn wir nicht verstehen können, wie die Welt genau funktioniert und welche Regeln sie bestimmen, was bedeutet es dann für unsere Fähigkeit, prinzipienfeste und wohlüberlegte Urteile über Fragen wie Was ist richtiges/gutes Handeln oder Wie sollten wir miteinander umgehen zu fällen? Wie Cilliers und Preiser feststellen: »Since we cannot have complete knowledge of complex things we cannot ›calculate‹ their behaviour in any deterministic way. We have to interpret and evaluate. Our decisions always involve an element of choice which cannot be justified objectively. What is more, no matter how careful our actions are considered, they may turn out to have been a mistake. Thus, acknowledging that values and choices are involved does not provide any guarantee that good will come out of what we do« (Calliers/Preiser 2010, 274).

Doch wie Cilliers und Preiser anmerken, ist Ethik im Kontext von Komplexität unvermeidlich (Cilliers/Preiser 2010, 274). Und es ist 162 https://doi.org/10.5771/9783495825464 .

Komplexitätsbasierte normative Ordnungen

paradoxerweise gerade diese Unvermeidbarkeit, die die Bedeutung der adaptiven Hoffnung und der kollaborativen Bedeutungsgebung als Schlüssel zur Theoretisierung der Komplexitätsethik im Kontext demokratischer normativer Ordnungen hervorhebt. Die Unfähigkeit, bestimmte Ergebnisse – ethische und andere – in komplexen Zusammenhängen zu garantieren, spiegelt Shapiros wichtige Unterscheidung zwischen Optimismus (garantierte positive Ergebnisse) und Hoffnung (nicht garantierte positive Ergebnisse) wider. Und während sie unter solchen Bedingungen Optimismus als handlungsleitende Haltung in Frage stellt, tut sie dies nicht in Bezug auf die Hoffnung, insbesondere wenn diese als gesellschaftlich anerkannter handlungsleitender Wert verstanden wird. Diese hoffnungsgeleitete Haltung wiederum erleichtert eine kollaborative Form des Bedeutungsgebungsprozesses, die sich ihrer eigenen sprachlichen, diskursiven und kommunikativen Grenzen bewusst ist und paradoxerweise daher weniger geneigt ist, sich auf reduktives Denken einzulassen. Aus diesem Grund kann die Herausforderung der Ängste und sogar der Verzweiflung, die demokratische Akteure als Reaktion auf Komplexitätserkenntnisse möglicherweise empfinden, durch die Komplexitätsethik dennoch in einer Weise bewältigt werden, die die Tragfähigkeit demokratischer normativer Ordnungen angesichts der Herausforderung durch Komplexität stärkt.

7.

Literatur

Amichai, Yehuda (1968): The art of poetry, in: The Paris Review 44. Blommaert, Jan/Rampton, Ben (2012): Language and superdiversity. MMG Working Paper 12–09. Göttingen: Max-Planck-Institut zur Erforschung multireligiöser und multiethnischer Gesellschaften. Arnaut, Karel/Blommaert, Jan/Rampton, Ben/Spotti, Massimiliano (Hg.) (2016): Language and superdiversity. New York/London. Blommaert, Jan (2013): Citizens, language, and superdiversity: towards complexity, in: Journal of Language, Identity and Education 12 (3), 193–196. Cilliers, Paul/Preiser, Rika (2010): Unpacking the ethics of complexity: concluding remarks, in: Paul Cilliers/Rika Preisler (Hg.): Complexity, difference and identity: issues in business ethics, Vol. 26. Dordrecht u. a., 265– 287. Deneen, Patrick J. (2005): Democratic faith. New Jersey. Dobson, Andrew (2014): Listening for democracy: recognition, representation, reconciliation. Oxford.

163 https://doi.org/10.5771/9783495825464 .

Yael Peled

Ellis, Nick C./Larsen-Freeman, Diane (Hg.) (2009): Language as a complex adaptive system. Malden. Massachusetts u. a. Kretzschmar, William A. (2015): Language and complex systems. Cambridge. Massip-Bonet, Angels/Bel-Enguix, Gemma/Bastardas-Boada, Albert (Hg.) (2019): Complexity approaches to language and communication sciences. Cham. Marais, Kobus/Mayleartes, Reine (Hg.) (2019): Complexity thinking in translation studies: methodological considerations (Routledge advances in translation and interpretation studies). London/New York. Freeden, Michael (2003): The political theory of political thinking: the anatomy of a practice. Oxford. Huber, Jakob (2019): Defying democratic despair: a Kantian account of hope in politics, in: European Journal of Political Theory (Vorveröffentlichung online, 8. 5. 2019 https://doi.org/10.1177/1474885119847308). Kidd, Ian James/Carel, Havi (2016): Epistemic injustice and illness, in: Journal of Applied Philosophy 34 (2), 183–187. Kraus, Peter A. (2019): The politics perspective on language contact, in: Jeroen Darquennes/Joe C. Salmons/Wim Vandenbussche (Hg.): Language Contact, Vol. I: Handbook of Linguistics and Communication Science. Berlin, 765–777. Kunneman, Harry (2010): Ethical complexity, in: Paul Cilliers/Rika Preisler (Hg.): Complexity, difference and identity: issues in business ethics, Vol. 26. Dordrecht u. a., 131–136. Kymlicka, Will/Donaldson, Sue (2016): Locating animals in political philosophy, in: Philosophy Compass 11, 696–698. Peled, Yael (2018a): Language barriers and epistemic injustice in healthcare settings, in: Bioethics 32 (6), 360–367. Peled, Yael (2018b): Towards an adaptive approach to linguistic justice: three paradoxes, in: Michele Gazzola/Torsten Templin/Bengt-Arne Wickström (Hg.): Language policy and linguistic justice: economic, philosophical and sociolinguistic approaches. Cham, 173–188. Peled, Yael (2020): The idea of language ethics as a field of inquiry, in: Yael Peled/Daniel M. Weinstock (Hg.): Language ethics. Montreal, 3–30. Peled, Yael/Bonotti, Matteo (2019): Sound reasoning: why accent bias matters for democratic theory, in: Journal of Politics 81 (2), 411–425. Ratcliffe, Matthew (2019): Language Nausea. [Unveröffentlichter Aufsatz]. Rittel, Horst W. J./Webber, Melvin (1973): Dilemmas in a general theory of planning, in: Policy Sciences 4 (2), 161–167. Shapiro, Ian (2016): Politics against domination. Cambridge. Smith, Nicolas H. (2005): Hope and critical theory, in: Critical Horizons 6 (1), 46–47. Vice, Samantha (2010): Cynicism and morality, in: Ethical Theory and Moral Practice 14, 272–273. Wierzbicka, Anna (2006): English: meaning and culture. Oxford.

164 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit Kulturphilosophische Annäherungen an eine Theorie der Komplexität Thomas M. Schimmer »Kultur ist der Weg von der geschlossenen Einheit durch die entfaltete Vielheit zur entfalteten Einheit.« (Georg Simmel: Der Begriff und die Tragödie der Kultur)

Wenn es darum geht, komplexe soziale, politische oder ökonomische Systeme zu verstehen – auch um sie steuern zu können (Mainzer 1996, 243 ff.; 2009) –, wird dabei in den Geistes- und Sozialwissenschaften zumeist und so gut es eben geht naturwissenschaftlich inspirierten Reduktionismen und Modellbildungen gefolgt. Bedenkt man die Herkunft der Komplexitätsforschung, die in naturwissenschaftlichen Disziplinen beginnt und sich dann erst auf Geistes- und Sozialwissenschaften ausbreitet, ist das durchaus verständlich. Und so finden sich auch in der Philosophie komplexitätstheoretische Überlegungen vornehmlich in analytisch-formalisierenden Bereichen wie der theoretischen Philosophie oder der Wissenschaftsphilosophie. Die folgende Untersuchung wählt einen anderen und in der Komplexitätsthematik bisher weniger beachteten Ansatz, indem Komplexität aus einer dezidiert kulturphilosophischen Perspektive betrachtet und beschrieben wird. 1 Hierfür werden in einem ersten Schritt Erschöpfungs- und Überlastungserfahrungen beobachtet, die sich als symptomatisch für die heutige kulturelle Wirklichkeit aufdrängen, wodurch ein erster Ausblick auf das Verhältnis von Komplexität und kultureller Wirklichkeit gewonnen wird. In einem zweiten Schritt werden durch den Rückgriff auf Edmund Husserls phänomenologiZwar ist Kultur in einem weiten Sinne auch gelegentlich Thema in der Komplexitätsforschung, steht aber meist am Ende analytischer Vorüberlegungen und wird daher nicht eigens fokussiert und reflektiert. Einen Ausblick auf die Bedeutung kultureller Dynamiken für einen philosophischen Zugang zu komplexen Systemen deutet Cliff Hooker zumindest an, der Kultur als »fascinatingly complex dynamical reality« (Hooker 2011, 51) charakterisiert. Der wissenschaftsphilosophische und naturwissenschaftlich imprägnierte Zugang, den Hooker wählt, unterscheidet sich jedoch konzeptionell und kontextuell von einer spezifisch kulturphilosophischen Untersuchung.

1

165 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

sche Analysen der Lebenswelt die erkenntnistheoretische Konstitution sowie die normativen Strukturen und Dynamiken der kulturellen Wirklichkeit herausgearbeitet. Dies verspricht systematische Einblicke in das Verhältnis von Komplexität und kultureller Wirklichkeit, auf deren Grundlage sich kulturphilosophische Theoreme entwickeln lassen, die zu einer transdisziplinären Komplexitätstheorie beitragen. Gleichzeitig wird deutlich, dass das Verständnis von Komplexität ein Weg ist, die mitunter als defizitär empfundene Wirklichkeit, in der wir täglich leben, besser zu verstehen und vielleicht auch würdigen zu können. 2 Dabei folgen die Überlegungen grundsätzlich der Beobachtung Ralf Konsmanns, dass die »Lebensformen« der westlich geprägten Kultur heute wesentlich durch das »Merkmal der Komplexität und der Vieldeutigkeit der Zeichen« geprägt sind. 3

1.

Erschöpfungserscheinungen der Spätmoderne

Kaum eine Zeit scheint so viele Anforderungen an Individuum und Gesellschaft gestellt zu haben wie unsere Gegenwart. Diesen Eindruck kann man zumindest gewinnen, wenn man auf Beschreibungen und Analysen unserer alltäglichen Wirklichkeit blickt, die von einem Anstieg globaler Beziehungen und komplizierter Abhängigkeiten geprägt ist. Oberflächlich betrachtet, führen diese Entwicklungen zu typischen Entfremdungsphänomenen. Sich gegenseitig antreibend, erzeugen Ökonomie, Technologieentwicklung und soziale Dynamik einen steigenden Druck, aus dem ein universelles, bis ins Private reichendes Konkurrenzverhältnis entspringt. 4 Hieraus folgen Bemühungen, nicht nur ökonomisch mitzuhalten, sondern auch die eigene Individualität und Singularität (Reckwitz 2017) zu behaupten, worauf verschiedene Industrien ansprechen und entsprechende MoAufgrund des experimentellen Charakters des Versuchs, phänomenologisch-intendierte kulturphilosophische Beobachtungen mit komplexitätstheoretischen Ansätzen zu verbinden und für eine transdisziplinäre Theoriebildung fruchtbar zu machen, wird auf systematisch naheliegende Literatur zurückgegriffen, für die jedoch keine Vollständigkeit behauptet werden kann. 3 Konersmann 2008, S. 15. 4 So zum Beispiel »[…] um Bildungsabschlüsse und Jobs, Güter zum demonstrativen Konsum, den Erfolg der Kinder, aber auch, und am wichtigsten, darum, einen Partner sowie eine Reihe von Freunden zu finden und zu halten […] Welche ›Position‹ ein Individuum in der modernen Gesellschaft einnimmt […] [ist] Gegenstand permanenter kompetitiver Aushandlung« (Rosa 2018, 37). 2

166 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

den und Trends kreieren, die die Individuen wiederum in Anspruch nehmen und so das Anforderungsniveau weiter steigern. Dies geht mit einer universellen Beschleunigungserfahrung einher, die Individuen und ganze Gesellschaften in Zeitnot zwängt (Rosa 2018; 2012; Neckel/Schaffner/Wagner 2017, 7 ff.). Gleichzeitig verspricht die Gegenwart eine Fülle an Optionen und Gestaltungswegen (individuell und sozial) und ermöglicht so eine Parallelität von Lebensformen, Lebensentwürfen und kulturellen Kontexten, was ihr einen spezifisch pluralistischen Charakter verleiht. Diese Multioptionalität erweist sich aber als janusköpfig, wenn es darum geht, dem subtilen Imperativ gerecht zu werden, das Beste aus jeder Möglichkeit herauszuholen oder aber sich zuungunsten anderer Optionen für etwas zu entscheiden. 5 Diese Gleichzeitigkeit »destruktiver« und »positiver Tendenzen« (Nassehi 2018, 155) macht auf einen zentralen Aspekt dessen aufmerksam, was hier als kulturelle Wirklichkeit der Spätmoderne 6 bezeichnet wird. Diese kulturelle Wirklichkeit besteht aus einem Plural nicht nur unterschiedlicher, sondern oftmals auch entgegengesetzter und konkurrierender Logiken 7, die alle gleichzeitig Geltung und Bedeutung für Individuum und Gesellschaft haben, aber meistens unvereinbar sind. Solche Konkurrenzen zeigen sich exemplarisch an den aktuell bedrohlichsten globalen Krisen: In der COVID19-Pandemie stehen sich gesundheitspolitische und wirtschaftliche Interessen, aber auch Fragen der Legitimität von Eingriffen in die Grundrechte gegenüber. Ähnlich verhält es sich beim Kampf gegen den Klimawandel, dem ebenso wirtschaftliche und politische Interes-

Denkt man an die Ohnmachtserfahrungen angesichts kontingenter und fremdbestimmter (welt)politischer Ereignisse, wie sie z. B. während und nach den beiden Weltkriegen gemacht wurden, scheint die gleichzeitige Eröffnung von Möglichkeiten und deren Einschränkung ein Luxusproblem zu sein. Allerdings verschwinden die Ansprüche an das Individuum in der heutigen Zeit dadurch nicht, was eine Inkommensurabilität beider Kontexte nahelegt. Eine Relativierung in die eine oder die andere Richtung erscheint daher weder hilfreich noch angemessen. 6 Hartmut Rosa schlägt die Bezeichnung »Spätmoderne« für unsere Gegenwart vor (Rosa 2018, 58, 80, 134), die im Folgenden übernommen wird, um einerseits entladene oder belastete Begriffe wie Postmoderne zu vermeiden, andererseits, um dem eigenständigen Charakter der Gegenwart gerecht zu werden. 7 Die Beobachtung paralleler und jeweils selbststabiler Logiken bildet bereits einen Grundzug der soziologischen Systemtheorie Niklas Luhmanns (Luhmann 2018). Zur Parallelität und prinzipiellen Autonomie unterschiedlicher Logiken in dieser Linie vgl. aktuell vor allem Nassehi 2018. 5

167 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

sen entgegenstehen, die aus einer globalen gesellschaftspolitischen Dynamik hervorgehen. Die kulturelle Wirklichkeit westlich-geprägter Tradition wird so zum einen als eine hektische, hysterische und hyperaktive erfahren, die Individuum und Gesellschaft permanent in Anspruch nimmt und das Anforderungsniveau kontinuierlich steigert. Zum anderen scheint die in der Moderne angelegte Erfahrung einer fragmentierten und zerrissenen Welt 8 in der kulturellen Wirklichkeit der Gegenwart eine radikale Konsequenz zu erfahren, was zur Auflösung tradierter Gewissheiten und in peinliche Orientierungsnöte führt (vgl. auch Mainzer 2008, 112). Denn sie wird zunehmend als kontingente und unüberschaubare Totalität von Ereignissen und Abhängigkeiten erfahren, deren Wirklichkeiten und Logiken autark scheinen, aber doch verschlungen und verflochten sind, wodurch dialektische und synergetische Wirkungen zwischen ihnen be- und entstehen. Zusammen führt dies zu Überforderungs- und Ohnmachtserfahrungen, die – in der Terminologie Heideggers – in eine allgemeine Befindlichkeit (Heidegger 2001, 134 ff.) der Erschöpfung übergehen. Nun kann man einwenden, dass solche Diagnosen schon immer und typischerweise in Zeiten kultureller und sozialer Umbrüche gestellt wurden, oftmals als alarmistisches, rückwärtsgewandtes Nörgeln (vgl. Bollenbeck 2007, 7 ff.). Und tatsächlich lassen sich Erfahrungen einer exhaustiven Welt in historischen und interkulturellen Studien finden (vgl. Neckel/Schaffner/Wagner 2017, 27–50). Das heißt aber nicht gleich zwangsläufig, dass man sich zwischen den Alternativen einer leidenschaftlichen Krisen- und Untergangsrhetorik und dem »Wegretouchieren« der »Härten und Wunden dieser Welt« (Marquard 1990, 3) entscheiden muss – wie es Odo Marquard in einem ähnlichen Zusammenhang formuliert hat. Einwände allein sollten nicht als Anlass ausreichen, die Frage nach Gründen und Konsequenzen erhöhter Anforderungen und Erschöpfungserscheinungen prinzipiell zu suspendieren. Die Suche nach möglichen Ursachen muss dabei nicht zwangsläufig einer kulturkritischen Ätiologie dienen, sondern kann auch analytischen Motiven folgen, um sie zunächst zu ver8 Ein klassischer Ausgangspunkt für diese Diagnose ist die Trennung von res cogitans und res extensae in Descartes ontologischem Substanzdualismus, der Philosophie und (Natur)Wissenschaften bis heute beschäftigt. Davon ausgehend lassen sich grundsätzlich Entfremdungserfahrungen zwischen Subjekt und Welt attestieren, beispielsweise durch autokratische Formen des Wissens (Grätzel 1997) oder durch ein nichtresonantes »Aggressionsverhältnis« der Verfügbarmachung (Rosa 2019, 111 f.).

168 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

stehen. Und die oben herangezogenen Adjektive ›verflochten‹ und ›verschlungen‹ geben einen ersten Aufschluss, wie mit der Suche nach dem Ursprung der Erschöpfungserscheinungen der Spätmoderne begonnen werden kann. Denn sie sind semantische Elemente des lateinischen Kompositums complexus, das sich aus cum und plectere (›flechten‹, ›ineinanderschlingen‹) zusammensetzt (Gloy 2014, 17). Die prägnante Erfahrung unserer Gegenwart verweist – so die Hypothese der folgenden Überlegungen – auf ein hohes Niveau an Komplexität, das die kulturelle Wirklichkeit der Spätmoderne strukturiert. Nun entspricht in einem theoretischen, methodologischen und analytischen Sinne die affektive Erfahrung von Komplexität nicht dem Phänomen Komplexität (sei es eigenständig oder die Eigenschaft anderer Phänomene). Und so zielen die folgenden Beobachtungen nicht auf eine sozialpsychologische oder sozialphilosophische Analyse von Befindlichkeiten ab, sondern auf die Möglichkeit eines apriorischen Zusammenhangs zwischen Komplexität und kultureller Wirklichkeit. Dennoch eignen sich die exhaustiven Erfahrungen als erster konkreter Zugang, um dieses Verhältnis philosophisch zu betrachten, zu deklinieren und vor dem Hintergrund der diesen Band leitenden systematischen und definitorischen Überlegungen zu kontextualisieren. Schließlich lassen sich diese Erfahrungen und Eindrücke explizit oder implizit auf die Konfrontation mit unterschiedlichen Wirklichkeiten und Logiken zurückführen, die in den folgenden Beobachtungen kulturphilosophisch identifiziert werden. Dabei wird auf einem philosophischen Begriff von Kultur aufgebaut, der zunächst skizziert werden muss. Die Bedeutungsvielfalt des Begriffs Kultur ist denkbar weit und reicht vom Feuilleton als Sammelbegriff aller distinktiven, aber letztlich »belanglosen« (Konersmann 2008, 41) Leidenschaften des Bildungsbürgertums bis hin zur Identifikation von Nationalstaaten und globalen Kulturkreisen. Und so ringen auch die interdisziplinär aufgestellten Kulturwissenschaften um eine theoretische Konzeptualisierung von Kultur, was dazu führt, dass der Begriff einerseits vage bleibt, andererseits aus methodologischen Gründen heuristische Pointen erfährt, um die Forschung fortführen zu können (Nünning/ Nünning 2008, 8). Der semantischen Spannweite, in der definitorische Unter- und Überbestimmtheit eng beieinander liegen können, begegnet die Kulturphilosophie durch einen speziellen Begriff von Kultur. Zwar ist es mit Blick auf die verschiedenen Konzeptualisierungen der Kulturphilosophie unmöglich, von einem Kulturbegriff 169 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

zu sprechen, gleichwohl lässt sich ein konzeptuelles Merkmal bei ausgewiesenen Vertretern festhalten und in den bereits eingeführten Begriff der kulturellen Wirklichkeit überführen: Kultur als Erfahrungs-, Erkenntnis- und Handlungssphäre des Menschen. Dies findet sich in Georg Simmels Kulturbegriff, der wesentlich davon ausgeht, dass kulturelle Praktiken und Güter Objektivierungen subjektiver Ideen und Bedürfnisse sowie sozialer Beziehungen sind (Simmel 1958; 2001). Ähnlich auch in Ernst Cassirers Bestimmung des Menschen als »animal symbolicum« (Cassirer 1996, 51), das mittels »symbolischer Formen« (Cassirer 2001; 2003) seine Welt mit Sinn und Geltung versieht und so ex post geistig gestaltet. Ähnlich argumentieren auch die Vertreter der Philosophischen Anthropologie (vgl. Becker 2012) 9: Mit nur reduzierten Instinkten und Kräften ausgestattet, ist das »Mängelwesen« (Gehlen 1993, 31 ff.) Mensch auf Kultur als Kompensation defizitärer biologischer Dispositionen angewiesen. Diese eigene Sphäre setzt ihn in eine exzentrische Position, aus der heraus er nicht bloß auf seine Umwelt reagiert, sondern eine offene Welt im Ganzen erfährt, der er Sinn verleiht und mit der praktisch umgeht. Er überformt die Natur 10 so aus natürlichen Gründen, was Helmuth Plessner im Gesetz der »natürlichen Künstlichkeit« (Plessner 1981, 360 ff.) formuliert. Nur so kann er überleben und nur so kann er auch seine exzentrische Existenz, also sein personales Leben, führen (Plessner 2003, 365). Von diesem philosophischen Grundkonzept der Kultur als menschlicher Sphäre wird hier der Begriff der kulturellen Wirklichkeit als die konkrete Erfahrung dieser Sphäre hergeleitet. Kulturelle Wirklichkeit wird als Totalität divergierender Logiken sowie präreflexiver hermeneutischer und normativer Geltungen verstanden, die in Form kultureller Praktiken, kultureller Verbindlichkeiten 11

Ähnlich findet sich dieser Ansatz heute in Ansätzen evolutionär-psychologischer Erklärungen wieder (vgl. Cordes 2011, 346–371). 10 Die kulturelle Überformung von Natur schließt ein, dass es sich bei ›Natur‹ um ein kulturelles Konzept handelt, das unterschiedlich ausfallen kann. Daraus geht auch hervor, Natur und Kultur antagonistisch gegenüberzustellen oder aber die Natur objektiv und positiv zu verstehen, wie es den modernen Naturwissenschaften zugrunde liegt. Der Kulturbegriff läuft damit Gefahr, in einen relativistischen Kulturalismus überzugehen. Die folgende Auseinandersetzung mit Husserls Lebenswelt als korrelative Welt trägt dazu bei, einen solchen Relativismus zu vermeiden. 11 Zum Konzept von Verbindlichkeit vgl. Bermes 2019. 9

170 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

und normativer Ordnungen 12 konkret werden. Deutlich wird an diesem Punkt, dass es bei einer Analyse der kulturellen Wirklichkeit nicht vornehmlich um eine Auseinandersetzung mit Gegenständen geht, sondern mit dem umfassenden Horizont menschlicher Selbstund Weltverständnisse, vor dem »kulturelle Tatsachen« (Konersmann 2006, 13 ff.), seien es Artefakte, Praktiken, Riten, Ideen mit ihren je inhärenten Logiken überhaupt erst Kontur erhalten. Der Versuch einer theoretischen Durchdringung kultureller Wirklichkeit stößt dabei zwangsläufig an Erkenntnisgrenzen, denn als Totalhorizont menschlichen Denkens und Handelns wird die Frage nach ihr zwangsläufig aus ihr heraus gestellt und kann daher keinen objektiven Standpunkt jenseits von sich einnehmen (vgl. Konersmann 2012b, 22). Das Unternehmen der Kulturphilosophie ist also prinzipiell mit dem Problem konfrontiert, dass ihr Gegenstand in einem hohen Grade kontingent und so universell ist, dass sie sich auf apriorische, strukturelle oder aber spezifisch-analytische Erkenntnisse beschränken muss. Zugleich ist sie zwangsläufig Teil dessen, was sie verstehen will und »teilt so mit ihrem Gegenstand die Unüberwindlichkeit der Immanenz«, denn »[m]it allem was sie ist und sagt, ist sie in das von ihr analysierte Geschehen verstrickt« (Konersmann 2012a, 3). Insofern ist Kulturphilosophie eine Form der Selbstreflexion und Selbstverständigung von Kultur (vgl. unten). Mit anderen Worten könnte man auch sagen, dass sie von Anfang an und auf verschiedene Weise mit Komplexität konfrontiert ist, insofern philosophisch betrachtet Kultur eine »Einheit des Mannigfaltigen« (Luhmann 1976, 940) bezeichnet. Komplexität, so scheint es nun, findet sich nicht nur an der Erfahrungsoberfläche der spätmodernen kulturellen Wirklichkeit, sondern auch in ihrer Tiefenstruktur. Dies legt den Verdacht nahe, dass zwischen beiden eine konstitutive Verbindung besteht, der in den folgenden Beobachtungen und Analysen nachgegangen wird. Methodisch bilden jedoch nicht die skizzierten Begriffe klassischer kulturphilosophischer Positionen den Ausgangspunkt, sondern eine phänomenologische Beschreibung der kulturellen Wirklichkeit im Sinne der alltäglichen Erfahrung. Dies bedeutet, die mannigfaltigen präreflexiven und reflexiven Praktiken sowie die impliziten und expliziten normativen Geltungen zum Thema zu machen, also vertraute Gewissheiten und Verbindlichkeiten, in Der Begriff der normativen Ordnung wird in Anlehnung an die Konzeption von Rainer Forst und Klaus Günther aufgegriffen (Forst/Günther 2011, 15 f.).

12

171 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

denen wir leben, um die gegenwärtigen Komplexitätserfahrungen einordnen zu können. Hierfür bieten sich der Begriff der Lebenswelt Edmund Husserls und seine Analysen ihrer Konstitution und Zeitevolution an. 13 Diese phänomenologischen Beschreibungen eröffnen einen Ausblick auf die Beziehung zwischen Kultur und Komplexität und markieren zugleich die Notwendigkeit, sich in einem kulturphilosophischen Kontext von den tradierten methodischen Schritten der Komplexitätsforschung 14 zu lösen, indem eine phänomenologische Strukturanalyse und damit die Lebenswelt am Anfang stehen. Die darauf aufbauenden Fortschreibungen können als kulturphilosophischer Beitrag zu einer Theorie der Komplexität mit dem definitorischen Rahmen des vorliegenden Bandes in Bezug gesetzt werden.

2.

Die erkenntnistheoretische Konstitution der Lebenswelt

Ausgangspunkt der Phänomenologie Edmund Husserls ist die Skepsis gegenüber einem weitverbreiteten Psychologismus in Philosophie und Logik zu Beginn des 20. Jahrhunderts. Ihm liegt der Gedanke zugrunde, dass logische Urteile nicht a priori gelten, sondern durch Gesetzmäßigkeiten der Psyche determiniert werden, wodurch die Logik einseitig in den Bereich psychischer und in Verlängerung psychophysiologischer Prozesse verlegt und damit relativiert wird (vgl. hierzu Held 1998). Während die Abwehr des Psychologismus seine frühen Logischen Untersuchungen bestimmt, kommt im Laufe seines Denkens eine fundamentale Kritik am (naturalistischen) Positivismus in den modernen Wissenschaften hinzu, der die wissenschaftliche Geltung von Subjektivität und subjektivem Erleben zugunsten reiner und objektiver Fakten suspendiert. Bis in sein posthum erschienenes Spätwerk hinein zeigt Husserl auf, dass der wissenschaftliche Positivismus als Ideologie auch gesellschaftlich-kulturell Konsequenzen nach sich zieht. Denn »bloße Tatsachenwissenschaften machen bloße Tatsachenmenschen« (Husserl 1962, 4), was nicht nur in eine existentielle Orientierungslosigkeit des Menschen führt, sondern zugleich in die Katastrophen des 20. Jahrhunderts. Diese Beschreibungen bauen auf der kulturphilosophischen Interpretation der Lebenswelt bei Husserl auf, die ich in meiner Dissertation entwickelt habe (vgl. Schimmer 2018). 14 Für eine Übersicht vgl. Poser 2012, 306. 13

172 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

Um Argumente gegen diese beiden wissenschaftlichen Ideologien zu formulieren, erhebt die Phänomenologie den Anspruch einer erkenntnistheoretisch apriorischen Neubegründung der Wissenschaften durch den Rückgang auf die letzten Prinzipien der Erkenntnis – ähnlich wie dies Descartes auch schon formuliert hat (Descartes 1986, 63). 15 Die Philosophie soll wieder – wie im Wissenschaftssystem der Neuzeit angelegt – zum epistemologischen und axiologischen Fundament jeder anderen Wissenschaft und zum zentralen reflexiven Organ von Wissenschaft überhaupt werden. Ausgangspunkt der Phänomenologie ist dabei, dass weder die Dimension des Subjektiven noch des Objektiven aufgehoben oder in Konkurrenz gebracht werden sollen. Husserl erkennt vielmehr eine prinzipielle Korrelation 16 von subjektiven Erfahrungen und objektiven Gegenständen und Kontexten, was zur zentralen Erkenntnis der Phänomenologie führt: Alles Objektive (Gegenstände, Welt, Zeit, Vorstellungen etc.) ist dem Subjekt unmittelbar vorgegeben, es muss nicht erst eine Welt konstruieren, sondern erfährt sie immer schon, indem es als Subjekt auf die objektive Welt erfahrungsmäßig bezogen ist. Dieser auf die Welt, die Dinge usw. gerichtete Bezug besteht – so der Kerngedanke Husserls – in einem auf das Objekt gerichteten intentionalen Bewusstsein von …, das allgemeine Gesetze hat, die durch phänomenologische Analysen beschrieben werden können. Wie das intentionale Bewusstsein strukturiert ist und als präreflexive Praxis immer schon vollzogen wird, macht Husserl mithilfe der Methode der epoché zugänglich, gewissermaßen einer radikalisierten Form des cartesischen Zweifels, durch den alle Gewissheiten und Selbstverständlichkeiten außer Geltung gesetzt werden, wodurch die Struktur des intentionalen Bewusstseins beschreibbar wird. Die Phänomenologie hat es demnach nicht mit Gegenständen und Welt an sich zu tun, sondern mit der Korrelation zwischen der Subjektivität mit intentionalem Bewusstsein 17 und der Phänomenalität der objektiven Welt (Dinge, Zeit, Raum etc.). Dabei wird weder Objektivität noch Insofern wendet sich Husserl nicht nur gegen Psychologismus und (naturalistischen) Positivismus, sondern auch gegen die Weltanschauungsphilosophien seiner Zeit, die für ihn den Anspruch auf Strenge aufgegeben haben (vgl. hierzu auch Husserl 1987). 16 Husserl beschreibt dies umfassend als »Korrelationsapriori« (Husserl 1962, 162). 17 Der Rückgang auf das Bewusstsein eröffnet – durchaus auch kritisch – Anschlusspunkte an Kognitionswissenschaft und Hirnforschung (vgl. Breyer 2011 sowie Valera/Thompson/Rosch 2000), die durchaus Potential beinhalten, geht es doch um die 15

173 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

Subjektivität aufgehoben, denn die Subjektivität verschlingt nicht die objektive Welt als rein Subjektives, noch wird die Subjektivität zur epiphänomenalen Illusion objektiver, physiologischer Prozesse erklärt. Vielmehr wird die Tatsache akzeptiert, dass die subjektiven Erfahrungen der objektiven Welt bereits evident sind und dass durch eine entsprechende Analyse diese Evidenz geprüft und beschrieben werden kann. 18 Was zunächst dazu dient, die ideologischen Grundlagen wissenschaftlichen Wissens kritisch zu hinterfragen 19, bringt Husserl dazu, das »implizite Wissen« 20 der alltäglich erfahrenen, vorwissenschaftlichen Lebenswelt zu thematisieren, da diese letztlich Ausgangspunkt jeder wissenschaftlichen Beobachtung und Theoriebildung ist. Dies führt ihn zu einer tiefgehenden Analyse der Lebenswelt, die selbst der epoché unterzogen wird, also einer Ausklammerung sämtlicher Selbstverständlichkeiten und Gewissheiten, auf denen jegliche präreflexiven und reflexiven Handlungen und Routinen sowie normativen Dimensionen und Logiken des alltäglichen Lebens beruhen. Hiermit werden Dinge, Welt und Zeit aus ihren tradierten Zuschreibungen gelöst und bleiben als reine Phänomene, wie sie sich dem Bewusstsein geben, zurück. Dieser Schritt in eine phänomenologische Reduktion markiert den methodologischen Ausgangspunkt der LebensweltanaAnalyse der Subjektivität, die in der Phänomenologie kein Epiphänomen, sondern fundierende Instanz jeder Erkenntnis ist. 18 Vgl. hierzu und als kurze Einführung in die Phänomenologie Husserls Held 1998, 18: »Phänomenologie als Methode ist der Versuch, Evidenz über Evidenz herbeizuführen. Evidenz wird hier zur Grundlage der Erkenntnisart der Philosophie und ihres Gegenstandes.«. 19 Seine Kritik bedeutet keine Negierung der naturwissenschaftlichen Erkenntnis, sondern beleuchtet deren reduktionistische Methoden und ihre Grenzen und Zwecke, um zu zeigen, dass es die Fokussierung auf die objektive Natur nötig macht, Aspekte des subjektiven Lebens des Menschen außer Acht zu lassen, wozu auch die subjektive Gegebenheit der Welt gehört. Das Überspringen der primordialen Lebenswelt als Ausgangspunkt jedes Forschens wird aber genau dann zum Problem, wenn naturwissenschaftliche Reduktionismen in ein ideologisch überformtes Welt- und Menschenverständnis übergehen – Zusammenhänge, die Husserl schon früh erkennt und so u. a. auch die frühe Kritische Theorie beeinflusst (vgl. Horkheimer/Adorno 2001, 31 sowie Schimmer 2018, 79 und ausführlich Becker 2021, 40 ff.). Die Feststellung, dass Naturwissenschaften mit Idealisierungen und Konstruktionen arbeiten, wird auch in wissenschaftstheoretischen Betrachtungen bemerkt, die sich im Kontext der Komplexitätsforschung bewegen (vgl. Poser 2012, 306). 20 Vgl. zu diesem Begriff in explizit kulturphilosophischem Zusammenhang Konersmann 2015, 12 ff.

174 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

lysen Husserls, in deren erkenntnistheoretischem Zentrum die Analyse von Ding-, Welt- und Zeitbewusstsein stehen, die als Grundschicht für die Frage nach einem Zusammenhang von Komplexität und kultureller Wirklichkeit von erkenntnistheoretisch grundlegender Bedeutung sind. 21 In der erkenntnistheoretischen Analyse der Lebenswelt sticht zunächst die Erfahrung von einzelnen Dingen hervor. Diese beruht darauf, dass das Subjekt sowohl von Dingen affiziert wird als auch die leiblich-sensuellen Voraussetzungen hat, Dinge zu perzipieren. Die Wahrnehmung erfolgt durch verschiedene Sinne: visuell, akustisch, haptisch usw. Dabei generiert jede Form der Wahrnehmung eigene Inhalte, die einen spezifischen Aspekt des erfahrenen Gegenstandes aufgreifen. Diese bleiben nicht voneinander separiert, sondern laufen in der Erfahrung zusammen und organisieren und synchronisieren sich, so dass ein Gegenstand gleichzeitig visuell, haptisch usw. wahrgenommen wird. Auf dieser basalen Schicht der Dingerfahrung beruht die systematisierende und organisierende Instanz des ego als »identische[n] Vollzieher[s] aller Geltungen« (Husserl 1962, 174) 22, der alle kinästhetischen Erfahrungen in ihrer Summe und den jeweiligen Phasen passiv synthetisiert und in ein Bewusstsein von einem Gegenstand überführt – was über die Summe der verschiedenen Wahrnehmungs-›Daten‹ hinausgeht. So beinhaltet das Dingbewusstsein schließlich auch mehr als nur den aktuellen räumlich-zeitlichen Ausschnitt eines Gegenstandes, denn auch die nicht aktuell wahrgenommenen Eigenschaften wie z. B. die Rückseite eines Gegenstandes sind im Dingbewusstsein implizit präsent. Das Dingbewusstsein beruht auf einem kontinuierlichen Strom von kinästhetischen Perzeptionen und deren Synthetisierung in jeweilige Bewusstseinskorrelate, die sich als Phasenablauf stabilisieren und so ein übergreifendes konsistentes Bewusstsein von einem Gegenstand erzeugen, das die eindeutige Identifikation dieses Objekts trotz räumlicher Bewegung Bisher ist der phänomenologische Eintrag in die Komplexitätsforschung vergleichsweise gering, was erstaunlich ist, da sich nicht nur prominente Autoren wie Husserl oder Merleau-Ponty, sondern die Phänomenologie generell als strenge und deskriptive Methode für eine Theorie der Komplexität anbieten. Einen vielversprechenden Versuch in diese Richtung unternimmt Fraisopi 2014. 22 Ego bezeichnet in der phänomenologischen Reduktion keine personale Identität bzw. kein Selbstbewusstsein im strengen Sinne, sondern ausschließlich die Instanz des reinen Bewusstseins. Es ist also nicht als ein konkretes ›Ich‹ zu denken, sondern als irreduzibler Bezugs- und Evidenzpunkt von Phänomenalität schlechthin. 21

175 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

und zeitlichem Fortschritt (und auch in der rein ideellen Vorstellung) ermöglicht. Dass es sich, wie Husserl es auch intendiert, dabei nicht um reine Datenverarbeitung und Informationssynthese handelt, wird durch die hermeneutischen Dimensionen dieser Synthesen deutlich. Dinge begegnen nicht einfach nur als phänomenale Datenmengen, sondern das Subjekt verleiht ihnen in seinem intentionalen Bezug auf sie Geltung und Sinn. So entsteht aus der passiven Synthese eine »Einstimmigkeit« (Husserl 1962, 166) oder Normalstimmigkeit des Dingbewusstseins, also eine bestimmte Typik, die zur Selbstverständlichkeit wird, wodurch ein praktischer und theoretischer Umgang mit einem Gegenstand möglich ist. Diese präreflexive hermeneutische Kontinuität der Einstimmigkeit des Dingbewusstseins ist jedoch nicht statisch, sondern im zeitlichen Ablauf dynamisch und adaptiv. Gerade der Irrtum oder die Täuschung zeigen, dass das Dingbewusstsein permanent aktualisiert wird, denn es leistet Korrekturen (Husserl 1962, 165), durch die ein »Geltungswandel« (Husserl 1962, 164) möglich ist, etwa wenn sich ein aus der Ferne als Person bewusster Gegenstand als Puppe herausstellt (Husserl 1962, 165 f.). Das Subjekt begegnet der Lebenswelt nicht als einem Driften zwischen verschiedenen Objekten, sondern als einer Totalität. Insofern gibt sich die Welt im Ganzen phänomenal anders als die Dinge in ihr. Während Dinge immer mehr oder weniger fokussiert bewusst sind, ist die Welt im Ganzen als Horizont immer aktuell und daher, wenngleich vergleichsweise diffus, als »Horizonthaftigkeit« (Husserl 1962, 152) bewusst. Trotzdem handelt es sich bei Ding- und Weltbewusstsein um »korrelative[n] Bewußtseinsweisen« (Husserl 1962, 146), denn auch auf den Welthorizont ist das Subjekt intentional bezogen und führt ihn in passiver Synthese als Bewusstsein von Welt immer mit. Daher erfährt auch das Weltbewusstsein eine prinzipielle, relative Stabilisierung. Als Totalität »immer neue[r] apperzeptive[r] Schichten« (Husserl 2008, 515) werden die in ihr verschieden verarbeiteten Erfahrungen normalisiert und eine Einstimmigkeit der »Gesamtwahrnehmung der Welt« (Husserl 1962, 166) hergestellt. Diese Einstimmigkeit ist auf erkenntnistheoretischer Ebene zunächst die Selbstverständlichkeit von Kausalität und Kontinuität der Welt. Aufgrund dieser – aber auch darüberhinausgehender – Geltung von Selbstverständlichkeiten verändert sich die Welt nicht von Augenblick zu Augenblick, sondern erhält ebenfalls eine Typik und die »›Gewohnheit‹, […] sich gewohnheitsmäßig so wie bisher fortzusetzen« (Husserl 1962, 28). 176 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

Auch die Zeit wird zumeist passiv und präreflexiv intentional bewusst erfahren (Husserl 2001, 4). Husserl entwickelt durch die Deskription des Zeitbewusstseins Modelle, die die Zeiterfahrung in den Zusammenhang mit der Gewohnheit und damit der Orientierungsleistung von Welt bringen. Seine Analysen beruhen auf einer punktuellen intentionalen Erfahrung eines Gegenstandes (Urimpression), die zeitlich hinter sich einen Erfahrungshorizont noch-bewusster Retentionen (vergangene Bewusstseinsinhalte) und einen Erwartungshorizont von Protentionen (potentielle bzw. latent-antizipierte Bewusstseinsinhalte) mit sich führt. Im punktuellen, je aktuellen Gegenwartsbewusstsein werden Retentionen und Protentionen synthetisiert und so ein konsistentes Zeitbewusstsein von Vergangenheit, Gegenwart und Zukunft durch das intentionale Bewusstsein erzeugt. Die passive synthetische Leistung des Zeitbewusstseins ermöglicht ein konsistentes Bewusstsein von Objekten und Welt sowie die Konstitution eines eigenen Lebenszusammenhangs und einer personalen Identität, indem unterschiedlichste Erfahrungen, Handlungen und Erkenntnisse sowie mögliche Geltungswandel und Korrekturen synthetisiert und in eine kontinuierliche Einstimmigkeit gebracht werden. Auf einer fundamentalen Ebene beschreibt dies nur die (passive) Synthese der Konstitution des Zeitbewusstseins, durch die eine fundamentale Auslegung der Zeitlichkeit der vorgegebenen Lebenswelt möglich ist. Hinzu treten aktive Leistungen des Zeitbewusstseins, wie sie im gewollten Erinnern oder Erwarten gegeben sind. Aus dem Zusammenspiel von Objekt-, Horizont- und Zeitbewusstsein besteht die basale Schicht der Erfahrung der Lebenswelt als raum-zeitliche, in der bestimmte (kausale) Gesetze gelten und die in dieser Grundstruktur stabil, d. h. verlässlich und in einem gewissen Rahmen vorhersagbar ist. Wenngleich dies phänomenologisch konsequent aus der Perspektive des ego beschrieben wird, gilt dies, insofern alle Subjekte als fungierende Ich-Pole (Husserl 1962, 189) intentional auf die Lebenswelt bezogen sind und sich über sie verständigen können, intersubjektiv. 23 Die Lebenswelt als »Welt für alle« (Husserl 1962, 189) erweist sich so als intersubjektiv geteiltes offenes »Orientierungssystem« (Husserl 2008, 149), das auf den präreflexiven pasDer intersubjektive »Konnex« (Husserl 1962, 167), den Menschen immer schon bilden, indem alle Subjekte intentional auf die Lebenswelt bezogen sind, verhindert ein Abdriften in einen phänomenologischen Solipsismus und macht zugleich auf eine hierarchisch-komplexe Schichtung der Lebenswelterfahrung aufmerksam (s. u.).

23

177 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

siven und auch aktiven Synthesen von Ding-, Horizont- und Zeitbewusstseinsleistungen beruht. Dies heißt nichts anderes, als dass die Lebenswelt auf die ein oder andere Weise immer schon im Ganzen erfahren und intentional sinnhaft ausgelegt ist. Hieraus wird deutlich, dass auf der fundamentalen Schicht alle hermeneutischen Auslegungen, Geltungszuschreibungen, Geltungswandel und höheren personalen und sozialen Strukturen beruhen, also prinzipiell das, was oben als kulturelle Wirklichkeit bezeichnet wurde.

3.

Die Lebenswelt als kulturelle Wirklichkeit

Ohne auf die Lebenswelt als vorgegebene Wirklichkeit theoretisch zu reflektieren, leben Subjekte in ihr als apriorisches Perfekt (Heidegger 2001, 85) primär praktisch auf. Sie ist selbst nicht Thema, sondern bildet den Horizont, vor dem aktuelle Bedürfnisse, Interessen, Ziele und Neigungen auftauchen und praktisch oder theoretisch verfolgt werden. Für das primäre vorwissenschaftliche Aufleben in der Lebenswelt als Welt der »selbstverständlichsten Selbstverständlichkeiten« (Husserl 1962, 112) führt Husserl den Begriff der »natürlichen Einstellung« (Husserl 1962, 152 f.) ein. 24 Trotz möglicher Störungen und notwendiger Korrekturen werden die Geltung und die Wirklichkeit der Welt weder in Frage gestellt noch überhaupt thematisiert. Die natürliche Einstellung beruht auf dem Zusammenspiel von Wahrnehmungen, Bewusstseinsvollzügen und den präreflexiven Auslegungen und Geltungsverleihungen. Letztere erweisen sich bei näherer Betrachtung als ein verflochtenes System mit unterschiedlichen Schichten und Logiken, die jeweils in Beziehung und im gegenseitigen Austausch stehen. Dabei bauen sie auf den apperzeptiven und intentionalen Leistungen, die oben beschrieben wurden, auf und überformen sie. Die Schwierigkeit einer umfassenden Beschreibung der Geltungszuweisungen und ihrer Dynamiken entspricht daher auch der Komplexität der Erfassung intentioIn den Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie bestimmt Husserl die natürliche Einstellung wie folgt: »[…] ›Wirklichkeit‹ […] finde ich als daseiende vor und nehme sie, wie sie sich mir gibt, auch als daseiende hin. ›Die‹ Welt ist als Wirklichkeit immer da, sie ist höchstens hier oder dort ›anders‹, als ich vermeinte, das oder jenes ist aus ihr unter den Titeln ›Schein‹, ›Halluzination‹ u. dgl. sozusagen herauszustreichen, aus ihr, die […] immer daseiende Welt.« (Husserl 1950, 61).

24

178 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

naler Leistungen auf der Ebene konkreter Erfahrungen. Ausgehend von Husserls Beschreibungen wird im Folgenden die Struktur der kulturellen Wirklichkeit als ein dynamisches Geflecht offener Systeme mit je separaten und spezifischen sowie gemeinsamen Zeitevolutionen skizzenhaft entworfen. Hierbei geht es zunächst um die normativen Dimensionen der Geltung der Lebenswelt, um diese im Anschluss in ihrer Zeitevolution zu betrachten.

Struktur und Konstitution der Lebenswelt als kulturelle Wirklichkeit Dem intersubjektiven Weltbewusstsein entspricht das alltäglichselbstverständliche Aufleben in der Lebenswelt innerhalb größerer und kleinerer Radien einer »Lebensgemeinschaft« (Husserl 2008, 331), deren Kern eine familiäre »Heimstelle« (Husserl 2008, 152) bildet. Bereits im Kreis der Familie zeigen sich normative Bindungen, die nicht nur das Zusammenleben formen und regulieren, sondern die als weiche Normativitäten geltende Auslegungen der Welt und des Menschen selbst vorgeben. Diese familiär fundierten Selbst- und Weltverständnisse, in die Subjekte hineinwachsen, ermöglichen Orientierung und garantieren die Sicherheit der Normalstimmigkeit der Lebenswelt und die möglichen und denkbaren Optionen des Handelns und Verstehens. Gleichwohl sind diese normativen Geltungen keineswegs statisch, sondern das Ergebnis einer permanenten Aushandlung und somit Ergebnisse eines kontinuierlichen Streitens und Einigens (Husserl 2008, 340). Als intersubjektive Gemeinschaft setzt sich die Lebensgemeinschaft aus individuellen Subjektivitäten zusammen, die einerseits offen auf die Welt bezogen sind, andererseits durch normative Bindungen und tradierte kollektive Geltungen miteinander verbunden sind und in gegenseitigem Austausch stehen. Jedes Subjekt setzt sich mit seinen Erfahrungen der Umwelt passiv und aktiv weiterhin individuell auseinander, so dass es zu Zweifeln oder Dissoziationen des normativ etablierten Selbst- und Weltverständnisses der Heimstelle kommen kann. Diese Offenheit der Subjektivität der Individuen ermöglicht Streit und Einigung und führt so zu einer dynamischen Offenheit der normativen Geltungen und Auslegungen der Lebenswelt im Ganzen. Das intersubjektive System der Heimstelle mit all seinen Auslegungen, Gewissheiten und Verbindlichkeiten erweist sich als ein stabilisierendes aber zugleich dyna179 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

misches, adaptives offenes System, das auf die Impulse seiner Mitglieder reagiert und im interagierenden Austausch mit seiner erweiterten Umwelt steht. Die Heimwelt als primordiales Zentrum von bindenden Selbstund Weltauslegungen, kulturellen Praktiken und normativen Ordnungen ist umgeben von anderen Heimstellen und ihren je eigenen Heimwelten, angefangen bei den Heimstellen anderer Subjekte mit ihrer je eigenen Prägung, über unterschiedliche soziale Milieus bis hin zu anderen Interessen- und Handlungsräumen wie der Arbeitswelt, der politischen Öffentlichkeit, der Konsumwelt usw. Das Subjekt durchschreitet diese unterschiedlichen ›Welten‹ und eignet sich ihre normative Strukturierung an, wodurch sich eine »Stufenfolge von Umwelten« (Husserl 2008, 154) aufschichtet. Das Subjekt wechselt dann seine ›Einstellung‹, etwa wenn es von der Einstellung der Heimstelle in die Berufseinstellung der Arbeitswelt übergeht. Beide Systeme sind nicht radikal unterschieden, aber in der Berufseinstellung herrschen andere Interessen und Geltungen in einem anderen intersubjektiven Kontext vor. Somit gelten in der Berufseinstellung auch andere normative Geltungen und andere kulturelle Praktiken werden habitualisiert. Im Vergleich zur ursprünglichen Heimstelle sind solche Wechsel in andere Denk- und Handlungsordnungen Übergänge in »Fremdwelt[en]« (Husserl 2008, 167). Die prinzipielle Offenheit der Heimwelt ermöglicht die adaptive Integration und Synthese dieser Fremdwelten, so dass die eigene Heimwelt sukzessive erweitert wird, wobei sich durch diese Synthesen eine selbstverständliche Normalstimmigkeit bildet, die ein praktisches Leben möglich macht. Die ursprünglichen Differenzen von Heim- und Fremdwelten bleibt jedoch latent bewusst, was die Grundlage für die Kategorienbildung von Privatem und Öffentlichem bildet (vgl. Husserl 2008, 391 f.). Zudem changiert das Subjekt zwischen verschiedenen »Situationswahrheiten« (Husserl 2008, 191), die häufig an jeweilige Fremdwelten gekoppelt sind, aber auch übergreifend gedacht werden können – z. B. an den Übergängen während der Bahnfahrt, was eine eigene Einstellung (Fahrgast) und Situation (Reise) darstellt. Die Situiertheit in jeweiligen Welten und der Übergang zwischen ihnen sind jedoch kein reiner Wechsel einer praktischen und/oder theoretischen Einstellung, sondern mit einer »Stimmung« (Husserl 2008, 155) bzw. Befindlichkeit verbunden. Schon die Heimstelle kann als glücklich oder belastend erfahren werden, was in gleicher Weise und 180 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

in allen emotionalen Facetten für jede andere Fremdwelt und Situation gilt (Husserl 2008, 155). Als offene Systeme unterliegen die jeweiligen Welten auch aufgrund ihrer Zeitevolution im Bewusstsein des Subjekts einer prinzipiellen Dynamik durch die mannigfaltigen Synthesen, die zu leichten Varianzen, aber auch zu radikalen Brüchen führen kann. Dies betrifft die Struktur der jeweiligen Welten – z. B. bei Umstrukturierungen am Arbeitsort – sowie die Befindlichkeiten – wenn die Heimstelle oder die Arbeitswelt nicht mehr als harmonisch, sondern als feindselig usw. erfahren werden, was sich auch auf andere Bereiche und die Lebenswelt im Ganzen ausdehnen kann. Die Erweiterung der individuellen Lebenswelt ermöglicht die mehr oder weniger vollständige vertraute Aneignung von Fremdwelten. Die primär subjektive Heimwelt ist somit intersubjektiv teilbar und ermöglicht es Individuen und Gruppen, ihre eigenen subjektiven und intersubjektiv ausgehandelten Heimwelten durch die Aufnahme von Fremdwelten zu erweitern. Generell handelt es sich bei der subjektiv-individuellen und noch mehr bei der intersubjektivgeteilten Heimwelt um einen dynamischen Prozess der Geltungszuschreibung durch Geltungswandel, Streit und Einigung, wodurch sie sich als prinzipiell pluralistisch angelegte kulturelle Wirklichkeit abzeichnet. Die Grenzen der Erweiterung der Heimwelt durch die Aufnahme verschiedener Fremdwelten sind denkbar weit und reichen über die Annahme der kulturellen Orientierungen und Praktiken anderer sozialer Milieus, religiöser Ansichten, Berufseinstellungen bis hin zur relativen Aneignung fremder Heimstellen bei Familienzusammenführungen. Innerhalb des Netzes von offenen Systemen der Heimwelt und unterschiedlichen Fremdwelten finden also Begegnungen mit »Anomalitäten« (Husserl 2008, 198) statt, die jedoch naturalisiert und in eine höherstufige Normalstimmigkeit von Heimwelt und »Situationsganzheit« (Husserl 2008, 194) synthetisiert werden. Dies gilt auch für die intersubjektive Dimension der Lebenswelt als kulturelle Wirklichkeit, die sich als eine »Ko-Existenz von Heimwelten« (Husserl 2008, 342) abzeichnet und dadurch einen intersubjektiv erzeugten und stabilisierten Normalstil hat, der Orientierung durch seine normative Geltungen schafft. Auf dieser normativen Dimension gründet auch die Situationsganzheit, die u. a. mit dem eingangs bemühten Begriff der Befindlichkeit assoziiert werden kann, also auch die Stimmung und emotionale Tendenz einer kulturellen Wirklichkeit beschreibt.

181 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

Als Geflecht mannigfaltiger offener Systeme (Subjekte, Heimwelten, Fremdwelten, Sondersituationen, Situationsganzheiten usw.) bildet die Lebenswelt als universale kulturelle Wirklichkeit ein heterogenes System, das durch einen einheitlichen normativen Stil der Praxis und der Sinn- und Geltungsverleihung strukturiert ist. Als solches steht sie in Beziehung und Wechselwirkung mit ihrer Umgebung. Diese besteht erstens in der Alterität anderer Kulturkreise, die eigenständige offene Systeme verschiedener fremder Heimwelten und darin dynamisch fluktuierender normativer Ordnungen und kultureller Orientierungen bilden. Diese gehen nicht nur von fremden Heimwelten aus, sondern sind in ihrem Aufbau und der Dynamik ihrer Zeitevolution so different, dass sie bestenfalls antizipiert, aber nicht assimiliert werden können (Husserl 2008, 171). Die Begegnung mit der Alterität anderer kultureller Wirklichkeiten lässt sich allerdings, das zeigt ein Blick auf die Gegenwart, durchaus durch die Entstehung einer übergreifenden Wirklichkeitsschicht überbrücken, so z. B. in Form einer global geteilten Wirtschaft, Wissenschaft, Technik und Kulturindustrie. Zweitens begegnet das Subjekt der Natur als das ganz andere, wenn sie in Gestalt von Katastrophen hereinbricht oder sich als Unverfügbares entzieht. Die Alienität der Natur, die sicher zur Prägung dieses Begriffs als Gegensatz von Kultur beiträgt, lässt sich nicht überwinden, sondern nur durch verschiedene Strategien fassen. Eine solche ist die Naturwissenschaft als theoretischer Zugang zur Natur, was das Verständnis ihrer Strukturen und Mechanismen und so Prognosen sowie den technischen Umgang mit ihr ermöglicht. 25 Gleichzeitig ist die Natur als fundierendes Substrat der Lebenswelt immer auch schon mit Sinn und Geltung versehen und so kulturell überformt, z. B. in mythischen Zuschreibungen und Auslegungen bei Naturvölkern (vgl. Descola 2013) 26, im instrumentellen Umgang mit der Natur als Ressourcenbestand oder als Gegenstand der Theorie in der Wissenschaft. In diesem Zusammenhang zeigt sich Dieser Zugang steigert paradoxerweise oftmals die Alienitätserfahrung. So kann die Natur durch einen rein theoretischen und technischen Zugang wortwörtlich fremd und unverständlich werden. Vieles spricht dafür, dass dies zur Komplexitätserfahrung der Spätmoderne beiträgt, worauf Husserls (vgl. Husserl 1962) und noch deutlicher Heideggers Kritik der modernen Wissenschaften und Technik aufmerksam machen (Heidegger 2000, 7–65; 5–36) und auch aktuelle Beobachtungen abzielen (Becker 2021; Rosa 2019, 11 ff.; Grätzel 1997). 26 Descola geht der Beobachtung nach, dass es bei indigenen Völkern schlicht keine Trennung zwischen Kultur und Natur gibt bzw. geben muss. 25

182 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

die Stärke des phänomenologischen Zugangs über Husserls Lebensweltanalysen, denn diese führt weder in einen naturalistischen Reduktionismus, der Kultur auf natürliche Ursachen zurückführt, noch in einen kulturalistischen Reduktionismus, der Natur allein als kulturelles Konstrukt zulässt. Damit wird in diesem Beitrag im Anschluss an Ralf Becker ebenfalls ein »moderater Kulturalismus« (Becker 2021, 21) präsentiert, für den »Natur und Kultur nicht bloße Komplemente [sind]«, denn »im Menschen sind sie ineinander verschlungen.« (Becker 2021, 40).

Zeitevolution und Selbstorganisation der Lebenswelt als kulturelle Wirklichkeit Diese taxonomischen Beschreibungen der Lebenswelt als kulturelle Wirklichkeit sind durch Analysen ihrer Zeitevolution zu ergänzen. Hiermit öffnen sich Prinzipien und Dynamiken ihrer Selbstorganisation, wodurch ihre Komplexität näher beschrieben werden kann. Als Zeitevolution der kulturellen Wirklichkeit ist nicht nur das zu verstehen, was man als Geschichte fassen kann, sondern ausgehend von einer strukturellen phänomenologischen Analyse die prinzipielle zeitliche Entwicklung, in der Kontinuitäten, Transgressionen, Variationen sowie Innovationen oder Brüche und damit auch Emergenz beobachtet werden können. Indem das Subjekt von Geburt an in der Heim- und erweiterten Heimwelt auflebt, erfährt es verschiedene Stufen von Normalstimmigkeiten der kulturellen Wirklichkeit: in der der Familie, der näheren Umgebung bis hin zum gesamten Kulturkreis. Dabei ist schon die private Normalstimmigkeit genauso beeinflusst von den radial weiter entfernten Normalstimmigkeiten wie sie diese selbst mit formt. Die Selbstverständlichkeit der Welt und das Selbstverständnis des Subjekts errichten sich an Vorbildern und den geltenden Verbindlichkeiten, normativen Ordnungen und habitualisierten kulturellen Praktiken. Diese normativen Bindungen der kulturellen Wirklichkeit strukturieren und organisieren sie, so dass Orientierung und damit ein selbstverständliches, nicht reflektiertes und vorwissenschaftliches Leben möglich ist. Am deutlichsten werden diese normativen Ankerpunkte in Gestalt von Institutionen und Werten, ihre Zeitstruktur verweist jedoch nicht auf Recht, Kirche, Verwaltung usw., sondern auf ein Spiel präreflexiver und reflexiver Praxis, durch die sie inter183 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

subjektiv etabliert und gesichert werden. Verbindlichkeiten sind hierfür ein gutes Beispiel, wenn darunter ungeschriebene normative Bindungen verstanden werden, die allein auf ihrer praktischen Geltung und präreflexiv-praktischen Aktualisierung beruhen (vgl. Bauks/Bermes/Schimmer et al. 2019). Konkret lassen sich diese normativen und praktischen Dimensionen durch den von Heidegger und Husserl synonym verwendeten Begriff des Man (Heidegger 2001, 114 ff.; Husserl 2008, 527) bezeichnen. Das Subjekt geht in den impliziten und expliziten normativen Bindungen der Öffentlichkeit auf und folgt ihr zunächst präreflexiv, indem es die Sprache übernimmt und im Laufe seines Lebens stets dazu tendiert, das zu tun, was man eben tut, das zu denken, was man eben denkt usw. (Heidegger 2001, 126 f.). Verbindlichkeiten, aber eben auch institutionalisierte normative Ordnungen, haben einen generativen Charakter, insofern sie die kulturelle Wirklichkeit immer schon strukturieren, z. B. das soziale Zusammenleben, und durch Tradierung verstetigen. Das schließt bereits die sinnhaften Auslegungen der Lebenswelt ein, also das prinzipielle Welt- und Selbstverständnis einer intersubjektiven Gemeinschaft. Mit Tradierung und Tradition ist aber nur eine grundsätzliche Generativität angezeigt, die es näher zu betrachten gilt. Wie in der rekonstruierten Aushandlung einer Normalstimmigkeit der Heimwelten und universellen kulturellen Wirklichkeit auf synchroner Achse, findet sich das Prinzip des auszuhandelnden Konflikts auch in der Zeitevolution normativer Strukturen wieder. Denn die Aushandlung der Geltungen und Verbindlichkeiten kultureller Wirklichkeit und die damit verbundene Pluralität von normativen Dimensionen macht deutlich, dass Tradierung nicht statisch, sondern hochgradig dynamisch und flexibel geschieht. In diesem Sinn ist Tradierung nicht historisch im Sinne der Generationenfolge zu verstehen, sondern als kontinuierliche Fortschreibung von Moment zu Moment. Diese permanente Aktualisierung durch die Subjekte (einzeln und intersubjektiv) erlaubt eine relative Stabilisierung der normativen Dimensionen kultureller Wirklichkeit, gleichzeitig öffnet sie sie aber auch für unterschiedliche Einwirkungen. Stabilisierung und Flexibilität scheinen zugleich die Bedingungen für die Selbstorganisation der normativen Geltungen zu sein, was ein Blick auf die möglichen Einwirkungen zeigt. Diese lassen sich durch drei Formen beschreiben, die unterschiedliche Konsequenzen nach sich ziehen können.

184 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

Aufgrund der kontinuierlichen Aushandlung von Normalstimmigkeit(en) in den unterschiedlichen Stufen der Heimwelt unterliegt deren Geltung prinzipiell graduellen Varianzen, was zu einer strukturell bedingten Variabilität führt. Darauf können umfangreiche Dynamiken aufbauen, die größere Auswirkungen auf die Konstitution und Ausgestaltung der Normalstimmigkeit und ihre normativen Dimensionen haben können. Ein Beispiel hierfür sind Innovationsschübe, die von einzelnen Subjekten in die Aushandlung eingebracht werden und sich intersubjektiv ausbreiten, um schließlich innerhalb einer Gemeinschaft neue Geltungen zu normalisieren oder im Extremfall die gesamte Normalstimmigkeit der kulturellen Wirklichkeit auf höchster (allgemeinster) Stufe zu reorganisieren. Der langsame Wandel von Werten und Ordnungsvorstellungen wäre ein Beispiel hierfür. Solche Innovationen können, wie sich an der Anpassung tradierter Praktiken an andere Umstände zeigt, in Form starker Variationen bestehender Geltungen auftreten. Sie können aber auch die tradierten Formen grundsätzlich in Frage stellen und neue Geltungen hervorbringen, was im Hinblick auf den definitorischen Rahmen von Komplexität als Emergenz begriffen werden kann. Soziale Revolutionen, technische Errungenschaften, und nicht zuletzt wissenschaftliche Paradigmenwechsel (Kuhn 2017), die aus historischer Perspektive solche radikale Änderungen und Reorganisationen der kulturellen Wirklichkeit markieren, indem sie ein neues Welt- und Selbstverständnis und damit ein neues Selbst- und Weltverhältnis erzeugen, wären exemplarisch hierfür. Eine weitere Form zeigt sich in Gestalt intendierter destruktiver Prozesse, die vor allem höhere Stufen der Normalstimmigkeit und normative Ordnungen in einem konkreten Sinn betreffen. Aus der Negation von Normalstimmigkeit und normativen Geltungen können Dynamiken erwachsen, die zu deren Verschwinden oder radikalen Reduktion führen können. Auch diese Prozesse gehen von Individuen und Gruppen aus und können bis hin zum Zusammenbruch des etablierten Ordnungs- und Geltungssystems führen. Dass dies nicht gänzlich zum Untergang der Welt führt, zeigt an, dass sich die Totalität der Geltungen und normativen Sinnbezüge nicht vollkommen auflösen kann. Zwar können Hierarchien einstürzen, die sich in der Zeitevolution aufgeschichtet haben. Gleichwohl ist eine gänzliche Auflösung unmöglich aufgrund der Kohärenz basaler Ebenen des intentionalen Bewusstseins, durch das Welt immer präreflexiv mit Sinn 185 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

versehen wird und so Kultur als menschliche Sphäre in einem fundamentalen phänomenologischen Sinne bereitstellt, wenn auch in Gestalt einer postapokalyptischen Welt. Destruktive Wirkungen können von außen kommen, etwa durch Katastrophen oder Kriege, sie können aber auch immanent entstehen, was am Beispiel von Revolutionen deutlich wird, die sich gegen die geltende kulturelle Wirklichkeit mit dem Ziel richten, diese durch eine andere abzulösen. In exponierter Weise wird hier die Bedeutung der kulturellen Praxis deutlich, die alle Ebenen der Normalstimmigkeiten und normativen Dimensionen durchzieht und formt. Diese kulturelle Praxis steht umfassend für die Aktivität der Sinn- und Geltungsleistungen und für die aktualisierenden und dynamisch variierenden Handlungen der Subjekte und Subjektgemeinschaften. Prägnant ist dabei die Spannung zwischen präreflexiver und reflexiver Praxis, die sich auf die Dynamik der Zeitevolution kultureller Wirklichkeit überträgt. Tradierte Praktiken und Orientierungssysteme werden präreflexiv angenommen und können nur so ihre konstitutive, orientierende Leistung vollbringen. Zugleich können sie intuitiv-präreflexiv und innovativ-reflexiv aktualisiert, variiert oder negiert werden. Die Entwicklung von Manifesten, Programmen oder negativistischer Kulturkritik sind Konkretisierungen solcher reflexiver Formen. Die Preisgabe von Verbindlichkeiten und tradierten Riten kann ebenfalls Resultat davon sein, aber auch auf ein präreflexives Vergessen zurückgehen. Die Spannung von präreflexiver und reflexiver Praxis umfasst die Aktivität der Individuen, Gruppierungen und des Kulturkreises im Ganzen. Durch diese Verflechtung und unüberschaubare Dynamik – die jedoch in der Regel stabilisiert ist – werden die Variationen und extremen Tendenzen der Physiognomie kultureller Wirklichkeit in der Zeitevolution unübersichtlich und im strengen Sinn nicht prognostizierbar. Kulturelle Wirklichkeit wird durch das Zusammenspiel und die Selbstorganisation in immer höheren Ebenen und radialen Erweiterungen konstituiert. Anders formuliert: Kulturelle Leistungen wie Wissenschaft, Kunst, Institutionen usw. sind nur aufgrund der komplexen Struktur kultureller Wirklichkeit möglich. Die relative Stabilisierung unterschiedlicher und ineinandergreifender, aber auch aufeinander einwirkender Normalstimmigkeiten und entsprechende Impulse in ihnen bilden die Voraussetzung nicht nur für radikale Systemveränderungen, sondern für eine relativ-stabile Normalstimmigkeit überhaupt. Diese dynamische Struktur und die damit ver186 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

bundene Offenheit sind nicht zuletzt Voraussetzungen für die Konkretisierung, d. h. Entstehung von Kunstwerken, die Ausbildung von Ideen und Werten, mit denen sich Institutionen und normative Ordnungen bilden, aber auch für wissenschaftliche Konzepte, religiöse Riten und die Formgebung kultureller Praktiken des Alltags. Komplexität, so wird deutlich, ist nicht nur eine Konkretisierungsform kultureller Wirklichkeit, sondern ihre apriorische Struktur, die in jeder ontischen Konkretion mindestens latent zum Ausdruck kommt. Daher eignet sich der Begriff Komplexität nicht nur in diesem Kontext als Zugang zur kulturellen Wirklichkeit und den faits culturelles, sondern könnte sich als gewinnbringendes Paradigma für Kulturphilosophie und Kulturwissenschaft herausstellen. Was so apriorisch für alle Kulturen gilt, scheint in der westlich geprägten kulturellen Wirklichkeit der Spätmoderne jedoch eine besondere Gestalt erhalten zu haben. Bevor diesem Verdacht nachgegangen werden kann, ist Komplexität als apriorische Struktur kultureller Wirklichkeit vor dem Hintergrund des komplexitätstheoretischen, konzeptuellen Rahmens dieses Bandes genauer zu präzisieren und kritisch einzuordnen. Dies gelingt nicht zuletzt über den Begriff der Kritikalität, der neben den theoretischen auch praktische Perspektiven eröffnet.

4.

Die Komplexität der Kulturellen Wirklichkeit

Durch die Auseinandersetzung mit Husserls Lebensweltanalysen konnte die Struktur kultureller Wirklichkeit als offenes System offener Systeme freigelegt werden, die taxonomisch und hierarchisch relational verbunden sind und in gegenseitigem Austausch stehen. Daher liegt der Versuch nahe, diese kulturphilosophischen Erkenntnisse kritisch mit komplexitätstheoretischen Ansätzen zu verbinden (Poser 2012, 304 ff.) und in besonderer Weise vor dem Hintergrund des in diesem Band entfalteten definitorischen Rahmens von Harald Schwalbe. 27 Ausgehend vom individuellen Subjekt über intersubjekDabei können in der Übersetzung in den phänomenologisch-kulturphilosophischen Zusammenhang nicht alle Aspekte und Begriffe integriert werden, da sie systematisch nicht kommensurabel sind, was insbesondere für den Begriff der Homöostase gilt, der eine organische Abgeschlossenheit impliziert, die im Falle der kulturellen Wirklichkeit bei einer Anwendung dieses Begriffs problematisch wird. Ebenfalls kann der Begriff des Energieeintrags und damit zusammenhängend der der Entropie hier (noch) nicht übersetzt werden. Grund hierfür ist nicht eine prinzipielle Unübersetz-

27

187 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

tive Gemeinschaften entstehen Cluster, die höhere organisierende Ebenen erzeugen, so dass alle unter einem Dach normativer Geltungen subsumiert werden. Kulturelle Wirklichkeit ist damit per se prinzipiell mehr oder weniger pluralistisch, insofern vielschichtige Systeme und Verbünde organische Einheiten bilden, die sich von ihrer Umgebung differenzieren und mit ihr in Austausch stehen. Die Schichtung unterschiedlicher Heimwelten nebeneinander und die Assimilation von Fremdwelten hat dies deutlich gemacht. Insofern bilden Subjekte und Subjektgemeinschaften konstitutive Elemente von Kultur. 28 Angesichts dieser prinzipiell pluralistischen Konstitution kultureller Wirklichkeit können ihre Formen relativ homogen durch die starke Bindung an normative Ordnungen und Verbindlichkeiten sein, oder aber relativ heterogen, wenn Pluralismus durch die Parallelität unterschiedlicher normativer Geltungen betont wird, wie dies für die Kultur der Spätmoderne anzunehmen ist (s. u.). Vor diesem Hintergrund sind rein heterogene oder rein homogene Zustände kultureller Wirklichkeit(en) nicht denkbar. Subjekte und Gemeinbarkeit, sondern der Umstand, dass der Energiebegriff in kulturphilosophischen und phänomenologischen Ansätzen bereits auftaucht. So definiert Cassirer den zentralen kulturphilosophischen Begriff der symbolischen Form als »jene Energie des Geistes […], durch welche ein geistiger Bedeutungsgehalt an ein konkretes sinnliches Zeichen geknüpft und diesem innerlich zugeeignet wird« (Cassirer 2003, 175 ff.), bei Simmel findet sich wiederum ein anderes kulturphilosophisches Konzept der Energie i. S. von drängendem Strom und Kräften (Simmel 2001, 198, 206 ff., 219) und auch Freud legt seinen kulturphilosophischen Betrachtungen neben dem Trieb den Begriff der Energie zugrunde (Freud 2013, 29–108). Husserl wiederum sieht eine »Energeia« (Husserl 1962, 101) in seinem teleologischen Geschichtsbild der europäischen Kultur am Werk und Michel Henry legt in seinem eigenen phänomenologischen Ansatz Energie dem Begriff der Kultur zugrunde (Henry 1994, 278 ff.). Diese exemplarische Auswahl umfasst bereits fünf unterschiedliche Konzepte, so dass eine detailliert kritische Auseinandersetzung und die Entwicklung eines komplexitätstheoriekompatiblen kulturphilosophischen Energiebegriffs nötig wäre, was jedoch den Rahmen der hier geführten Argumentation sprengen würde. Gleichwohl zeigen sich durch diesen Ausblick weitere Anschlusspunkte zwischen kulturphilosophischen und komplexitätstheoretischen Überlegungen. 28 Hierin zeigt sich eine Stärke der Phänomenologie für die kulturphilosophische Analyse von Komplexität, die durch die Auseinandersetzung mit der Systemtheorie Luhmanns noch verstärkt werden könnte (vgl. Luhmann 1996; Nassehi 2011, 70 ff.; Bermes 2006, 20 ff.). Die Leistung der Phänomenologie liegt vor allem darin, dass in der Analyse der Lebenswelt das Subjekt nicht verworfen wird und somit auch nicht die genuin subjektiven Inhalte, wodurch normative und nicht nur regulative Strukturen erfasst werden (vgl. hierzu auch Bermes 2006, 27 ff.). Eine Annäherung wird unten durch den Bezug auf Nassehis systemtheoretischen Ansatz angedeutet.

188 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

schaften bilden jedoch keineswegs die einzigen aktiven Elemente der kulturellen Wirklichkeit, denn die Hervorbringungen in Gestalt von faits culturelles, Institutionen und auch präreflexiver kultureller Praktiken wirken ebenfalls normativ und innovativ in die Dynamik hinein und haben, durch kontinuierlichen Einfluss auf das menschliche Denken und Handeln, formgebenden Einfluss auf die kulturelle Praxis. 29 Wechselwirkungen unter Subjekten, Gemeinschaften und faits culturelles sind dabei wiederum mannigfaltig und unüberschaubar, allenfalls retrospektiv in eine Logik einfügbar Dieser synchronen Dynamik und latenten Varianz kultureller Wirklichkeit entspricht in gleicher Weise eine Dynamik und Varianz im Laufe ihrer Zeitevolution. Durch diese prinzipielle strukturelle Spannung, die in der permanenten Aushandlung von Einstimmigkeit(en) Ausdruck findet, reihen sich unterschiedliche Schichten und Ebenen der kulturellen Wirklichkeit wie Normen, Werte, Ordnungen, Güter usw. auf und gerade erstere steigern so die Intensität von Komplexität. Denn höhere Schichten gehen nicht nur aus niedrigeren hervor – etwa ein Selbst- und Weltverständnis aus der nativen Auslegung der Welt –, sondern wirken gleichzeitig auf sie zurück, um wiederum von diesen Veränderungen beeinflusst zu werden. Diese Wechselwirkung von bottom-up- und top-down-Relationen und Entwicklungen erzeugt wiederum neue Relationen und Schichten und stimuliert und potenziert Konkretisierungsformen von Komplexität. 30 Aus diesen Wechselwirkungen und Aufschichtungen, die in konstitutiver Beziehung zu den Geltungsaktualisierungen und Praktiken der Subjekte und faits culturelles stehen, organisiert sich kulturelle Wirklichkeit von jedem Moment aufs Neue und kann so in den komplexitätstheoretischen Kontext des prozesshaften Werdens eingeordnet werden, wie er von Ilya Prigogine, Manfred Eigen oder Alfred North Whitehead beschrieben wird (Poser 2012, 302). Aus Hiermit ist der Einfluss einer Eigenlogik der objektiven Kulturleistungen im Anschluss an Simmel gemeint (vgl. Simmel 2001), jedoch kein ›Handeln‹ der Objekte (vgl. dazu Latour 2017 sowie Barad 2017). 30 Zum Konzept dieser hierarchisch reziproken Dynamiken vgl. Ellis/Kopel 2019. Diese Wechselwirkung von Logiken und Intentionen und die Aufschichtung hierarchischer Ebenen ist jedoch keineswegs als Ausdruck eines kompetitiv interpretierten Niveaus einer Kultur gemeint, sondern zeigt nur ihre apriorisch angelegte komplexe Struktur an. Die in diesem Beitrag fromulierte phänomenologisch-kulturphilosophische Beschreibung hält sich prinzipiell fern von Prädikaten wie einer ›Hochkultur‹, die immer schon ihr Gegenteil impliziert und dieses zumeist – wenn auch im Fall der Dekadenzdiagnose nicht immer – nicht bei sich verortet. 29

189 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

dieser kontinuierlichen Verwirklichung entspringen spezifische Charakteristika. Dies umfasst auch das Auftreten von Emergenz, die in der kulturellen Wirklichkeit unterschiedliche Konkretionen annehmen kann: Ideen, Kunstwerke, Techniken, Wissen, politische Visionen und Optionen, neue Praktiken, neue Weisen der Lebensweltauslegung, neue Lebensformen usw. Zugleich wirkt diese Dynamik auch stabilisierend und organisierend, indem Variationen in der Regel nicht spektakulär, sondern eher diskret geschehen. Starke Emergenz kann dabei durchaus die Reorganisation der gesamten kulturellen Wirklichkeit bedeuten, also eine radikale Veränderung des Selbst- und Weltverständnisses, eine radikale Umgestaltung kultureller Praktiken und Verbindlichkeiten und damit des sozialen Lebens und der normativen Ordnungen, was man exemplarisch in den Entstehungsphasen von Neuzeit und Moderne nachvollziehen kann. Hierbei besteht auch immer die Möglichkeit, dass sich die Errungenschaft kultureller Leistungen dialektisch verkehren und destruktiv auf normative Ordnungen und andere kulturelle Tatsachen sowie auf gemeinschaftliche und individuelle Lebensformen wirken. Eine extreme Form ist dabei der sogenannte Rückfall in die Barbarei, bei er es sich analytisch betrachtet jedoch um eine Verkehrung der Konfiguration, einen Moduswechsel kultureller Wirklichkeit handelt. Insofern muss noch nicht einmal Komplexität reduziert werden, sondern nur die erwartete und als sicher vermeinte Wirkung erfolgreicher kultureller Konzepte dialektische Umschläge erleben (vgl. Horkheimer/Adorno 2001). Von teleologischen Dimensionen der Kultur zu sprechen, erscheint vor diesem Hintergrund nicht möglich, denn die komplexen Dynamiken, die synchron in den Wechselwirkungen und diachron in der Spannung von Tradierung, Innovation, Variation und Destruktion liegen, machen eine zielgeführte Entwicklung undenkbar. Und so ist auch die Funktion kultureller Wirklichkeit nicht eine intendierte, sondern allein die der spezifisch menschlichen Sphäre, die sich der Mensch als »Milieu« selbst durch präreflexive und reflexive »Praxis« (Becker 2012, 158, 164) schafft und die Orientierung, Handeln und so eine Lebensführung ermöglicht. Vor diesem Hintergrund ist es möglich, dass sich besonders günstige Konfigurationen der Auslegung kultureller Wirklichkeit als produktiver oder komfortabler als andere erweisen. Eine Selektion im evolutionsbiologischen Sinne lässt sich auf diese Prozesse jedoch nicht übertragen.

190 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

Die konstitutive synchrone und diachrone Spannung erzeugt in unterschiedlichen Graden Phasen der Kritikalität, die Emergenz im beschriebenen Sinn ermöglicht, die aber in einem intensiven Zustand auch zu radikalen Brüchen und Reorganisationen der Normalstimmigkeit kultureller Wirklichkeit führen kann. Naturkatastrophen als externe Auslöser, aber auch politische Umwälzungen oder wissenschaftliche Grundlagenforschung können solche unvorhersehbaren Entwicklungen begünstigen oder anstoßen. Gleichwohl wechseln sich relativ stabile Phasen mit solchen erhöhter oder hoher Kritikalität ab. Letztere können durch das Ansteigen des Aushandlungsniveaus in betont pluralistischen kulturellen Wirklichkeiten entstehen, was in der abschließenden Beschreibung der Erschöpfungskultur der Spätmoderne näher betrachtet wird. Zuvor ist noch auf die Zeitevolution und die Frage der Reproduzierbarkeit kultureller Wirklichkeit einzugehen, wird mit dem Begriff Kultur doch oftmals auch Politik gemacht. Die Zeitevolution kultureller Wirklichkeit(en) steht angesichts des subjektiven und intersubjektiven Zeitbewusstseins und auch der verschiedenen Formen von Geschichtsschreibung außer Frage. Die Frage ihrer Irreversibilität und Nichtreproduzierbarkeit hingegen leitet auf Vorstellungen hin, die zumeist ideologisch imprägniert sind. Als spezifisch menschliche Sphäre beruht die Generativität kultureller Wirklichkeit in der Singularität menschlicher Zeit und ist damit nicht reversibel. Deutlich wird dies vor allem dann, wenn Versuche der planmäßigen Gestaltung kultureller Wirklichkeiten unternommen werden, häufig begleitet von einer restaurativen oder restitutiven 31 Kulturkritik, die angesichts der defizitär empfundenen Gegenwart Ideale projiziert. Dies findet nicht nur theoretisch, sondern praktisch und politisch Ausdruck in Unternehmungen, eine ›gute alte Zeit‹ wiederherzustellen oder eine ›schöne neue‹ herbeizuführen, die dann an veränderten Bedingungen scheitert, oder aber in der Installierung einer konstruktivistischen Leitkultur 32, die angesichts der Den Begriff der »restitutiven« Kulturkritik führt Konersmann durch den Gegensatz einer »post-restitutiven« Kulturkritik ein (Konersmann 2008, 7 ff., 86 ff.) und stellt damit zugleich eine Diagnose der kulturellen Wirklichkeit der Moderne im Modus der »Kritikalität« (Konersmann 2008, 14). Dies ist, wie aus den obigen Bezügen deutlich geworden ist, auch in die über Husserl hinausgehenden Überlegungen zum Verhältnis von Kultur und Komplexität. 32 Die Debatte um eine solche Leitkultur entbrennt immer wieder, wobei zu beachten ist, dass dieser Begriff ursprünglich von Bassam Tibi geprägt wurde, bevor er politisch 31

191 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

Zeitevolution und pluralistischen Struktur von Kultur nur unter brutal-reduktionistischen Bedingungen und allenfalls temporär als durchführbar gedacht werden kann. Eine Fixierung oder Wiederholung kultureller Wirklichkeit ist aufgrund ihrer Struktur (und Zeitevolution) prinzipiell nicht möglich, da jede spezifische Konfiguration im wesentlichen Praxis ist und daher von »Augenblick zu Augenblick […] gemacht« (Konersmann 2003, 9; vgl. hierzu auch Hooker 2011, 74 ff.) wird. Es können sich jedoch typische Ähnlichkeiten singulärer Formen einstellen, wie dies auch theoretisch für komplexe Prozesse beschrieben wird (vgl. Poser 2012, 305), deren Auftreten aber nicht zwangsläufig auf eine Maßnahme zurückgehen muss. Dies macht es weitgehend unmöglich, kulturelle Wirklichkeit bewusst zu formen und somit die Entwicklung von Kultur zu steuern oder langfristig sicher vorherzusagen. Prognostizierende Versuche, wie sie in pessimistisch-dystopischen oder optimistisch-utopischen Ausblicken zu Wort kommen, erweisen sich zu oft als genauso bemüht wie unzutreffend. Zwar lassen sich bestimmte Entwicklungen und besonders Brüche retrospektiv plausiblisieren und auf einzelne oder eine Gruppe von Entwicklungen und Ereignissen zurückführen, prognostizierbar ist aber nicht, wie (genau) sich kulturelle Wirklichkeit verändern wird. Diese Unverfügbarkeit lässt sich als Eigenschaft komplexer Systeme schlechthin festhalten, denn auch politische, wirtschaftliche und soziale Systeme lassen sich erfahrungsgemäß nicht durch einen entschlossenen Zugriff »gängeln« (Nassehi 2019b). 33 Die Auseinandersetzung der gewonnenen Einblicke in die Struktur kultureller Wirklichkeit mit wissenschaftstheoretischen Beobachtungen und dem komplexitätstheoretischen Definitionsrahmen verdeutlicht nochmals die strukturelle Dimension von Komplexität für die kulturelle Wirklichkeit in all ihren Formen. Zugleich wird deutlich, dass gerade mathematisierende und technische Aspekte bei Phänomenen wie der kulturellen Wirklichkeit weniger greifen, da sie sich nicht nur organisch entwickelt – was biologische Gegenstände auch instrumentalisiert und zum Kampfbegriff aufgeladen wurde (Tibi 2001). Die politische und ideologische Idee einer Leitkultur wird zudem angesichts der oben dargestellten, prinzipiell pluralistischen Struktur von Kultur in mehrerlei Hinsicht problematisch (vgl. hierzu auch Konersmann 2008 sowie Jullien 2018). 33 Nassehi formulierte diese Eigenschaft in einem Interview in der TAZ folgendermaßen: »Ein komplexes System lässt sich nicht gängeln«, jedoch vielleicht beeinflussen durch die »Entfachung von Eigendynamiken« (Nassehi 2019b).

192 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

tun –, sondern zudem durch intentional bewusste und intentional handelnde Subjekte und Subjektgemeinschaften konstituiert wird. Dies heißt aber gerade nicht, dass diese Subjekte immer reflexiv und damit rational handeln, gerade der Umstand präreflexiven Handelns und Auslegens bildet das Fundament kultureller Wirklichkeit, von dem Komplexitätssteigerungen ausgehen, was nicht modellierbar ist, ohne essentielle Aspekte zu vernachlässigen. Dass nicht alle Definitionsmerkmale übersetzbar sind, bedeutet nicht, dass der Bereich kulturphilosophischer und kulturtheoretischer Untersuchungen nicht ein aufschlussreiches und horizonterweiterndes Feld der Komplexitätsforschung darstellt. Damit ist die Integration kulturphilosophischer Überlegungen in die Frage nach Komplexität und komplexen Systemen keineswegs erschöpft, sondern erfordert weitere Beobachtungen und Überlegungen. Neben dem komplexitätstheoretischen Impuls verleiht der kulturphilosophische Rahmen der Komplexitätsforschung noch eine spezifisch praktische Note, indem die gewonnenen Erkenntnisse zum Verständnis und zu einem gelingend(er)en Umgang mit der oft beklagten kulturellen Wirklichkeit der Gegenwart beitragen. Dies wird deutlich, wenn die beklagten Erschöpfungserscheinungen der Gegenwartskultur vor dem Hintergrund der herausgearbeiteten pluralistischen und parallel-logische Strukturen kultureller Wirklichkeit neu betrachtet werden.

5.

Die komplexe Kulturelle Wirklichkeit

Die Spätmoderne verwirklicht in prägnanter Form die apriorische Struktur kultureller Wirklichkeit. Dies ist nicht als komparative Überhöhung im interkulturellen Vergleich zu verstehen, sondern eine Feststellung, die vor allem ihrer immanenten Konfliktträchtigkeit und Fragmentierung gerecht wird. Die Pluralität und Parallelität von Heimwelten und ihren Erweiterungen durch Aufnahme und Aneignung immer unterschiedlicherer Fremdwelten in Zeiten von Globalisierung und Digitalisierung sind Voraussetzungen für ontische Ausgestaltungen von Komplexität. Konkret wird dies in den Artefakten und allen faits culturelles, aber auch und besonders in verschiedenen Lebensformen, kulturellen Praktiken, Verbindlichkeiten und normativen Ordnungen. All dies schöpft aus unterschiedlichen Traditionen, trifft aufeinander, vermischt sich, verformt sich, stößt sich ab, erzeugt neue Formen und Gestaltungswege oder lässt beste193 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

hende verschwinden. Zugleich fügen sich all diese Dynamiken in ein organisches, offenes System ein, das der Spätmoderne ihre spezifische Physiognomie verleiht. Auszuhandelnde Konflikte, konträre Positionen, soziale Bewegungsbildungen und Reaktionsreflexe gehören ebenso zu ihr wie die artifiziell-technische Infrastruktur, die ebenfalls die strukturell angelegte Komplexität verwirklicht und steigert. 34 Diese Mixtur lässt sie auf der einen Seite anstrengend-zäh erscheinen, wenn es um die Durchsetzung gesellschaftlicher und politischer Ziele geht; auf der anderen Seite anstrengend-schnell, wenn man ihre Innovationsraten und -routinen bedenkt. Die vielfältigen Systeme und Logiken – wie Politik, Wirtschaft, Wissenschaft, Religion, um nur die allgemeinsten zu nennen – laufen nebeneinander her und beziehen sich doch aufeinander, ohne immer für die anderen übersetzbar zu sein. 35 Die Physiognomie der spätmodernen Kultur ist gezeichnet durch eine Vielfalt normativer Geltungen und Logiken, habitualisierter Praktiken und sinnhafter Geltungen. Übergreifend lässt sich diese Kultur, die Komplexität in fast überbetonter Weise normativ und objektiv konkretisiert, als eine Kultur der Kritikalität bezeichnen, wie dies ähnlich auch Ralf Konersmann vorgeschlagen hat (Konersmann 2008, 14) 36 und dies aus einer anderen Perspektive auch von Armin Nassehi vertreten wird (vgl. Nassehi 2018). Nach Konersmann hängt der Modus der Kritikalität wesentlich mit einer Universalisierung der Kritik in der Moderne mit einer gleichzeitigen Suspendierung ihres restitutiven Anspruchs zusammen. Kritik wird zur Kulturkritik, die sich über Rousseau bis in die Gegenwart hinein von absoluten Ansprüchen verabschiedet und Kritik an der Kultur zum Selbstzweck erklärt. Die »ubiquitär« (Konersmann 2008, 18) gewordene Kulturkritik wird somit nicht mehr im Namen von »Mastersubjekten wie die Wahrheit, die Vernunft und die Geschichte« (Konersmann 2008, 7) artikuliert, sondern begnügt sich mit sich selbst als permanente ironische SelbstÄhnlich sieht dies auch Nassehi, jedoch aus einer spezifisch gesellschaftstheoretischen und systemtheoretischen Perspektive (vgl. Nassehi 2019a, 28 ff.). 35 Zur Übersetzungsnotwendigkeit vgl. Nassehi 2015, 256 ff. 36 Die Komplexität und ihre auf Kontinuität gestellte Stimulation (Konersmann 2008, 16) wird jedoch ideengeschichtlich auf eine Universalisierung der Kritik als von Wahrheitsansprüchen und Mastersubjekten befreiten, frei flottierenden Kritik zurückgeführt und nicht apriorisch für kulturelle Wirklichkeit schlechthin herausgearbeitet, wie dies durch den phänomenologischen Ausgangspunkt hier entwickelt wird. 34

194 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

kommentierung (Konersmann 2008, 8). Die Verabschiedung idealer Entitäten bedeutet dabei keine Aufhebung der Kultur, denn die postrestitutive Kulturkritik ist als permanente Selbstreflexion nichts anderes als »Kritik an der Kultur im Namen der Kultur« (Konersmann 2008, 103) – etwas, was auch für die Kulturphilosophie selbst gilt, die sich als philosophische Disziplin notwendigerweise durch Formen kritischer Erkenntnis konstituiert. Die Kultur der Kritikalität garantiert nicht nur den Pluralismus und die Heterogenität der Kultur der Spätmoderne, sondern sie »stimuliert Komplexität. Sie ist die endogene Qualitätskontrolle einer Kulturwirklichkeit, die den Anspruch der Vollkommenheit hinter sich gelassen hat« (Konersmann 2008, 16), indem sie Verdichtungen von Traditionszusammenhängen im Keim porös werden lässt und die kulturelle Wirklichkeit so kontinuierlich und aktuell vergegenwärtigt. Dies geht in eine bisher nicht dagewesenen Form der Selbstverständigung und Selbstreflexion dieser Kultur über, womit sie gerade keine Eindeutigkeit herstellt, denn sie »normalisiert Kontingenz« (Konersmann 2008, 14) und visibilisiert so die kulturelle Wirklichkeit erst, wie sie strukturell angelegt ist (Konersmann 2008, 52). 37 Im hier entwickelten Zusammenhang handelt es sich aber nicht nur um eine Übersteigerung von Kritikformen, die zu diesem Zustand führen, denn die Verwirklichung der komplexen Struktur von Kultur führt in unterschiedlichem Niveau immer zu Zuständen der Kritikalität, in denen sich kulturelle Wirklichkeit in all ihren normativen und empirischen Aspekten konkretisiert und so auch Neues hervorbringen kann – emergent wird (vgl. hierzu auch Mainzer 1996, 244). Die Verwirklichung der apriorisch angelegten Komplexität, die die Entwicklungsfähigkeit von Kulturen ermöglicht, führt bei ausreichender Steigerung zugleich in die Nähe des dialektischen Umschlags von Kultur in das, was oftmals als ihr Gegenteil vermeint wird – ein Eindruck, den man in den letzten Jahren angesichts der sich anhäufenden und hausgemachten wicked problems des westlich-geprägten Lebensstils gewinnen könnte. Ohne diese Steigerung von Komplexität in eine konkrete Spannung hoher Kritikalität durch das NebenDie Selbstreflexion und Selbstverständigung gilt nicht nur für die kulturelle Wirklichkeit der Spätmoderne, ist dort aber besonders ausgeprägt. Es könnte naheliegen, diese Form der Selbstreflexivität in den Zusammenhang mit den sich beobachtenden Systemen Luhmanns zu bringen, wofür sich Indizien finden lassen, wenngleich Luhmann den hier verwendeten Kulturbegriff zumindest explizit nicht teilen würde (vgl. hierzu Colli 2004; Konersmann 2012a, 3).

37

195 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

einander unterschiedlicher Logiken, Lebensformen und -ordnungen wären aber auch alle ihre Vorzüge und vor allem Innovationen auf sozialer, politischer, ökonomischer, technologischer, ästhetischer und intellektueller Ebene weniger wahrscheinlich. Und zumindest bislang scheint sich dieses offene System offener Systeme immer wieder selbst stabilisieren zu können. 38 Die Steigerung von Komplexität und die Erzeugung von Zuständen der Kritikalität bis hin zu ihrer Normalisierung scheint das immanente Programm dieser kulturellen Wirklichkeit zu sein, die deshalb neben der Kritikalität auch als Kultur der Komplexität bezeichnet werden kann. Diese Erkenntnis löst ihre Anforderungen und Zumutungen nicht in Luft auf. Die wissenschaftliche Auseinandersetzung mit Komplexität erweist sich aber für das Verständnis dieser kulturellen Wirklichkeit und ihrer Verbindlichkeiten, Praktiken, Artefakte und normativen Ordnungen als unausweichlich, denn eine Kultur, wie sie hier beschrieben werden konnte, benötigt dringend ein »adäquate[s] Bild ihrer selbst, um Probleme einordnen zu können« (Poser 2012, 310). In kulturphilosophischer Perspektive lässt sich so zeigen, dass es eine grundsätzlich falsche Strategie zu sein scheint, Komplexität auf gesellschaftlicher, politischer oder auch privater Ebene reduzieren zu wollen. Dies zu versuchen, würde bedeuten, die kulturelle Wirklichkeit einer pluralistischen und damit einer denkbar demokratischen Welt 39 aufzugeben. Dies ist in Zeiten von Versprechungen einer komplexitätsreduzierten Welt zu bedenken, denn dabei kann es sich durchaus um das Ende jener Wirklichkeit handeln, in der wir heute selbstverständlich leben. Es gilt also heute mehr denn je, Komplexität und ihre Zugehörigkeit zu unserer kulturellen Wirklichkeit zu verstehen, um die immanente Dialektik kultureller Konkretionen zu verstehen und den Herausforderungen und Anforderungen unserer Zeit gewachsen zu sein 40. Aber vielleicht heißt das zunächst, die normalisierte Kontingenz und die Simultaneität divergierender Logiken zu erkennen und zu akzeptieren. Zwar mag die kulturelle Wirklichkeit in eine pluralistische »Vielheit« zerfallen, aber sie erzeugt auch immer wieder eine horizonthafte »EinVgl. die These, dass sich (spät)moderne Kulturen ausschließlich dynamisch stabilisieren können (Rosa 2019, 14). 39 Ähnlich sieht dies Konersmann 2008, 8. 40 Dies fordern in unterschiedlichen Kontexten und Intensitäten auch Nassehi 2018; Rosa 2018; 2019; Mainzer 2009, 219–236; 2008, 10, 13, 112; 2000, 162; Poser 2012, 310 f. 38

196 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

heit« 41 als übergeordnete Einstimmigkeit: vornehmlich in Form der vorgegebenen alltäglichen Lebenswelt als Ganze, aber auch in Gestalt liberaler und demokratischer Ideen. Und so kann es vielleicht gelingen, vor dem Hintergrund der kulturphilosophischen Einblicke in die Komplexität von Kultur, einen Vorschlag von Odo Marquard zu beherzigen, nämlich »mit der eigenen Wirklichkeit seinen Frieden« zu machen, denn: »Vita Brevis, das Leben ist kurz: darum hat […] kein Mensch die Zeit, seine vielheitlich-hyperkomplexe Wirklichkeit […] ohne Vereinfachungen, d. h. einheitslos zu bewältigen. Unsere Lebenskürze zwingt uns zur – stets nur unvollkommenen – Balancierung von Einheit und Vielheit und zu einem nichtabsolutistischen Ja dazu. Zum Vollkommenen fehlt uns die Zeit« (Marquard 1990, 8 f.).

6.

Literatur

Barad, Karen (2012): Agentieller Realismus. Aus dem Engl. von Jürgen Schröder. Berlin. Bauks, Michaela/Bermes, Christian/Schimmer, Thomas M. et al. (Hg.) (2019): Verbindlichkeit. Stärken einer schwachen Normativität. Bielefeld. Becker, Ralf (2021): Qualitätsunterschiede. Kulturphänomenologie als kritische Theorie. Hamburg. Becker, Ralf (2012): Philosophische Anthropologie, in: Ralf Konersmann (Hg.): Handbuch Kulturphilosophie. Stuttgart, 158–164. Bermes, Christian (2019): Verbindlichkeit. Stärken einer schwachen Normativität, in: Michaela Bauks/Christian Bermes/Thomas M. Schimmer et al. (Hg.): Verbindlichkeit. Stärken einer schwachen Normativität. Bielefeld, 13–28. Bermes, Christian (2006): Anschluss verpasst? Husserls Phänomenologie und die Systemtheorie Niklas Luhmanns, in: Dieter Lohmar/Dirk Fonfara (Hg.): Interdisziplinäre Perspektiven der Phänomenologie. Dordrecht, 18–37. Bollenbeck, Georg (2007): Eine Geschichte der Kulturkritik. Von J. J. Rousseau bis Günther Anders. München. Breyer, Thiemo (2011): Attentionalität und Intentionalität. Grundzüge einer phänomenologisch-kognitionswissenschaftlichen Theorie der Aufmerksamkeit. Paderborn. Cassirer, Ernst (1996): Versuch über den Menschen. Einführung in eine Philosophie der Kultur. Aus dem Engl. von Reinhard Kaiser. Hamburg.

Zu den Begriffen »Einheit« und »Vielheit« in diesem Zusammenhang vgl. Marquard 1990, 3.

41

197 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

Cassirer, Ernst (2001): Philosophie der symbolischen Formen. Erster Band: Die Sprache. Gesammelte Werke Hamburger Ausgabe. Band 11. Hg. von Birgit Recki. Darmstadt. Cassirer, Ernst (2003): Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften, in: Ders.: Aufsätze und kleine Schriften (1922– 1926). Gesammelte Werke Hamburger Ausgabe. Band 16. Hg. von Birgit Recki. Hamburg, 75–104. Colli, Christian (2004): Mit der Kultur gegen die Kultur. Chancen und Grenzen des Kulturbegriffs bei Niklas Luhmann, in: Duisburger Beiträge zur soziologischen Forschung 6, PID: https://nbn-resolving.org/urn:nbn: de:0168-ssoar-118036 (Stand: 19. 12. 2019) Cordes, Christian (2011): Emergente kulturelle Phänomene und ihre kognitiven Grundlagen, in: Jens Greve/Annette Schnabel (Hg.): Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Berlin, 346–371. Descartes, René (1986): Meditationen über die erste Philosophie. Übers. und hg. von Gerhart Schmidt. Stuttgart. Descola, Philippe (2013): Jenseits von Natur und Kultur. Aus dem Franz. von Eva Moldenhauer. Berlin. Ellis, George F. R./Kopel, Jonathan (2019): The Dynamical Emergence of Biology from Physics. Branching Causation via Biomolecules, in: Frontiers in Physiology 9, doi: 10.3389/fphys.2018.01966 (Stand: 19. 12. 2019). Forst, Rainer/Günther, Klaus (2011): Die Herausbildung normativer Ordnungen. Zur Idee eines interdisziplinären Forschungsprogramms, in: Dies. (Hg.): Die Herausbildung normativer Ordnungen. Interdisziplinäre Perspektiven. Frankfurt a. M./New York, 11–30. Fraisopi, Fausto (2014): Komplexität und Realismus, in: Meta: Research in Hermeneutics, Phenomenology and Practical Philosophy (Special Issue), 265–279. Freud, Sigmund (2013): Das Unbehagen in der Kultur, in: Ders.: Das Unbehagen in der Kultur und andere kulturtheoretische Schriften. Mit einer Einl. von Aflred Lorenzer/Bernard Görlich. 3. Aufl. Frankfurt a. M., 29– 108. Gehlen, Arnold (1993): Der Mensch. Seine Natur und seine Stellung in der Welt. Arnold Gehlen Gesamtausgabe. Band 3.1. Hg. von Karl-Siegbert Rehberg. Frankfurt a. M. Gloy, Karen (2014): Komplexität. Ein Schlüsselbegriff der Moderne. Paderborn. Grätzel, Stephan (1997): Verstummen der Natur. Zur Autokratisierung des Wissens. Würzburg. Heidegger, Martin (2001): Sein und Zeit. 18. Aufl. Tübingen. Heidegger, Martin (2000): Die Frage nach der Technik, in: Martin Heidegger Gesamtausgabe. Band 7. Vorträge und Aufsätze. Hg. von Friedrich-Wilhelm von Hermann. Frankfurt a. M., 5–36. Heidegger, Martin (2000): Wissenschaft und Besinnung, in: Martin Heidegger Gesamtausgabe. Band 7. Vorträge und Aufsätze. Hg. von FriedrichWilhelm von Hermann. Frankfurt a. M., 37–65.

198 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

Held, Klaus (1998): Einleitung, in: Edmund Husserl: Die phänomenologische Methode. Ausgewählte Texte I. Mit einer Einl. und hg. von Klaus Held. Stuttgart, 3–51. Henry, Michel (1994): Die Barbarei. Eine phänomenologische Kulturkritik. Übers. und eingel. Von Rolf Kühn/Isabelle Thireau. Freiburg i. Br./München. Hooker, Cliff (2011): Introduction to Philosophy of Complex Systems: A, in: Ders. (Hg.): Philosophy of Complex Systems. Oxford/Amsterdam/Waltham, 3–90. Horkheimer, Max/Adorno, Theodor W. (2001): Dialektik der Aufklärung. Philosophische Fragmente. 13. Aufl. Frankfurt a. M. Husserl, Edmund (2008): Die Lebenswelt. Auslegungen der vorgegebenen Welt und ihrer Konstitution. Texte aus dem Nachlass (1916–1937). Edmund Husserl Gesammelte Werke. Band XXXIX. Hg. von Rochus Sowa. Dordrecht. Husserl, Edmund (2001): Die Bernauer Manuskripte über das Zeitbewusstsein (1917/18). Edmund Husserl Gesammelte Werke. Band XXXIII. Hg. von Rudolf Bernet und Dieter Lohmar. Dordrecht/Boston/London. Husserl, Edmund (1987): Philosophie als strenge Wissenschaft, in: Edmund Husserl Gesammelte Werke. Band XXV. Aufsätze und Vorträge (1911– 1921). Mit ergänzenden Texte herausgegeben von Thomas Nenon und Hans Rainer Sepp. Dordrecht/Boston/Lancaster, 3–62 Husserl, Edmund (1950): Ideen zu einer reinen Phänomenologie und phänomenologischen Philosophie. Edmund Husserl Gesammelte Werke. Band III, 1. Allgemeine Einführung in die reine Phänomenologie. Hg. von Walter Biemel. Den Haag. Husserl, Edmund (1962): Die Krisis der europäischen Wissenschaften und die transzendentale Phänomenologie. Eine Einleitung in die Phänomenologische Philosophie. Edmund Husserl Gesammelte Werke. Band VI. Hg. von Walter Biemel. 2. Aufl. Haag. Jullien, François (2018): Es gibt keine kulturelle Identität. Aus dem Franz. von Erwin Landrichter. 4. Aufl. Berlin. Konersmann, Ralf (2015): Die Unruhe der Welt. 2. Aufl. Frankfurt a. M. Konersmann, Ralf (2012a): Einleitung, in: Ders. (Hg.): Handbuch Kulturphilosophie. Stuttgart, 1–12. Konersmann, Ralf (2012b): Kulturphilosophie, in: Ders. (Hg.): Handbuch Kulturphilosophie. Stuttgart, 13–22. Konersmann, Ralf (2008): Kulturkritik. Frankfurt a. M. Konersmann, Ralf (2006): Kulturelle Tatsachen. Frankfurt a. M. Konersmann, Ralf (2003): Kulturphilosophie zur Einführung. Hamburg. Kuhn, Thomas S. (2018): Die Struktur wissenschaftlicher Revolutionen. 25. Aufl. Frankfurt a. M. Latour, Bruno (2017): Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie. Aus dem Engl. von Gustav Roßler. 4. Aufl. Frankfurt a. M.

199 https://doi.org/10.5771/9783495825464 .

Thomas M. Schimmer

Luhmann, Niklas (2018): Soziale Systeme. Grundriß einer allgemeinen Theorie. 17. Aufl. Frankfurt a. M. Luhmann, Niklas (1996): Die neuzeitlichen Wissenschaften und die Phänomenologie. Wien. Luhmann, Niklas (1976): Komplexität, in: Historisches Wörterbuch der Philosophie. Band 4. Hg. von Joachim Ritter/Karlfried Gründer. Darmstadt, 939–941. Marquard, Odo (1990): Einheit und Vielheit. Statt einer Einführung, in: Ders. (Hg.): Einheit und Vielheit. XVI. Deutscher Kongreß für Philosophie. Hamburg, 1–10. Mainzer, Klaus (2009): Challenges of Complexity in the 21st Century. An Interdisciplinary Introduction, in: European Review 17 (2), 219–236. Mainzer, Klaus (2008): Komplexität. Paderborn. Mainzer, Klaus (1996): Thinking in Complexity. The Complex Dynamics of Matter, Mind and Mankind. 2. Aufl. Berlin/Heidelberg/New York et al. Nassehi, Armin (2019a): Muster. Theorie der digitalen Gesellschaft. 2. Aufl. München. Nassehi, Armin (2019b): Ziele formulieren kann jeder, Interview in der TAZ (https://taz.de/Soziologe-ueber-Klimawandel/!5600327/, Stand: 28. 09. 2019). Nassehi, Armin (2018): Die letzte Stunde der Wahrheit. Kritik der komplexitätsvergessenen Vernunft. 2. Aufl. Hamburg. Nassehi, Armin (2015): Die letzte Stunde der Wahrheit. Warum rechts und links keine Alternativen mehr sind und Gesellschaft ganz anders beschrieben werden muss. Hamburg. Nassehi, Armin (2011): Gesellschaft der Gegenwarten. Studien zur Theorie der modernen Gesellschaft II. Berlin. Neckel, Sigard/Schaffner, Anna Katharina/Wagner, Greta (2017): Introduction, in: Dies. (Hg.): Burnout, Fatigue, Exhaustion. An Interdisciplinary Perspective on a Modern Affliction. Cham, 1–23. Nünning, Ansgar/Nünning, Vera (2008): Kulturwissenschaft. Eine multiperspektivische Einführung in einen interdisziplinären Diskussionszusammenhang, in: Dies. (Hg.): Einführung in die Kulturwissenschaften. Theoretische Grundlagen – Ansätze – Perspektiven. Stuttgart/Weimar, 1–16. Plessner, Helmuth (1981): Die Stufen des Organischen und der Mensch. Einleitung in die philosophische Anthropologie. Helmuth Plessner Gesammelte Schriften. Band IV. Hg. von Günter Dux, Odo Marquard und Elisabeth Ströker. Frankfurt a. M. Poser, Hans (2012): Wissenschaftstheorie. Eine Einführung. 2., erw. Aufl. Stuttgart. Reckwitz, Andreas (2017): Die Gesellschaft der Singularitäten. Zum Strukturwandel der Moderne. Berlin. Rosa, Hartmut (2019): Unverfügbarkeit. 4. Aufl. Wien. Rosa, Hartmut (2018): Beschleunigung und Entfremdung. Aus dem Engl. von Robin Celikates. 6. Aufl. Berlin.

200 https://doi.org/10.5771/9783495825464 .

Komplexität und kulturelle Wirklichkeit

Rosa, Hartmut (2012): Beschleunigung. Die Veränderungen der Zeitstruktur in der Moderne. 9. Aufl. Frankfurt a. M. Schaffner, Anna Katharina (2017): Pre-Modern Exhaustion. On Melancholia and Acedia, in: Neckel, Sigard/Schaffner, Anna Katharina/Wagner, Greta (Hg.): Burnout, Fatigue, Exhaustion. An Interdisciplinary Perspective on a Modern Affliction. Cham, 27–50. Schimmer, Thomas M. (2018): Phänomenologische Kulturkritik. Praktische und kulturphilosophische Perspektiven bei Edmund Husserl, Martin Heidegger und Michel Henry. Baden-Baden. Simmel, Georg (2001): Der Begriff und die Tragödie der Kultur, in: Ders.: Aufsätze und Abhandlungen 1909–1918. Georg Simmel Gesamtausgabe. Hg. von Otthein Ramstedt. Band 12. Frankfurt a. M., 194–223. Simmel, Georg (1958): Philosophie des Geldes. Georg Simmel Gesammelte Werke. Band 1. 6. Aufl. Berlin. Valera, Francisco J./Thompson, Evan/Rosch, Eleanor (2000): The Embodied Mind. Cognitive Science and Human Experience. 8. Aufl. Camebridge et al.

201 https://doi.org/10.5771/9783495825464 .

Complexity Economics Mustervorhersage, Evolution und Handlungsverstehen als Grundprobleme der Österreichischen Schule der Nationalökonomie Stefan Schweighöfer

1.

Der Komplexitätsbegriff in der Ökonomie

Der Begriff der Komplexität bzw. der Begriff der komplexen ökonomischen Systeme wird in der Ökonomie und ihren benachbarten Disziplinen wie der Soziologie seit den 1990er Jahren mit zunehmender Häufigkeit gebraucht. Dabei kann der Eindruck entstehen, dass komplexitätstheoretische Ansätze eine genuine Neuerung in den Wirtschafts- und Gesellschaftswissenschaften wären. Sowohl inhaltlich wie auch in ihrer ideengeschichtlichen Genese lassen sich aber Traditionslinien aufzeigen, die bereits im ausgehenden 19. Jahrhundert auf komplexitätstheoretische Ansätze verweisen. Besonders interessant scheint hier die Konzeption der Wirtschaftswissenschaften durch die Österreichische Schule der Nationalökonomie zu sein, deren Ausführungen in zentralen Punkten nicht nur als Vorläufer der Komplexitätsökonomik gesehen werden können, sondern die auch in zentralen systematischen Punkten eine wertvolle Ergänzung zu heutigen Forschungsproblemen bieten. Ziel dieses Beitrags ist somit nicht nur eine ideengeschichtliche Darstellung der Komplexitätsökonomik, sondern auch herauszuarbeiten, inwiefern heutige Ansätze von älteren Erkenntnissen profitieren können, wo sie sich widersprechen und auf welche Erkenntnisobjekte sich die verschiedenen Theorietraditionen beziehen. In den Wirtschaftswissenschaften trifft man spätestens seit den 2000er Jahren vermehrt auf die Ansicht, dass die Ökonomie eine radikale Umgestaltung im Sinne eines Paradigmenwechsels Thomas Kuhns durchlaufe – ein Paradigmenwechsel, der nicht nur Funktionsweise, Methode und Objektbereich der Ökonomie betreffe, sondern das grundlegende Verständnis des Erkenntnisobjekts Wirtschaft überhaupt. Exemplarisch kann dafür die Meinung Eric Beinhockers angeführt werden, der davon ausgeht, dass ein komplexitätstheoreti202 https://doi.org/10.5771/9783495825464 .

Complexity Economics

scher Ansatz die Ökonomie im 21. Jahrhundert erst zu einer echten Wissenschaft transformieren werde: »[…] the field of economics is going through its most profound change in over a hundred years. I believe that this change represents a major shift in the intellectual currents of the world […]. I also believe that just as biology became a true science in the twentieth century, so too will economics come into its own as a science in the twenty-first century. […] The Complexity Economics revolution […] is the result of many years of work by scores of people around the world. […] But it is a revolution still very much in-progress, and as such, it is controversial.« (Beinhocker 2006, ix–x)

Ähnliche Aussagen lassen sich bei einer Reihe weiterer Autoren finden (vgl. bspw.: Arthur 2009, 12–13; Colander 2009, 410; Chen 2010, xxiii; Arthur 2015, xi–x); allen gemein ist eine Abkehr von der etablierten neoklassischen allgemeinen Gleichgewichtstheorie als Kernstück der Wirtschaftstheorie (vgl. bspw.: Colander 2000, 127; Davis 2008, 349–350), deren Theoreme sich in linearen Systemen mathematisch modellieren ließen. Vielmehr sei davon auszugehen, dass sich reale ökonomische Phänomene in einem dauerhaften Ungleichgewicht befänden, sich ununterbrochen veränderten, neu strukturierten und in einem quasi-evolutionären Sinne weiterentwickelten. Da eine solche Entwicklung aber gerade nicht linear beschreibbar sein könne, müsse bei der Modellierung derartiger Systeme auf die in den Wirtschaftswissenschaften etablierten linearen mathematischen Modelle verzichtet und stattdessen auf computergestützte Modelle und numerische Lösungsmechanismen zurückgegriffen werden. Daher könne die Ökonomie als Wissenschaft komplexer sozialer Erscheinungen erst durch derartige Modellierungsversuche ihrem Objekt angemessen betrieben werden. Kritische Stimmen verweisen an dieser Stelle jedoch darauf, dass Komplexitätstheorien zu keinem Erkenntnisgewinn in der ökonomischen Wissenschaft führen würden. Es sei gerade die Annahme einer nichtlinearen Entwicklung sowie die Annahme einer prinzipiellen Unvorhersagbarkeit der entsprechenden Systeme, die dazu führten, dass derartige Modelle nichts weiter produzieren könnten als schillernde, aber faktisch nutzlose Metaphern. So bemerkte beispielsweise John Horgan, der in polemischer Weise von der Wissenschaft der 203 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

chaoplexology spricht, dass Erkenntnisse abstrakter Modelle gar nicht auf die Wirklichkeit übertragbar seien: »So far chaoplexologists have created some potent metaphors: the butterfly effect, fractals, artificial life, the edge of chaos, selforganizing criticality. But they have not told us anything about the world that is both concrete and truly surprising, either in a negative or a positive sense. […] Computer simulations represent a kind of materiality within which we can play with and even – to a limited degree – test scientific theories, but they are not reality itself […].« (Horgan 1997, 226)

Damit ist neben dem Problem, wie sich komplexe Systeme definieren und womöglich modellieren lassen, auch die Frage nach der erkenntnistheoretischen Bedeutung komplexitätstheoretischer Ansätze aufgeworfen. Eine weitere Unklarheit stellt die Frage dar, ob es sich bei der zunehmenden Bedeutung komplexitätstheoretischer Ansätze innerhalb der letzten 25 Jahre wirklich um eine sachliche Neuerung handelt oder nicht vielmehr um die Wiederaufnahme von älteren Erkenntnistraditionen, die zwischenzeitlich in den Hintergrund gedrängt wurden und die grundlegende Eigenschaften wirtschaftlicher und gesellschaftlicher Erscheinungen in den Vordergrund rücken – besonders solche Eigenschaften, die in einer von allgemeinen Gleichgewichtstheorien bestimmten Ökonomik meist weniger Beachtung finden. So wird neben der trivialen Bemerkung, dass alles Wirtschaften von willensfreiem menschlichen Handeln und gesellschaftlichen Interaktionen abhängt und damit notwendig komplex sein müsse, auch darauf verwiesen, dass Autoren wie Adam Smith (vgl. Colander 2009, 420), John Stuart Mill (vgl. ebd., 421), Alfred Marshall (vgl. ebd., 422), Carl Menger (vgl. Koppl 2009, 395), Friedrich Wieser (vgl. ebd., 394) oder Friedrich August von Hayek (vgl. ebd., 395–397) der Sache nach bereits von einer Theorie komplexer Phänomene gesprochen hätten. Richtig ist, dass alle der genannten Autoren wirtschaftliche Phänomene nicht im Sinne einer statischen Gleichgewichtstheorie und nicht in dem Sinne eines linear beschreibbaren und damit kontrollierbaren und prognostizierbaren Systems begreifen. Auch ließe sich das von ihnen behandelte Erkenntnisobjekt im heutigen Wortgebrauch als komplexes System bestimmen. Allerdings scheinen die Argumentationsstruktur und die Erkenntnismethode dieser 204 https://doi.org/10.5771/9783495825464 .

Complexity Economics

Autoren den heute vorherrschenden Ansätzen in vielerlei Hinsicht entgegengesetzt zu sein, was in der aktuellen Debatte jedoch weitgehend ausgeblendet wird. Dieser Gegensatz lässt sich mit Begriffspaaren wie deduktiv und induktiv, verstehen und erklären, exakte und empirische Wissenschaft oder humanistisch und scientific schlagwortartig beschreiben. Betont man diese methodischen Unterschiede jedoch, so lassen sich die verschiedenen wissenschaftlichen Ansätze nicht nur systematisch besser verstehen, sondern es zeigt sich auch, dass innerhalb der Theorie komplexer Systeme diese normalerweise entgegengesetzten oder zumindest unabhängig nebeneinander bestehenden Ansätze als sich ergänzende Komplemente zusammenkommen. Diese Besonderheit wird aber ausgeblendet, wenn man entweder behauptet, eine Theorie komplexer wirtschaftlicher Systeme sei eine vollständig neue Wissenschaft, oder wenn man behauptet, sie sei schlechthin die Wiederaufnahme älterer Entwicklungslinien. Nur wenn beide Erkenntnismethoden genau voneinander unterschieden werden, wird deutlich, inwieweit ihre Kombination in der Theorie komplexer Phänomene zu einem echten Erkenntnisgewinn führen kann.

2.

Komplexität in numerischen ökonomischen Modellen

Als eines der archetypischen Modelle eines komplexitätstheoretischen Ansatzes in der Ökonomie gilt das seit 1989 am Santa Fe Institute entwickelte Modell einer computersimulierten Börse (vgl. Rosser 1999, 181–182). Darin wurde versucht, eine Theorie der Bepreisung von Wertpapieren zu entwerfen, die sich quasi-evolutionär in einem als inductive reasoning beschriebenen Prozess herausbildet (vgl. Brian 1997, 17–19). Hier liegt die Annahme zu Grunde, dass auf deduktivem Wege keine sinnvolle Voraussage über mögliche Ergebnisse getroffen werden kann (vgl. Brian 1997, 19–22). Das Modell besteht aus verschiedenen Akteuren und verschiedenen Dividendenzahlungen, wobei anfangs den unterschiedlichen Akteuren zufällige Erwartungen über die Gewinnmöglichkeiten bestimmter Investitionen zugewiesen werden, in deren Folge sie bestimmte Aktionen am Aktienmarkt durchführen. Treten nun bestimmte Muster am Markt auf, die mit bestimmten der gegebenen Erwartungssets übereinstimmen, dann veranlasst dies die simulierten Akteure zum Handeln (vgl. Brian 1997, 24). Am Ende einer bestimmten Menge von Runden wird 205 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

ein vorher festgelegter Prozentsatz von Erwartungen, die zu den schlechtesten Handlungsergebnissen geführt haben, gelöscht und nach einem algorithmischen Verfahren mit angepassten und dadurch besseren Erwartungen ersetzt 1, wodurch letztlich ein Lernprozess simuliert werden kann. Das skizzierte Computermodell kann nun unter verschiedenen Bedingungen ausgeführt werden, wobei verschiedene Ergebnisse beobachtbar sind. Als konkretes Beispiel nennen die Autoren zwei Abläufe: In einem ersten werden die Erwartungen alle 1000 Runden relativ leicht angepasst, in einem zweiten Ablauf werden sie alle 250 Runden im Verhältnis zum ersten Ablauf relativ stark angepasst (Brian 1997, 28). Die Ergebnisse beider Versuchsabläufe unterscheiden sich erheblich. In der ersten Variante konvergieren die Marktpreise schnell auf einem Gleichgewichtsniveau, das den Vorhersagen einer rational-choice Theorie entspricht, wobei die Akteure jedoch nicht im Sinne einer rational-choice Theorie handeln, da sie ihre Erwartungen nicht deduzieren können, sondern sie lediglich induktiv anpassen. Somit entsprechen zwar die Ergebnisse den Vorhersagen einer rational-Choice Theorie, jedoch nicht der Weg, auf dem die Akteure zu diesem Ergebnis gelangen, denn die Akteure erlernen effizienteres Handeln nicht durch Verstehen eines kausalen Mechanismus, sondern durch iterative Elimination der je ineffizientesten Erwartungen. Auch das Gleichgewicht ist kein vollkommenes, sondern ein stochastisches, da die Akteure durch das Vorliegen nebeneinander bestehender Erwartungssets weiterhin Alternativen zum vorliegenden Gleichgewichtspreis in Betracht ziehen (Brian 1997, 29). Im zweiten Versuchsablauf hingegen stellt sich kein Gleichgewicht ein; die Autoren der Studie bezeichnen diesen Versuchsablauf daher auch als realitätsnäher. Das Anpassen der Erwartungen der Akteure verläuft in dieser Variante erratischer, es zeigen sich Preisblasen und Marktzusammenbrüche; jedoch stellen sich auch Muster in der Art und Weise der Erwartungsbildungen heraus (Brian 1997, 29–31). Eine genauere Erklärung für das Verhalten können die Autoren der Studie nicht bieten, sie legen aber einen komplexen evolutionären Entwicklungszusammenhang nahe:

Für eine genaue Beschreibung der Implementierung des Modells siehe S. 24–26 des hier zitierten Aufsatzes.

1

206 https://doi.org/10.5771/9783495825464 .

Complexity Economics

»Why financial markets – and our inductive market – show these empirical ›signatures‹ remains an open question. We conjecture a simple evolutionary explanation. Both in real markets and in our artificial market, agents are constantly exploring and testing new expectations. Once in a while, randomly, more successful expectations will be discovered. Such expectations will change the market, and trigger further changes in expectations, so that small and large ›avalanches‹ of change will cascade through the system.« (Brian 1997, 33)

Mittlerweile findet sich eine große Anzahl ähnlicher Modelle, die sich teils zu Computermodellen mit erheblichem Umfang steigern. Ein einflussreiches Beispiel, das hier nur kurz erwähnt werden kann, stammt von Axtell und Epstein aus dem Jahr 1996 (Epstein/Axtell 1996). Die beiden Forscher versuchen darin, eine künstliche Gesellschaft in einem »CompuTerrarium« (Epstein/Axtell 1996, 7) zu erzeugen, das in einem System besteht, das schrittweise um weitere, das Modell komplizierter machende Eigenschaften erweitert wird. Auch hier werden die Akteure als Grundbausteine des Modells definiert. Sie befinden sich auf einer schachbrettartigen Landschaft und sollen dort nach Ressourcen suchen, die auf verschiedenen Feldern in je unterschiedlicher Menge vorhanden sind. Nach und nach wird das Modell erweitert um Handels- bzw. Tauschmöglichkeiten (Epstein/Axtell 1996, 10 ff.), Krankheiten (Ebd., 138 ff.), Fortpflanzung und Lebenszyklen (Ebd., 54 ff.), Konflikte und Auseinandersetzungen (Ebd., 82 ff.) usw. Die Autoren beschreiben Prozesse, die sie als die Emergenz einer Gesellschaft (Ebd., 154), einer Geschichte (Ebd., 8) oder ökonomischer Netzwerke (Ebd., 130 ff.) deuten wollen. Mit Blick auf die Kritik an derartigen Forschungen aus dem Bereich der Komplexitätstheorie, die beispielhaft an dem Zitat Horgans angeführt wurde, drängen sich Fragen auf, die insbesondere in Bezug auf computergestützte numerische Modelle beantwortet werden müssen, um ihre epistemologische Reichweite und Nützlichkeit klären zu können. Solche Fragen lassen sich in zwei grobe Kategorien einordnen, von denen die erste die Frage nach dem Ursprung von Komplexität in Modellen betrifft, die zweite die Frage danach, wie aus solchen Modellen Rückschlüsse auf reale Sachverhalte gezogen werden können. Wenn komplexe Systeme als komplex definiert werden sollen, so wird meist auf die Nichtvorhersagbarkeit der Entwicklung eines Sys207 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

tems verwiesen, die aus dessen Nichtlinearität, seiner Dynamik oder aus dem Prozess einer darwinistischen Evolution herrühre. Jedoch sind basale Beziehungen zwischen einzelnen Elementen des jeweiligen Systems oder die Eigenschaften einzelner Elemente selbst nicht komplex, sondern – wie im Falle der in den vorgestellten Modellen computersimulierten Akteure – algorithmisch beschreibbar und in ihrer Wirkung mathematisch vorhersagbar. Das nämlich ist die notwendige Voraussetzung, um die einzelnen Elemente bzw. das Verhalten der einzelnen Akteure überhaupt in einem Computerprogramm implementieren zu können. Das, was nach solchen Modellierungen mit dem Terminus komplex bezeichnet wird, kann somit erst aus der mannigfachen Interaktion der einzelnen Elemente miteinander entstehen, also nur in ihrem systematischen Zusammenwirken. Aus der prinzipiellen algorithmischen Beschreibbarkeit der einzelnen Elemente folgt jedoch, dass das gesamte System durch Algorithmen prinzipiell beschreibbar sein muss, auch wenn wir nicht im Stande sind, durch die extrem schnell steigende Anzahl der Wechselwirkungen aller Elemente die Entwicklung des gesamten Systems deduktiv und damit im Vorhinein vorauszusagen. Es handelt sich dabei um ein Problem der Datenkompression, d. h. um ein strukturelles Problem, das sich dann zeigt, wenn die Menge von Wirkungen und Rückwirkungen zwar prinzipiell, aber nicht faktisch für eine ex ante Bestimmung der Entwicklung eines Systems genutzt werden kann. Die Möglichkeit zur Kompression von Daten wird hier zu einem Problem, weil der Erkenntnisapparat, der in sich selbst ein Modell des zu beschreibenden Phänomens aufbauen soll, weniger komplex ist als das Phänomen selbst. Somit können die Beziehungen zwischen Elementen von Systemen, bspw. in den oben kurz skizzierten Modellen, zwar algorithmisch beschreibbar und mathematisch berechenbar sein, hieraus folgt aber keineswegs, dass das gesamte System für uns auch als algorithmisch definiert erkennbar sein muss – ähnlich, wie dies auch bei der computergestützten Generierung von Zufallszahlen der Fall ist, die ihrerseits aus bestimmten Rechenoperationen folgen und damit nur »Pseudozufallszahlen« sind, die jedoch unter statistischen Gesichtspunkten wie zufällig erzeugte Zahlen aussehen. Daraus ergeben sich erkenntnistheoretische Fragen an den möglichen Umgang mit komplexen Phänomenen und an ihre wissenschaftstheoretische Stellung und das insbesondere in solchen Fachdisziplinen, die hauptsächlich komplexe Phänomene zum Erkenntnisobjekt haben.

208 https://doi.org/10.5771/9783495825464 .

Complexity Economics

3.

Mentale Repräsentation und Komplexitätsgrade

Wie bereits im ersten Abschnitt dargelegt, umfasst die Neoklassische Ökonomie, die noch heute die wesentliche Grundlage eines jeden Studiums der Ökonomie bildet, als Kernkomponente die allgemeine Gleichgewichtstheorie, als deren geistiger Vater zumeist Léon Walras, der Begründer der Lausanner Schule der Ökonomie, angeführt wird. Die Abkehr von derartigen linear bestimmbaren Modellen, die in der Komplexitätsökonomik zum Ausdruck kommt, steht damit im direkten Widerspruch zu elementaren Grundlagen der Neoklassik. Daher wurde in diesem Kontext, wie oben bereits erwähnt, auch vom »Tod der Neoklassischen Ökonomie« gesprochen (Colander 2000, 127–128), da diese kein korrektes und brauchbares Bild von der realen Wirtschaft der westlichen Welt biete (vgl. Ormerod 1997, vii) und daher von der Komplexitätsökonomik als deren Nachfolger abgelöst werden müsse. In der Folge einer solchen auf Methoden der Komplexitätstheorie fußenden Ökonomie sei das Ziel auch weit weniger ein Kontrollieren (und damit auch ein Erklären) der Welt, sondern vielmehr ein richtiges Interpretieren (vgl. Ormerod 1998, 182) und Verstehen. Damit ist aber zugleich auf eine andere Richtung der Ökonomie verwiesen, die ihren Ursprung in der klassischen Ökonomie hat und besonders bei den Autoren der Österreichischen Schule zur vollen Entwicklung gelangt. 2 Besonders Friedrich August von Hayek konzipiert die Ökonomie sowohl im Sinne einer verstehenden wie auch im Sinne einer komplexitätstheoretischen und evolutionären Wissenschaft. Das Augenmerk liegt im Folgenden weniger darauf, dass bestimmte Ergebnisse der Komplexitätsforschung von den Autoren der Österreichischen Schule vorweggenommen wurden, sondern darauf zu zeigen, in welchen Bereichen sich beide Forschungsrichtungen ergänzen oder korrigieren. In seinem 1952 erschienenen Buch The Sensory Order beschreibt Friedrich August von Hayek die erkenntnislogischen Probleme, die sich bei dem Versuch einer Modellierung von komplexen Phänomenen in Bezug zu den menschlichen Erkenntnismöglichkeiten ergeben. Hayeks Position lässt sich als Versuch begreifen, die ReichDie Ähnlichkeit verschiedener Grundannahmen der zeitgenössischen Österreichischen Schule und der Komplexitätsökonomik hat Koppl gezeigt (vgl. Koppl 2009, 397–401).

2

209 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

weite und Funktion komplexitätstheoretischer Ansätze besonders in den Sozialwissenschaften zu bestimmen, worin er zumindest teilweise die oben angeführte Kritik an der Komplexitätsforschung vorwegnimmt. Rosser charakterisiert Hayek als einen frühen Vertreter einer Komplexitätstheorie, der zahlreiche Punkte der späteren Debatte bereits vorwegnehme, auch wenn computergestützte Modelle für Hayek noch keine Rolle gespielt haben konnten (vgl. Rosser 1999, 186). Des Weiteren kann Rosser zeigen, dass Hayek in regem Austausch mit Forschern wie Ilya Prigogine und Hermann Haken stand, die für ihre Forschungen zur Komplexitätstheorie und Selbstorganisation bekannt geworden sind (vgl. Rosser 1999, 186). Auch die in den Werken Hayeks angeführten Zitationen von Autoren wie Ludwig von Bertalanffy oder Norbert Wiener (vgl. Koppl 2009, 395–396) – Autoren, deren Werke häufig als wissenschaftshistorische Ursprünge moderner Komplexitätstheorie angeführt werden – zeigen, dass sowohl Hayek als auch die Tradition, in der er seine Wirtschaftstheorie entwickelte, zu den Grundlagen einer ökonomischen Komplexitätstheorie gezählt werden sollten. Dabei beschreibt Hayek aber nicht nur die Komplexität vollständiger ökonomischer Systeme, sondern ihm ist auch bewusst, dass bereits die einzelnen Elemente derartiger Systeme, also die einzelnen handelnden Individuen, nur als ihrerseits komplexe Phänomene aufgefasst werden können. Die Möglichkeit eines Verständnisses der menschlichen Einzelhandlungen, die in ihren sinnbezogenen Wechselwirkungen erst in einem zweiten Schritt komplexe ökonomische Phänomene begründen, ist eines der Anliegen des psychologischen Hauptwerks Hayeks. Hayek vertritt die Ansicht, dass ein Erkenntnisapparat – in Bezug auf den Menschen spricht Hayek vom menschlichen Gehirn – nur Modelle eines komplexen Phänomens repräsentieren kann, wenn dieses Phänomen weniger komplex ist als der verwendete Erkenntnisapparat selbst. Ein Phänomen zu erklären bestehe nun genau darin, das ihm korrespondierende Modell denken und anwenden zu können (vgl. Hayek 1952, 179 [no. 8.49]). Diese an sich triviale Feststellung muss aber, wie Hayek auch selbst bemerkt, weiter spezifiziert werden (vgl. Hayek 1952, 179–180 [no. 8.50]), denn einerseits ist der Begriff »Modell« genauer zu bestimmen, andererseits muss deutlich werden, was hier die komparative Formulierung »komplexer« oder »weniger komplex« bedeuten soll. Der Begriff eines Modells setzt einerseits voraus, dass ein bestimmtes reales Phänomen wiedergegeben oder reproduziert wird, 210 https://doi.org/10.5771/9783495825464 .

Complexity Economics

es setzt aber andererseits voraus, dass das, was wiedergegeben wird, in bestimmter Hinsicht klassifiziert oder unter Kategorien eingeteilt werden muss (vgl. Stachowiak 1973, 131–133). Denn die in einem Modell verwendeten Elemente reproduzieren die realen Elemente nicht in allen Details, sondern nur im Hinblick auf diejenigen Eigenschaften, die von dem Betrachter als konstitutiv für ein bestimmtes Phänomen und die in ihm vorliegenden kausalen Zusammenhänge erachtet werden. Die in einem Modell verwendeten Elemente sind somit Abstraktionen, die im Prozess des Abstrahierens unter verschiedene Klassen eingeteilt werden. Deutlich wird, wie man auf diese Weise etwa ein mechanisches Phänomen in einem physischen Modell nachbauen könnte, es wird aber keineswegs deutlich, inwieweit sich ein solches Modell im menschlichen Gehirn ausdrücken würde. Es müsste hier noch gezeigt werden, wie genau das Bilden eines Modells im Gehirn verstanden werden muss, denn es handelt sich dabei nicht um eine exakte Reproduktion des beobachteten Phänomens, sondern um eine von diesem distinkte Erkenntnisleistung. Daher weist auch Hayek die Identifikation einer Erkenntnisleistung mit einem mechanistischen Abbild des erkannten Phänomens im Gehirn zurück: »The analogy with a mechanical model is not directly applicable. A mechanical model derives its significance from the fact that the properties of its individual parts are assumed to be known and in some respects to correspond to the properties of the parts of the phenomenon wich it reproduces. […] The weakness of the ordinary use of the concept of the model as an account of the process of explanation consists in the fact that this conception presupposes, but does not explain, the exsistence of different mental entities from which such a model could be build. It does not explain in what sense or in which manner the parts of the model correspond to the parts of the original […].« (Hayek 1952, 179–180 [no. 8.50–8.52])

Hayek versucht aufwendig, die verschiedenen mentalen Entitäten, die letztlich auch zur Bildung von Modellen verwendet werden, in dem vierten, fünften und sechsten Hauptteil von The Sensory Order zu bestimmen und auf ihren sinnlichen Ursprung zurückzuführen (vgl. Hayek 1952, 79–146). Für die Absicht dieses Aufsatzes genügt es hier, kurz die wesentlichen Bestimmungsmerkmale bewusster mentaler Entitäten festzuhalten. Hayek beschreibt das Gehirn als 211 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

neuronales Netzwerk, das eine erworbene semipermanente, d. h. im Laufe eines Lebens erlernte und veränderliche, Grundstruktur bildet (vgl. Hayek 1952, 116 [no. 5.45]). Wie auf einer Landkarte sind auch in dieser Struktur bestimmte Pfade vorgezeichnet, denen bestimmte neuronale Impulse folgen müssen, über die sie sich in der kurzen Frist nicht hinwegsetzen können und die bestimmen, welche anderen Teile des Netzwerks durch einen Impuls mitbewegt werden. Sinnesdaten werden als durch das Netzwerk entstehende Klassifikationen von interdependenten Impulsen gedeutet, wodurch wir die Außenwelt prinzipiell nicht wahrnehmen, wie sie ist, sondern so, wie sie uns vor der Struktur unserer neuronalen »Landkarte« erscheinen muss (vgl. Hayek 1952, 145 [no. 6.44]). Konzeptionelle und abstrahierte Begriffe, die als Entitäten Modellen zu Grunde liegen, entstehen aus wiederkehrenden derartigen Klassifikationen (vgl. Hayek 1952, 145 [no. 6.47]), die in ihrem Muster, nicht aber im physikalischen Sinne hinreichend weit identisch sind (vgl. ebd., 143 [no. 6.39]). Konzeptionelles Denken und das Bilden von Schlussfolgerungen, so schlägt Hayek vor, ließen sich dann als Klassifikationsprozesse höherer Ordnungen betrachten, wobei sich zeige, dass die Ergebnisse der Theorie von Klassen und Relationen der formalen Logik weitgehend kohärent mit Hayeks eigenen Ergebnissen seien (vgl. Hayek 1952, 146 [no. 6.48]). Für die Behandlung komplexer Phänomene ist diese Bestimmung mentaler Zustände dahingehend relevant, dass sie erlaubt zu verstehen, ab wann ein Phänomen als komplex erscheinen muss. Denn jedes konzeptionelle Denken findet seine Grenze dort, wo die in Phänomenen wie denen der Biologie oder der Meteorologie (vgl. Hayek 1952, 185 [no. 8.66]) zu betrachtenden Bestimmungsgründe (die Variablen im Sinne eines mathematischen Modells) so zahlreich und deren Relationen zueinander so mannigfaltig werden, dass sie nicht mehr effektiv durch das menschliche Gehirn abgebildet oder manipuliert werden können: »The proposition which we shall attempt to establish is that any apparatus of classification must possess a structure of a higher degree of complexity than is possessed by its objects which it classifies; and that, therefore, the capacity of any explaining agent must be limited to objects with a structure possessing a degree of complexity lower than its own. If this is correct, it means that no explaining agent can ever explain objects of its

212 https://doi.org/10.5771/9783495825464 .

Complexity Economics

own kind, or of its own degree of complexity, and, therefore, that the human brain can never fully explain its own operations.« (Hayek 1952, 185 [no. 8.69])

Wann aber ist ein zu erklärendes Objekt mehr oder weniger komplex als unser Erkenntnisapparat? Hinsichtlich der begrifflichen Fassung eines Objekts bzw. nach dessen Klassifikation kann nicht jede Eigenschaft des Objekts gleich relevant sein, sondern nur jene Eigenschaften, nach denen ein bestimmtes Objekt in bestimmter Hinsicht klassifiziert werden soll. Anders ausgedrückt – wie es den klassischen Termini der Philosophie entspräche – sind nur die essentiellen, nicht die akzidentellen Eigenschaften eines Objekts relevant. Als Maß für den Komplexitätsgrad schlägt Hayek die Anzahl n der verschiedenen Klassen vor, unter die ein Objekt fallen kann und auf alle diese möglichen Klassen müsste das Erkenntnisvermögen angemessen reagieren können. Bei Vorliegen vieler in einem Modell zusammenhängender Elemente, die zu verschiedenen Klassen gehören, würde der Komplexitätsgrad des Gesamtmodells dadurch nicht arithmetisch, sondern exponentiell steigen: »If any individual object may or may not belong to any one of the n classes A, B, C … N, and if all individual objects differeing from each other in their membership of any one of these classes are to be treated as members of seperate classes then the number of different classes of objects to which the classifying apparatus will have to be able to respond differently will, according to a simple theorem of combinatorial analysis, have to be 2n+1.« (Hayek 1952, 186 [no. 8.73])

Hayek illustriert mit dieser Ausführung das in dem vorherigen Abschnitt angesprochene Problem der Datenkompression. Denn zwar kann ein System so beschaffen sein, dass es prinzipiell algorithmisch beschreibbar ist, dadurch müssen wir aber keineswegs in der Lage sein, es als solches erkennen oder beschreiben zu können. In der Folge bedeutet dies, dass wir durchaus außer Stande sein können, Vorhersagen aus dem entsprechenden System abzuleiten. Computergestützte Modelle leisten daher insofern einen wertvollen Beitrag, als sie komplexe Modelle zumindest in ihrem Ablauf implementieren können. Dabei stellen solche Modelle jedoch keine Erklärung komplexer Phänomene dar, denn ein solches Erklären würde voraussetzen, was 213 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

gerade ausgeschlossen wurde: dass nämlich das menschliche Erkenntnisvermögen im Stande wäre, mentale Zustände zu bilden, die das zu erklärende Phänomen hinreichend genau abbilden würden, um es als vollständig erklärbar erscheinen zu lassen. Wenn dies aber aufgrund des Komplexitätsgrades ausgeschlossen ist, welche Möglichkeit zum Umgang mit komplexen Phänomenen verbleibt dann, besonders im Bereich ökonomischer Erscheinungen?

4.

Menschliches Handeln und Verstehen von Sinnstrukturen

Wie in der exemplarischen Darstellung computergestützter Modelle veranschaulicht wurde, setzen sich viele ökonomische Modelle aus handelnden Individuen zusammen, die nach bestimmten handlungsrationalen Erwägungen agieren. In den Computermodellen ist das Ergebnis der Interaktion aller Akteure über einen gewissen Zeitraum hinweg zwar faktisch nicht vorhersagbar, wohl ist aber eine Vorhersage darüber möglich, wie der einzelne computersimulierte Akteur unter gegebenen Umständen im je nächsten Schritt handeln wird. Gegenüber derart simulierten Modelle tritt in der Ökonomie und der Soziologie wie auch in den Geisteswissenschaften das Problem hinzu, dass bereits die Handlungen einzelner Akteure nicht genau vorhersagbar sind, sondern lediglich in vielen Fällen mit unseren erfahrungsbasierten Erwartungen übereinstimmen. In ökonomischen Modellen wird dieses Problem meist ausgeblendet und dadurch minimiert, dass idealtypische Handlungsabläufe unterstellt werden, besonders prominent beispielsweise in der Konzeption eines homo oeconomicus, eines stets nutzenmaximierend und zweckrational agierenden Menschen. Auch wenn ein solcher Ansatz sicherlich legitim und für bestimmte Zwecke zielführend ist, so handelt es sich dennoch um eine starke Vereinfachung gegenüber realen Verhältnissen. Betrachtet man hingegen auch das einzelmenschliche Handeln als komplexes Phänomen, dann zeigen sich nicht nur bestimmte Probleme im Blick auf ökonomische Forschungsansätze, sondern wir können den Forschungsansatz der Ökonomen der Österreichischen Schule auch in einer anderen Hinsicht besser einordnen. Bevor somit zu ökonomischen Systemen zurückgekehrt wird, werden hier zuerst die einzelnen Modellelemente, d. h. die individuellen Handlungen in wirtschaftlichen Systemen, näher betrachtet.

214 https://doi.org/10.5771/9783495825464 .

Complexity Economics

Nimmt man die Argumentation Hayeks ernst, dann ergibt sich bereits mit Blick auf das handelnde Individuum das Problem, dass mentale Zustände eines menschlichen Gehirns nie restlos durch ein anderes menschliches Gehirn erklärt werden können (vgl. Hayek 1952, 191 [no. 8.87]). Auch bereits die Tatsache, dass individuelle menschliche Handlungen ein Ergebnis unüberblickbar vieler kontingenter historischer Umstände sind und dass der Mensch sich selbst in willentlichen Handlungen notwendig als frei erfährt, verdeutlicht, dass Handlungen nicht restlos naturwissenschaftlich erklärbar sein können, dass also das Sinnverstehen einer Handlung nicht durch behavioristische Mittel ersetzt werden kann. Dabei macht es auch keinen Unterschied, ob man annimmt, dass letztlich alle menschlichen Handlungen prinzipiell nach Naturgesetzen determiniert sind, da das Modell, das einer solchen Erklärung zu Grunde liegen müsste, unserem Erkennen nach zu komplex sein würde, um Vorhersagen zu treffen, die ein individuelles Handeln berechenbar und damit in der Konsequenz notwendig und vorhersagbar machen würden. Eine einzelne menschliche Handlung bleibt damit immer eine nicht weiter reduzierbare Entität, die in physikalischen Begriffen niemals erschöpfend beschrieben werden kann, will man nicht den eigentlichen Sinn des Begriffs der menschlichen Handlung verwässern. Als Reaktion auf diese Einsicht stellen sich bestimmte ökonomische Denkrichtungen bewusst in die Tradition der verstehenden Geisteswissenschaften im Sinne Wilhelm Diltheys oder Max Webers. Bereits Dilthey bezeichnete 1875 die »Grundkräfte der Gesellschaft« als »komplexe und abgeleitete Tatsachen«, die zu einem der »dunkelsten und größten Probleme der Wissenschaft« führen würden, nämlich zur Frage nach den aus ihnen entstehenden »lebendigen Ordnungen der Gesellschaft« (Dilthey 1924b, 59–60). Dort, wo eine Erkenntnis durch Erklären versperrt ist, weil die zu betrachtenden Sachverhalte zu komplex für eine Reproduktion in einem geistigen Modell sind, bleibt mit den Worten Diltheys nur der Versuch des Verstehens übrig. Da wir jedoch im eigentlichen Sinne nur sinnhafte menschliche Äußerungen wie Sprache oder intentionale Handlungen verstehen können, ist die Methode des Verstehens, genau genommen, auch nur für derartig sinnhafte Äußerungen anwendbar. Hier sei zudem kurz darauf verwiesen, dass bereits die klassische Ökonomie bei Autoren wie Adam Smith oder John Stuart Mill der Sache nach unmissverständlich auf ein introspektives Verstehen von Handlungen hinausläuft, auch wenn diese Autoren das Verstehen als eigenständige 215 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

Methode der Geisteswissenschaften nicht so in den Vordergrund stellen, wie dies nach ihnen Dilthey getan hat (vgl. Dilthey 1924a, 143– 144). Zudem etablieren gerade die klassischen Ökonomen ein Vokabular und ein Verständnis ökonomischer Abläufe, die als Vorstufe einer Komplexitätstheorie verstanden werden müssen, wie beispielsweise Colander für Autoren wie Smith, Mill oder Marx ausgeführt hat (Colander 2009, 420–422). Die Komplexitätstheorie Hayeks stellt somit den Höhepunkt einer älteren Tradition dar, die bewusst das Erklären komplexer Phänomene als komplementäre Ergänzung zu der geisteswissenschaftlichen Tradition des Verstehens konzipiert und die damit die von Dilthey postulierte Dichotomie naturwissenschaftlichen und geisteswissenschaftlichen Erkennens überbrückt. 3 Dies wird bereits in den abschließenden Bemerkungen des oben behandelten Werkes The Sensory Order deutlich, wenn Hayek die Methode der Österreichischen Schule als Möglichkeit ausweist, Zugang zu dem Verständnis von Handlungen und mentalen Zuständen zu erlangen: »The conclusion to which our theory leads is thus that to us not only mind as a whole but also all individual mental processes must forever remain phenomena of a special kind which, although produced by the same principles which we know to operate in the physical world, we shall never be able fully to explain in terms of physical laws. […] In the study of human action, in particular, our starting point will always have to be our direct knowledge of different kinds of mental events, which to us must remain irreducible entities.« (Hayek 1952, 191 [no. 8.87–8.88])

Unter dem Terminus direct knowledge versteht Hayek introspektiv gewonnenes Wissen über mentale Zustände, denn durch das Erleben eigener mentaler Zustände lässt sich vorstellen, wie andere Personen die gleichen oder zumindest ähnlichen Zustände erfahren. Dabei wird freilich implizit vorausgesetzt, dass der menschliche Verstand bei verschiedenen menschlichen Individuen hinreichend ähnlich funktioniert und seinem Komplexitätsgrad nach weitestgehend identisch ist, damit die Bildung einer Analogie zwischen eigenem Nachempfinden und unterstelltem fremden Erleben überhaupt sinnvoll möglich wird. Schon Smith hatte seiner Moralphilosophie, auf der weite Teile seiner 3

Ähnliches legt auch Koppl nahe (vgl. Koppl 2009, 400).

216 https://doi.org/10.5771/9783495825464 .

Complexity Economics

späteren ökonomischen Ausführungen aufruhen, diese Erkenntnismethode zu Grunde gelegt; 4 eine Methode, die Dilthey später als das im Verstehen erfolgende »Wiederfinden des Ich im Du« 5 beschrieb. Hayek konnte diese Methode bereits den Arbeiten seines Doktorvaters Friedrich von Wieser entnehmen, der die Introspektion als methodische Grundlage der Ökonomie beschrieb. Wieser prägte den Ausdruck der »psychologischen Methode« des Verstehens, weist aber ausdrücklich darauf hin, dass es sich dabei nicht um ein Teilgebiet der theoretischen Psychologie handele, sondern dass der Name nur auf den Ursprung der ökonomischen Theorie in der Beobachtung des »menschlichen Inneren« verweisen solle (vgl. Wieser 1924, 8–9). Die Formulierung »verstehende Psychologie« findet sich bei Hayek wieder (vgl. Hayek 1952, 192 [no. 8.91]). Während eine erklärende Psychologie die Absicht verfolgt, das notwendige Bestehen oder Fehlen bestimmter mentaler Zustände zu erklären – was, wie gezeigt wurde, nie zur Gänze gelingen kann –, findet eine verstehende Psychologie ihre Grenze genau darin, dass sie mentale Zustände als kontingente bzw. freie und gegebene Ereignisse begreifen und auswerten muss. Dabei spielt es keine Rolle, ob diese Ereignisse jenseits unseres Erkennens wirklich kontingent sind, denn sie lassen sich aus unserer Perspektive nur als kontingent begreifen, weshalb auch der menschliche Wille aus menschlicher Perspektive nur als frei und damit als unabhängig von physischen oder materiellen Gegebenheiten gedacht werden kann. Hayek scheint dieses Argument nahezulegen, wenn er seine Theorie der Unerklärbarkeit mentaler Zustände als Widerlegung der Wissenssoziologie anführt, die in marxistischer Tradition ihrerseits versucht, mentale Zustände aus dem Vorliegen bestimmter »As we have no immediate experience of what other men feel, we can form no idea of the manner in which they are affected, but by conceiving what we ourselves should feel in the like situation. […] It is the impressions of our own senses only, not those of his, which our imaginations copy. By the imagination we place ourselves in his situation, […] we enter as it were into his body, and become in some measure the same person with him, and thence form some idea of his sensations and even feel something which, though weaker in degree, is not altogether unlike them.« (Smith 2009, Part I, Sect. I, Chap. I, no. 2). 5 »Das Verstehen ist ein Wiederfinden des Ich im Du; der Geist findet sich auf immer höheren Stufen von Zusammenhang wieder; diese Selbigkeit des Geistes im Ich, im Du, in jedem Subjekt einer Gemeinschaft, in jedem System der Kultur, schließlich in der Totalität des Geistes und der Universalgeschichte macht das Zusammenwirken der verschiedenen Leistungen in den Geisteswissenschaften möglich.« (Dilthey 1927, 191). 4

217 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

materieller Voraussetzungen mit Notwendigkeit herzuleiten (vgl. Hayek 1952, 193–194 [no. 8.95]). Die verstehende Methode als Grundlage der theoretischen Ökonomie etablieren zu wollen, zieht jedoch eine Reihe von Unklarheiten und Problemen nach sich. Da nur sinnhafte menschliche Äußerungen verstanden werden können, kann eine introspektiv begründete Methode nicht oder nur in uneigentlicher Weise auf aggregierte ökonomische Phänomene, d. h. auf Institutionen, angewendet werden. Solche Institutionen müssen in dieser Sichtweise aus den Einzelhandlungen erklärt werden, wodurch der methodologische Individualismus 6 zur leitenden Argumentationsfigur heranwächst. Da ein Verstehen aber immer eine subjektive Leistung bleibt, die sich auch vor dem Hintergrund erlernten Wissens oder gesellschaftlicher und kultureller Prägung vollzieht, stellt sich hier die Frage nach der Rechtfertigung des methodologischen Individualismus und der Verallgemeinerbarkeit von Aussagen, die durch eine verstehende Methode gewonnen wurden. Wieser formuliert diese Probleme noch nicht, wenn er die introspektive Methode als Grundlage der Ökonomie auszeichnet. Entgegen der naturwissenschaftlichen Methode, die ihre Objekte immer nur äußerlich in einem Nacheinander erfassen könne, biete ein Verstehen direkten Zugang zur Kausalstruktur der Handlung (vgl. Wieser 1924, 12), indem nämlich in jedem Handlungsverstehen Intentionen, Ziele und Sinnbezüge des Handelns verstanden und mitgedacht werden müssen. Deshalb, so merkt Wieser an, sei diese Methode mehr als inneres Überzeugen und weniger als strenges Beweisen zu charakterisieren. 7 Dennoch ist die introspektive MethoDie Idee, dass alle sozialen Gebilde durch Rekurs auf Einzelhandlungen zu erklären sind, hat seit jeher sowohl Befürwortung wie auch scharfe Kritik nach sich gezogen. Das klassische Hauptargument gegen den methodologischen Individualismus beschreibt dabei einen infiniten Regress, in den der methodologische Individualismus münden müsse, da einerseits die Einzelhandlungen konstitutiv für soziale Gebilde sein sollen, andererseits aber alle individuellen Handlungen durch ebensolche Gebilde zumindest in Teilen bestimmt würden. Einen Überblick über die klassische Debatte in Bezug auf die Ökonomie gibt Hodgson 1986/10, 211–224. 7 »Die Natur können wir nur von außen beobachten, uns selber aber auch noch von innen, und warum sollten wir darauf verzichten, wenn wir es können? […] Sie [die introspektiv arbeitende Vernunft] findet, daß gewisse Akte im Bewußtsein mit dem Gefühle der Notwendigkeit vollzogen werden, und warum sollte sie sich erst bemühen, durch lange Induktionsreihen ein Gesetz festzustellen, während jeder in sich selbst die Stimme des Gesetzes deutlich vernimmt? […] Sie findet, daß gewisse Reihen von aufeinanderfolgenden Akten als sinnvoll, d. h. Mit dem Verständnisse ihres 6

218 https://doi.org/10.5771/9783495825464 .

Complexity Economics

de, die Wieser vorschlagen möchte, nicht durch ein rein intuitives Verstehen der »Totalität« menschlichen Handelns innerhalb der menschlichen Lebenswelt gekennzeichnet. Vielmehr vollzieht sich auch das »Überzeugen«, von dem Wieser spricht, nach bestimmten Abstraktionsstufen, soweit nämlich bestimmte Gesichtspunkte, die für eine Handlung oder für wirtschaftliche Zusammenhänge wesenhaft relevant sind, herausgehoben und in Isolation betrachtet werden. Dies sei nötig, um, wie Wieser betont, der Komplexität der Erfahrung Herr zu werden: »Die komplexen Bilder der Erfahrung lassen sich nicht im Ganzen deuten, man muß sie isolierend in ihre Elemente zerlegen, um einmal deren Wirkung zu erkennen, man muß ferner die Elemente in Gedanken von allen Strömungen freihalten, um einmal die reine Wirkung zu erkennen […].« (Wieser 1924, 10)

Ermöglichungsbedingung für eine solche Isolation jedoch ist, dass wir irgendwoher Kenntnis davon haben müssen, wie sich Kausalstrukturen im menschlichen Handeln zeigen. Der Antwortversuch Wiesers auf diese Frage läuft darauf hinaus, dass wir für unser eigenes Handeln stets motivationale Gründe kennen und wir dadurch das Handeln anderer vor unserer eigenen, introspektiv gewonnen Sinnstruktur reflektieren und mit unserem eigenen Wissen vergleichen und verstehen können. Die Frage danach, ob eine derartige Wissenschaft auf ein Fundament verallgemeinerbarer Grundsätze im Sinne von unbeschränkt inneren Zusammenhanges vollzogen werden, während andere im Gegensatz als zusammenhanglos vorgestellt werden, als irrtümlich oder sinnlos und daher vernünftigerweise unvollziehbar, und sie sollte sich nicht bemühen, ihre Beobachtungsreihen in der Weise zu bilden, daß sie sich der Leitung durch den praktischen Sinn anvertraut, der so genau unterscheidet? Die psychologische Methode hat freilich ihre ganz besonderen Schwierigkeiten; es ist viel leichter, Beobachtungsreihen von außen her zu bilden, als den inneren Sinn der wirtschaftlichen Akte mit Klarheit zu deuten, weil dies letztere nur gelingen kann, wenn man das ungeheure Ganze der wirtschaftlichen Zusammenhänge in deren Wechselbeziehungen geschlossen überblickt, und zwar so klar, daß man aus dem verwirrenden Wust der Einzelheiten das Gemeinsame herauszuheben vermag. Wer aber die Methode mit Erfolg anzuwenden versteht, der wird die Genugtuung erleben, seine Hörer im Innersten zu überzeugen, denn er wird in ihnen allen den gleichen Sinn erwecken, sie werden sich und ihr Wesen in seiner Darstellung wiedererkennen und werden aus ihrer Erfahrung bestätigen, daß er die Wahrheit getroffen hat.« (Wieser 1929, 17–18)

219 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

gültigen Axiomen menschlichen Handelns gestellt werden könnte, wird von Wieser nicht weiter verfolgt. Die Nachfolger Wiesers stellen diese Frage jedoch in aller Deutlichkeit und erarbeiten verschiedene Antwortversuche. So versuchte besonders Ludwig von Mises eine Wissenschaft zu konzipieren, die er als »Praxeologie« bezeichnete und die als eine aprioristische Wissenschaft für alle menschlichen Handlungen gelten sollte (vgl. Mises 2007, 38). Da sie nur apriorische Elemente enthalte, spiele für sie auch Erfahrung, Erziehung, kultureller Hintergrund etc. keine Rolle, d. h. Mises beansprucht für diese Begriffe apodiktische Geltung. Die Praxeologie erschöpfe sich in einer Analyse des Begriffs der Handlung und fördere daher nichts weiter zu Tage als Tautologien (vgl. Mises 1940, 19–20), die ein jeder Mensch dadurch einsehe, dass er einen intuitiven Zugang zur Kategorie des Handelns habe. Begriffe wie »Wert«, »Knappheit« oder »Tausch« ließen sich nach Mises als Ableitung aus der Grundkategorie des Handelns bestimmen und dadurch erst in ihrer Rolle für die Ökonomie ausdeuten. Mit der Konzeption einer praxeologischen Wissenschaft der Handlungslogik versucht Mises, gegen den Positivismus die Rolle des theoretischen Denkens hervorzuheben und den radikalen Behaviorismus zu Gunsten eines Sinnverstehens des menschlichen Handelns zurückzuweisen. Infolge des postulierten Apriorismus geht Mises dabei – unter Kritik an Karl Popper – so weit, nicht nur ein Bestätigen, sondern auch ein Widerlegen sozialwissenschaftlicher Theorien durch empirische Befunde als unmöglich zu beschreiben (vgl. Mises 1962, 69–70). Hans Albert interpretiert die Zurückweisung der empirischen Widerlegbarkeit als Mises’ Reaktion auf die Komplexität der in der Ökonomie in Betracht kommenden Kausalzusammenhänge (vgl. Albert 1994, 151–152) 8 und kritisiert Mises dafür, dass er versuche, auf die Frage nach der Begründung der apodiktischen Gewissheit praxeologischen Wissens eine kantische Antwort zu geben. Man habe, so bemerkt Albert, »stellenweise den Eindruck, Mises wolle mit seinem Handlungsprinzip ein synthetisches Zu Alberts Position ist anzumerken, dass die Argumentation Mises’ und seine Zurückweisung des kritischen Rationalismus zwar in der Tat auf die Komplexitätsproblematik hinausläuft, dass komplexitätstheoretische Erwägungen aber für diese Zurückweisung nicht ursächlich sind. Vielmehr wäre hier auf die Rolle der exakten Wissenschaften zu verweisen, wie sie Carl Menger in seinen Untersuchungen über die Methode der Sozialwissenschaften und der Politischen Ökonomie insbesondere von 1883 formuliert hat und an die sich Mises unmissverständlich anschließt.

8

220 https://doi.org/10.5771/9783495825464 .

Complexity Economics

Apriori installieren« (Albert 1994, 153–154). Dass Mises in der Folge aber stets von der Analytizität aller Sätze der Praxeologie spricht, verdeutlicht, dass er den analytischen Charakter von Sätzen mit ihrem logischen Charakter in einem Folgerungszusammenhang vermengt und dass er die von ihm selbst geforderte unbedingte Gültigkeit dieser Sätze – sofern sie denn im Laufe ihrer Herleitung einen Erkenntnisgewinn beschreiben sollen – auf diese Weise nicht schlussendlich zeigen kann (vgl. Albert 1994, 154–155). Der Ansatz, den Mises vorschlägt, ist der Versuch, zumindest in den basalen Handlungskategorien Komplexität zu vermeiden und eine genaue, d. h. lineare Ableitbarkeit minimaler Sinnstrukturen zu ermöglichen. Die problematische Konstruktion der aprioristischen Praxeologie wurde bereits von Mises’ Zeitgenossen gesehen, weshalb Autoren wie Hayek diese Idee nicht weiter verfolgen, sondern ein Sinnverstehen menschlicher Handlungen bewusst in den Kontext der Komplexitätstheorie setzen. Die im vorherigen Abschnitt kurz erwähnte Einteilung von Phänomenen in Komplexitätsgrade ermöglicht es, verschiedene Handlungen als direkter oder weniger direkt verständlich zu klassifizieren. Ein Sinnverstehen von Handlungen, also die Einsicht in die Absichten des Handelnden und damit in die teleologische Struktur der Handlung selbst, ist umso leichter möglich, je bekannter und gewohnter Handlungsmuster für den Betrachter sind. Dadurch, dass der Betrachter beobachtete Handlungen gedanklich in das Schema der eigenen zweckrationalen Handlungen einfügen kann, kann er diese Handlungen verstehen. Daraus ergibt sich, dass bspw. bei der Beobachtung fremder Kulturen sehr spezielle oder sehr stark kulturell geformte Handlungen relativ schnell unverständlich werden, während relativ einfache Handlungen wie Nahrungsaufnahme oder Tausch intuitiv verstehbar bleiben (vgl. Hayek 2007b, 167–168).

5.

Evolutionsprozesse gesellschaftlicher Institutionen

Für ökonomische Phänomene, also für wirtschaftsbezogene gesellschaftliche Systeme, bilden die betrachteten menschlichen Handlungen die einzelnen Elemente des Gesamtsystems. Während menschliche Handlungen oder mentale Zustände aufgrund ihrer Komplexität nicht restlos erklärbar sind, aber zumindest verstehbar bleiben, gilt dies für komplexe ökonomische Systeme nicht mehr zwingend. Hier 221 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

stellt sich damit die Frage, ob derartige Systeme nicht aus ihren Elementen erklärbar sein könnten. An dieser Stelle leisten computersimulierte Modelle den wichtigen Beitrag, dass sie uns das Entstehen spontaner Ordnungen im Sinne einer Musterbildung in komplexen Systemen exemplarisch vor Augen führen und im wiederholten Modellablauf eine Art Versuchsreihe ermöglichen, die in der Realität unmöglich bleibt. Die Reichweite computersimulierter Modelle ist jedoch dahingehend beschränkt, dass sie auf reale gesellschaftliche Systeme nur äußerst unzureichend anwendbar sind, weil die einzelnen Elemente der Simulation stets auf lineare Weise in ihrem Verhalten bestimmbar sind, was keine adäquate Repräsentation für reale menschliche Handlungen darstellt. Eine Analogie zwischen der biologischen Evolution und der Evolution von gesellschaftlichen Institutionen wurde schon im Lauf des 19. Jahrhunderts wiederholt bemüht, besonders als Gegenentwurf zu der sich an Auguste Comte anknüpfenden frühen Konzeption der Gesellschaftswissenschaften. Denn die Gesellschaftswissenschaften in comtescher Prägung, die er bezeichnender Weise unter dem Begriff der physique sociale zusammenfasste (vgl. Comte 1907, 185 ff.), suggerieren, dass gesellschaftliche Erscheinungen auf eine mechanistisch-physikalische Weise erklärt werden könnten. Dadurch entstand – von Comte durchaus intendiert – der Eindruck, soziale Institutionen seien planbar und aufgrund ihrer nicht-komplexen Struktur wissenschaftlich kontrollierbar. Bereits Smith weist darauf hin, dass der Versuch eines von ihm als Man of system bezeichneten Sozialplaners, gesellschaftliche Institutionen zu steuern, zu manipulieren oder im Rahmen einer politischen Philosophie zu konstruieren, aufgrund eines Mangels an Wissen nicht nur niemals funktionieren könnte, sondern gefährlich für das Wohlergehen der Menschen sei: »The man of system, […] is often so enamoured with the supposed beauty of his own ideal plan of government, that he cannot suffer the smallest deviation from any part of it. […] He seems to imagine that he can arrange the different members of a great society with as much ease as the hand arranges the different pieces upon a chess-board. He does not consider […] that, in the great chess-board of human society, every single piece has a principle of motion of its own, altogether different from that which the legislature might chuse to impress upon it. […] It is upon this account, that of all political speculators, sovereign princes are by

222 https://doi.org/10.5771/9783495825464 .

Complexity Economics

far the most dangerous.« (Smith 2009, Book VI, Sect. II, Chap. 2, no. 17–18)

Auf die Frage, wie genau die einzelnen Teile der Gesellschaft zusammenwirken und warum dabei überhaupt eine Ordnung entsteht, gibt Smith eine im Grunde evolutionäre Antwort. Im Bereich der Sprache, im Bereich der Moral oder im Bereich der Ökonomie sind es wiederholte Handlungen oder Sprechakte, die das Gegenüber sinnhaft zu deuten lernt. Am Beispiel der Sprache kann hier kurz verdeutlicht werden, wie Smith die Genese gesellschaftlicher Systeme beschreibt. Jeder Sprechakt schließt immer eine Reflexion auf bestimmte geteilte Annahmen ein, denn jeder Sprecher nimmt an, dass der Adressat seiner Rede über ein bestimmtes Wissen von Grammatik und Vokabular verfügt, das ihn befähigt, das Gesprochene in seiner Sinnbedeutung auch zu verstehen. Der Sprecher versetzt sich somit implizit immer in die Position des Gegenübers und passt seine Rede so an, dass er davon ausgehen darf, auch wirklich verstanden zu werden. Aufgrund all dessen, was der Sprecher im Verlauf früherer Unterhaltungen selbst verstanden hat und wie er verstanden wurde, bildet sich ein abstrakter Wissensbestand von einer im Gegenüber anzunehmenden Verständnisfähigkeit. (Dieses Modell verläuft damit strukturgleich zu dem des unparteiischen Zuschauers, das Smith in seiner Moralphilosophie entwickelt.) Geht man davon aus, dass Sprache am Beginn ihrer Entwicklung hauptsächlich Eigennamen umfasst hat (vgl. Smith 1985, 203–226 [no. 1]) – was durch das Leben der Menschen in kleinen, einen gemeinsamen Wissensbestand und eine geteilte Lebenswelt besitzenden Gruppen plausibel erscheint –, dann wird ein sprachlicher Entwicklungsprozess vor allem davon getrieben, dass man sich beim Anwachsen der Sprecherbasis dem Problem ausgesetzt sieht, dass Eigennamen in ihrer Sinnbedeutung von Fremden nicht verstanden werden, da diese das durch den jeweiligen Namen bezeichnete individuelle Objekt gar nicht kennen, und dass daher Allgemeinbegriffe zur Verständigung benötigt werden (vgl. Smith 1985, no. 2). Es scheint sinnvoll, hier davon auszugehen, dass sich solche Begriffe ausgehend von Eigennamen bilden, wobei nicht gesagt werden kann, welcher Name sich im komplexen Netzwerk des Sprachsystems durchsetzen und zu einem Allgemeinbegriff werden wird. In diesem Prozess ist somit die Herausbildung eines Musters zu erkennen – nämlich die Entwicklung von Allgemeinbegriffen –, wobei sich dieses Muster aber nicht in seiner Individualität vorhersagen 223 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

lässt, da man die Worte nicht vorhersagen kann, mit denen die jeweiligen Sinnbegriffe bezeichnet werden. Ein derartiger abstraktionssteigernder Entwicklungsprozess findet jedoch bei Allgemeinbegriffen kein Ende. Ein Beispiel, das Smith nennt, ist die Flexion von Worten und die Entwicklung von Präpositionen und Artikeln (vgl. Smith 1985, no. 13). In der Tatsache, dass etwa das Lateinische Präpositionen oder Artikel zu einem bestimmten Grade dadurch ersetzen kann, dass ein Wort je andere Endungen erhält, und dass diese Endungen bei unterschiedlichen Worten, auch wenn sie dieselbe grammatikalische Funktion erfüllen, nicht identisch sein müssen, verbleibt weiteres Abstraktionspotential. Denn die verschiedenen Flexionsendungen werden in modernen Sprachen meist durch zusätzliche eigenständige Worte ersetzt. So können bspw. die verschiedenen Flexionsendungen der Ausdrücke fructus arboris (die Frucht des Baumes) und fructus agri (die Frucht des Feldes), die denselben Kasus mit verschiedenen Wortendungen bezeichnen, in modernen Sprachen dadurch verallgemeinert und vereinfacht werden, dass statt zwei verschiedener Endungen (-is und -i) die gleiche Formulierung (Frucht des X) verwendet wird. Viele verschiedene Endungen werden also in der Sprachentwicklung durch einen einheitlichen und universell verwendbaren Artikel ersetzt. Die mögliche Bandbreite der sprachlichen Verwendung eines Begriffes erhöht sich mit seinem Grad an Allgemeinheit, was derart verallgemeinerten Begriffen damit die Möglichkeit gibt, in mehr sprachlichen Kombinationen Verwendung zu finden, was, wie Smith folgert, Sprachen komplexer macht, wenngleich ihre grammatikalische Basis simpler und dadurch ärmer an Sonderregeln und Individualität wird: »It is in this manner that language becomes more simple in its rudiments and principles, just in proportion as it grows more complex in its composition […]« (Smith 1985, no. 41).

Die steigende Komplexität sich entwickelnder Sprache besteht somit darin, dass ein einzelner Begriff mehr Verwendungsmöglichkeiten erhält, er also in mehr sprachlichen Kombinationen verwendet werden kann. Die Sprache wird somit deshalb komplexer, weil die kombinatorischen Freiheitsgrade, in denen Begriffe miteinander verknüpft werden können, exponentiell ansteigen. Der Preis, den wir nach Smith für diesen Abstraktionsprozess in den modernen Sprachen bezahlen, zeigt sich in einem Schwinden der künstlerischen 224 https://doi.org/10.5771/9783495825464 .

Complexity Economics

Ausdruckskraft von Sprache und ihrer steigenden »Monotonie« (Smith 1985, no. 45), weil abstraktere Begriffe die Distanz zur Schönheit des Individuellen stets vergrößern. Die Verwendung von Sprache zeigt, dass Menschen in der Lage sind, mit der Möglichkeit einer Mustervorhersage und ohne Kenntnisse der expliziten Regeln komplexer Systeme erfolgreich zu agieren. So erlernen Kinder das Sprechen, ohne die der Sprache zu Grunde liegenden grammatikalischen Regeln genau explizieren zu können (vgl. Hayek 2007c, 3–5), und im normalen Sprachgebrauch ist auch bei denjenigen, die die Regeln der Grammatik bewusst kennen, die Kenntnis dieser Regeln im Akt des Sprechens nicht verantwortlich dafür, dass das Sprechen einem grammatikalisch korrekten Muster folgt. Damit ein Kind ein Wort, das es in einer bestimmten Flexionsform noch nie gehört hat, in einem Satzzusammenhang grammatikalisch korrekt verwenden kann, genügt es, ein ähnliches Muster der Flexion bei anderen Worten zu kennen. Was beim Spracherwerb somit erlernt wird, ist das Umgehen mit Mustern, deren zu Grunde liegende Regeln man ebenso wenig kennen muss wie das Entstehen des komplexen Systems der Sprache selbst. Der strukturgleiche Umgang mit Mustern findet sich auch auf dem Gebiet menschlicher Institutionen. Dabei soll hier nicht behauptet werden, dass alle gesellschaftlichen Institutionen komplexe und evolutionär entstandene Strukturen seien. So sind Institutionen wie positive Gesetze, Sozialversicherungen usw. Ergebnisse bewussten menschlichen Planens und menschlicher Übereinkunft. In diesem Sinne unterscheidet schon Carl Menger, der als Gründungsfigur der Österreichischen Schule gilt, zwischen bewusst erzeugten Institutionen und den »organischen« Sozialerscheinungen (Menger 1883, 143), die sich entwickeln, ohne dass ein bewusstes und geplantes menschliches Eingreifen sie erzeugt hätte. Allerdings merkt Menger an, dass nur in metaphorischer Weise davon gesprochen werden könne, dass Sozialerscheinungen »organisch« seien, denn man wolle damit andeuten, dass sie zum einen ihren Ursprung keiner gesonderten Planung verdanken, zum anderen, dass ihre Zweckmäßigkeit nur in Rücksicht auf das Ganze der Gesellschaft verständlich werde (Menger 1883, 140; 147–152), so wie körperliche Organe auch nur einen funktionalen Sinn erfüllen können, wenn sie als Teile eines ganzen Organismus begriffen werden. Menger nennt eine Reihe an Beispielen für organische Sozialerscheinungen, wie Geld, Recht, Sprache oder Märkte (Menger 1883, 141). Dabei vertritt Menger durchgehend die 225 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

Position eines methodologischen Individualismus, denn er beharrt darauf, dass die komplexen Sozialerscheinungen die Folge individuellen Handelns sind (vgl. Menger 1883, 159–161): »Die Social-Phänomene deren Ursprung ein ›organischer‹ ist, charakterisiren sich […] dadurch, dass dieselben sich als die unbeabsichtigte Resultante individueller d. i. individuelle Interessen verfolgender Bestrebungen der Volksglieder darstellen, demnach […] allerdings die unbeabsichtigte sociale Resultante individualteleologischer Factoren sind.« (Menger 1883, 181–182)

Während bewusst erzeugte gesellschaftliche Institutionen dadurch verstanden werden können, dass wir auf die Ziele und Zwecke verweisen, aufgrund derer die entsprechenden Institutionen gegründet wurden – Menger spricht hier von einer »pragmatischen Interpretation« (Menger 1883, 162) –, so ist dies bei den organischen Sozialerscheinungen nicht möglich. Menger bezeichnet daher die organischen Sozialerscheinungen als »das merkwürdigste Problem der Socialwissenschaften« (Menger 1883, 163) und stellt eine der essentiellen Fragen der Ökonomie: Wie kann es möglich sein, dass für das Gemeinwohl unerlässliche Institutionen wie Märkte entstehen und funktionieren, ohne dass diese bewusst geplant wurden? Menger vermag auf diese Frage keine abschließende Antwort zu geben, er sucht aber einen Weg für die weitere Forschung aufzuzeigen. Zur Lösung solcher Fragen müsse eine besondere Richtung der Sozialforschung begründet werden, die in der Lage wäre, die gegenseitige Bedingtheit aller Sozialerscheinungen sowie menschlicher Handlungen und Absichten sinnvoll zu verbinden (vgl. Menger 1883, 165). Dabei können aber individuelle Merkmale solcher Sozialgebilde nicht bestimmbar sein, es können also nur abstrakte Merkmale, d. h. Muster, hergeleitet werden, womit die Fragen Mengers direkt auf die Komplexitätsforschung verweisen. Die Verwendung des Musterbegriffs bedeutet in der Konsequenz, dass in der Wissenschaft von komplexen Erscheinungen gerade keine einfache Kausalität erkannt werden kann, die sich auf ein einfaches Ursache-Wirkungs-Schema reduzieren lassen könnte. Vielmehr zeichnet sich unser Umgang mit komplexen Phänomenen dadurch aus, dass wir Bedingungen anzugeben lernen, die bestimme Muster hervorbringen, ohne dass wir angeben könnten, welche individuellen Charakteristika das Muster aufweist und ohne eine be226 https://doi.org/10.5771/9783495825464 .

Complexity Economics

stimmte Menge an Wirkursachen identifizieren zu können, die das Muster entstehen lassen. So lässt sich etwa die tendenzielle Entwicklung von Lohn- und Preisniveau bei Veränderungen des allgemeinen Zinsniveaus und unter sonst gleichbleibenden Bedingungen vorhersagen, nicht aber, in welcher exakten Höhe und in welchem exakten Zeitraum sich die besagten Größen verändern. Damit eine Beschäftigung mit derart komplexen Phänomenen dann aber den Charakter einer Wissenschaft haben kann, muss offensichtlich auf die Forderung verzichtet werden, dass nur dasjenige wissenschaftlich sei, was sich durch strenge Kausalgesetze beschreiben und exakt berechnen lasse (Hayek 1964, 348–349). Die Evolutionstheorie Darwins gibt ein weiteres Beispiel dafür, wie eine solche Mustervorhersage auszusehen hätte, denn sie beschreibt einen Ablauf von Anpassung und Selektion, der uns ex post verstehen lässt, warum sich diese eine Art durchgesetzt hat, jene andere hingegen nicht. Da aber auf verschiedene gegebene Situationen eine Reihe gleichermaßen passende evolutionäre Reaktionen denkbar sind, lässt sich ex ante nur ein Muster bestimmen, das darin besteht, zu explizieren, auf welche sich ändernden Bedingungen der Umwelt eine Anpassung besonders vorteilhaft wäre. Ob eine solche Anpassung aber eintritt, in welchem Umfang, in welcher Gestalt und zu welchem Zeitpunkt ist dabei aber keinesfalls vorhersagbar. Menger beschreibt einen ähnlichen Sachverhalt in Bezug auf das Entstehen des Geldes. 9 Dabei geht er von einer Situation des Tauschhandels aus, denn jedem leuchte ein, dass der Besitzer eines Gutes gewillt sei, dieses Gut für ein ihm nützlicheres einzutauschen. Dabei würden aber die bekannten Probleme bestehen: Einerseits müsste derjenige, der ein begehrtes Gut anbietet, auch gewillt sein, das Gut anzunehmen, das der Andere anzubieten hat, andererseits dürften solche Waren, wenn sie nicht teilbar sind (bspw. lebendes Vieh), in ihrem Wert nicht zu weit voneinander entfernt liegen. Daraus folgert Menger, dass in einem System des Tauschhandels nur solche Dinge eingetauscht würden, die einen unmittelbaren Bedarf stillen und nicht solche, derer die Tauschenden gar nicht bedürfen oder die bereits ausreichend vorhanden sind. Unter diesen Bedingungen werde schnell deutlich, dass es bestimmte Waren gebe, nach denen ein allgemein größeres Bedürfnis bestehe und die daher auch dann angenommen würden, wenn man ihrer gegenwärtig gar nicht bedürfe. 9

Vgl. für die folgenden Ausführungen Menger 1883, 172–178.

227 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

Das Motiv zu diesem Tausch bestehe nun darin, eine Ware zu erwerben, die allgemein besser eintauschbar und somit liquider sei. Auf Dauer würden sich unter den liquiden Waren nun solche durchsetzen, die besser teilbar, leichter zu transportieren oder besser aufzubewahren seien. Dabei handelt es sich in diesem Prozess, so ließe sich aus Mengers Argument folgern, nicht nur um eine direkte Beobachtung, wie oft und wie erfolgreich Güter eingetauscht werden, sondern insbesondere darum, dass man Gewohnheiten ausmachen kann, die rationale Erwartungen über das Verhalten anderer ermöglichen: »Der Austausch von minder absatzfähigen Waaren gegen solche von höherer Absatzfähigkeit, Dauer, Theilbarkeit u. s. f. liegt im ökonomischen Interesse jedes einzelnen wirthschaftenden Individuums; aber der factische Abschluss solcher Tauschoperationen setzt die Erkenntnis dieses Interesses Seitens jener wirthschaftenden Subjecte voraus, welche ein ihnen an und für sich vielleicht gänzlich unnützes Gut um der obigen Eigenschaften willen im Austausch gegen ihre Waaren annehmen sollen.« (Menger 1883, 176)

Dadurch ist aber auch deutlich, dass nicht zwingend das geeignetste und als Währung vorteilhafteste Gut den Status des Geldes erlangt, sondern jenes, das sich im Austausch gewohnheitsmäßig etabliert hat und das zumindest in hinreichender Weise den oben dargelegten Anforderungen an Geld genügt. Die notwendigen Eigenschaften, denen Geld zu genügen hat, ergeben somit ein Muster, das Voraussagen darüber ermöglicht, welches Gut überhaupt die Rolle von Geld erfüllen kann. Welches aller möglichen Güter nun aber den faktischen Status des Geldes erlangt, zeigt sich erst in einem evolutionären Prozess. Für einen solchen Prozess prägte Hayek die Bezeichnung einer »spontanen Ordnung«, ein Prozess, der immer dann zum Tragen komme, wenn die Umstände zu komplex seien, um eine funktionierende Ordnung durch menschliche Planung zu erzeugen (vgl. Hayek 2007a, 77–78). Gegen diese Anmerkung ließe sich sicher vorbringen, dass ein bewusstes Einführen von Geld per Gesetz durch die verantwortlichen Stellen eines Gemeinwesens durchaus denkbar ist. Menger weist deshalb auch darauf hin, dass die meisten heutigen Währungen auf diese Weise eingeführt worden sind (vgl. Menger 1883, 173–174). Dadurch lässt sich aber nicht erklären, warum die zu verschiedenen Zeiten an verschiedenen Orten erstmals als Geld verwen228 https://doi.org/10.5771/9783495825464 .

Complexity Economics

deten Güter stets ein Set essentieller Eigenschaften aufweisen und in bestimmten musterhaften Prozessen ihren Status als Geld erlangen. Ein solcher Evolutionsprozess ist als Mechanismus aber nicht zwingend mit einem darwinistischen Evolutionsbegriff identisch, vielmehr scheint dieser eine bestimmte Art unter einem allgemeineren Evolutionsbegriff zu sein. Wie Hayek mit Blick auf gesellschaftliche Evolutionsprozesse bemerkt, kann der Darwinismus nicht für alle Formen von Evolution Gültigkeit beanspruchen (Hayek 1991, 23–28), denn er beschreibe zufällige Mutationen und den daraus resultierenden größer oder kleiner werdenden Erfolg einer Art in der Wechselwirkung mit ihrer Lebensumwelt, nicht aber das Erlernen effizienter sozialer Praktiken. Da soziale Institutionen wie Sprache oder Moral nicht biologisch vererbt werden, sondern von jedem Individuum erlernt werden müssen, so sei, wie Hayek meint, das Evolutionsmodell von Lamarck in diesem Falle das angemessenere. Denn Mitglieder verschiedener Generationen und desselben Kulturkreises zeichnen sich durch Ähnlichkeiten in Sprache und Moralvorstellungen sowie Kenntnisse sozialer Praktiken aus. Daher kann man für solche Praktiken im Sinne eines erlernten Wissens einen realen und überindividuellen Bestand annehmen, der anders als im Darwinismus nicht in einem bestimmten Erbgut begründet liegt, sondern in dem, was wir im weitesten Sinne mit dem Begriff der Kultur bezeichnen. Die evolutionäre Ökonomik in den modernen Wirtschaftswissenschaften hat sich parallel zu der Komplexitätsökonomik seit den 1990er Jahren zu einem stetig wachsenden ökonomischen Fachgebiet entwickelt. Beide Teilbereiche sind dabei stark miteinander verknüpft und werden zum Teil nicht mehr voneinander unterschieden. Neben Hayek gelten Autoren wie Joseph Alois Schumpeter oder Thorstein Veblen als Ausgangspunkte dieser ökonomischen Richtung (vgl. Wäckerle 2014, 1). Wie auch die Komplexitätsökonomik lehnt der evolutionäre Ansatz die statischen Neoklassischen Gleichgewichtsmodelle und die Forderung nach linearer Bestimmbarkeit der verwendeten Modelle ab (vgl. Wäckerle 2014, 10). Ob man daher – wie dies in dem eingangs erwähnten Zitat von Colander deutlich wurde – bereits den Tod der Neoklassischen Ökonomie verkünden muss, bleibt ungewiss. Denn auch in den übersimplifizierten und statischen Annahmen, die der Wirtschaftstheorie der Neoklassik zugrunde liegen, kann ein Erkenntnisgewinn liegen, auch wenn die Theorie nur unzureichend auf die Phänomene der wirklichen Welt anwendbar ist. Würde man die Neoklassische Ökonomie aufgrund dieser mangeln229 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

den Übereinstimmung mit der realen Welt komplett verwerfen wollen, dann müsste man dies ebenso für die Erkenntnisse aus Computersimulationen einfordern, deren programmierte Einzelakteure per Definition idealisierten und damit nicht realitätstreuen Verhaltensweisen folgen. Mit Blick auf die vorherrschende Stellung der Neoklassik in der nachkeynesianischen Wirtschaftswissenschaft und mit Blick auf die in diesem Aufsatz dargestellten komplexitätstheoretischen und evolutionsökonomischen Ausführungen, die sich schon bei Adam Smith grundgelegt finden, scheint weniger die abnehmende Relevanz der Neoklassik das überraschende Phänomen zu sein, sondern vielmehr die Tatsache, dass sie überhaupt je zur dominierenden Wirtschaftstheorie werden konnte.

6.

Ergebnis und Ausblick

Ziel des vorliegenden Beitrags war es, die Verbindungslinien von der Komplexitätsforschung der Gegenwart, die fast ausschließlich auf simulierten Modellen beruht, zu der ökonomischen Tradition jenseits der etablierten Neoklassischen Ökonomie aufzuzeigen und dabei auch die systematischen Abhängigkeiten zwischen beiden Ansätzen herauszustellen. In der Rückführung besonders auf Hayek wurde dabei deutlich, dass der Wandel in den Wirtschaftswissenschaften hin zu evolutionären und komplexitätstheoretischen Ansätzen auf grundlegende methodische Fragen zurückgeführt werden kann. Dabei ist die am Anfang dieses Betrags zitierte Meinung Beinhockers, dass die Entwicklung der Ökonomie hin zu einer komplexitätstheoretischen Wissenschaft sie erst zu einer echten Wissenschaft mache, nur zur Hälfte richtig, denn eine komplexitätstheoretische und evolutionäre Vorgehensweise ist, wenn sie auch nicht beim Namen genannt wird, schon bei Adam Smith deutlich nachweisbar. Natürlich blieb es den Ökonomen von Smith bis Hayek versagt, durch Verwendung von Computern komplexe Modelle simulieren zu können. Diese unsere heutige Möglichkeit, deren Reichweite bisher nur in ihren Ansätzen ausgelotet ist, stellt aber nur die formale Seite komplexitätstheoretischer Analysen dar. Die in solchen Modellen handelnden Akteure sind gerade kein Abbild der Wirklichkeit, sondern Ergebnis der Ideen und Fähigkeiten eines Programmierers. Werden Computersimulationen allein als Kern moderner Complexity Economics bezeichnet, dann greift das eingangs zitierte radi230 https://doi.org/10.5771/9783495825464 .

Complexity Economics

kale Gegenargument von John Horgan umso mehr, denn dann verfügen wir zwar über interessante Modelle, die aber kaum etwas Neues oder Überraschendes über die Wirklichkeit aussagen können. Allein mit solchen Modellen andere, bisher dominante ökonomische Theoriegebäude wegen deren Realitätsferne ersetzen zu wollen, scheint dann das Ersetzen eines realitätsfernen Modells durch ein ebenso realitätsfernes zu sein. Vielmehr müssen die modernen Komplexitätsmodelle um eine materiale Hälfte ergänzt werden, nämlich um das sinnhafte Verstehen sowohl ökonomischer Strukturen als auch individueller Handlungen wirtschaftlicher Akteure, die derartige Strukturen erzeugen. Denn, wie schon Menger bemerkte, fallen auf scheinbar wundersame Weise zwei Dinge zusammen: Nicht nur bilden sich nämlich aus den Einzelhandlungen stabile soziale Strukturen und Institutionen, sondern derartige Strukturen haben darüber hinaus auch noch einen Charakter, der als gesamtgesellschaftlich nützlich und vorteilhaft beschrieben werden kann (vgl. Menger 1883, 140–141). Was das einzelne handelnde Individuum aber als nützlich erachtet, die Verhaltensweisen also, mit denen computersimulierte Akteure programmiert werden, ist prinzipiell verstehbar und kann auch verstehend einer Kritik unterworfen werden. Dennoch wird diese sinnverstehende Seite der Komplexitätsökonomik gerade von deren enthusiastischsten Vertretern häufig weitgehend ausgeblendet. Mit Blick auf ältere Schulen der Ökonomie lassen sich korrespondierende Ansätze finden, die im Sinne einer introspektiv verfahrenden Verstehenstheorie der Grundkomponenten menschlichen Handelns zentrale Referenzpunkte und Ergänzungen für heutige Komplexitätsforschung bieten können. Diese Ansätze können einen Beitrag dazu leisten, moderne komplexe Simulationen realitätsnäher auszugestalten, ohne zugleich die notwendigen und unhintergehbaren Limitationen aus dem Blick zu verlieren, die mit einer Modellbildung immer einhergehen müssen.

Literatur Albert, Hans (1994): Kritik der reinen Hermeneutik. Der Antirealismus und das Problem des Verstehens. Tübingen. Arthur, Brian W. et al. (1997): Asset Pricing Under Endogenous Expectations in an Artificial Stock Market, in: Brian W. Arthur/Kenneth J. Arrows/

231 https://doi.org/10.5771/9783495825464 .

Stefan Schweighöfer

David Pines (Hg.): The Economy as an Evolving Complex System II. Reading, Massachusetts, 15–44. Arthur, Brian W. (2009): Complexity and the economy, in: J. Berkley Rosser, Jr. (Hg.): Handbook of Research on Complexity. Cheltenham, 12–21. Arthur, Brian W. (2015): Complexity and the Economy. Oxford/New York u. a. Beinhocker, Eric D. (2006): The Origin of Wealth. The Radical Remaking of Economics and What It Means for Business and Society. Boston. Chen, Ping (2010): Economic Complexity and Equilibrium Illusion: Essays on Market Instability and Macro Vitality. Abingdon/New York. Colander, David (2009): Complexity and the History of Economic Thought, in: J. Barkley Rosser, Jr. (Hg.): Handbook of Research on Complexity. Cheltenham, 409–426. Colander, David (2000): The Death of Neoclassical Economics, in: Journal of the History of Economic Thought 22(2), 127–143. Comte, Auguste (1907): Soziologie. Bd. 1. Hg. v. Heinrich Waentig. Leipzig. Davis, John B. (2008): The turn in recent economics and the returs of orthodoxy, in: Cambridge Journal of Economics 32, 349–366. Dilthey, Wilhelm (1927): Entwürfe zur Kritik der historischen Vernunft. Gesammelte Schriften Bd. VII. Leipzig/Berlin, 191–291. Dilthey, Wilhelm (1924a): Ideen über eine beschreibende und zergliedernde Psychologie. Gesammelte Schriften Bd. V. Leipzig/Berlin, 139–240. Dilthey, Wilhelm (1924b): Über das Studium der Geschichte der Wissenschaften vom Menschen, der Gesellschaft und dem Staat. Gesammelte Schriften Bd. V. Leipzig/Berlin, 31–73. Epstein, Joshua M./Axtell, Robert (1996): Growing Artificial Societies. Social Science from the Bottom Up. Washington D.C. Hayek, Friedrich August von (1991): The Fatal Conceit. The Errors of Socialism. Chicago. Hayek, Friedrich August von (2007a): Arten des Rationalismus, in: Ders.: Gesammelte Schriften in deutscher Sprache. Band 1: Wirtschaftstheorie und Wissen. Aufsätze zur Erkenntnis- und Wissenschaftslehre. Hg. v. Viktor Vanberg. Tübingen, 71–86. Hayek, Friedrich August von (2007b): Die »Tatsachen« der Sozialwissenschaften, in: Ders.: Gesammelte Schriften in deutscher Sprache. Band 1: Wirtschaftstheorie und Wissen. Aufsätze zur Erkenntnis- und Wissenschaftslehre. Hg. v. Viktor Vanberg. Tübingen, 159–176. Hayek, Friedrich August von (2007c): Regeln, Wahrnehmung und Verständlichkeit, in: Ders.: Gesammelte Schriften in deutscher Sprache. Band 1: Wirtschaftstheorie und Wissen. Aufsätze zur Erkenntnis- und Wissenschaftslehre. Hg. v. Viktor Vanberg. Tübingen, 3–26. Hayek, Friedrich August (1952): The Sensory Order. Chicago. Hayek, Friedrich August (1964): The Theory of Complex Phenomena, in: Mario Bunge (Hg.): The Critical Approach to Science and Philosophy, New York/London, 332–349. Herbert Stachowiak (1973): Allgemeine Modelltheorie. Wien.

232 https://doi.org/10.5771/9783495825464 .

Complexity Economics

Hodgson, Geoff (1986): Behind Methodological Individualism, in: Cambridge Journal of Economics 10, 211–224. Horgan, John (1997): The End of Science: Facing the Limits of Knowledge in the Twilight of the Scientific Age. New York. Koppl, Roger (2009): Complexity and Austrian Economics, in: J. Barkley Rosser, Jr. (Hg.): Handbook of Research on Complexity. Cheltenham, 393– 408. Menger, Carl (1883): Untersuchungen über die Methode der Sozialwissenschaften und der Politischen Ökonomie insbesondere. Leipzig. Mises, Ludwig von (2007): Human Action. Indianapolis. Mises, Ludwig von (1940): Nationalökonomie. Theorie des Handelns und Wirtschaftens. Genf. Mises, Ludwig von (1962): The Ultimate Foundation of Economic Science. An Essay on Method. New York u. a. Ormerod, Paul (1998): Butterfly Economics. London. Ormerod, Paul (1997): The Death of Economics. New York. Rosser, J. Barkley Jr. (1999): On the Complexities of Complex Economic Dynamics, in: Journal of Economic Perspectives 13 (4), 169–192. Smith, Adam (1985): Considerations Concerning the First Formation of Languages, in: John Cameron Bryce (Hg.): Adam Smith. Lecture on Rhetoric and Belles Lettres. Indianapolis, 203–226. Smith, Adam (2009 [1790]): The Theory of Moral Sentiments. 6th ed., Cambridge [London]. Wäckerle, Manuel (2014): The Foundations of Evolutionary Institutional Economics. Abingdon. Wieser, Friedrich von (1924): Theorie der gesellschaftlichen Wirtschaft. Grundriss der Sozialökonomik, Bd. I/2. Tübingen. Wieser, Friedrich von (1929): Gesammelte Abhandlungen. Hg. v. Friedrich A. v. Hayek, Tübingen.

233 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert Abenteuer eines Begriffs von Rousseau zu Spencer Felix Steilen

1.

Einleitung 1

Ziel dieses Beitrags ist der Entwurf einer Geschichte des Komplexitätsbegriffs im sozialen und politischen Denken des langen 19. Jahrhunderts, von der Zeit der Französischen Revolution zum Fin de Siècle. Dieser Entwurf wird sich auf Vertreter der philosophischen Traditionen der Aufklärung, der sogenannten Gegenaufklärung, des Frühsozialismus und der historischen Sozialwissenschaft stützen. Nach einigen kurzen Anmerkungen zu Unterschieden zwischen Wörtern, Begriffen und Ideen beginnt die historische Überblicksdarstellung mit Rousseaus Gesellschaftsvertragslehre. Komplexität findet sich hier an zentraler Stelle und gibt den Schlüssel zu einer Reihe grundlegender Anschauungen über Politik und Gesellschaft. Der Begriff dient allgemein dazu, Beziehungen zwischen Teilen und Ganzheiten abzubilden und fungiert zudem als Restposten basaler theoretischer sowie metaphysischer Annahmen. Diese können nicht immer ausgeführt werden, bedürfen aber dennoch einer Art Signifikant in Kurzform. Komplexität kann dann auf die unhintergehbare, unverfügbare Natur einer sozialen Ordnung verweisen, die sich weder durch die Vernunft noch durch den individuellen Verstand des Subjekts ergründen lässt. Wahlweise beinhaltet der Begriff die Unerklärbarkeit des Schöpfungsgedankens, das in die Welt kommen von Regierungen unter der Voraussetzung der Volkssouveränität oder das mysteriöse Fortleben vergangener Zeitalter in nachfolgenden. Der wahre semantische Aufstieg der Komplexität lässt sich gegen Mitte Für Hinweise danke ich der Frankfurter Komplexitätsgruppe sowie Henning Trüper, Florian Eyert, Marius Huber und Karl Dargel. Gefördert im Rahmen des Horizon 2020 Programms der Europäischen Union unter Marie Sklodowska-Curie Vereinbarung No. 898294

1

234 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

des 19. Jahrhunderts in der Sozialphilosophie Auguste Comtes und endgültig dann bei Herbert Spencer beobachten. Eine Aufgabe dieses Beitrags liegt darin zu bestimmen, welche spezifischen Begriffe von Komplexität sich im europäischen sozialen und politischen Denken für den Zeitraum der Untersuchung beobachten lassen. Eine zweite Aufgabe wird darin liegen, zu untersuchen, was diese verschiedenen Begriffe von Komplexität verbindet – jenseits individueller Bedeutungen und der Einbettung in teils widerstrebende Traditionen politischen und sozialen Denkens. Die Geschichte des Begriffs der Emergenz erlaubt einen Hinweis zur Differenz von Wörtern, Begriffen und Ideen. Analog zur gegenwärtigen Konjunktur des Komplexitätsbegriffs deutet eine nahezu 100 Jahre alte Definition Eigenschaften von »Emergenz« an, die heute zumeist der »Komplexität« zugerechnet werden (siehe Poser 2012, 291 ff.). In den 1920er Jahren hat der Wissenschaftsphilosoph Steven Pepper drei Eigenschaften für das Prinzip der Emergenz definiert: »(1) that there are levels of existence defined in terms of degrees of integration; (2) that there are marks which distinguish these levels from one another over and above the degrees of integration; (3) that it is impossible to deduce the marks of a higher level from those of a lower level, and perhaps also [...] impossible to deduce marks of lower level from those of a higher« (Pepper 1926, 241). Arthur Lovejoy, dessen Name im anglophonen Sprachraum bis heute mit der history of ideas synonym ist, gebraucht Komplexität in einem Sinne, der sich mit Peppers Definition von Emergenz zu decken scheint: »many complex things have properties not convincingly describable as multiples of the properties of the simple things through the combination of which they arise; and thus the notion of observed causal processes as re-arrangements of the unchanging, while formally denying that there is ›more‹ in the effect than there is in the cause, nevertheless seemed to imply that there is less in the cause than is apprehended in the effect« (Lovejoy 1927, 168). Im Lichte dieser Beobachtungen scheint es angebracht, die Begriffe eher aus dem Kontext der Theorie im 19. Jahrhundert heraus zu entwickeln, anstatt sie möglicherweise voreilig mit jüngeren Definitionen zu konfrontieren. Zugleich gibt uns Lovejoy noch die Warnung mit, dass ein solcher ideengeschichtlicher Überblick in einer Serie »historischer Gemeinplätze« enden kann (Lovejoy 1927, 168). 2 Dieser Sicht können wir uns vorsichtig 2

Übersetzungen ins Deutsche sind meine eigenen, F.S.

235 https://doi.org/10.5771/9783495825464 .

Felix Steilen

anschließen, aber mit dem Zusatz, dass die Wirkung metaphysischer Gemeinplätze womöglich nicht unterschätzt werden darf – insbesondere für Bereiche jenseits der Metaphysik im engeren Sinne. Im Folgenden geht es um Lehren, die Aussagen über größere soziale Zusammenhänge, Antriebskräfte, integrierende Mechanismen und soziale Ganzheiten treffen. Diese erwachsen im 19. Jahrhundert aus einer Zeit, die zugleich den Aufstieg der modernen Sozialwissenschaften, der Idee der Gesellschaft sowie verschiedener politischer Ideologien sieht. Haben wir es bei der Komplexität nun mit Wörtern oder Ideen zu tun? Ideen müssen sich nicht kontinuierlich in denselben Ausdrücken materialisieren, Wörter können frei von Ideen auftreten: Man denke sich eine Person, die sagt ich liebe dich ohne es zu meinen – oder andersherum – eine Person, die es meint aber nicht sagt. Ebenso müssen wir berücksichtigen, dass eine Person die eigenen Intentionen und Antriebe nicht vollständig kennt und teilweise spontan in ihrem Innern umbildet. Dann müssen wir zugleich Täuschung, Selbsttäuschung sowie gegenseitige Selbsttäuschung und nicht zuletzt das Problem kollektiver Selbsttäuschung berücksichtigen (siehe Pippin 2017, 343). Daraus folgt die Frage, wie weit wir uns bei sozialer Komplexität im 19. Jahrhundert an der Terminologie orientieren sollen. Folgen wir dem Wort oder der Idee, um eine Entwicklung aufzuzeigen? Begriffe sind im Laufe der Geschichte Träger variierender Inhalte. So wird sich der Liebesbegriff der geistlichen Liebenden Heloïse und Abaelard stark von dem unterscheiden, was wir unter gleichem Namen bei den großen tragischen Romanfiguren des 19. Jahrhunderts, etwa Stendhals Julien Sorel oder Gottfried Kellers Grünem Heinrich, finden. Ob unterschiedliche historische Bedeutungen und Verwendungen von Komplexität später noch nachklingen, hängt also zugleich mit einer gegenwärtigen Ortsbestimmung zusammen. Soziale Komplexität kombiniert in sprachlicher Hinsicht zunächst einmal die Bedeutung seiner zwei Bestandteile. Während der eine Teil sich auf menschliche Gesellschaft und die Interaktion von Individuen und Gruppen bezieht, transportiert der zweite Bestandteil gleich Mehrdeutigkeit und Doppelsinn, indem er sich vage auf »Vielschichtigkeit; das Ineinander vieler Merkmale« bezieht (Duden 2020). In der Regel schließt der Beobachter vom Kontext auf die Bedeutung, d. h. im Bereich des Sozialen gehen wir von sozialer Komplexität aus, ohne dass der Begriff eines Attributes bedarf. Aus Sicht der Alltagssprache lässt sich anmerken, dass Komplexität im Deutschen zu236 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

nächst weniger gängig ist als complexité im Französischen, complexity im Englischen oder complejidad im Spanischen. Gerade in Publizistik und Politik hat sich der Begriff Komplexität in jüngerer Zeit jedoch fest im Vokabular etabliert, was seinem wissenschaftlichen Gehalt möglicherweise weniger zuträglich ist. Für die deutsche Wissenschaftssprache, sofern diese sich von der Alltagssprache unterscheidet, bemerkt Albrecht Koschorke ab den 1970er Jahren eine erhöhte Konjunktur im akademischen Diskurs. Gleichzeitig verzeichnet er bereits die Funktion als Platzhalter, entweder für verschiedene frühere Begriffe oder schlicht als Ersatz für das Unbekannte (Koschorke 2017, 2 ff.). Diese Beobachtung scheint trefflich, jedoch soll an dieser Stelle über die Zeitgeschichte hinausgegangen werden. Zuletzt ein kurzer Hinweis, dass philosophische Gehalte nicht notwendig an ihr sprachliches Gehäuse gebunden sind und das eine Begriffsgeschichte niemals eine bloße Geschichte von Wörtern sein kann. Gäbe es eine garantierte Verbindung zwischen Wort und Bedeutung durch die Jahrhunderte hindurch, müssten Historiker heute lediglich Wörter in Suchmasken eintragen. Die allgegenwärtige Möglichkeit von Kontingenzen und Bedeutungsverschiebungen in der Sprache ist Voraussetzung dafür, überhaupt von historischen Entwicklungen sprechen zu können.

1.

Auftakt mit einer kurzen Begegnung – Rousseau und Burke

Eines der prominenteren Beispiele für das Auftreten von komplex, im Sinne einer autonomen Bedeutung, findet sich in der Gesellschaftsvertragslehre Rousseaus. Buch III, Kapitel 17 des Contrat social befasst sich mit der Frage, wie sich eine Regierung unter den Bedingungen einer neuen und freien Ordnung einsetzen lässt: Auf welcher Grundlage (»sous quelle idée«), fragt Rousseau, können wir uns jene Handlung denken, welche die erste Regierung einsetzt? Statt eine eindeutige Antwort zu geben, erinnert Rousseau seine Leser an die Komplexität der Gesamtsituation: »Je remarquerai d’abord que cet acte est complexe, ou composé de deux autres, savoir : l’établissement de la loi et l’exécution de la loi.« (Rousseau 1896, 174 f.).

237 https://doi.org/10.5771/9783495825464 .

Felix Steilen

Auf den ersten Blick scheint es, als stünde komplex hier lediglich im Sinne von zusammengesetzt oder kompliziert. Diese Bedeutung wird erneut suggeriert, wenn Rousseau von der Schwierigkeit spricht, eine Regierungshandlung zu denken, bevor die Regierung existiert (»un acte de gouvernement avant que le gouvernement existe«). Entscheidend ist jedoch der Grund dieser Schwierigkeit, nämlich die Frage: »comment le peuple, qui n’est que souverain ou sujet, peut devenir prince ou magistrat dans certaines circonstances.« (Rousseau 1896, 176). Nun zeigt sich, dass cet acte est complexe nicht einfach Platzhalter für composé/compliqué ist, sondern im Grunde auf nichts Geringeres als das metaphysische Problem einer demokratischen Ordnung verweist. Diese Ordnung versucht, Freiheit und Ordnung in Einklang zu bringen, also die Entfaltung individueller Freiheit im Einklang mit dem Prinzip der Volkssouveränität zu gewährleisten. Allein, wie lässt sich die Vielzahl der Bürger auf einen einzigen Verwaltungskörper reduzieren? Wie lässt sich individuelle Freiheit unter den Voraussetzungen einer Herrschaft der Vielen gewährleisten? Da dieser Typ Ordnung per Definition auf dem Demos beruht, bezeichnet die Komplexität dieser Ordnung zugleich jene Eigenschaften, die den politischen Körper (corps politique) auszeichnen. Wenn Rousseau von der komplexen Natur der Einsetzung einer Regierung spricht, dann handelt er vom Problem demokratischer Anfänge (siehe Buch 1.5 – »Qu’il faut toujours remonter à une première convention«). Sobald die Regierung etabliert ist, geht es um Prozedur, Funktion, Norm und Praxis. Aber wie erklären wir deren ursprüngliche Entstehung? Wenn es keine vorangehende Exekutivkraft gibt, wie etabliert sich dann die Regierung ohne den Gebrauch willkürlicher Gewalt? Kapitel 16 führt aus, dass die Einsetzung der Regierung nicht in einem Vertrag besteht. Würde die Legislative die Regierung etablieren, gäbe es keine Gewaltenteilung. Das wiederum würde der Willkür Tür und Tor öffnen und der ursprünglichen Institution zuwiderlaufen: »un usage directement contraire à la fin pour laquelle il est institué« (Rousseau 1896, 399). Nur die freiwillige Assoziation genügt den demokratischen Anforderungen zur Einsetzung von Regierungen. Insofern verweist die Bezeichnung acte complexe im Zuge der Einsetzung der Regierung zurück auf den Gemeinwillen (volonté générale), der wiederum Rousseaus ganze Metaphysik des Sozialen enthält und die Bedingungen des Gesellschaftsvertrags ausdrückt. Bevor das Volk einen Souverän einsetzt, ist die Entstehung des Volks zu untersuchen: »l’acte par lequel un peuple est un peuple« (Rousseau 238 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

1896, 29). Kurzum, der Begriff der Komplexität sendet uns geradewegs zurück zu Buch 1.6, welches das Problem des Gesellschaftsvertrags zusammenfasst. 3 Komplexität scheint hier weniger eine Auflösung des Problems oder eine Entscheidung anzubieten, der Begriff erlaubt es aber, eine Reihe von Problemen in komprimierter Form mitzunehmen oder mitzudenken. Das betrifft grundlegende Fragen zum Verhältnis von Politik, Staat und Gesellschaft, die auf diese Weise dauerhaft in Spannung gehalten werden. Solange der Gesellschaftsvertrag als komplexes Phänomen beschrieben ist, trägt Komplexität das Gewicht der metaphysischen Eigenschaften und Annahmen, die Rousseaus Idee von demokratischer Politik begleiten. Ein ähnliches Bündel von Annahmen transportiert der Begriff volonté générale, der bekanntlich nicht in seine konstituierenden Bestandteile aufgeschlüsselt werden kann und bei weitem eine bloße Aufsummierung von Einzelwillen übersteigt. Nicht lange nach Rousseau, aber inhaltlich weit von diesem entfernt, kritisieren Edmund Burkes Reflections on the French Revolution (1790) den rationalistischen, willkürlichen Aspekt der Gesellschaftsvertragslehre. Die Gesellschaft verträgt sich für Burke prinzipiell nicht mit der Idee des Vertrages. Solche werden von Handelsgesellschaften zur Befriedigung von Bedürfnissen, etwa nach Tabak oder Tee, geschlossen. Nicht als »gross animal existence of a temporary and perishable nature« sollen wir uns die Gesellschaft denken, vielmehr als »great primeval contract of eternal society« (Burke 1951, 68). Letztere umfasst die Übereinkunft zwischen hohen und niedrigen Naturen, zwischen der sichtbaren und der unsichtbaren Welt, zwischen vergangenen, gegenwärtigen und zukünftigen Generationen. Gerichtet gegen Rousseau und den Rationalismus der Aufklärungsphilosophie bemerkt Burke, dass das Wesen der Gesellschaft über gegenwärtige Vorstellungen hinausgeht. Die historisch gewachsene Existenz des Ganzen lässt sich nicht nach Belieben umgestalten. Burke setzt radikal andere Prämissen als Rousseau, dennoch markiert Komplexität auch bei ihm basale Annahmen. Er gebraucht den Begriff, um das Wesen des Menschen zu beschreiben:

»Trouver une forme d’association qui défende et protège de toute la force commune la personne et les biens de chaque associé, et par laquelle chacun, s’unissant à tous, n’obéisse pourtant qu’à lui-même, et reste aussi libre qu’auparavant. »Tel est le problème fondamental dont le Contrat social donne la solution«. (Rousseau 1896, 31)

3

239 https://doi.org/10.5771/9783495825464 .

Felix Steilen

»The nature of man is intricate; the objects of society are of the greatest possible complexity [Herv. F.S.]: and therefore, no simple disposition or direction of power can be suitable either to man’s nature, or to the quality of his affairs. When I hear the simplicity of contrivance aimed at and boasted of in any new political constitutions, I am at no loss to decide that the artificers are grossly ignorant of their trade, or totally negligent of their duty.« (Burke 1951, 59)

Ebenso dann in François-René de Chateaubriands Essai sur les révolutions (1797), wo die Komplexität des Menschen kontrastiert wird mit der Idee eines einfachen Umsturzes der Ordnung. Rousseaus politische Theorie gibt demnach zwar vor, sich mit Ursprüngen zu befassen, setzt die Gesellschaft aber de facto einfach voraus (»une société déjà préexistante«, Chateaubriand 1797, 27). Chateaubriands Buch über die Revolution gebraucht ebenfalls komplex als Attribut für die menschliche Natur. Der gesellschaftliche Mensch ist ein komplexes Wesen, der Vielzahl menschlicher Leidenschaften begegnet man daher am besten mit einer Vielzahl von Hindernissen. 4 Diese Beobachtung ist alles andere als trivial für die gegenaufklärerische soziale und politische Theorie, die vom Bild des Menschen auf ein Bild der Gesellschaft schließt. Die monarchische Regierung baut auf dem Bild der Familie auf und die Gesellschaft hat keine prinzipiell anderen Eigenschaften als der einzelne Mensch. Entsprechend der Betonung menschlicher Verderbnis und der gefallenen Natur des Menschen in der christlichen Lehre, werden solche Ansichten bei Burke und Chateaubriand noch verstärkt. Burke vertritt mit seinen Aussagen über das Wesen des Menschen eine pessimistische philosophische Anthropologie. Indem er die Unergründlichkeit als Eigenschaft der sozialen Ordnung voraussetzt, konfrontiert er die Komplexität der Gesellschaft mit dem Tatendrang der Ideen der Revolution. Diese modellieren die Gesellschaft nach Idealbildern und führen die menschliche Verderbnis auf bestehende Formen sozialer und politischer Ordnung zurück, anstatt auf sein Wesen. Bei so viel Ablehnung, kann es da Übereinstimmungen zwischen Rousseau und Burke geben? Immerhin sind sich beide Autoren einig, den Begriff der Komplexität als Signifikant für Beziehungen von Ganzheiten und Teilen zu verwen»[…] l’homme de la société est lui-même un être complexe, et qu’à la multitude de ses passions, il faut donner une multitude d’entraves.« (Chateaubriand 1897, 43).

4

240 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

den. Burke verurteilt revolutionäre politische Ideen weiterhin mit einer Gegenüberstellung von einfach und komplex, die als rhetorische Figur in unzähligen Theorien und alltagssprachlichen Kontexten Verwendung findet: »The simple governments are fundamentally defective, to say no worse of them. If you were to contemplate society in but one point of view, all these simple modes of polity are infinitely captivating. In effect each would answer its single end much more perfectly than the more complex is able to attain all its complex purposes [Herv. F.S.]. But it is better that the whole should be imperfectly and anomalously answered, than that, while some parts are provided for with great exactness, others might be totally neglected, or perhaps materially injured, by the overcare of a favorite member.« (1951, 59).

Einfache Lösungen sind falsche Antworten für komplexe gesellschaftliche Probleme – im 21. Jahrhundert wird diese Figur vermehrt als Gemeinplatz gegen populistische Politik eingebracht. Die obige Passage illustriert Burkes Konservatismus und seine Ablehnung revolutionären Wandels. Gleichzeitig steht sie für einen Liberalismus, der die Entfaltung und das Wachstum der bestehenden Ordnung gewährleisten will. Wahlweise lässt sich der Anspruch nach ungehinderter Entwicklung als blinde Affirmation des Status Quo, als Legitimation bereits bestehender Eingriffe sowie institutionalisierter sozialer Unterschiede und Hierarchien auslegen. Von derlei politischen Implikationen wird hier abgesehen, um den Blick mehr auf die Anwendungsweisen der Komplexität zu lenken.

2.

Komplexität als Unergründlichkeit im katholischen politischen Denken

Isaiah Berlin fasst unter Gegenaufklärung eine Tradition von Denkern, die das Ereignis, die Ideen und die Resultate der Aufklärung mit Blick auf den Verlust einer über Jahrhunderte hinweg bestehenden Ordnung ablehnen. Historiker haben bei den nun abgehandelten Autoren wahlweise auch von Reaktionären, Gegenrevolutionären, Traditionalisten oder einfach von Konservativen gesprochen. Diese Beschreibungen sind insofern treffend, da sie allesamt Aspekte im 241 https://doi.org/10.5771/9783495825464 .

Felix Steilen

Werk und im Wirken von Joseph de Maistre (1753–1821), L. G. A. de Bonald (1754–1840), François-René de Chateaubriand (1768–1848) und Juan Donoso Cortés (1809–1853) bezeichnen. Es handelt sich hier um Vertreter der katholischen Gesellschaftstheorie im 19. Jahrhundert, die Verständnisse von Komplexität bemühen, die spätere Bedeutungen vorwegnehmen und auf diese Weise auch eine kritische Perspektive auf das allgemeine Thema ermöglichen. Neben weltanschaulichen Linien eint diese Denker ein rhetorisches Geschick, besonders exemplifiziert durch Chateaubriand. Seine posthumen Memoiren von jenseits des Grabes (d’outre-tombe) zählen eine Reihe komplexer Phänomene auf, ohne den Begriff gesondert zu reflektieren (1849). So beschreibt er einen Zusammenhang aus sozialer Komplexität und menschlicher Formung als die Einheit von Subjekt und Welt. Die Komplexität der sozialen Welt spiegelt sich im Einzelnen: Die Dinge bedeuten nichts für den, der kein Zentrum hat und sich nicht zur umliegenden Welt zu verhalten weiß. Auch Maistre scheint komplexe Phänomene zu beschreiben, ohne den Begriff zu verwenden. Seine Geschichte des Papsttums erwähnt nicht einmal Komplexität, aber was er beschreibt, lässt sich als komplexes Phänomen interpretieren. Maistre widerspricht der modernen Vorstellung, die Gesellschaft anhand von Vernunftprinzipien zu erneuern. Er verlegt den Gegensatz von Sein und Sollen in den Bereich der Geschichtsauslegung und bevorzugt eine natürlich gewachsene Sozialordnung. Das Prinzip der historischen Dauer ist Voraussetzung gegenwärtiger sozialer Existenz. Die Vorstellung, soziale und politische Dinge ließen sich einfach beschließen oder einsetzen, entspricht dann dem Bild eines als Erwachsenen geborenem Menschen: »La plante est une image naturelle des pouvoirs légitimes. Considérez l‘arbre ; la durée de sa croissance est toujours proportionnelle à sa force et à sa durée totale. Tout pouvoir constitué immédiatement dans toute la plénitude de ses forces et de ses attributs, est, par cela même, faux, éphémère et ridicule. Autant vaudrait imaginer un homme adulte-né.« (Maistre 1841, 233)

Soziale Komplexität beschreibt hier einen unergründlichen Charakter gesellschaftlicher Normen, die noch auf übernatürliche Prinzipien verweisen. Maistre und die Traditionalisten übertragen divinatorische Eigenschaften auf den historischen Prozess: Gott liegt gewissermaßen im Detail, d.h. in der Mannigfaltigkeit und in der historischen 242 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

Dauer. Während die politische Theorie der Aufklärung die Ursprünge sozialer Institutionen letztlich auf menschliche Intentionen oder einen wie auch immer gedachten Pakt zurückführt, sieht Maistre hinter der Ordnung stets eine höhere Quelle am Wirken: »La loi n’est proprement loi, et ne possède une véritable sanction qu’en la supposant émanée d’une volonté supérieure ; en sorte que son caractère essentiel est de n’être pas la volonté de tous.« (Maistre 1833, 3 f.)

Maistre ruft Augustinus‘ Lehre der Zwei Reiche auf, ein irdisches und ein himmlisches (civitas terrena/dei). Dennoch überschreitet er diese Unterscheidung stillschweigend, indem er aus einer divinatorischen Überlegenheit Ansprüche im Weltlichen ableitet. Insofern werden diese katholischen Traditionalisten auch als »säkulare Schriftsteller« oder als »säkulare Verteidiger des Glaubens« bezeichnet (Menczer 1962, 48, 96). Maistre wiederholt die Rhetorik seiner Verteidigung der katholischen Kirche als natürliche Autorität, wenn er die Legitimität anderer Institutionen über die Dauer ihres Bestehens erklärt. Diese Argumente bilden den Boden seines Verständnisses der Komplexität der englischen Verfassung. Soziale Komplexität ist hier eng an die Kontingenz historischer Verläufe geknüpft. Historische Kontingenz beinhaltet, dass menschliche Subjekte nicht klar die Folgen ihrer Handlungen abschätzen können. Allein die Vorsehung ist in der Lage die vielfältigen Umstände und Nebenprodukte der Geschichte so zu ordnen, dass wir hinterher ein soziales Ganzes erkennen. Erst nach einer sehr langen Zeit erscheinen getrennte Ereignisse und Gründe in der konkreten Form sozialer Wirklichkeit – wie im Fall der englischen Verfassung: »La constitution est l’ouvrage des circonstances, et le nombre de ces circonstances est infini. Les lois romaines, les lois ecclésiastiques, les lois féodales ; les coutumes saxonnes, normandes et danoises ; les priviléges, les préjugés et les prétentions de tous les ordres ; les guerres, les révoltes, les révolutions, la conquête, les croisades ; toutes les vertus, tous les vices, toutes les connaissances, toutes les erreurs, toutes les passions ; tous ces éléments, enfin, agissant ensemble, et formant par leur mélange et leur action réciproque des combinaisons multipliées par myriades de millions, ont produit enfin, après plusieurs siècles, l’unité la plus

243 https://doi.org/10.5771/9783495825464 .

Felix Steilen

compliquée et le plus bel équilibre de forces politiques qu’on ait jamais vu dans le monde.« (Maistre 1924, 26 f.) 5

Neben der Identifikation einer Vorsehung in Geschichtsverlauf und in weltlichen Dingen zeigt sich hier bereits die Vorwegname späterer Komplexitätsverständnisse. Einmal die Annahme der Unvorhersehbarkeit des Gesamtprozesses: Niemand in der Vergangenheit konnte die kommende Amalgamierung und gegenseitige Durchdringung historischer Kontexte vorhersehen. Geschichtliche Entwicklung geht unweigerlich mit einem Anstieg der Komplexität einher, wobei die Entwicklung hier in einem Zustand gipfelt – die Englische Verfassung als siebenter Tag oder Ruhepunkt der geschilderten Entwicklung. Eine weitere Eigenschaft, die heraussteht, ist die Idee der nichtintendierten Nebenfolgen menschlichen Handelns sowie das hohe Maß an Leid und Unglück (Kriege, Revolten, Laster), bis zur Erreichung dieses Zustands. Die Komplexität des Ganzen übersteigt die Rationalität der Einzelbestandteile in schier unvorstellbarer Weise. Ähnlich konfrontiert Bonald in seiner Théorie du pouvoir (1796) die Komplexität des Sozialen mit ihren konstituierenden Bestandteilen und trennt auf diesem Weg die Existenz der Gesellschaft begrifflich von der Existenz ihrer Mitglieder. Im Grunde ähnelt dieses Manöver Rousseaus volonté générale. Was ist dieser Allgemeinwille, wenn nicht der Name für die konstituierende und integrierende Macht der Gesellschaft? Dennoch bewerten Maistre und Bonald die Gesellschaftsvertragslehre als Häresie, da sie die Schöpfungslehre durch eine rein menschliche Übereinkunft ersetzt. 6 Bonald verbringt viel Zeit mit dem Kommentar der Sichtweisen Montesquieus und Rousseaus. Auf diese Weise tritt er unweigerlich in ein Zwiegespräch mit Vertragslehren der Aufklärer. Für ihn stellt das Aufklärungsdenken die eigentliche Reaktion dar, indem es die altüberkommenen Gewiss5 Komplex heißt es in der englischen Übersetzung: »[…] after many centuries, the most complex unity, and happy equilibrium [Herv. F.S.] of political powers that the world has ever seen.« (Maistre 1847, 47). 6 »Non-seulement j’aperçois cet ordre dans l’univers, mais la raison me dit que cet ordre est naturel, qu’il ne peut pas exister autrement pour la conservation des familles ; qu’il faut une volonté générale pour donner à toutes les volontés une direction commune, et une action générale pour empêcher le choc des actions particulières; et s’il est prouvé que cet ordre est nécessaire, je m’inquiète peu si dans son principe il est volontaire ou forcé, et je ne vois pas de contrat, là où je vois une nécessité.« (Bonald 1796, 491, Herv. FS).

244 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

heiten der Kirche negiert und zur Debatte stellt. Bonald verweist auf die Komplexität des Ganzen, um einen historischen Bruch zu erklären und um die Revolution in einen providenziellen Rahmen zu stellen. Revolution und Chaos wären dann Teile eines größeren Mechanismus, der die Gesellschaft formt und integriert. So lautet auch eines der Argumente, mit denen Maistre 1821 in seinen Petersburger Dialogen versucht, die Revolution im Rahmen der Vorsehung zu begreifen – wie bereits der Untertitel des Buches vorwegnimmt: le Gouvernement temporel de la Providence. Als freimütiger Metaphysiker des Sozialen betrachtet Bonald alle Literatur als einen Ausdruck ihrer Zeit (Spaemann 1959). Die Familie gilt ihm als häusliche Gesellschaft, der Staat als öffentliche Gesellschaft und das Christentum als eine Gesellschaft der Staaten. Familien sind der grundlegende Bestandteil der sozialen Ordnung und das Prinzip der Familie wirkt in größeren Assoziationen fort. Dadurch erklärt sich, warum Bonald der Verteidigung der Ehe als sozialer Institution einen derart hohen Stellenwert zuspricht. Sein Pamphlet Du divorce (1802) bestärkt Bonaparte darin, das Scheidungsrecht wieder zurück zu ziehen. Bonalds Frontstellung zu gewissen modernen Vorstellungen wird schnell offensichtlich und dennoch ähnelt seine Beschreibung der Ehe als Institution der eingangs angeführten Beschreibung Rousseaus, die in der Einsetzung einer Regierung einen komplexen Akt sieht: »Disons donc que le mariage est un acte social, domestique, civil et religieux à la fois ; acte fondateur de la société domestique, dont l’autorité civile, venant au secours de l’accord domestique, doit garantir les intérêts, et où l’autorité religieuse fait intervenir la Divinité d’une manière extérieure et sensible pout consacrer l’union des cœurs et épurer celle des corps.« (Bonald 1805, 59)

Anders als Rousseau verzichtet Bonald auf das Wort Komplexität, nähert sich ansonsten aber verblüffend dem sprachlichen Gestus seines Erzfeindes an. Diese Tatsache ist dem Umstand geschuldet, dass Bonald oftmals Gedanken Rousseaus mit einem Kommentar versieht. Vielleicht wäre es insofern angemessen zu sagen, dass der Diskurs die Sichtweise seiner Teilnehmer prägt. Vor dem obigen Passus kritisiert er in Du divorce Rousseaus Gegenüberstellung einer sozialen und einer natürlichen Sphäre des Lebens. Für Bonald gibt es keine natürlichen Menschen, höchstens primitive Menschen. Die Legalisierung der Scheidung von 1792 stellt sich ihm als Moment allgemeinen Ver245 https://doi.org/10.5771/9783495825464 .

Felix Steilen

falls dar, wonach jegliche Sicherheit in Fragen von Pflicht und Autorität langsam zurückgeht. Verbindliche Normen werden den Leidenschaften der Subjekte Preis gegeben, was Unordnung in der Familie wie im Staate nach sich zieht. Dieses Argument Bonalds ist bedeutend im Lichte gerade jener späteren Sichtweise, wonach mit dem Aufstieg des Liberalismus Interessen die Oberhand gegenüber zunehmend gezähmten Leidenschaften gewinnen (Hirschman 1997). Für Bonald bewirken liberale Ordnungen eine Freisetzung bislang nicht existenter Leidenschaften. Ähnlich verächtlich beschreibt Chateaubriand die moderne Entscheidungsfreiheit und wie Bonald schäumt auch er angesichts eines sogenannten Rechts auf Scheidung. Wozu sollen der Schutz von Familie, Erbrecht, elterlicher Fürsorge, Eigentumsrecht, etc. dienen? Wenn der Sohn den Vater ermordet, warum solle er des Vatermords schuldig sein und nicht lieber gleich der Vater, dessen Leben dem Spross ja erst den Weg verbaute? 7 Im Bestreben dieser katholisch-säkularen Theoretiker wird die Gesellschaft mit schlichter Sprache auf basale Begriffe gebracht: Autorität, Sünde, Tugend, Verderbtheit, Eigentum, Vaterschaft, usw. Damit einher geht die Idee, dass die Gesellschaft nurmehr eine Funktion göttlicher Autorität, menschlicher Natur und höherer Gebote darstellt. Gegen die klare und direkte Sprache der Traditionalisten erscheint die politische Theorie der Aufklärung wie eine unnötige Verkomplizierung der Dinge. Darin liegt der rhetorische Effekt der katholischen Schule politischen Denkens, deren Polemik gegen die Aufklärungsphilosophie einen geradezu bewusst schlichten Stil wählt. Bonald zufolge reduziert Montesquieu die Politik auf meteorologische Probleme. Dem setzt Bonald gewissermaßen die Reduktion politischer Probleme auf metaphysische Fragen und sogenannte fundamentale Prinzipien entgegen. Diese Methode teilt er mit seinem eifrigen Schüler, dem spanischen Politiker Juan Donoso Cortés, einem engen Berater der Königinnen María Christina de Borbón und Isabella II. Wenn Maistre und Bonald der Reaktion um 1789 angehören, fällt Donosos reaktionäres Denken schon in den Rahmen der europäi»Do not be under any illusion that we are going to allow ourselves to be caught up in all the legal processes which have been invented for the protection of the family, for inherited rights, the guardianship of children, claims to property, etc.; marriage is notoriously an absurd oppression: we shall abolish all that. If a son kills his father, it is not the son, as we can very well prove, who is guilty of patricide, it is the father, who, by the very act of living, sacrifices the son’s chances.« (Chateaubriand: aus dem Epilog seiner Memoiren; in: Menczer 1962, 104).

7

246 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

schen Umstürze von 1848. Sein theoretisches Hauptwerk aus dem Jahre 1851, der Ensayo sobre el catolicismo, el liberalismo y el socialismo diskutiert das Problem der Anfänge. Dabei kommt er wiederholt auf ein komplexes Ereignis außerhalb der Geschichte zu sprechen: »Por donde se ve que el acto de la creacion fué complejo y que se compuso de dos actos diferentes […]« (Cortés 1851, 166). »[…] the act of creation was complex, and composed of two different acts [Herv. F.S.], namely, of that by which God gave existence to what previously had none; and of that other, by means of which He regulated all that He had given existence to.« (Cortés 1879, 147) 8

Vergleichen wir diese Erklärung Donosos von 1851 einmal mit Bonalds oben bereits angeführtem Standpunkt zur Ehe (»un acte social, domestique, civil et religieux à la fois; acte fondateur de la société domestique«, Bonald 1805, 59) sowie mit Rousseaus Formulierung über die Einsetzung der Regierung (»cet acte est complexe, ou composé de deux autres […] l’établissement de la loi et l’exécution de la loi«, Rousseau 1896, 174 f.). Chronologisch kommt Rousseaus Formulierung zuerst, aber man könnte auch sagen, dass Donosos sprachliches Bild nach hinten wirkt. Denn plötzlich erscheint Rousseau, indem er Jahrhunderte religiösen Dogmas missachtet, als der Reaktionär in dieser Reihe. Für Donoso ist die Schöpfung ein komplexer Akt und dieses Charakteristikum wird weiterhin für die Kirchengeschichte geltend gemacht. Er kritisiert die nationalistische französische Historiographie, weil sie dieser Komplexität keinen Respekt zollt. Wo moderne Historiker wie François Guizot die Entwicklung einer Nation sehen, erblickt Donoso die Entwicklung von etwas, dass »zugleich sichtbar und unsichtbar« ist, d.h. Christentum und Kirche: »Herr Guizot hat alles gesehen in dieser Zivilisation, so komplex und fruchtbar – alles, außer die Zivilisation selbst.« (Cortés 1879, 86) Der Katholizismus ist nicht bloß Form, sondern Essenz, er ist Einheit und Vielheit zur gleichen Zeit und Inbegriff der europäischen Zivilisation. Die komplette deutsche Übersetzung des Ensayo stammt von dem Rechtsextremen Günther Maschke und wird daher übergangen, zumal die englische Ausgabe der französischen ohnehin näher kommt.

8

247 https://doi.org/10.5771/9783495825464 .

Felix Steilen

Er dringt nicht in eine bestehende Kombination verschiedener Teile des Ganzen ein, sondern er erschafft alles, indem er es erfüllt. Vom sprachlichen Standpunkt gesehen, bildet die Assoziation von Komplexität mit Verhältnissen zwischen Teilen und Ganzheiten (parts-whole relations) zugleich ein Charakteristikum späterer Sichtweisen auf Komplexität. Für Donoso ist wirkliche Komplexität unsichtbar und betrifft eine Essenz, die nach außen die Form einer Reihe distinkter sozialer und politischer Ordnungen nimmt, die dennoch nicht mehr sind als bloße Manifestationen eines Geistes im Innern. 9 Es gibt noch einen anderen Zusammenhang, in dem Donoso von Komplexität spricht. Sein Ensayo hebt wiederholt den Sündenfall und die Schande Adams hervor. Dabei verbindet sich ein misanthropisches Element mit einem pessimistischen Menschenbild. Donoso teilt diese negative philosophische Anthropologie mit seinem Vorbild Maistre, für den der Mensch zu verderbt ist, um frei zu sein bzw. um sich selbst überlassen zu werden (Maistre 1850, 238). Diese Sicht läuft zugleich gegen das Bild der Perfektibilität des Menschen und der freien Entfaltung seiner Anlagen, wie es etwa in Rousseaus Bildungsroman Emile zum Ausdruck kommt. In Donosos monumentaler Gesellschaftsbeschreibung wird die schwache und verderbte Menschennatur über unsichtbare Verbindungen und Netze in Balance gehalten. Die Einzelheiten dieser Verbindungen bleiben der menschlichen Vernunft unzugänglich – »singularmente complejo y de misteriosamente oscuro« (Cortés 1851, 262). »And as man cannot fathom with his reason, nor with his imagination, nor with his intellect, what there is singularly complex and mysteriously obscure in that nature [Herv. F.S.], neither can he measure, though he bring all the powers of his soul into play, the immense distance that exists between our sins and the sin of that man unique, like him, in its profound malice and in its incomparable greatness. After Adam no one has sinned like Adam, and no one will sin like him to the end of time.« (Cortés 1879, 227) »Catholicity left the forms intact and changed the essences; and at the same time that it left intact all the forms and changed all the essences, it preserved its own essence intact, and received from society all its forms. The Church was feudal, as feudalism was Catholic; but the Church did not receive an equivalent for what she gave, as she received something that was purely external and accidental, whilst she gave something internal and intimate, which was to endure as an essence.« (Cortés 1879, 87 f.).

9

248 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

4.

Komplexität als Fortschritt im Frühsozialismus

Die Ursprünge sozialistischen und soziologischen Denkens lassen sich keineswegs so klar trennen, wie die beiden Schulbegriffe suggerieren. Man nehme zwei Protagonisten dieser Traditionen, Henri de Saint-Simon (1760–1825) und seinen einstigen Privatsekretär Auguste Comte (1798–1857). Beide trennen in ihren Theorien nicht zwischen der Beobachtung und Interpretation sozialer Phänomene auf der einen und freimütigen Ratschlägen und politischer Propaganda auf der anderen Seite. Beide sprechen von Sozialwissenschaft, praktizieren jedoch einen Modus sozialer Prophezeiung. Für die erste Hälfte des 19. Jahrhunderts ließen sich die soziologische und die sozialistische Schule in Frankreich nur schwer trennen. Entsprechend ist das Auftreten des Wortes sociologie nicht der definitive Beginn einer soziologischen Tradition und man kann sagen, dass auch die Sozialwissenschaft (sciences sociales) nicht mit der Terminologie beginnt (Iggers 1959). Einen möglichen Anfang bildet die Übertragung naturwissenschaftlicher Epistemologie auf das Studium menschlicher Gesellschaften. Adolphe Quetelet prägt mit seiner gleichnamigen Schrift von 1835 den Terminus physique sociale und drückt auf diese Weise seine wissenschaftstheoretischen Überzeugungen aus: Die Wissenschaft des Sozialen ist eine Physik der Gesellschaft. Bei ihm beinhaltet die Komplexität eines Phänomens die Irreduzibilität auf einzelne Elemente, etwa in Bezug auf die Sterberaten von Stockholm und Montpellier (Quetelet 1869, 192). 10 Folglich ist es ein Problem, wenn der Analyst empirischen Materials »des faits qui sont complexes« auf einfache Tatsachen reduziert. Um die Fertilität europäischer Frauen zu ermitteln, muss man neben Ehen und legitimen Geburten auch Ehen und illegitime Geburten sowie zweite und dritte Ehen berücksichtigen, was die ganze Sache »extrêmement complexe« macht. Je mehr man die Phänomene relativ zur Bevölkerung studiert (Menschen in nordischen Ländern heiraten später, sind frühreifer in südlichen Ländern usw.), umso komplexer erscheinen sie (Quetelet 1869, 88). Am Ende müssen laut Quetelet alle kausalen Ursachen und Einflussgrade berücksichtigt werden. Dieser Gedanke steht wiederum jener oben dargelegten Anschauung entgegen, wonach Komplexität sich gerade nicht in einzelne Beziehungen und Kausalitäten auf»Mais cette observation était trop complexe pour qu’on ne dût pas chercher à analyser les faits particuliers qu’elle résume« (Quetelet 1869, 192).

10

249 https://doi.org/10.5771/9783495825464 .

Felix Steilen

schlüsseln lässt. Damit steht die statistische Methode gegen den Gedanken der Unverfügbarkeit gesellschaftlicher Zusammenhänge. Vor Quetelets sozialer Physik imaginiert Charles Fouriers Théorie des quatre mouvements (1808) ein Studium der Gesellschaft mit wissenschaftlichen Methoden, ohne die moralischen Implikationen jener alten Wissenschaft der Politik. Auch wenn der Anspruch ein wissenschaftlicher ist, dominieren hier christliche Untertöne in Kombination mit einem sozialistischen Heilsversprechen. Fourier, SaintSimon und Comte sammeln sektenähnliche Kongregationen um sich, bekanntes Zeugnis ihrer Heilslehren ist bis heute das positivistische Credo auf der brasilianischen Flagge (Ordem e Progresso). Auch der anarchische Frühsozialist Pierre-Joseph Proudhon (1809–1865) setzt sich permanent mit christlichen Inhalten auseinander. Er publiziert eine umfassende Auslegung der Nationalökonomie im Sinne eines neuen theologischen Dogmas (1846), posthum erscheint von ihm gar ein Bibelkommentar (1866). Manche Eigenschaft trennt ihn von der übrigen sozialistischen Tradition, insbesondere aber frauenverachtende Tendenzen und ein familialer Traditionalismus. Sein De la justice dans la révolution et dans l’église (1858) und der posthume antifeministische Traktat Pornocratie, ou sur la femme (1875) argumentieren für eine Unterordnung der Frau unter den Mann. In diesem reaktionären Narrativ gilt die Frau als einfach, intellektuell unterlegen und physisch schwach, wogegen Männer als komplex dargestellt werden. Proudhon polemisiert ähnlich dem Katholiken Bonald gegen Scheidungsrecht und weibliche Erwerbstätigkeit außerhalb des Haushalts. Insofern Proudhon den Abfall vom traditionellen Bild der Familie beklagt, lehnt er sich gegen die Begleiterscheinungen moderner sozialer Komplexität auf. Aber gebraucht er den Terminus? In erster Linie vage und in keinem spezifisch philosophischen Sinne, etwa wenn er ein »problème complexe du mariage« mit der Beschreibung »si vaste, si compliqué, si scabreux« versieht (Proudhon 1876, 7). Er nennt den Fall eines Mannes, dessen Frau auch seine Geschäftspartnerin ist und der sich nun »dans une position complexe« befindet. Abgesehen von seiner Affirmation geschlechtlicher Ungleichheit, zielt Proudhon auf eine radikale Veränderung sozialer Hierarchien und Eigentumsbeziehungen. Um das Kapital zu bändigen, schlägt er einen Pakt mit dem Elend und einen Pakt mit der Notwendigkeit vor. Er sinniert von einem neuen Schöpfungsakt, eine »zweite Schöpfung«, die Solidarität und Gleichheit allgemeinverbindlich macht. Proudhon verbindet die Rede von Komplexität ebenfalls mit Ansich250 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

ten zur menschlichen Natur, die er von der tierischen trennt, weil im Menschen die Gesellschaft wirkt: »Dans l’homme, les besoins de société sont plus impérieux, plus complexes […]« (1873, 197). Einen verstärkten Gebrauch der Komplexitätssemantik finden wir bei Auguste Comte, jenem Schüler Saint-Simons, der sich als Vater der positivistischen Doktrin geriert. Es ist schwierig, in seinem stark repetitiven Werk einzelne Bücher getrennt zu betrachten, da zumeist ähnliche Ideen variiert werden. Die 1830er Edition seines Cours de philosophie positive erwähnt einige Male complexe, stets um Unterscheidungen und Hierarchien auszudrücken (Verwendungskontexte sind Pflanzen, Tiere, geistige Merkmale, Moral, Industriegesellschaft oder Kulturverfall). Zumeist wird ein Anstieg der Komplexität angenommen, der vorher schon die Ordnung der Wissenschaften bestimmt. Die Komplexität steigt von der einen Wissenschaft zur anderen, die Hypothesen der Wissenschaft entsprechen ihrem Gegenstand: »ce sont l’astronomie, la physique, la chimie, la physiologie, et enfin la physique sociale« (Comte 1830, 96). Die Soziologie ist zunächst die komplexeste Wissenschaft in Comtes Hierarchie, dann wird sie zur Vernunftreligion erklärt. Wie die Wissenschaft die Natur bestimmt, bestimmt die Religion die Gesellschaft, weshalb die religion de l’humanité die wahre Religion eines Zeitalters der Gesellschaft darstellt (Comte 1854). Comtes System produziert eine Unzahl innerer Widersprüche und willkürlicher Unterscheidungen, wobei Komplexität eine legitimierende Funktion hat. Ohne die angebliche Stärke seiner Methode einlösen oder beweisen zu können, leitet Comte ihre zukünftige Überlegenheit von vagen Annahmen über höhere Komplexitätsgrade ab. Ein Solipsismus belegt diese bloß rhetorische Manöver: Der Komplexität der Welt lässt sich nur mit positiver Wissenschaft begegnen. Sie allein vermag die Verbindungen zwischen der Vielheit der Einzelphänomene herstellen, die das gesellschaftliche Ganze charakterisieren. Zeitgenössische englische Übersetzungen lassen aus complexe und complet gerne complexity werden: »New as is this science, it has already fulfilled the essential conditions of its institution, so that it has only to pursue its special development. Its complexity is more than compensated by its interconnection, and the consequent preponderance of the collective spirit over the spirit of detail [Herv. F.S.]: and from its origin, therefore, it is superior in rationality to all the foregoing sciences,

251 https://doi.org/10.5771/9783495825464 .

Felix Steilen

and is evidently destined to extend its own collective spirit over them by its reactive influence, thus gradually repairing the mischiefs of the dispersive tendencies proper to the preparatory stages of genuine knowledge.« (Comte 1896, 400).

Comte kombiniert seine Wissenschaftstheorie mit einer Theorie der Geschichte. Dieser Schritt führt zu seinem bekannten Dreistadiengesetz, welches eine Evolution im Sozialen beschreibt. Diese führt vom einfachen, theologischen Zeitalter zur metaphysischen Epoche, gipfelnd im positiv-wissenschaftlichen Zeitalter. Jedes evolutionäre Stadium ist synonym mit einer Art des Erkennens: Die Theologie sucht nach ersten und letzten Gründen, Ursprung und Zweck; die Metaphysik, eine Modifikation der Theologie, setzt abstrakte Kräfte und ein übernatürliches Wesen; und die positive Wissenschaft verlässt die Suche nach Absolutheit und widmet sich der Ergründung konkreter Phänomene. Die Idee des Fortschritts, wie sie in den Wissenschaften funktioniert, wird ins Soziale übertragen. In der Hierarchie der Wissenschaften steigt die Komplexität bis zur Soziologie, die wiederum andere Wissenschaften integriert. Die Komplexität der Soziologie rettet die weniger komplexen Wissenschaften wie Chemie, Biologie oder die Geschichte vor Pedanterie und Überspezialisierung. Comte bezieht sich mehrfach auf Beziehungen zwischen Teilen und Ganzheiten, oft verwendet er généralité gleichbedeutend mit complexe. Er zielt darauf, die Komplexität des politischen Körpers an die Komplexität des Sozialen anzupassen, über Dezentralisierung und eine Reihe intermediärer Körperschaften (corps intermédiaires) zwischen Staat und Individuum. Am Ende steht die Vision der Transformation des Staates in eine intermediäre Institution (Vernon 1984, 565). Insofern gibt es eine universale Ordnung, aber keinen universalen Staat und nur eine spontane Assoziation von Familien. Wie in der katholischen politischen Theorie gilt hier die Familie als die basale Einheit des Sozialen. Während Augustinus‘ Civitas dei aus Engeln und Menschen besteht, besteht Comtes Ordnung aus Frauen und Männern (Salomon 1957, 47). Teile der Ideen Comtes begegnen uns in späteren Theorien wieder, allen voran die Analogie zwischen wissenschaftlichem Fortschritt und Geschichtsphilosophie. Noch Niklas Luhmanns Definition von Komplexität liest sich als Rudiment des katholischen Fundaments in der Gesellschaftslehre Auguste Comtes: »In letzter Abstraktion meint der Begriff daher die Einheit des Mannigfaltigen« (Luhmann 1976, 939 f.). 252 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

4.

Der endgültige Aufstieg der Komplexitätssemantik

Herbert Spencer (1820–1903) expliziert die evolutionäre Grundlage von Comtes Gesetzen. Der wichtigste Multiplikator des Positivismus in der anglophonen Welt schließt ebenso vom Fortschritt in den Wissenschaften auf einen Fortschritt in der Geschichte. Spencers Präferenz für biologische Erklärungen und organische Analogien beinhaltet eine Tendenz zur funktionalen Beschreibung sozialer Zusammenhänge. Sein Fortschrittsdenken löst sich von den theologisch inspirierten Kategorien Comtes, für welchen der Fortschrittsbegriff noch die Idee eines transzendenten Gottes ersetzt (Salomon 1957, 53 f.). Spencer präsentiert seine Arbeiten als Anwendungen wissenschaftstheoretischer Überlegungen: Von den First Principles (1862), Principles of Biology (1864), Principles of Psychology (1870) und den Principles of Sociology (1874) zu den Principles of Ethics (1879). Reproduziert in unzähligen Editionen, Übersetzungen und Neufassungen nennen verschiedene Fassungen der Principles jeweils circa 50– 100 Mal complex oder complexity. Neben dem sprichwörtlichen Geist der Zeit gibt es einen direkten Link zwischen Comtes Positivismus und Spencers Theorien: Der Utilitarist John Stuart Mill (1806–1873) verfasst ein ganzes Buch über Auguste Comte and Positivism. Ohne die Bedeutung des Begriffs bei Comte abzuändern, nennt Mill »an increase in complexity–a set of phenomena determined by a more numerous combination of laws« (Mill 1865, 39). Komplexität ist Merkmal der höheren Wissenschaften, die Chemie beginnt ihre positive Phase mit Antoine Laurent de Lavoisier, die Sozialwissenschaft wenig überraschend mit Auguste Comte (Mill 1865, 51). Gleichsam gibt es eine Verbindung zur katholischen politischen Theorie, indem die menschliche Natur mit der Erklärung sozialer Fakten verbunden wird. Normale wissenschaftliche Analyse verfährt über Deduktion und Induktion, aber für soziologische Untersuchungen gilt »the elementary facts are feelings and actions, and the laws of these are the laws of human nature, social facts being the results of human acts and situations« (Mill 1865, 84). Man kann sich die Gesellschaft als Aggregat von Menschen denken – genauso kann man die Rolle des Menschen in der Gesellschaft als Produkt menschlicher Eigenschaften begreifen. Anders als der Individualismus Jeremy Benthams geht Comtes Soziologie davon aus, dass Gesellschaften mit der Zeit komplexer werden und auf diese Weise einige niederen Tendenzen menschlicher Natur verabschieden. Gesetze über die menschliche Na253 https://doi.org/10.5771/9783495825464 .

Felix Steilen

tur können lediglich Aufschluss über frühe Gesellschaftsformen geben, denn »as society proceeds in its development, its phenomena are determined, more and more […] by the accumulated influence of past generations over the present« (Mill 1865, 84). Diese Sicht setzt sich nun ganz vom Bild menschlicher Schwäche ab, welches die katholischen Traditionalisten zeichnen. Gleichzeitig wird hier ein wichtiger Unterschied sichtbar zwischen Bentham, der das Soziale über das Individuum denkt, und Comte, der das Individuum über das Soziale begreift. Diese divergierenden Stränge der Gesellschaftstheorie treffen aufeinander, da der britische Utilitarismus zusammen mit der französischen Sozialwissenschaft in den Theorien Spencers aufgeht. Dieser Hintergrund ist relevant, weil Spencer den anglophonen Aufstieg der Komplexität einläutet und nun endgültig einen Prozessbegriff definiert. Wie vor ihm Comte, identifiziert auch er evolutionären Fortschritt mit einer Komplexitätszunahme. Bevor wir den Ort der Komplexität in seiner Theorie untersuchen, ist ein kurzer Blick auf die zugrundeliegende Idee der Gesellschaft notwendig. Die Principles of Sociology stellen die bekannte Frage, was eine Gesellschaft sei. Bevor die Frage beantwortet wird, versucht sich Spencer in einem anti-soziologischen Argument, gekleidet in Erkenntnistheorie: »a nominalist might affirm that, just as there exist only the members of a species, while the species considered apart from them has no existence; so the units of a society alone exist, while the existence of the society is but verbal« (Spencer 1877, 465). 11 Die Existenz der Gesellschaft akzeptiert Spencer mehr über den Umweg der einzelnen Teile, also über die Fortdauer ihrer Verbindungen und Interaktionen. Nach weit über 400 Seiten seiner Principles of Sociology stellt er fest, dass man von der Eigenwirklichkeit dieses Dinges, das Gesellschaft heißt, ausgehen kann. Dieses Argument führt ihn zur Frage: »But now, regarding society as a thing, what kind of thing must we call it?« (Spencer 1877, 466). Die Antwort folgt aus Spencers Modus wissenschaftlicher Erklärungen. Stets sucht er eine Analogie, um ein Problem per Bedeutungsübertrag zu erklären: »Between a society and anything else, the only conceivable resemblance must be one due to Vergleiche die positive Wendung einer nominalistischen Position bei Foucault, die am Anfang seiner Überlegungen zur pouvoir (Macht/Herrschaft) steht: »Il faut sans doute être nominaliste,: le pouvoir, ce n’est pas une institution et ce n’est pas une structure, ce n’est pas une certaine puissance dont certains seraient dotés : c’est le nom qu’on prête à une situation stratégique complexe dans une société donnée.« (Foucault nach Rollet 1988, 657).

11

254 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

parallelism of principle in the arrangement of components.« (Spencer 1877, 466). 12 Nachdem er die Möglichkeit einer Parallele in der anorganischen Welt ausschließt, verkündet er hier: »A society is an organism«. Diese Analogieführung erlaubt ihm den Vergleich sozialer Körper (Gesellschaften) mit biologischen Organismen. Die Ähnlichkeit zwischen einer Gesellschaft und anything else geht auf eine sogenannte Strukturähnlichkeit zurück. Anhand des Embryos lässt sich beobachten, wie sich die einzelnen Teile im Wachstumsprozess differenzieren. Spencer beobachtet das Gesetz der Differenzierung auch im sozialen Körper: »It is thus with a society.« (Spencer 1877, 467). Die Methode der Analogiebildung führt zu einer evolutionären Typologie von Gesellschaften. Wie biologische Phänomene wandeln sich die Gesellschaften, außerdem weisen sie eine Tendenz zu Differenzierung und funktionaler Integration auf. Beide Eigenschaften – Differenzierung und funktionale Integration – werden als Ursachen angeführt, warum Komplexität im Sozialen steigt. Spencers Evolutionslehre entspricht der Soziologie und Anthropologie des 19. Jahrhunderts und verbindet ihn mit Evolutionisten wie Lewis Henry Morgan oder Edward Burnett Tylor. Die Schwelle zwischen einfachen und komplexen Gesellschaften entspricht dabei ziemlich genau der zwischen »primitiv« und »zivilisiert«, um eindeutigere, stärker pejorative Begriffe heranzuziehen (Sanderson 1990, 10 f.). Spencers Gebrauch von complex und complexity lässt sich zu seiner frühen Arbeit über soziale Statik verfolgen, deren Elemente er in den verschiedenen Editionen seiner verschiedenen Principles weiterentwickelt. Die Abhandlung zeigt, wie seine Sichtweise sich herausbildet. In erster Linie stellt sie einen Kommentar zum philosophischen Utilitarismus und dem Prinzip der Zweckmäßigkeit dar. Spencer reflektiert die Idee der Zweckmäßigkeit, die berühmte Idee des größten Glücks für die größte Zahl von Menschen, mit den Worten »that complex whole, ›greatest happiness‹« (Spencer 1851, 11). Das Glück der größten Zahl ist zugleich ein Zentralelement der Philosophie Jeremy Benthams, Anderswo hat Foucault das 16. vom 19. Jahrhundert abgegrenzt, indem er das wissenschaftliche Erklären über einen Modus der ressemblance (Ähnlichkeit) von der dann jüngeren Hermeneutik des Verdachts im 19. Jahrhunderts trennt. Während die Suche nach Ähnlichkeiten stets eine Referenz zwischen Zeichen und Beschreibung annimmt, geht die Hermeneutik von der Eigenwirklichkeit und der Tiefenwirkung der Interpretation aus und verzichtet damit auf die Referenz zu einem Zeichen (Foucault 1990).

12

255 https://doi.org/10.5771/9783495825464 .

Felix Steilen

mitsamt ihrer individualistischen und antisoziologischen Ethik. Spencers soziale Statik löst sich also von Comte, der zuerst soziale Statik und soziale Dynamik als Komplementärbegriffe in die Gesellschaftstheorie einführt. Spencer stellt sich Statik nun als harmonischen Zustand vor, in dem das Prinzip der größten Zahl verwirklicht werden kann. Der Gegensatz aus einfach und komplex transportiert eine ganze Reihe zeitgenössischer Wertungen, siehe die Rede von »primitive man, primitive communities, primitive governments, primitive cells« (Spencer 1851, 418, 419, 434, 450). Was es bedeutet, wenn naturwissenschaftliche Begriffe sozialisiert, das heißt auf einen sozialen Gegenstand übertragen werden, zeigt sich in Spencers Referenz an den Klassencharakter der viktorianischen Gesellschaft (siehe Gondermann 2007). Spencer beschreibt in diesem Passus verschiedene Nervensysteme – dabei suggeriert seine Rede von Höherwertigkeit und Komplexität bereits die Naturgegebenheit sozialer Klassen sowie eine Legitimation sozialer Ungleichheit: »The changes of vital manifestation associated with and consequent upon these changes of structure, have the same significance. To possess a greater variety of senses, of instincts, of powers, of qualities – to be more complex in character and attributes [Herv. F.S.], is to be more completely distinguishable from all other created things; or to exhibit a more marked individuality. […] Observe, again, that the greater power of self-preservation shown by beings of superior type may also be generalized under this same term – a ›tendency to individuation.‹« (Spencer 1851, 440)

Dieser Punkt ist keineswegs unbedeutend, auch wenn die Übernahme naturwissenschaftlicher Epistemologie, also die Interpretation gesellschaftlicher Sachverhalte mit biologischen Kategorien, seltener Kritik auf den Plan ruft – umgekehrt wird in der Regel früher Protest laut. Wer würde schon biologische Probleme mit Rekurs auf geistes- und sozialwissenschaftliche Wissensbestände erklären? Dabei scheint genau das bei Spencer der Fall zu sein. Ein weiteres Problem an Spencers Begriff sozialer Komplexität ist ihr teleologischer Aspekt: »[C]ivilization no longer appears to be a regular unfolding after a specific plan; but seems rather a development of man’s latent capabilities under the action of favourable circumstances […]. Those complex influences [Herv. F.S.] underlying the higher orders of natural phenomena, but 256 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

more especially those underlying the organic world, work in subordination to the law of probabilities.« (Spencer 1851, 415) In diesem größeren Rahmen ist Komplexität gleichbedeutend mit Zunahme und Wachstum, hat also deutliche teleologische Qualitäten. Rufen wir uns noch einmal das Zusammentreffen von Komplexität und neuraler Systeme aus dem frühen Buch Social Statics vor Augen, wird klar, dass diese Annahmen in den Principles of Biology fortwirken: »That future progress of civilization which the never-ceasing pressure of population must produce […] The peaceful struggle for existence in societies ever growing more crowded and more complicated, must have for its concomitant an increase of the great nervous centres in mass, in complexity, in activity [Herv. F.S.]. The larger body of emotion needed as a fountain of energy for men who have to hold their places and rear their families under the intensifying competition of social life, is, other things equal, the correlative of larger brain.« (1880, 501).

Ein weiteres Beispiel für Spencers Parallelführung von Komplexität und Fortschritt ist seine Beobachtung einer »greater variety and complexity of musical expression« (1891, 418). Dasselbe Argument findet sich beim deutschen Soziologen Max Weber, der in der Einleitung zur Protestantischen Ethik von der Höherwertigkeit westlicher Musik gegenüber anderen musikalischen Traditionen ausgeht. Webers Name für Fortschritt ist »Rationalisierung«, die er in einer rational harmonischen Musik identifiziert wie sie sich »gerade auf dem Boden des Okzidents« (Weber 1934, 1) entwickelt hat. Da hilft es auch nicht, wenn Weber sich die Voraussetzungen dieser Annahmen zu »Fortschritt« und »harmonischer Musik« (Weber 1922, 483 f.) in einem höherem Maße als Spencer bewusst gemacht hat. Innerhalb jener Geschichte der Vorstellungen westlicher Fortschrittlichkeit ist Webers fortschreitende Rationalisierung funktional analog zu Spencers wachsender Komplexität, beide Vorstellungen sind Platzhalter für Ethnozentrismus und Vorurteil. 13 In Spencers Principles of Ethics wird menschliche Kooperation verstanden unter der Bedingung von Weber spricht oft von Komplexen im Sinne von Tatsachenbündeln, von Komplexität aber nur im Vorrübergehen: »Der Begriff des Alterns und Sterbens der Völker müßte mithin und selbstverständlich als der inhaltlich umfassendere Begriff gedacht

13

257 https://doi.org/10.5771/9783495825464 .

Felix Steilen

»successive forms of complexity« (Spencer 1898, 140), als Fortschritt vom Homogenen zum Heterogenen. Damit ergibt sich eine Teilung von Gesellschaften in homogene und heterogene, zugleich erklärt Spencer andere Phänomene mit dieser Formel. Den Kern dieser Theorie bildet eine Auffassung des Lebens als permanente Entwicklung und als unendlicher Fortschritt: »The orderly progress from simplicity to complexity, displayed by bodies politic in common with all living bodies, is a characteristic which distinguishes living bodies from the inanimate bodies amid which they move. That functional dependence of parts, which is scarcely more manifest in animals or plants than nations, has no counterpart elsewhere.« (Spencer 1892, 273)

Die vorliegenden Ausschnitte und close readings beleuchten den hochproblematischen Charakter der Komplexitätssemantik Spencers, die so zeitgenössisch für die viktorianische Epoche ist, wie sie simplifizierend und reduktionistisch ist. Während Spencer heute weder mit seiner Sprache noch mit seinen Argumenten besticht, ist seine historische Wirkung enorm. Unmittelbar wird dies sichtbar am Einfluss, den er noch auf einen Gegner wie den französischen Soziologen Emile Durkheim hat. Dieser stellt den wichtigsten Vertreter der französischen Soziologie in ihrer klassischen Periode dar. Obgleich Durkheim sich von Spencers Individualismus absetzt, teilt er mit ihm Begriffe, Kategorien und evolutionäre Denkmuster. Beiläufig kritisiert Spencer einmal bestimmte Interpretationen der Religion für einen Schluss vom Früheren auf das Spätere – »they have used the more complex to interpret the less complex« (Spencer 1877, 712). Ohne Durkheims einflussreiche Studie zur Religion zu diesem Zeitpunkt kennen zu können, ist dessen historische Methode auf diese Weise treffend charakterisiert. Anstatt einfach die moderne Religion zu analysieren, studiert Durkheim die primitive Religion Australiens, um so auf komplexere Gesellschaften schließen zu können. Durkheim distanziert sich von seinem Nemesis Spencer, jedoch nicht ohne eine Reihe von Themen und Methoden bei ihm zu entlehnen. Das betrifft auch die Fortführung der Komplexitätssemantik. Natürlich geht Durkheim von einem anderen Status sozialer Ganzheiten aus, die für ihn werden, das Altern und Sterben als ein Vorgang von unendlicher Komplexität […].« (Weber 1922, 27).

258 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

Entitäten mit eigenem ontologischem Anspruch darstellen: Die Gesellschaft, so Durkheims oft gebrauchte Formel, ist eine Wirklichkeit sui generis. Dieses Verständnis der Eigenwirklichkeit der Gesellschaft führt wieder zur Komplexitätssemantik. Interessanterweise kommt Durkheim über menschliche Vorstellungen und erkenntnistheoretische Bestimmungen auf die Wichtigkeit sozialer Wirklichkeit zu sprechen. Dabei gebraucht er eine Gedankenfigur, die einige Jahrzehnte zuvor durch Comte und dann durch Spencer popularisiert wurde, nämlich den Fortschritt vom Einfachen zum Komplexen: »Il y a donc entre ces deux espèces de représentations toute la distance qui sépare l’individuel du social, et on ne peut pas plus dériver les secondes des premières qu’on ne peut déduire la société de l’individu, le tout de la partie, le complexe du simple [Herv. F.S.]. La société est une réalité sui generis ; elle a ses caractères propres qu’on ne retrouve pas, ou qu’on ne retrouve pas sous la même forme, dans le reste de l’univers.« (Durkheim 1912, 22).

Wenn wir Durkheim folgen, lässt sich weder das Soziale einfach vom Individuum ableiten, noch die soziale Vorstellung (représentation) von der individuellen. Das liegt am fundamentalen Unterschied zwischen einfach und komplex (simple et complexe), der nun den Unterschied zwischen Individuum und Kollektiv bezeichnet. 14 Was unterscheidet die Kollektivvorstellung von der individuellen Vorstellung? »Une intellectualité très particulière, infiniment plus riche et plus complexe que celle de l’individu […]« (Durkheim 1912, 23). Aussagen wie diese sind charakteristisch für Durkheim, bei dem die Gesellschaft eine andere Komplexität aufweist als ihre Mitglieder – »l’être social est plus riche, plus complexe et plus durable que l’être individuel« (1895, 151). Der offensichtlichste Fall des Fortwirkens der Kategorien Spencers bei Durkheim betrifft soziale Differenzierung und Arbeitsteilung, gestützt auf Strukturanalogien zwischen biologischen und sozialen Organismen – die Idee der Gesellschaft als sozia-

Gleichzeitig bemerkt Durkheim hier in einer Fußnote, dass Irreduzibilität nicht absolut gesehen wird: »Il ne faut pas entendre, d’ailleurs, cette irréductibilité dans un sens absolu.« Diese Irreduzibilität bezeichnet für ihn jedoch in etwa die Entfernung zwischen den Eigenschaften von Mineralien und denen organischen Lebens (Durkheim 1912, 22).

14

259 https://doi.org/10.5771/9783495825464 .

Felix Steilen

ler Körper. Durkheim unterscheidet sich von Spencer, indem er Komplexität als Eigenschaft des Sozialen beschreibt. Damit wird der Analogie zwischen individuellem und sozialem Organismus ein Riegel vorgeschoben, wenngleich die Körpermetapher fortdauert. Die Grundunterscheidung einfach/komplex lebt als historisch-spekulative Form der Unterscheidung früherer und späterer Epochen weiter. Sie lässt sich in vormodern/modern übersetzen und wirkt zudem als Unterscheidung verschiedener Formen sozialer Integration (mechanische und organische Solidarität), segmentärer und funktionaler Differenzierung, niederer und höherer sozialer Niveaus, primitiver und fortgeschrittener Gesellschaften und beschreibt sogar noch die Antriebe von Entwicklungen (fremd- vs. selbstgesteuert, extern vs. intern). Damit ist der Komplexitätsbegriff Teil der soziologischen Geschichtsauffassung (Steilen 2021). Komplexität steht nun als Name für ein diffuses Bündel von Eigenschaften historisch jüngerer, moderner Sozialformen. Heute mögen die unzähligen Variationen des Fortschrittsbegriffs – in dessen Zusammenhang die Komplexitätssemantik auch steht – zugleich veraltet und befremdlich erscheinen. Berücksichtigen wir aber das Fortwirken der Paradigmen dieser vielmals als klassisch aufgefassten Periode der modernen Gesellschaftstheorie um die Jahrhundertwende und den Aufstieg der wissenschaftlichen Soziologie, darf diese Erzählung als alles andere als abgeschlossen betrachtet werden. Kurzum, das Abenteuer des Komplexitätsbegriffs im 19. Jahrhundert endet keinesfalls mit Spencer und Durkheim, weil diese Autoren so wichtig sind für die Idee der Sozialwissenschaft im 20. Jahrhundert (siehe Aron 2009; Alexander 1982, 1987; Luhmann 1985; Parsons 1968).

5.

Anstelle eines Schlusses: Teile und Ganzheiten

Auch wenn seine Geschichte kein abgeschlossenes Narrativ darstellt, bietet sich der Komplexitätsbegriff als Vehikel für eine Erkundung europäischen sozialen und politischen Denkens. Während die Überblicksmethode den Kern dieses kurzen historischen Entwurfs darstellt, verdeutlicht dieses Vorgehen zugleich Schwächen, etwa gegenüber einer hermetischen Untersuchung einzelner Denker. Das beinhaltet auch einige Sprünge in den abgebildeten ideengeschichtlichen Traditionen: Die Linie zwischen Frühsozialismus und Soziologie ist zwar angemessen – wenn wir etwa den tatsächlichen Hinter260 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

grund Durkheims betrachten, der in seiner Geschichte des Sozialismus Marx und Engels abblendet –, andererseits lässt sich diese Auslassung später nicht mehr rechtfertigen. Tatsächlich gibt es etwa in den Pariser Manuskripten und im Kapital auffällig viele Nennungen von Komplexität, die in einer fortgesetzten Überblickdarstellung berücksichtigt werden müssen. Die hier präsentierten Lesarten aus der Ideengeschichte des 19. Jahrhunderts zeugen bereits vom Facettenreichtum von Komplexität, als spezifischer Begriff wie als Kurzformel metaphysischer Annahmen. In der Gesellschaftstheorie der Aufklärung dient der Begriff dazu, die außervertraglichen Elemente des Gesellschaftsvertrages, etwa die ursprüngliche und unvermittelte Äußerung eines Gemeinwillens, mitzudenken. Im katholischen politischen Denken dient er einer Erzählung über die Mannigfaltigkeit und Komplexität der historisch gewachsenen und gleichsam mysteriös geformten Sozialordnung, die von der Autorität der Religion durchdrungen ist. Im Frühsozialismus nimmt Komplexität die Form einer progressiven Geschichtsauslegung, im Sinne der Möglichkeit einer rationalen Neuordnung einer fortan säkularen Gesellschaft. Diese verschiedenen und teils widersprüchlichen Bedeutungen verschmelzen zu einem soziologischen Narrativ über fortgeschrittene, komplexe Gesellschaften gegenüber früheren, weniger komplexen Sozialformen. Oberflächlich betrachtet legen alle diese Visionen verschiedene politische Anwendungen sowie Variationen sozialplanerischer Projekte nahe, etwa eine bewusste Neuordnung sozialer Institutionen. Das gilt noch für jene Theorien, die einen natürlich gewachsenen Charakter der sozialen Ordnung annehmen. Ungeachtet der Sphäre konkreter politischen Applikationen, erlaubt der Komplexitätsbegriff einen Einblick in die Voraussetzungen einer Reihe divergenter Theorien. Er beinhaltet, verbirgt und transportiert Annahmen über die Beziehung von Teilen und Ganzheiten, die sich wiederum in die Beziehung von Bürgern und Regierungen, Zellen und Organen, Individuen und Gesellschaften, Handelnden und Strukturen usw. übersetzen. Auf abstrakter Ebene lässt sich daher anmerken, dass Komplexität einen Ort der Verhandlung von Beziehungen zwischen Teilen und Ganzen bzw. wissenschaftstheoretischer Grundannahmen – und ein Vehikel für metaphysisch relevanten und sorgfältig eingegrenzten, nicht zur Disposition stehenden Inhalt – darstellt. Diese Relationierung von Teilen und Ganzheiten wird im 19. Jahrhundert weiterhin beeinflusst durch einen alle Lebensbereiche durchdringenden historischen Sinn. Bald schon ist es nicht mehr 261 https://doi.org/10.5771/9783495825464 .

Felix Steilen

möglich, von der sozialen Ordnung oder der menschlichen Natur zu sprechen, ohne zuerst eine große Menge relevanter früherer sozialer und politischer Theorien zu konsultieren. In diesem Sinne ließe sich auch für die Gesellschaftstheorien eine Art Komplexitätssteigerung beobachten, wenngleich Komplexität auf Textebene nicht notwendig Aufschluss gibt über eine tatsächliche Komplexität der Gesellschaft. Dieses Verhältnis hatte Nietzsche mit im Blick, als er die Französische Revolution als einen Text beschreibt, der zunehmend unter dem Blick seiner Interpreten verschwindet (Nietzsche 1900, §30). Letztlich gibt der Begriff ein Kapitel in der Geschichte modernen Bewusstseins, aufgefasst als Selbstbewusstsein. Wir haben nun eine Situation, wo Gesellschaften sich vermehrt als komplex begreifen, nachdem sie metaphysische Kategorien zunächst in die Außenbezirke ihres Selbstverständnisses gerückt haben. Im Laufe eines Prozesses, in dem die Gesellschaftstheorie zunehmend Positionen einnimmt, die lange von Philosophie und Theologie gehalten wurden, befriedigt der Begriff der Komplexität anscheinend kurzzeitig verschiedene Anforderungen des modernen Bewusstseins, ohne damit jedoch dauerhaft latente Vorstellungen zurückhalten zu können. An dieser Stelle endet zunächst das ideenhistorische Zwiegespräch. In Betracht des analytischen Dreischritts aus Erinnern, Wiederholen und Durcharbeiten (Freud 1914) sowie der Tatsache, dass die Analyse zunächst des ungehemmten Monologs bedarf, gilt es Antworten abzuwarten, um schließlich besser zu verstehen, wo genau wir uns heute befinden.

Primärliteratur Bonald, Louis-Gabriel-Ambroise de (1796): La théorie du pouvoir politique et religieux dans la société civile, démontrée par le raisonnement et par l’histoire. Konstanz. Bonald, Louis-Gabriel-Ambroise de (1805): Du divorce, considéré au XIXe siècle, relativement à l’état domestique et a l’état public de société. Seconde édition. Paris. Burke, Edmund: Reflections on the French Revolution (1951, Neudruck Ausgabe 1910, zuerst 1790). London. Comte, Auguste (1830): Cours de philosophie positive. Paris. Comte, Auguste (1854): Système de politique positive. Traité de sociologie, instituant de la religion de l’humanité. Paris. Comte, Auguste (1896): The Positive Philosophy of Auguste Comte. Freely translated and condensed by Harriet Martineau. Vol. III. London

262 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

Chateaubriand, François-René de (1797): Essai historique, politique et moral sur les révolutions anciennes et modernes, considérées dans leurs rapports avec la Révolution française. London. Chateaubriand, François-René de (1849): Mémoires d’outre-tombe. Tome 1. Paris. Donoso Cortés, Juan (1879): Essays on Catholicism, Liberalism and Socialism (1851). Dublin. Donoso Cortés, Juan (1851): Ensayo sobre el catolicismo, el liberalismo y el socialismo: considerados en sus principios fundamentales. Madrid. Durkheim, Emile (1912): Les formes élémentaires de la vie religieuse. Le système totémique en Australie. Paris. Durkheim, Emile (1895): Les règles de la méthode sociologique. Paris. Fourier, Charles (1816): Théorie des quatre mouvements et des destinées générales (1808). In: Œuvres complètes. Tome 1. Paris. Maistre, Joseph de (1841): Du Pape. Novelle Edition. Paris. Maistre, Joseph de (1850): The Pope; considered in his Relationship with the Church (1819). London. Maistre, Joseph de (1924): Essai sur le principe générateur des constitutions politiques (1833). Paris. Maistre, Joseph de (1847): Essay on the Generative Principle of Political Constitutions. Boston. Mill, John Stuart (1865): Auguste Comte and Positivism. London. Nietzsche, Friedrich (1900): Jenseits von Gut und Böse (1886). Leipzig. Proudhon, Pierre-Joseph (1876): Amour et mariage. Paris Proudhon, Pierre-Joseph (1866): Les Évangiles annotés. Paris. Proudhon, Pierre-Joseph (1867): Système des contradictions économiques, ou Philosophie de la misère (1846). Tome 1. Paris. Proudhon, Pierre-Joseph (1875): La Pornocratie, ou les femmes dans les temps modernes. Paris. Proudhon, Pierre-Joseph (1858): De la justice dans la Révolution et dans l’Église, nouveaux principes de la philosophie pratique. Paris. Proudhon, Pierre-Joseph (1873): Qu’est-ce que la propriété ? (1840). Paris. Rousseau, Jean-Jacques (1896): Du contrat social (1762). Paris. Spencer, Herbert (1891): Essays: Scientific, Political, & Speculative. Vol. II. London. Spencer, Herbert (1851): Social Statics, or, the Conditions Essential to Human Happiness Specified, and the First of Them Developed. London. Spencer, Herbert (1880): The Principles of Biology. Vol II. London Spencer, Herbert (1898): The Principles of Ethics. Vol. I. (1879). New York. Spencer, Herbert (1877): The Principles of Sociology. Vol. I. London. Quetelet, Adolphe (1848): Du système social et des lois qui le régissent. Paris. Quetelet, Adolphe (1869): Physique sociale, ou Essai sur le développement des facultés de l’homme (1835). Paris/Brüssel/St. Petersburg. Weber, Max (1934): Die Protestantische Ethik und der Geist des Kapitalismus (1904/1905). Sonderdruck aus: Gesammelte Aufsätze zur Religionssoziologie. Tübingen.

263 https://doi.org/10.5771/9783495825464 .

Felix Steilen

Weber, Max (1922): Roscher und Knies und die logischen Probleme der historischen Nationalökonomie (1903-1906); Der Sinn der »Wertfreiheit« der soziologischen und okonomischen Wissenschaften (1917/18). In: Gesammelte Aufsätze zur Wissenschaftslehre. Tübingen.

Sekundärliteratur Alexander, Jeffrey C. (1982/1983): Theoretical Logic in Sociology, Vols. 2–3. Berkeley/Los Angeles. Alexander, Jeffrey C. (1987): The Centrality of the Classics, in: Anthony Giddens/Jonathan H. Turner (Hg.): Social Theory Today. Cambridge. Aron, Raymond (2009): Main Currents in Sociological Thought. Vol. 2, Durkheim, Pareto, Weber (1967). New Brunswick. Berlin, Isaiah (1968): Counter-Enlightenment (Appendix to »Enlightenment«), in: Philipp P. Wiener (Hg.): Dictionary of the History of Ideas. New York. Bertrin, Abbé Georges (1900): La sincérité religieuse de Chateaubriand. Paris. Freud, Sigmund (1914): Weitere Ratschläge zur Technik der Psychoanalyse II: Erinnern, Wiederholen und Durcharbeiten, in: Internationale Zeitschrift für ärztliche Psychoanalyse 2 (6), 485–91. Foucault, Michel (1990): Nietzsche, Freud, Marx, in: G. L. Ormiston, A. D. Schrift (Hg.). Transforming the Hermeneutic Context. New York, 59– 67. Gondermann, Thomas (2007): Progression and Retrogression: Herbert Spencer’s Explanations of Social Inequality, in: History of the Human Sciences 20 (3), 21–40. Hirschman, Albert O. (1997): The Passions and the Interests: Political Arguments for Capitalism before its Triumph. Princeton. Iggers, Georg G. (1959): Further Remarks about Early Uses of the Term »Social Science«, in: Journal of the History of Ideas 20 (3), 433–436. Koschorke, Albrecht (2017): Einleitung, in: Komplexität und Einfachheit. Stuttgart. Lovejoy, Arthur (1927): The Meanings of ‘Emergence’ and its Modes, in: Philosophical Studies 2 (6). Luhmann, Niklas (1976): Komplexität, in: Joachim Ritter /Karlfried Gründer (Hg.): Historisches Wörterbuch der Philosophie. Basel, 939–941. Luhmann, Niklas (Hg.) (1985): Soziale Differenzierung. Zur Geschichte einer Idee. Opladen. Menczer, Béla (1962): Catholic Political Thought 1789–1848. Notre Dame. Parsons, Talcott (1968): The Structure of Social Action. A Study in Social Theory with Special Reference to a Group of Recent European Writers (1937). New York. Pepper, Steven C. (1926): Emergence, in: The Journal of Philosophy 23(9), 241–245.

264 https://doi.org/10.5771/9783495825464 .

Soziale und Politische Komplexität im 19. Jahrhundert

Pippin, Robert (2017): Hegel on Social Pathology: The Sociality of Unreason, in: Crisis and Critique 4 (1), 333–351. Poser, Heinz (2012): Der komplexitätstheoretische Ansatz, in: Ders.: Wissenschaftstheorie. Eine philosophische Einführung. Stuttgart, 291–311. Rollet, Jacques (1988): Michel Foucault et la question du pouvoir, in: Archives de Philosophie 51 (4), 647–663. Salomon, Albert (1957): Fortschritt als Schicksal und Verhängnis. Betrachtungen zum Ursprung der Soziologie (1955). Übers. von M. Reiner Lepsius. Stuttgart. Sanderson, Stephen K. (1990): Social Evolutionism. A Critical History. Cambridge. Spaemann, Robert (1998): Der Ursprung der Soziologie aus dem Geist der Restauration. Studien über L.G.A. de Bonald (1959). Stuttgart. Steilen, Felix (2021): Soziologie und Geschichtsphilosophie. Göttingen. Vernon, Richard (1984): Auguste Comte and the Withering-Away of the State, in: Journal of the History of Ideas 45 (4), 549–566.

265 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften William J. Talbott

1.

Einleitung

Schon eine oberflächliche Durchsicht der Literatur über Komplexität macht deutlich, dass der Begriff Komplexität auf viele verschiedene Arten verwendet wird. Die Definition von Komplexität, die in diesem Buch im Mittelpunkt steht, macht die prinzipielle Unvorhersehbarkeit zu einem der bestimmenden Merkmale eines komplexen Systems: »Evolution komplexer Systeme stößt an Punkte oder Perioden der Kritikalität; an diesen Punkten der Kritikalität verändern sich die Eigenschaften des Systems in einer Weise, die prinzipiell nicht vorhersagbar ist« (s. o. S. 19 f.). Diese Definition von Komplexität ist in den Natur- und Lebenswissenschaften sehr wichtig gewesen. Meiner Meinung nach sind nur einige Teile davon für das Konzept der Komplexität relevant, das in den Humanwissenschaften am wichtigsten ist. In diesem Aufsatz konzentriere ich mich auf ein Konzept oder eine Familie von Konzepten, die meiner Meinung nach in den Humanwissenschaften sehr wichtig sind. Das Konzept, auf das ich mich konzentriere, überschneidet sich mit einigen Elementen der Definition der Evolution komplexer Systeme von Harald Schwalbe in diesem Buch (s. o. S. 17 ff.), wie ich in der Schlussfolgerung erläutere. Das Konzept der Komplexität, das ich untersuchen werde, findet sich auch in den Naturwissenschaften. Als zum Beispiel die kopernikanische Hypothese zum ersten Mal mit der ptolemäischen Hypothese verglichen wurde, hatten beide Hypothesen durch die Annahme, dass die umlaufenden Körper kreisförmigen Bahnen folgen, einen Nachteil. Diese Annahme wurde modifiziert, um Kreise innerhalb von Kreisen (Epizyklen) und dann Kreise innerhalb von Kreisen innerhalb von Kreisen (Epizyklen innerhalb von Epizyklen) usw. zu ermöglichen. Nennen wir diese auf Kreisen basierende Bahnen. Als die astronomischen Daten immer präziser wurden, wurden diese auf 266 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

Kreisen basierenden Bahnen immer komplexer, wobei die Komplexität durch die Anzahl der auf Kreisen basierenden Bahnen gemessen wird, die zur Annäherung an eine bestimmte elliptische Bahn erforderlich sind. Es wurde bald klar, dass es keine Grenze für die potentielle Komplexität gab, die zur genauen Beschreibung der beobachteten Bahnen jedoch erforderlich war. Es ist diese potentielle Unendlichkeit von Erklärungselementen, auf die ich mich als Hauptdefinitionsmerkmal des von mir untersuchten Komplexitätsbegriffs konzentrieren möchte. Ich werde darlegen, dass, wenn diese Art von Komplexität gefunden wird, dies ein Beweis dafür ist, dass das verwendete Erklärungsmodell unpassend ist und dass ein überarbeitetes Modell erforderlich ist. Im Falle der Astronomie beinhalteten sowohl das ptolemäische als auch das kopernikanische Modell die Annahme von auf Kreisen basierenden Bahnen. Als Kepler das Modell veränderte, um elliptische Bahnen zu ermöglichen, war das Problem gelöst. 1 Keplers Überarbeitung war eine relativ bescheidene Änderung des Modells. Da Kreise degenerierte Ellipsen sind, musste bei der Überarbeitung nur eine Einschränkung gelockert werden. Oft beinhaltet die notwendige Überarbeitung den Übergang zu einer Theorie auf einer höheren Ebene, die neue, emergente Objekte oder Eigenschaften in das Erklärungsmodell der neuen Theorie einführt. Der Übergang zu einer neuen theoretischen Ebene ist die radikalste Art der Überarbeitung eines Modells. Ich führe kurz einige Beispiele für diese radikalere Art der Modellüberarbeitung an. Ich brauche einen Namen für die Art von Komplexität, die durch das ptolemäisch-kopernikanische Beispiel illustriert wird. Ich nenne sie Erklärungskomplexität (Komplexitäte). Es ist hierbei wichtig, dass komplexe Erklärungen an sich nicht das Problem sind. Komplexe Phänomene erfordern komplexe Erklärungen. Ein Problem liegt dann vor, wenn die Komplexität der Erklärungen potentiell unbegrenzt ist oder, ebenso, wenn es keine endliche Grenze für den potentiellen Komplexitätsgrad der Erklärungen gibt. 2 Potenziell unbegrenzte Es stimmt, dass die Umlaufbahn eines Planeten keine exakte Ellipse ist. In der Newtonschen Theorie waren elliptische Bahnen jedoch nützliche Idealisierungen, während immer komplexere Konstruktionen kreisförmiger Bahnen dies nicht waren. 2 Mathematisch gesehen handelt es sich um die Ebene der Unendlichkeit, die als zählbare Unendlichkeit bezeichnet wird, d. h. die Unendlichkeit der natürlichen Zahlen oder der ganzen Zahlen, deren Kardinalität aleph-null ist. Zu sagen, dass die Komplexität einer Erklärung einer bestimmten Art potentiell unendlich ist, bedeutet, dass es für jede endliche ganze Zahl n möglich ist, dass eine Erklärung eine Komplexität 1

267 https://doi.org/10.5771/9783495825464 .

William J. Talbott

Komplexität ist ein Beweis dafür, dass das Erklärungsmodell überarbeitet werden muss.

2.

Komplexitäte in den Humanwissenschaften: Psychologie der individuellen Intentionen

Können psychologische Zustände und Haltungen wie Glaubenssätze und Intentionen lediglich im Hinblick auf funktionale (Input-Output-)Beziehungen analysiert oder durch solche ersetzt werden? Der Behaviorismus war ein Versuch, einen solchen Ersatz zu schaffen. Dies ist nicht gelungen. Heute gibt es jedoch viele Funktionalisten, die das behavioristische Modell modifizieren, indem sie eine Reduzierung der psychologischen Zustände und Haltungen auf komplexere funktionale (Input-Output-)Beziehungen zulassen. Hilary Putnams (Putnam 1960) Version des Funktionalismus sah vor, interne psychologische Haltungen in Analogie zu den internen Maschinenzuständen einer rein abstrakten Turingmaschine zu verstehen. Ein Standardtest für die Algorithmizität einer Funktion ist die Frage, ob sie in einer abstrakten Turingmaschine realisiert werden kann. Die Idee ist daher, dass alle psychologischen Zustände als Teile einer algorithmischen Input-Output-Beziehung verstanden werden können. Das vielleicht bekannteste Argument, dass psychologische Zustände nicht auf algorithmische Input-Output-Beziehungen reduzierbar sind, ist John Searles (Searle 1980) Gedankenexperiment des Chinesischen Zimmers. Searle überlegt, ob der psychische Zustand beim Verstehen der chinesischen Sprache vollständig durch funktionalistische Begriffe erklärt werden kann. Er stellt sich vor, dass er sich in einem Raum mit einer geschlossenen Tür und ohne Fenster befindet. Im Inneren des Raums verfügt er über einen Algorithmus, den er anwenden kann, um Zeichenketten mit chinesischen Symbolen als Eingabe und Zeichenketten mit chinesischen Symbolen als Ausgabe zu erhalten. Wenn jemand eine Karte mit chinesischen Schriftzeichen unter der Tür durchschiebt, folgt Searle dem Algorithmus, um eine weitere Karte mit chinesischen Symbolen zu erstellen, die er zurückschickt. Die chinesischen Sprecher außerhalb des Raumes lesen die größer als n hat, z. B. dass mit zunehmender Genauigkeit der Annäherung die Anzahl der kreisförmigen Epizyklen, die zur Approximation einer elliptischen Umlaufbahn benötigt wird, potentiell unendlich ist.

268 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

Antwort. Nach vielen Versuchen kommen die Chinesen außerhalb des Raumes zu dem Schluss, dass sich ein chinesischer Muttersprachler im Raum befinden muss, denn diese Antworten würde auch ein chinesischer Muttersprachler geben. Aber, so argumentiert Searle, nichts im Raum versteht Chinesisch. Wenn dieses Argument zutreffend ist, zeigt es, dass mehr dazu gehört, eine Sprache zu verstehen, als einem Algorithmus zu folgen. Das Verstehen einer Sprache wäre eine emergente psychologische Eigenschaft, die nicht vollständig durch funktionale (d. h. algorithmische Input-Output-)Beziehungen erklärt werden kann. Viele Psychologen haben Einwände gegen Searles Argument erhoben, aber es gibt keinen Konsens darüber, wie darauf zu antworten ist. In diesem Abschnitt führe ich ein anderes Argument für die Entstehung psychologischer Theorien an, nämlich die Irreduzibilität psychologischer Zustände und Haltungen auf algorithmische Input-Output-Beziehungen. Das Problem des Funktionalismus besteht darin, dass selbst der einfachste Algorithmus, wie z. B. der Algorithmus für die Addition zweier ganzer Zahlen, eine unbegrenzte Anzahl potenzieller Input-Output-Beziehungen erfordert. Der Mensch ist jedoch ein endliches Wesen. Es gibt definitiv eine Obergrenze für die Anzahl der Input-Output-Beziehungen, die ein Mensch realisieren kann. Um zu verstehen, warum dies ein Problem ist, betrachten wir eine Variation eines Beispiels, das Saul Kripke (Kripke 1982) zur Veranschaulichung einer skeptischen Interpretation von Wittgensteins Philosophischen Untersuchungen eingeführt hat. Kripke veranschaulicht das Problem durch einfache Addition. Das Problem für den Menschen wird deutlicher, wenn ich mit der Computeraddition beginne. Betrachten wir die Plus-Funktion als die Funktion, die die Summe von zwei beliebigen ganzen Zahlen bestimmt. Es wird oft gesagt, dass Computer algorithmisch arbeiten, aber kein endlicher Computer könnte jemals den Algorithmus zur Berechnung von Summen aus Paaren von ganzen Zahlen realisieren. Jeder Computer hätte eine Grenze für die Größe der ganzen Zahlen, die er als Eingabe akzeptieren könnte, und für die Größe der Summen, die er als Ausgabe erzeugen könnte. Nehmen wir an, wir haben einen Computer, der Summen von ganzen Zahlen berechnet, wenn die ganzen Zahlen kleiner oder gleich irgendeiner Grenze n sind. In diesem Fall wendet der Computer die Plus-Funktion für ganze Zahlen kleiner oder gleich n an. Definieren wir nun die Plus' -Funktion so, dass sie für alle ganzen Zahlen kleiner 269 https://doi.org/10.5771/9783495825464 .

William J. Talbott

oder gleich n mit der Plus-Funktion identisch ist; für ganze Zahlen jedoch, x und y, größer als n, plus' (x,y) = x + y + 1. Offensichtlich bestimmt das Computerprogramm Input-Output-Beziehungen, die die Plus-Funktion und die Plus' -Funktion gleichermaßen realisieren. Die Input-Output-Beziehungen des Computers würden für sich allein nicht bestimmen, ob der Computer die Plus- oder die Plus' -Funktion instanziiert. Eine natürliche Antwort, die ich für richtig halte, ist, dass es die Absichten des Autors des Computerprogramms sind, die bestimmen, dass der Computer plus und nicht plus' rechnet. Aber es ist zu beachten, dass sich ein ähnliches Problem stellt, wenn es darum geht, die Absichten des Programmierers zu verstehen. Wenn die Absichten des Programmierers selbst nur Input-Output-Beziehungen sind, dann macht die Endlichkeit der menschlichen Input-Output-Beziehungen es unvermeidlich, dass es einige ganze Zahlen gibt, die so groß sind, dass kein Mensch ihre Summe berechnen könnte. In Anlehnung an Kripke soll quus eine Funktion sein, die identisch ist mit plus für alle Summen, die Menschen berechnen können, die sich aber von plus für Summen unterscheidet, bei denen es sich um ganze Zahlen handelt, die zu groß sind, als dass Menschen ihre Summe berechnen könnten. Wie könnte ein Mensch beabsichtigen, einen Computer so zu programmieren, dass er plus statt quus rechnet, wenn keine der beiden Absichten einen Unterschied im Verhalten des Programmierers gegenüber der anderen hervorrufen würde? Kripke stellt diese Art von Argument als Teil einer skeptischen Interpretation von Wittgensteins Philosophischen Untersuchungen dar. Ich bringe hier kein skeptisches Argument vor. Ich denke, es ist klar, dass Menschen plus und quus unterscheiden können, obwohl beide Funktionen bei allen Berechnungen, die Menschen tatsächlich durchführen können, zu den gleichen Ergebnissen führen würden. Es ist verlockend zu glauben, dass es leicht ist, den Unterschied auszudrücken. Zum Beispiel könnte man argumentieren, dass die ganzen Zahlen eine Ordnung haben. Die Ordnung beginnt mit eins, und dann wird jeder Nachfolger als das Ergebnis der Addition von eins zu seinem Vorgänger definiert. Wann immer uns eine Summe von ganzen Zahlen präsentiert wird – zum Beispiel m + n – ist die Summe einfach der n-te Nachfolger von m (oder alternativ der m-te Nachfolger von n). Ich halte dies für eine vielversprechende Antwort, jedoch ist diese Aussage ein Schnellschuss. Dasselbe Problem, das wir für plus und 270 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

quus aufgeworfen haben, stellt sich auch für die Funktionen Nachfolger und Plus-1. Wenn unsere Absicht, den n-ten Nachfolger von m zu bestimmen oder das Ergebnis von n Iterationen der Addition von 1 zu m n zu berechnen, funktionell verstanden wird, taucht das Problem wieder auf. Betrachten wir eine Funktion Nachfolger-1, die für beliebige ganze Zahlen, die ein Mensch artikulieren oder auf andere Weise darstellen kann, mit der Beziehung Nachfolger identisch ist, sich aber bei einigen ganzen Zahlen, die so groß sind, dass kein Mensch sie artikulieren oder auf andere Weise darstellen kann, von der Beziehung Nachfolger unterscheidet. Und betrachten wir die Funktion quus-1, die identisch ist mit der Funktion Plus-1 für jede beliebige ganze Zahl, die ein Mensch artikulieren oder anderweitig darstellen kann, die sich aber von der Funktion Plus-1 bei einigen ganzen Zahlen unterscheidet, die kein Mensch artikulieren oder anderweitig darstellen kann. Dann besteht das Problem darin, dass keine natürliche menschliche Fähigkeit jemals die Absicht, die Funktion Nachfolger oder die Funktion Plus-1 zu realisieren, von der Absicht unterscheiden könnte, die Funktion Nachfolger-1 oder die Funktion quus-1 zu realisieren. In jedem Fall sind die natürlichen Fähigkeiten (Input-OutputBeziehungen), die für die Unterscheidung der Standard-Intention (plus, Nachfolger, plus-1) von der Nicht-Standard-Alternative (quus, Nachfolger-1 oder quus-1) notwendig sind, zu komplex, um von einem endlichen Menschen realisiert werden zu können. Ich glaube, dass die Moral, die aus Kripkes skeptischem Argument zu ziehen ist, nicht darin besteht, dass wir plus und quus nicht unterscheiden können, sondern dass es eine ganze Familie von emergenten psychologischen Eigenschaften gibt, so etwa die Eigenschaft, ein Konzept zu haben (z. B. das Konzept des plus zu haben, das sich vom Konzept des quus unterscheidet), einen Glaubenssatz (z. B. die Überzeugung, dass 1 plus 1 = 2 ist, was sich von der Überzeugung unterscheidet, dass 1 quus 1 = 2 ist) und die Absicht zu haben, einen Computer so zu programmieren, dass er plus statt quus implementiert, die nicht auf tatsächliche menschliche Input-Output-Beziehungen reduzierbar sind. Meine eigene Ansicht ist, dass all diese psychologischen Eigenschaften Bewusstsein erfordern und dass Bewusstsein nicht auf Input-Output-Beziehungen reduziert werden kann. Aber es würde den Rahmen dieses Aufsatzes sprengen, zu versuchen, eine Theorie des Bewusstseins und seiner Rolle bei der Vermittlung von Inhalten für 271 https://doi.org/10.5771/9783495825464 .

William J. Talbott

gewöhnliche psychische Zustände zu formulieren. Für den vorliegenden Zweck reicht es aus, zu sehen, dass der Versuch, intentionale psychologische Zustände und Haltungen auf Input-Output-Beziehungen zu reduzieren, scheitert, weil einige der notwendigen InputOutput-Beziehungen zu komplex sind, um von Menschen realisiert werden zu können. Die Komplexitäte der relevanten funktionalen (Input-Output-)Beziehungen macht es notwendig, auf eine andere Erklärungsebene in Form von Eigenschaften überzugehen, die – aus der Perspektive einer funktionalen Erklärung – emergent sind. Ausgehend von der funktionalen Erklärung sind also intentionale psychologische Erklärungen im Sinne von Glaubenssätzen, Intentionen usw. emergente Erklärungen im Sinne von emergenten Eigenschaften, die selbst nicht definierbar oder analysierbar oder auf funktionale (Input-Output-)Beziehungen reduzierbar sind. Sie sind theoretische Urbilder. 3 Im Folgenden ist es sinnvoll, individuelle psychologische Zustände und Haltungen (z. B. I-Glaubenssätze und I-Intentionen) von gemeinsamen oder kollektiven psychologischen Zuständen und Haltungen (z. B. K-Glaubenssätze und K-Intentionen) zu unterscheiden. Ich erkläre diese Unterscheidung kurz. Mit diesen Begriffen lege ich hier dar, dass individuelle psychologische Zustände und Haltungen (z. B. I-Glaubenssätze und I-Intentionen) emergente Eigenschaften des Menschen sind und die individuelle psychologische Erklärung eine emergente Erklärungsebene ist, die nicht auf die Ebene der funktionalen Erklärung im Sinne von funktionalen (Input-Output-)Beziehungen reduzierbar ist.

In der Philosophie gab es früher die Vermutung, dass wichtige Begriffe definiert oder analysiert werden können, indem man bezeichnende notwendige und hinreichende Bedingungen für ihre Wahrheit aufzeigt. Diese Vermutung ist heute nicht mehr so weit verbreitet, so dass beispielsweise Timothy Williamson (Williamson 2002) eine einflussreiche Erkenntnistheorie vorgestellt hat, in der er Wissen als ein theoretisches Urbild ansieht, von dem er glaubt, dass es selbst keine bezeichnenden notwendigen und hinreichenden Bedingungen hat. Ich denke, diese Vermutung gilt auch nicht für die Begriffe, die ich in diesem Papier diskutiere.

3

272 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

3.

Komplexität in den Humanwissenschaften: Gesellschaftstheorie

Vom Standpunkt des Funktionalismus aus betrachtet ist die individuelle intentionale Psychologie eine emergente Erklärungsebene. In diesem Abschnitt lege ich nahe, dass aus Sicht der individuellen intentionalen Psychologie die Sozialtheorie eine weitere emergente Erklärungsebene ist. In diesem Abschnitt zeige ich anhand von drei verschiedenen Beispielen, wie die Komplexitäte von Erklärungen, die nur einzelne intentionale psychologische Zustände und Haltungen betreffen, darauf hinweist, dass einige Eigenschaften in der Sozialtheorie emergente Eigenschaften sind und dass die Erklärungen, die diese Eigenschaften verwenden, ebenfalls emergent sind. Bei den emergenten Eigenschaften handelt es sich um gemeinsame oder kollektive intentionale psychologische Zustände und Haltungen.

a.

Gemeinsames (oder kollektives) Wissen und Überzeugungen

Die Spieltheorie führte ein neues theoretisches Konzept zur Erklärung von gemeinsamem Handeln und Allgemeinwissen ein. Betrachten wir ein einfaches Beispiel, ein Stein-Papier-Schere-Spiel zwischen zwei Spielern, mit einer Auszahlungsmatrix wie in Abbildung 1. Gegenüber spielt R Gegenüber spielt S Gegenüber spielt P Ich spiele R

0,0

1,–1

–1,1

Ich spiele S

–1,1

0,0

1,–1

Ich spiele P

1,–1

–1,1

0,0

Abbildung 1. Entscheidungsmatrix für das Nullsummenspiel Stein-Schere-Papier.

In Abbildung 1 sind die Zahlen in der Matrix geordnete Paare der Auszahlung an mich und der Auszahlung an die andere Person. Die Auszahlungen spiegeln die Reihenfolge wider: R > S (Stein zerbricht Schere), S > P (Schere schneidet Papier) und P > R (Papier bedeckt Stein). Wenn beide Spieler die gleiche Wahl treffen, ist das Ergebnis ein Unentschieden. Die spieltheoretisch rationale (Nash-)Gleichgewichtslösung für dieses Spiel, unter der Annahme, dass beide Spieler rational sind, besteht darin, über die drei reinen Strategien P, R und S 273 https://doi.org/10.5771/9783495825464 .

William J. Talbott

zu randomisieren, indem jede Alternative mit einer Wahrscheinlichkeit von 1/3 gewählt wird. Wenn beide Spieler dieser gemischten (probabilistischen) Strategie folgen, haben beide eine erwartete Rendite von Null. Wenn jedoch einer der beiden Spieler davon abweicht und der andere Spieler vorhersagen kann, wie er davon abweicht, kann der andere Spieler zu einer anderen Strategie wechseln, die dem ersten Spieler einen erwarteten Nutzen von weniger als Null gibt und sich selbst einen erwarteten Nutzen von mehr als Null zusichert. 4 Um die Rationalität des Nash-Gleichgewichts zu erklären, ist es notwendig, dass die Agenten nicht nur rational sind, sondern dass sie über eine umfangreiche, ja scheinbar unendliche Menge an Informationen verfügen. Die Information kann iterativ erzeugt werden. Auf der Basisebene müssen die Agenten wissen: Wissen Ebene 1: Beide Spieler wissen, dass beide rational sind und dass Entscheidungen und Auszahlungen der Entscheidungsmatrix in Abbildung 1 folgen. Es ist zu beachten, dass es sich bei diesem Wissen der Ebene 1 um individuelles Wissen jedes Agenten handelt. Was wir gleich sehen werden, ist, dass keine endliche Menge an individuellem Wissen der einzelnen Agenten eine rationale Lösung für dieses sehr einfache Entscheidungsproblem erzeugen kann. Warum ist das oben genannte Wissen der Ebene 1 nicht ausreichend? Das oben genannte Wissen der Ebene 1 garantiert, dass beide Agenten das gleiche Verständnis ihrer Entscheidungssituation haben, aber es garantiert nicht, dass beide Agenten wissen, dass sie beide das gleiche Verständnis ihrer Entscheidungssituation haben. Zum Beispiel könnte einer oder beide Agenten irrtümlich meinen, dass der andere Agent glaubt, die Auszahlungen seien wie in Abbildung 2. Ein Nash-Gleichgewicht (Nash 1951) für ein Spiel ist eine Kombination aus reinen oder gemischten (probabilistischen) Strategien aller Spieler, so dass kein einzelner Spieler seinen erwarteten Nutzen durch einseitigen Wechsel zu einer anderen verfügbaren reinen oder gemischten Strategie verbessern kann. Nash (Nash 1951) bewies, dass es in jedem endlichen Spiel immer mindestens eine Strategiekombination mit Nash-Gleichgewicht gibt – d. h. in jedem Spiel mit einer endlichen Anzahl von Spielern, von denen jeder eine endliche Anzahl von alternativen reinen Strategien hat. In dem Beispiel im Text, dem einmaligen Spiel Stein-Schere-Papier, ist die einheitliche Kombination von gemischten Strategien ein Nash-Gleichgewicht, weil kein einzelner Spieler seinen erwarteten Nutzen durch einseitiges Abweichen von der Strategie erhöhen kann.

4

274 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften Gegenüber spielt R Gegenüber spielt S Gegenüber spielt P Ich spiele R

10,10

10,–1

10,1

Ich spiele S

–1,10

0,0

1,–1

Ich spiele P

1,10

–1,1

0,0

Abbildung 2. Falsche Entscheidungsmatrix für das Stein-Schere-Papier-Spiel.

Wenn ich glaube, dass der andere Spieler fälschlicherweise glaubt, die Entscheidungsmatrix für unser Spiel sei wie in Abbildung 2 dargestellt, dann wird mir klar, dass die einzige rationale Wahl für den anderen Spieler R ist, unabhängig davon, was der andere Spieler über mich denkt, denn R garantiert dem anderen Spieler eine Rendite von 10, unabhängig davon, was ich spiele. Aber wenn der andere Spieler rational ist und die rationale Wahl für diesen Spieler R ist, dann kann ich vorhersagen, dass der andere Spieler R wählen wird. Angesichts dieser Information ist die rationale Wahl für mich nicht die oben diskutierte gemischte Strategie, sondern die reine Strategie P. Die gemischte Strategie hat für mich eine erwartete Rendite von 0, aber die reine Strategie P hat eine sichere Rendite von 1 (wie in Abbildung 1 angegeben). Dies zeigt, dass das oben genannte individuelle Wissen der Ebene 1 nicht ausreicht, um sicherzustellen, dass die gemischte Strategie eine rationale Lösung für das Spiel darstellt. Das im vorigen Absatz aufgeworfene Problem kann durch Hinzufügen des folgenden Wissens der zweiten Ebene gelöst werden: Wissen Ebene 2: Beide Spieler wissen, dass beide Spieler die Ebene-1Informationen kennen (z. B. wissen beide, dass beide wissen, dass beide Spieler rational sind und beide wissen, dass beide wissen, dass die Auszahlungen wie in Abbildung 1 erfolgen). Dies löst das Problem, das auf Ebene 1 auftrat, allerdings wird dadurch nur mehr individuelles Wissen hinzugefügt, so dass auf Ebene 2 eine weitere Informationslücke entsteht, da beide Akteure nicht wissen, dass sie beide die Informationen der Ebene 1 kennen. So wissen beispielsweise der andere Spieler und ich auf Ebene 2 zwar beide, dass wir beide die Informationen der Ebene 1 kennen, aber keiner von uns weiß, dass der andere Spieler weiß, dass wir beide sie kennen. Dadurch entsteht eine weitere Lücke in der Argumentation, die den 275 https://doi.org/10.5771/9783495825464 .

William J. Talbott

Rückschluss auf die rationale Lösung des Entscheidungsproblems blockiert. Natürlich kann diese Lücke durch Hinzufügen von Wissen der Ebene 3 gefüllt werden, aber das erzeugt nur eine neue Lücke auf Ebene 3, die weiterführt zu Ebene 4, Ebene 5, Ebene 6, ad infinitum. Interessanterweise wird in Diskussionen der Spieltheorie Allgemeinwissen oft durch diese unendliche Hierarchie von individuellem Wissen definiert. 5 Dies ist ziemlich verblüffend. Selbst wenn es Agenten gäbe, die tatsächlich eine unendliche Hierarchie von Glaubenssätzen dieser Art haben könnten, ist es schwer vorstellbar, wie sie jemals die Rückschlüsse ziehen könnten, die erforderlich sind, um die Schlussfolgerung zu erreichen, welche Strategiekombination rational ist, denn es gäbe unendlich viele davon. Sie müssten in der Lage sein, eine unendliche Anzahl von Rückschlüssen in einer endlichen Zeit zu ziehen. Was auch immer es mit solchen Wesen auf sich hat, es ist klar, dass keine zwei menschlichen Agenten jemals eine unendliche Hierarchie von Glaubenssätzen haben könnten, geschweige denn eine unendliche Anzahl von Rückschlüssen mit diesen Glaubenssätzen ziehen könnten. Technisch gesehen ist es für Agenten in einer spieltheoretischen Situation nicht notwendig, eine unendliche Anzahl von Schlussfolgerungen zu ziehen. Theoretisch müssen die Agenten nur Rückschlüsse endlicher Länge von beliebig hoher Komplexität ziehen. Aber das gleiche Problem tritt wieder auf, weil menschliche Agenten dazu nicht in der Lage sind. So wie es in der früheren Besprechung eine Grenze für die Summen von ganzen Zahlen gab, die ein menschlicher Agent berechnen kann, so wird es auch eine endliche Grenze für die Anzahl von Komplexitätsebenen geben, die menschliche Agenten sich vorstellen können, so dass sie nicht in der Lage sein werden, Rückschlüsse oberhalb dieser Komplexitätsebene zu ziehen. Der Mensch könnte also niemals die Annahmen des Allgemeinwissens erfüllen, wenn Allgemeinwissen als eine unendliche Anzahl von individuellen Wissensebenen oder als Schlussfolgerungen mit einem beliebig hohen Grad an Komplexität verstanden wird. Hier stehen wir von Angesicht zu Angesicht mit der Komplexitäte. Nun ist es immer möglich, einfach festzulegen, dass der Mensch dem idealen rationalen Agenten nahe genug kommt, so dass wir ideaEin guter Überblick über Darstellungen zu Allgemeinwissen findet sich im Abschnitt 2 »Alternative Darstellungen zu Allgemeinwissen« in Vanderschraaf und Sillari (Sillari 2014).

5

276 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

le rationale Agenten für die Modellierung von Entscheidungen darüber, was rational ist, verwenden können. Dies wirft jedoch das Problem auf, dass es in der Spieltheorie keine rationale Lösung ohne die potentiell unendliche Hierarchie der Wissensebenen gibt, so dass es keine Erklärung dafür gäbe, warum die spieltheoretisch rationale Wahl für den Menschen eine rationale Wahl war. 6 Ich schlage einen anderen Ansatz vor. Mein Vorschlag ist, dass wir Allgemeinwissen als eine sui generis entstehende Eigenschaft menschlicher Gruppen verstehen, die nicht als eine unendliche Hierarchie individuellen Wissens oder irgendeiner anderen Art von individuellem Wissen analysiert oder darauf reduziert werden kann. Wenn wir Allgemeinwissen auf diese Weise verstehen, dann ist es über die Informationen der Ebene 1 gerade das Wissen, das es den beiden Spielern ermöglicht, die rationale Lösung des Spiels zu erreichen. Es ist wahrscheinlich das Wissen, das die folgende Funktion erfüllt: Es befähigt die Spieler zu erkennen, dass es in ihren Situationen keine Asymmetrie gibt, die die Argumentation für die rationale Lösung blockieren würde. Dies unterscheidet sich stark von einer Argumentation mit einer unendlichen

Gilbert Harman hat darauf hingewiesen, dass eine unendliche Hierarchie von Glaubenssätzen und Intentionen durch selbstreferenzielle Glaubenssätze (Harman 2006) und selbstreferenzielle Intentionen (Harman 1976) kurzgeschlossen werden kann. Harman hat viele Verwendungen für diese selbstreferenziellen Glaubenssätze und Intentionen, die nichts mit Allgemeinwissen zu tun haben. Aber sein Vorschlag kann nicht dazu beitragen, das im Text diskutierte Problem des Allgemeinwissens zu lösen. Betrachten wir ein Beispiel für selbstreferenzielles Wissen: Ich bin größer als 1,80 m und weiß das. So wie Harman diese Selbstreferenz versteht, impliziert sie, dass ich weiß, dass ich größer als 1,80 m bin – dass ich weiß, dass ich es weiß – dass ich weiß, dass ich weiß, dass ich es weiß – usw. Betrachten wir nun einen Fall des Allgemeinwissens – zum Beispiel das im Text besprochene Spiel Stein-Schere-Papier. In diesem Fall ist das entscheidende selbstreferenzielle Wissen: Wir (mein Gegenüber und ich) wissen, dass wir rational sind und dass wir vor einer Entscheidungsmatrix wie in Abbildung 1 stehen, und wir wissen dies. Nach Harmans Angaben würde dies die Unendlichkeit der im Text besprochenen Wissensebenen implizieren. Aber Harmans Vorschlag löst nicht das Problem, wie menschliche Agenten sich diese unendlichen Wissensebenen aneignen könnten. Harmans Vorschlag ist in Wirklichkeit nur eine Möglichkeit, diese unendliche Anzahl von Ebenen abzukürzen. Er gibt uns keine Möglichkeit zu verstehen, wie menschliche Agenten zu der Erkenntnis gelangen konnten, dass die unendliche Anzahl von Ebenen erreicht wird, und daher gibt er uns auch keine Möglichkeit zu verstehen, wie im Schere-Stein-Papier-Spiel zwei menschliche Agenten Harmans (oder irgendeine andere) Abkürzung für diese unendliche Anzahl von Wissensebenen kennen lernen konnten.

6

277 https://doi.org/10.5771/9783495825464 .

William J. Talbott

Hierarchie von Informationsebenen und einer unendlichen Anzahl von Schlussfolgerungen. Ich habe anhand der Spieltheorie die Idee des Allgemeinwissens veranschaulicht. Allgemeinwissen selbst kann als Spezialfall eines allgemeineren Phänomens gemeinsamer Glaubenssätze verstanden werden. Gemeinsame Glaubenssätze ist der allgemeinere Begriff, denn alles Allgemeinwissen erfordert gemeinsame Glaubenssätze, aber nicht jeder gemeinsame Glaubenssatz ist Wissen – zum Beispiel glauben etwa einige Mitglieder der Flat Earth Society, dass die Erde flach ist, aber dies wäre kein Allgemeinwissen, weil es nicht wahr ist. Ich sage daher, dass ein individueller Glaube (I-Glaubenssatz) ein einzelner Glaubenssatz ist, der von einem Individuum vertreten wird. Mehrere Personen können denselben I-Glaubenssatz vertreten. Wenn ich jedoch Recht habe, dann ist der gemeinsame oder kollektive Glaubenssatz (K-Glaubenssatz) ein emergenter intentionaler psychologischer Zustand, der zumindest für Menschen nicht durch individuelle Glaubenssätze erklärt werden kann. Es gibt Darstellungen gemeinsamer Glaubenssätze, die nicht eine Unendlichkeit von Glaubenssätzen erfordern, es erfordern jedoch alle Schlussfolgerungen, die Überzeugungen von beliebig hoher Komplexität beinhalten. Menschen haben diese Fähigkeit nicht. Bei einem gewissen Grad an Komplexität wäre die Komplexität der Schlussfolgerung zu groß, als dass irgendein menschliches Wesen in der Lage wäre, sie zu ziehen. Ich glaube, dass Theorien über menschliche Gruppen, die gemeinsame oder kollektive Glaubenssätze (K-Glaubenssätze) postulieren, irreduzibel soziale Theorien sind. Alle Sozialwissenschaften sind in dieser Hinsicht irreduzibel sozial.

b.

Gemeinsame oder kollektive Absichten.

Neben K-Glaubenssätzen können Gruppen auch gemeinsame oder kollektive Absichten (K-Intentionen) haben. Es gibt umfangreiche Literatur zu dem, was ich K-Intentionen nenne. 7 Gute Teamarbeit veranschaulicht K-Intentionen. Wenn eine Fußballmannschaft in der Offensive als Mannschaft spielt, hat jeder Spieler in der Regel die K-Intention, gemeinsam ein Tor zu schießen. Die grobe Idee dabei ist, Sellars (1968) nennt sie Wir-Intentionen. Eine gute Übersicht über kollektive Intentionen findet sich bei Schwelkard/Schmid (Schwelkard/Schmid 2013).

7

278 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

dass jeder Spieler in der Mannschaft so agiert, dass die Chancen, ein Tor zu schießen, maximiert werden, unter Berücksichtigung dessen was die anderen Spieler (sowohl die der eigenen als auch die der gegnerischen Mannschaft) tun. Es ist leicht zu verstehen, dass dies eine potentielle Unendlichkeit von bedingten I-Intentionen erzeugt. Wenn ich auf Ebene 1 in Ballbesitz bin und ein Verteidiger vor mir steht und ich einen Mitspieler auf dem rechten Flügel habe, kann ich die bedingten I-Intentionen haben, den Ball an meinen Mitspieler auf dem rechten Flügel abzugeben, wenn sich der Verteidiger auf mich zubewegt, aber nicht, den Ball abzugeben, wenn der Verteidiger in Richtung meines Mitspielers läuft. Die Struktur der bedingten I-Intentionen wird jedoch schnell komplexer, z. B. auf Ebene 2: Wenn ich glaube, dass der Verteidiger eine Finte zu mir macht und sich dann auf meinen Mitspieler zubewegt, kann ich einen Pass zu meinem Mitspieler vortäuschen und selbst in Ballbesitz bleiben. Zu beachten ist, dass eine erfolgreiche Motivation von gemeinsamer oder kollektiver Aktivität (K-Aktivität) durch K-Intentionen ohne K-Glaubenssätze nicht möglich ist. Damit die Fußballmannschaft in der Lage ist, eine K-Aktivität auf der Grundlage ihrer K-Intentionen zu koordinieren, um ein Tor zu erzielen, muss die Mannschaft den K-Glaubenssatz haben, dass sie die entsprechenden K-Intentionen hat. Die Kombination aus der K-Intention, dass die Mannschaft ein Tor erzielt, und dem K-Glaubenssatz, dass alle Teammitglieder die K-Intention haben, ein Tor zu schießen, motiviert den Spieler auf meinem Flügel, auf das Tor zuzulaufen und so Druck auf den Verteidiger auszuüben, damit dieser entscheiden muss, wohin er sich bewegen soll, in der Gewissheit, dass ich den Ball in eine Position bringe, in der der Flügelspieler ihn entgegennehmen kann, wenn sich der Verteidiger auf mich zu bewegt. In jeder Mannschaftssportart ist es in der Regel einfach, Spieler zu identifizieren, die die relevanten K-Intentionen durch I-Intentionen ersetzen – zum Beispiel den Spieler, der die I-Intention Ich schieße ein Tor hat. Solche Spieler werden sich oft weigern, den Ball an einen Mitspieler weiterzugeben, selbst wenn dieser einen offenen Weg zum Tor hat, wenn sie glauben, dass sie selbst ein Tor erzielen könnten. Solche Spieler liefern einen dramatischen Beweis für die Macht von K-Glaubenssätzen und K-Intentionen, da ihre Mannschaften weniger Tore erzielen und weniger Spiele gewinnen, als wenn alle Mitglieder der Mannschaft die entsprechenden K-Glaubenssätze und K-Intentionen teilen würden. 279 https://doi.org/10.5771/9783495825464 .

William J. Talbott

Natürlich ist Fußball nur ein winziger Ausschnitt aus der großen Vielfalt von K-Aktivitäten, an denen die meisten Menschen täglich teilnehmen. Psychopathen und Soziopathen scheinen zu K-Intentionen unfähig zu sein. Wenn dies richtig ist, dann würde, wenn alle Menschen Psychopathen oder Soziopathen wären, die Sozialtheorie keine Rolle spielen, um ihre Aktivität zu erklären. Alle ihre Handlungen könnten durch I-Glaubenssätze und I-Intentionen (und andere I-Haltungen) erklärt werden. Wenn jedoch die Handlungen einer Gruppe nicht zufriedenstellend erklärt werden können, ohne ihnen K-Glaubenssätze und K-Intentionen (oder andere K-Haltungen) zuzuschreiben, dann ist die Erklärung eine wirklich sozialtheoretische. Sozialtheorie in diesem Sinne ist eine emergente Ebene der wissenschaftlichen Erklärung in Form von emergenten Eigenschaften und Beziehungen, K-Glaubenssätzen und K-Intentionen und anderen K-Zuständen und K-Haltungen. Zu sagen, dass die Sozialtheorie eine emergente Theorie ist, bedeutet, dass die Erklärungen der Theorie im Sinne der emergenten Konzepte von K-Glaubenssätzen und K-Intentionen nicht auf Erklärungen im Sinne von I-Glaubenssätzen und I-Intentionen reduzierbar sind. Unser Nachweis des Scheiterns der Reduzierbarkeit ist, dass Versuche, K-Glaubenssätze oder K-Intentionen in Begriffen von I-Glaubenssätzen und I-Intentionen zu analysieren, eine potenziell unendliche Anzahl von I-Glaubenssätzen oder I-Intentionen erfordern. Es ist die Komplexitäte solcher Darstellungen, die uns zeigt, dass K-Glaubenssätze und K-Intentionen emergente Eigenschaften sind und dass die Humanwissenschaften, in denen sie eine erklärende Rolle spielen, emergente Wissenschaften sind.

c.

Bedeutung

Es ist sinnvoll, noch eine weitere Art von emergenten Konzepten in Betracht zu ziehen, auch wenn es nur eine Kombination von K-Glaubenssätzen und K-Intentionen ist, denn dieses ist ein wichtiges Element der menschlichen Gesellschaftstheorie. Kann Bedeutung im Sinne von I-Glaubenssätzen und I-Intentionen verstanden werden? Paul Grice (Grice 1957; 1968; 1969) versuchte eine solche Reduktion. Grices Theorie ist komplex, deshalb verwende ich eine vereinfachte Version der Theorie, die ich Grice’sche Theorie nenne, um das Problem zu veranschaulichen, das sich für alle derartigen Theo280 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

rien stellt, auch für die komplexere Theorie von Grice. Grice diskutiert sowohl Befehle als auch Indikativsätze. Ich konzentriere mich auf Indikativsätze. Ebene 1. Stellen wir uns eine Situation vor, in der A zu B sagt: Die Katze ist auf der Matte und meint, dass die Katze auf der Matte ist. Grice schlägt vor, dass [A meint, dass p] (in diesem Fall p = dass die Katze auf der Matte liegt) in einer solchen Situation als Komplex von I-Glaubenssätzen und I-Intentionen analysiert werden kann. Um es noch einmal zu vereinfachen, ist auf Ebene 1 die relevante I-Intention für A die Absicht, dass B glaubt, dass A glaubt, dass p (in diesem Fall, dass B glaubt, dass A glaubt, dass die Katze auf der Matte liegt) (vgl. Grice 1968). Dies ist der einfachste Fall. In diesem Fall beabsichtigt A, dass B glaubt, dass A glaubt, dass p, und dass dieser Glaube B Beweise dafür liefert, dass B ebenfalls (wirklich) glaubt, dass p. Ebene 2. Aber nicht alle Bedeutungen passen in dieses einfache Modell. Angenommen, die Katze ist nicht auf der Matte, sondern A ist ein eingefleischter Lügner und will, dass B fälschlicherweise glaubt, die Katze sei auf der Matte. Wenn A sagt: Die Katze ist auf der Matte, will A B glauben machen, dass A glaubt, dass die Katze auf der Matte ist, und dies als Beweis ansehen, der B zu der (fälschlichen) Annahme veranlasst, dass die Katze auf der Matte ist. In diesem Beispiel sagt A genau die gleichen Worte wie im Beispiel der Ebene 1, aber A hat eine andere und komplexere I-Intention der Stufe 2. Auch wenn die I-Intention von A eine andere ist, ist klar, dass das, was A sagt, in beiden Beispielen dasselbe bedeutet. Wenn es nur zwei Bedeutungsebenen gäbe, könnte eine Gricesche Theorie Bedeutung im Sinne der endlichen Disjunktion der Ebene-1- und Ebene-2-Kombinationen von I-Glaubenssätzen und I-Intentionen definieren. Die Konstruktion kann jedoch iteriert werden, um eine potenziell unbegrenzte Anzahl von Ebenen unterschiedlicher I-Glaubenssätze und I-Intentionen zu erzeugen. Ich veranschauliche das Problem, indem ich eine weitere Ebene betrachte: Ebene 3: A ist ein eingefleischter Lügner. B glaubt, dass A ein eingefleischter Lügner ist, und A merkt, dass B dies glaubt, merkt aber auch, dass B nicht merkt, dass A merkt, dass B dies glaubt. Wenn A glaubt, dass die Katze auf der Matte liegt, aber B zu der Annahme veranlassen will, dass die Katze nicht auf der Matte liegt, dann muss A dasselbe sagen, was er in den vorhergehenden Beispielen gesagt hat: Die Katze ist auf der Matte. A sagt zu B: Die Katze ist auf der Matte und meint, dass die Katze auf der Matte ist, aber A will B 281 https://doi.org/10.5771/9783495825464 .

William J. Talbott

glauben machen, dass A glaubt, dass die Katze nicht auf der Matte ist, und dieser Glaube soll B Beweise liefern, die dazu führen, dass B (fälschlicherweise) glaubt, dass die Katze nicht auf der Matte ist. Die I-Intention von A auf Ebene 3 ist komplexer als eine der früheren I-Intentionen auf Ebene 1 oder Ebene 2, aber in allen drei Fällen meint A dasselbe, wenn A sagt: Die Katze ist auf der Matte. Ich denke, aus der Behandlung dieser drei Beispiele wird deutlich, dass diese Konstruktion der verschiedenen I-Intentionen für die Bedeutung von Die Katze ist auf der Matte unbegrenzt fortgesetzt werden kann. Nach wie vor versuchen wir, ein soziales Konzept zu erklären, nämlich Bedeutung, d. h. im Sinne von I-Glaubenssätzen und I-Intentionen, und die Erklärung beinhaltet eine potentielle Unendlichkeit von Erklärungsebenen oder erfordert eine Argumentation auf einer beliebig hohen Ebene. Der Mensch ist nicht in der Lage, eine potenziell unendliche Anzahl von I-Glaubenssatz- oder I-IntentionsEbenen zu erklären, und er ist auch nicht in der Lage, auf einer beliebig hohen Komplexitätsebene zu argumentieren. Auch hier deutet die Komplexitäte der Erklärung in Form von I-Glaubenssätzen und I-Intentionen darauf hin, dass es sich bei dem Phänomen, in diesem Fall der Bedeutung, um ein emergentes Konzept handelt. Es stimmt, dass meine Beispiele für die drei Griceschen Ebenen der Bedeutungsintentionen tatsächlich einfacher sind als die Bedeutungsintentionen in Grices (Grice 1957; 1968; 1969) eigener Darstellung. Aber das Problem der potentiell unendlichen Anzahl von Ebenen kommunikativer Intentionen ist auch für Grices Darstellung ein Problem. Ich habe dem Begriff der Bedeutung besondere Aufmerksamkeit geschenkt, weil die Kommunikation selbst vielleicht das zugrundeliegende Element der Gesellschaftstheorie ist. Nicht jede Kommunikation erhält eine potenziell unendliche Anzahl von I-Glaubenssatzund I-Intentionen aufrecht, aber die menschliche sprachliche Kommunikation tut es. Niklas Luhmann (Luhmann 1995) erkannte, dass das Vorhandensein von sozialen Systemen voraussetzt, dass Individuen irgendwie aus ihren individuellen Absichten ausbrechen und so die Existenz eines sozialen Systems ermöglichen. Dies wurde durch einen Prozess der Vertrauensbildung erreicht (Luhmann 1995, 128– 129) 8, der letztlich von Kommunikation abhängt, um soziales HanFür Luhmann ist Vertrauen ein wichtiger Teil der Lösung des Problems der doppelten Kontingenz (Luhmann 1995, Kapitel 3). Dieses Problem ist ein bekanntes spiel-

8

282 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

deln zu ermöglichen (Luhmann 1995, 137–138). Meine einzige Ergänzung zu Luhmann hier ist, zu betonen, dass die Möglichkeit der Kommunikation selbst von K-Glaubenssätzen und K-Intentionen abhängt. Daher glaube ich, dass Luhmanns Appell an die Kommunikation, das Problem der Überwindung individueller Absichten zu lösen und ein echtes soziales System zu schaffen, letztlich eine emergente Erklärung im Sinne von K-Glaubenssätzen und K-Intentionen ist, die nicht auf I-Glaubenssätze und I-Intentionen reduzierbar oder durch diese definierbar ist. Kommunikatives Handeln ist auch der zentrale Begriff in der Sozialtheorie von Jürgen Habermas (Habermas 1984; 1987). Interessanterweise erfordern einige spieltheoretische Situationen eigentlich keine Kommunikation zwischen den Spielern, um die K-Glaubenssätze und K-Intentionen zu erzeugen, die bestimmen, was rational zu tun ist. 9 Vielleicht erfordert also nicht jede menschliche soziale Interaktion Kommunikation. Aber offensichtlich tun es fast alle, und wenn ich recht habe, ist der größte Teil der menschlichen Kommunikation ein emergentes Phänomen der sozialen Interaktion, das datheoretisches Gedankenexperiment: das Gefangenendilemma zweier Personen. Luhmanns Erörterung des Problems steht in engem Zusammenhang mit Axelrods (1984) Verteidigung des quid pro quo im iterierten Gefangenendilemma, obwohl Luhmann diesen Ansatz auf das einseitige Gefangenendilemma zweier Personen ausweiten möchte, bei dem die Interaktion innerhalb eines sozialen Systems stattfindet (Luhmann 1995, 129). Diese Sicht auf soziale Systeme ausgehend von einer eindeutig spieltheoretischen Analyse macht deutlich, dass Luhmann sich auf dasselbe Problem konzentriert, dem ich mich in diesem Aufsatz widme, obwohl ich eine andere spieltheoretische Situation verwende (das Spiel Stein-Schere-Papier) um die Notwendigkeit kollektiver Glaubenssätze und letztlich kollektiver Intentionen zu veranschaulichen. 9 Hier ist ein Beispiel: Im Amerika vor dem Bürgerkrieg werden zwei entlaufene Sklaven in einem freien Staat von Kopfgeldjägern gefangen genommen, die sie auf die separaten Plantagen zurückbringen wollen, von denen sie entkommen sind. Die beiden entflohenen Sklaven sprechen unterschiedliche Sprachen, so dass sie sich nicht miteinander verständigen können, um ihre Flucht zu planen. Nichtsdestotrotz, wenn man davon ausgeht, dass beide erkennen, dass sie beide ihren Fängern entkommen wollen und dass beide erkennen, dass keiner von ihnen allein seine Fänger überwältigen und entkommen könnte, dies aber gemeinsam möglich wäre, könnten sie sich die K-Glaubenssätze und K-Intentionen aneignen, die es ihnen ermöglichen würden, einen günstigen Moment zu erkennen, um ihre Aktionen bei der Überwältigung ihrer Entführer und bei der Flucht zu koordinieren, und es wäre für sie rational, dies zu tun, wenn die Struktur ihrer Entscheidungssituation ein Versicherungsspiel wäre, bei der es mehrere Gleichgewichte gibt, aber ein Gleichgewicht von beiden allen anderen vorgezogen wird.

283 https://doi.org/10.5771/9783495825464 .

William J. Talbott

durch gekennzeichnet ist, dass es K-Glaubenssätze und K-Intentionen erfordert, und alle menschlichen Sozialwissenschaften – Geschichte, Soziologie, Wirtschaft, Politikwissenschaft usw. – sind emergente Theorien, weil sie von der Existenz sozialer Interaktionen abhängen, an denen K-Glaubenssätze und K-Intentionen beteiligt sind.

4.

Einwände

Der Haupteinwand gegen mein Argument, dass die I-Haltungen (z. B. I-Glaubenssätze und I-Intentionen) der intentionalen Individualpsychologie eine emergente Erklärungsebene darstellen, die über die Erklärungsebene der funktionalen (Input-Output) Beziehungen hinausgeht, und gegen mein Argument, dass die K-Haltungen (z. B. K-Glaubenssätze und K-Intentionen) der menschlichen Sozialwissenschaften eine emergente Erklärungsebene darstellen, die über die Erklärungsebene der I-Einstellungen hinausgeht, kommt von einer bestimmten naturalistischen, wissenschaftlichen Sichtweise, nach der Erklärungen in Bezug auf diese emergenten Phänomene unwissenschaftlich sind (z. B. P. M. Churchland 1989; P. S. Churchland 1986; Dennett 1987; 1991). Diese Autoren können zu Recht darauf hinweisen, dass der Mensch ein endliches Wesen ist und dass es zumindest prinzipiell möglich ist, sich vorzustellen, ein neuronales Netz oder ein Input-Output-Gerät zu konstruieren, das das Verhalten eines Menschen vollständig nachahmt. Auf die Frage, ob die Funktion plus vollständig von einem endlichen Computer oder einem endlichen Menschen realisiert werden könnte, würden diese menschlichen Simulakren genau wie ein Mensch mit nein antworten. Ebenso wie ein menschliches Wesen würden sie auch behaupten, dass ihr Verständnis der Funktion plus ausreicht, um sie von quus zu unterscheiden, obwohl keines ihrer neuronalen Netze oder Input-OutputBeziehungen ein einziges Beispiel erzeugen könnte, in dem sich die beiden Funktionen unterschieden. Das Verhalten dieser Simulakren würde nicht voraussetzen, dass irgendwelche emergenten psychologischen oder sozialen Eigenschaften postuliert werden. Die Herausforderung der Naturalisten an mich wäre dann einfach: Warum sollen sich dann Menschen von diesen Simulakren unterscheiden? Es stellt sich die Frage, ob diese Simulakren jemals etwas verstehen würden, was sie sagen, und ob Menschen dies tun; ob sie in 284 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

verbalen Interaktionen mit anderen Simulakren jemals tatsächlich etwas mitteilen würden, und ob Menschen in verbalen Interaktionen mit anderen Menschen dies jemals tun; und ob Simulakren jemals wirklich etwas glauben oder etwas beabsichtigen würden, und ob Menschen dies tun. Ich bin der Ansicht, dass Menschen in der Lage sind, zu verstehen, zu kommunizieren und zu glauben oder etwas zu beabsichtigen, während Simulakren dies nicht tun. Es ist wichtig zu erkennen, dass es hier nicht um die Angemessenheit wissenschaftlicher Erklärungen oder gar naturalistischer wissenschaftlicher Erklärungen geht, obwohl die Frage im Raum steht, was als naturalistische Erklärung zählt. Meine Ansicht ist, dass der natürliche Evolutionsprozess Arten mit Bewusstsein hervorgebracht hat, von denen einige die Fähigkeit zu I-Glaubenssätzen und I-Intentionen entwickelt haben, und eine kleinere Anzahl davon die Fähigkeit zu K-Glaubenssätzen und K-Intentionen. Sowohl I-Haltungen als auch K-Haltungen sind emergente Zustände und sowohl psychologische als auch soziale Theorien sind emergente Erklärungen, aber an diesen emergenten Erklärungen ist nichts Übernatürliches oder Unwissenschaftliches und es braucht keine übernatürlichen Elemente in der Erklärung der Entwicklung solcher Wesen zu geben. In den Vereinigten Staaten ist naturalism ein Name für eine bestimmte engstirnige Sichtweise wissenschaftlicher Erklärungen. Er wird durch den Behaviorismus in der Psychologie veranschaulicht, der in den USA etwa fünfzig Jahre lang der dominierende Ansatz in der Humanpsychologie war. Der Behaviorismus hatte auch einen großen Einfluss auf die Philosophie (z. B. Ryle 1949; Wittgenstein 1958; Quine 1960). Die Motivation für einen so engen Wissenschaftsbegriff lässt sich zumindest auf Humes (2000 [1737], I.2.1) Argumente zurückführen, dass wir zu einem Konzept der Unendlichkeit gar nicht in der Lage wären. Dank der Arbeit von Georg Cantor erkennen wir heute, dass es eine potentielle Unendlichkeit von Unendlichkeitsbegriffen gibt. Natürlich könnte kein endlicher Mensch sie alle unterscheiden. Wenn ich Recht habe, gibt es eine emergente wissenschaftliche Erklärungsebene in Form von I-Glaubenssätzen und I-Intentionen (und vielleicht auch von K-Glaubenssätzen und K-Intentionen) dafür, wie Menschen die Überzeugung haben können, dass es eine potenzielle Unendlichkeit solcher Konzepte gibt, obwohl wir sie nie alle unterscheiden könnten.

285 https://doi.org/10.5771/9783495825464 .

William J. Talbott

5.

Schlussfolgerung

In diesem Aufsatz habe ich einen Test für die Emergenz von Konzepten und Erklärungsebenen in den Humanwissenschaften vorgeschlagen. Es handelt sich um einen Test, der auf mögliche Erklärungen der relevanten Phänomene auf niedrigeren Ebenen angewandt wird. Wenn diese Erklärungen auf niedrigeren Ebenen eine bestimmte Art von Erklärungskomplexität (Komplexitäte) aufweisen, dann sind sie nicht in der Lage, die relevanten Phänomene adäquat zu erklären und öffnen zumindest die Tür für emergente Erklärungen auf höherer Ebene. Welche Beziehung besteht zwischen dem Begriff der Komplexität, den ich hier erörtert habe, Komplexitäte, und der Definition von Komplexität weiter oben in diesem Band (s. o. S. 17 ff.)? Diese Definition besteht aus 13 Teilen. Ich habe bereits Teil 10 der Definition erörtert, in der es für komplexe Systeme maßgeblich ist, dass es Situationen gibt, in denen sich das System in einer Weise verändert, die prinzipiell nicht vorhersehbar ist. Ich kenne keinen Grund zu der Annahme, dass Veränderungen in Systemen mit I-Haltungen oder K-Haltungen jemals prinzipiell unvorhersehbar sein könnten. Mein Eindruck ist, dass keiner der ersten 10 Teile der Definition auf Systeme mit einer Komplexitäte zutrifft, die ich in diesem Aufsatz erörtere. Teil 11 der Definition scheint jedoch anwendbar zu sein: »Im Übergang sowohl statischer als auch dynamischer komplexer Systeme an Punkten bzw. in Perioden der Kritikalität werden komplexe Systeme emergent. Diese Emergenz kann auf einem Übergang aller oder nur einzelner Elemente des Systems bestehen.« (s. o. S. 20). Ich denke, dass es in der Evolutionsgeschichte und in der individuellen kognitiven Entwicklung des Menschen einen Übergang von der nicht vorhandenen I-Haltung zur I-Haltung und einen weiteren Übergang von der nicht vorhandenen K-Haltung zur K-Haltung gibt. Dieses Entstehen ist nicht das Ergebnis der Hinzufügung von etwas Neuem zum System (z. B. einer Seele), sondern vielmehr der spontanen Selbstorganisation des bereits bestehenden Systems. Dies deutet darauf hin, dass Teil 12 der Definition zumindest teilweise auch auf die Komplexitäte zutrifft: »Komplexe Systeme zeichnet Selbstorganisation bzw. Autopoiesis aus. In Selbstorganisation kann ein dynamisch komplexes System zu einem (metastabilen) Zustand evolvieren. Dabei bleibt offen, ob diese Evolution linear oder zyklisch ist.« (s. o. S. 20). 286 https://doi.org/10.5771/9783495825464 .

Komplexität und Erklärung in den Humanwissenschaften

Der 13. und letzte Teil der Definition scheint nicht anwendbar zu sein, da Teil 13 wie Teil 11 Unvorhersehbarkeit voraussetzt: »Je komplexer eine spezifische Situation ist, über desto mehr relevante Handlungsoptionen verfügt das System. […] Entscheidungen sind in Phasen der Homöostase prinzipiell möglich, an Punkten der Kritikalität in ihren Wirkungen unvorhersagbar.« (s. o. S. 20). Ich habe darauf hingewiesen, dass das Konzept der Komplexitäte das wichtigste Komplexitätskonzept für die Human- und Sozialwissenschaften ist. Ich habe diesen Vorschlag untermauert, indem ich argumentiert habe, dass jede Erklärung, die I-Haltungen einbezieht, eine emergente Erklärung ist, die nicht auf algorithmische InputOutput-Beziehungen (oder irgendeine andere Art von Input-Output-Beziehungen) reduzierbar oder analysierbar ist und dass jede Erklärung, die Spieltheorie oder koordinierte Aktivität oder Kommunikation einschließt, einschließlich Erklärungen in Geschichte, Soziologie, Wirtschaft und Politikwissenschaft, K-Haltungen erfordert und somit eine noch höhere Ebene emergenter Erklärungen darstellt, die nicht auf I-Haltungen reduzierbar oder analysierbar ist. Wenn dies richtig ist, bedeutet dies nicht, dass eine wissenschaftliche Erklärung des Menschen unmöglich ist, sondern nur, dass bestimmte enge Vorstellungen von wissenschaftlicher Erklärung für wissenschaftliche Erklärungen eines Großteils des menschlichen Lebens, sowohl des individuellen als auch des sozialen Lebens, unzulänglich sind. Ich habe zwei emergente Erklärungsebenen in den Humanwissenschaften identifiziert. Gibt es noch mehr? Gibt es eine Erklärungsebene, die sich aus der Ebene der K-Haltungen herauskristallisiert? Ich sehe keinen Grund zu der Annahme, dass es in den Geisteswissenschaften eine höhere emergente Erklärungsebene gibt. Aber es ist immer wichtig, für die Möglichkeit neuer Entdeckungen offen zu bleiben.

6.

Literatur

Axelrod, Robert M. (1984): The Evolution of Cooperation. New York. Churchland, Paul M. (1989): A Neurocomputational Perspective: The Nature of Mind and the Structure of Science. Cambridge, Massachusetts. Churchland, Patricia Smith (1986): Neurophilosophy: Toward a Unified Science of the Mind-Brain. Cambridge, Massachusetts.

287 https://doi.org/10.5771/9783495825464 .

William J. Talbott

Dennett, Daniel (1987): The intentional stance. Cambridge, Massachusetts. Dennett, Daniel (1991): Consciousness Explained. Boston. Grice, H. Paul (1957): Meaning, in: The Philosophical Review 66 (3), 377–88. Grice, H. Paul (1968): Utterer’s Meaning, Sentence Meaning, and WordMeaning, in: Foundations of Language 4 (3), 225–42. Grice, H. P. (1969): Utterer’s Meaning and Intentions, in: The Philosophical Review 78 (2), 147–77. Habermas, Jürgen (1984): Theory of Communicative Action, Volume One: Reason and the Rationalization of Society. Übers. v. Thomas A. McCarthy. Boston, Massachusetts. Habermas, Jürgen (1987): Theory of Communicative Action, Volume Two: Lifeworld and System: A Critique of Functionalist Reason. Übers. v. Thomas A. McCarthy. Boston, Massachusetts. Harman, Gilbert (1976): Practical reasoning, in: Review of Metaphysics 29 (3), 431–463. Harman, Gilbert (2006): Self-Referential Thoughts, in: Philosophical Issues 16, 334–345. Hume, David (2000 [1739]): A Treatise of Human Nature. Hg. von David Fate Norton/Mary J. Norton. Oxford. Kripke, Saul (1982): Wittgenstein on Rules and Private Language. Cambridge, Massachusetts. Luhmann, Niklas (1995): Social Systems. Übers. v. John Bednarz, Jr. Stanford. Nash, John (1951): Non-Cooperative Games, in: Annals of Mathematics 54 (2), 286–295. Putnam, Hilary (1960): Minds and Machines, in: Sidney Hook (Hg.): Dimensions of Mind: A Symposium. New York, 20–33. Quine, Willard Van Orman (1960): Word and Object. Cambridge, Massachusetts. Ryle, Gilbert (1949): The Concept of Mind. New York. Schweikard, David P./Schmid, Hans Bernhard (2013): Collective Intentionality, in: Edward N. Zalta (Hg.): The Stanford Encyclopedia of Philosophy. https://plato.stanford.edu/archives/sum2013/entries/collective-intentionality/. (Zugriff am 1. November 2019). Searle, John (1980): Minds, Brains and Programs, in: Behavioral and Brain Sciences 3 (3), 417–457. Sellars, Wilfrid (1968): Science and Metaphysics. Variations on Kantian Themes. Dordrecht. Vanderschraaf, Peter/Sillari, Giacomo (2014): Common Knowledge, in: Edward N. Zalta (Hg.): The Stanford Encyclopedia of Philosophy. https:// plato.stanford.edu/archives/spr2014/entries/common-knowledge/. (Zugriff am 1. November 2019). Williamson, Timothy (2002): Knowledge and its Limits. Oxford. Wittgenstein, Ludwig (1958): Philosophical Investigations. Übers. v. G. E. M. Anscombe, 3. Ausg. New York.

288 https://doi.org/10.5771/9783495825464 .

Komplexität in Mathematik, Natur- und Lebenswissenschaften

https://doi.org/10.5771/9783495825464 .

https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Wir untersuchen den Begriff der Komplexität in den mathematischen Wissenschaften. Ausgehend vom Begriff eines mathematischen Beweises auf Grundlage der Logik und Axiomatisierung ergründen wir, ob und inwiefern der Prozess der mathematischen Problemlösung lediglich eine einfache, mechanische Aufgabe ist, oder ob man von einem komplexen Unterfangen sprechen kann. Im Anschluss werfen wir einen Blick auf einen Kandidaten für ein komplexes System, in dem sich ein informationstheoretischer Phasenübergang vollzieht.

Einführung: Ist Mathematik komplex? Die Ergebnisse mathematischer Arbeit sind niemals komplex. Sie sind einfach. Das ist der Sinn der Sache. Eine mathematische Herleitung nachzuvollziehen, sollte minimalen Aufwand erfordern und im Idealfall sollte die Überprüfung eines mathematischen Beweises eine lineare, rein mechanische Aufgabe sein. Arthur Conan Doyles berühmter Detektiv liefert eine gute Analogie. Dr. Watson, ohne selbst eine besondere Leuchte zu sein, und selbst der ein wenig stumpfe Inspektor Lestrade können Holmes’ Schlussfolgerungen mühelos nachvollziehen, sobald dieser ihnen die Lösung vorgelegt hat. Das Genie des Meisterdetektivs hingegen glänzt eben gerade beim Kombinieren dieser Herleitungskette aus scheinbaren Belanglosigkeiten oder Widersprüchen. Möchten wir also Komplexität in der Mathematik finden, müssen wir entsprechend auch hier vor allem die Denkprozesse untersuchen, die den Weg zur Lösung des mathematischen Problem führen, anstatt lediglich das Endprodukt, also die Lösung selbst, ins Auge zu fassen. Manchmal stellen diese Denkprozesse beachtliche wissenschaftliche Leistungen dar. Der Problemlösungsprozess Zusammensetzung 291 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

kann die Fähigkeiten eines einzelnen Mathematikers, ja sogar die einer ganzen Generation übersteigen. Was die Auswahl der Probleme angeht, denen wir als Mathematiker unser Leben widmen, so neigen wir dazu, uns auf Fragen zu konzentrieren, die leicht zu formulieren sind und die auch einfache Antworten verlangen, häufig ein lapidares »Ja« oder »Nein« (aber welches von beiden?). Zum Beispiel war der Beweis des großen Satzes von Fermat einer der großen Triumphe der Mathematik des 20. Jahrhunderts. Dieses abstrakte Problem wurde 1637 von Pierre de Fermat formuliert, mitten im Dreißigjährigen Krieg! Fermat stellte sich die (sehr unschuldig anmutende) Frage, ob für irgendeine natürliche Zahl n > 2 natürliche Zahlen a; b; c existieren, sodass (Eq. 1)

an þ bn ¼ cn :

Für n ¼ 2 sind solche Zahlen leicht gefunden; beispielsweise gilt 32 þ 42 ¼ 52 . Hingegen vermutete Fermat, dass es keine natürliche Zahlen gibt, welche die Gleichung (Eq. 1) für irgendein n > 2 lösen. Als Mathematiker begnügte er sich allerdings freilich nicht mit einer Vermutung, sondern er verlangte nach einem Beweis. Dieser Beweis wurde im Jahr 1994 von Sir Andrew Wiles erbracht, eine Leistung, die ihm neben dem Ritterschlag den Abel-Preis einbrachte, die höchste Auszeichnung in der Mathematik. Der Beweis umfasst mehr als 100 Seiten (Wiles 1995). Aber es lohnt sich, ein wenig genauer hinzusehen. Wiles stand mit seiner Problemlösung »auf den Schultern von Riesen«, um mit einem anderen englischen Wissenschaftler zu sprechen. Denn Generationen von Mathematikern, in den Bann gezogen von Fermats Frage und anderen, ähnlich leicht zu formulierenden, aber schwer zu lösenden Problemen, die als Diophantische Gleichungen bekannt sind, hatten bereits eine ausgefeilte mathematische Theorie zu Gleichungen der Form (Eq. 1) entwickelt. Wiles’ Lösung baut auf diesem Theoriegebäude auf. Auch wenn es im Wesentlichen eine mechanische Aufgabe sein sollte, Wiles’ Beweis nachzuvollziehen, bedarf es daher eines jahrelangen Studiums dieses besonderen Gebietes der Mathematik, um die mathematischen Werkzeuge zu beherrschen, die der Beweis benötigt. Mit anderen Worten: Beweise können kompliziert sein. Aber sie zu lesen und zu verstehen, ist trotzdem keine komplexe Aufgabe. Beharrlichkeit, ein gutes Gedächtnis und eine Menge starker Kaffee mögen unabdingbar sein, aber weder Einfallsreichtum noch Kreativität sind gefragt. Nebenbei sei erwähnt, dass 292 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

die Liste der schwersten und wichtigsten heute offenen mathematischen Probleme, bekannt als Milleniumsprobleme, eine Reihe von Fragen enthält, die ebenso einfach zu formulieren sind wie Fermats Problem. Das älteste Problem auf dieser Liste, die Riemannsche Vermutung, geht auf das Jahr 1859 zurück. Aber wenn schon das Nachvollziehen des Beweises keine komplexe Aufgabe darstellt, können wir behaupten, dass Wiles’ Leistung, den Beweis zu entdecken, in einem bedeutsamen Sinne komplex war? Anders gesagt, ist es komplex oder einfach nur kompliziert, die Lösung eines mathematischen Problems wie beispielsweise Fermats Vermutung zu finden? Ausgehend von David Hilberts Vortrag beim Internationalen Mathematikerkongress in Paris im Jahr 1900 haben sich Mathematiker einer beeindruckenden Selbstreflexion unterzogen, um die Komplexität der Lösungsfindung in mathematischen Problemen zu ergründen. Ein wesentliches Ergebnis dieser Bemühungen ist eine neue Disziplin namens »Komplexitätstheorie«. Zugegebenermaßen lässt der aktuelle Stand dieser Disziplin viel zu wünschen übrig. Doch auch in ihrer jetzigen Form liefert die Theorie wichtige Hinweise auf die Ursprünge der Komplexität in der Mathematik und vielleicht darüber hinaus. In den folgenden Abschnitten werden wir uns den dieser Theorie entspringenden Begriff der Komplexität vergegenwärtigen und versuchen, ihn in Einklang mit dem Begriff eines »komplexen Systems« zu bringen.

Beweise Mathematiker jagen nach Beweisen; aber was ist das eigentlich? Ein Beweis ist eine Kette von logischen Schlüssen, die mit einer bereits bekannten Tatsache oder einer Annahme beginnt und mit der zu beweisenden Aussage endet, zum Beispiel dem Großen Fermat. Ein solcher Beweis sollte jede Person vollständig davon überzeugen, dass die bewiesene Aussage korrekt ist. Keine weiteren Argumente oder Belege jeglicher Art wie statistische Daten, Experimente oder Simulationen, oder was auch immer, können die Überzeugungskraft eines mathematischen Beweises steigern oder mindern. Wenn ein mathematischer Beweis ein Ergebnis liefert, das im Widerspruch zur Realität steht, dann zeigt der Beweis lediglich die Unzulänglichkeit der Annahmen, von denen die Kette der Schlussfolgerungen ausgegangen ist, auf. 293 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

In diesem Abschnitt untersuchen wir, wie der Begriff eines mathematischen Beweises selbst zum Gegenstand mathematischer Untersuchungen werden kann. Inwiefern ist es eine mechanische Aufgabe, einen Beweis zu prüfen? Bedarf es der Kreativität, einen Beweis zu finden, und ist diese Aufgabe komplex? a

b

a

b c

b

b b

a

a a a

b

b

c

a a

Abb. 1. Ein geometrischer Beweis vom Satz des Pythagoras. Durch Verschieben der farbigen Dreiecke verändert sich der weiße Flächeninhalt nicht.

Über jeden Zweifel erhaben Mathematische Beweise sind seit der Antike bekannt. Zum Beispiel sagt der Satz des Pythagoras, dass die Seitenlängen a; b und c eines rechtwinkligen Dreiecks die Gleichung (Eq. 2)

a2 þ b2 ¼ c2

erfüllen, wobei c die Länge der Hypothenuse ist. (Beachten Sie, dass dies der Spezialfall n ¼ 2 von Gleichung (Eq. 1) ist.) Abbildung 2 zeigt einen schlüssigen geometrischen Beweis dieses Satzes, der das menschliche Auge vollständig überzeugt. Lassen Sie uns als zweites Beispiel die allseits bekannte Tatsache verifizieren, dass eine natürliche Zahl n genau dann durch drei teilbar ist, wenn das Gleiche für die Summe ihrer Dezimalstellen – die sogenannte Quersumme – gilt. Dazu führen wir die Symbole d0 ; d1 ; . . . ; dk für die Dezimalstellen von n ein, wobei dk die höchst294 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

wertigste Ziffer ist. Somit sind d0 ; d1 ; . . . ; dk ganze Zahlen zwischen null und neun und es gilt k k P P i n ¼ di � 10i ¼ di � ð9 þ 1Þ : (Eq. 3) i¼0

i¼0

Im nächsten Schritt entwickeln wir die Potenzen i

ð9 þ 1Þ ¼ ð9 þ 1Þ � � � � � ð9 þ 1Þ; |fflfflfflfflfflfflfflfflfflfflfflfflfflfflfflfflfflfflffl{zfflfflfflfflfflfflfflfflfflfflfflfflfflfflfflfflfflfflffl}

(Eq. 4)

i-mal

indem wir alles ausmultiplizieren. Das genaue Ergebnis brauchen wir nicht zu kennen. Es genügt, zu bemerken, dass das Ergebnis eins plus ein Vielfaches von neun ist. Werden die 1-Faktoren aus allen i-Klammern kombiniert, so erhält man nämlich eins, während jedes Produkt, das eine Neun als Faktor enthält, selbstverständlich durch neun teili bar ist. Also können wir ð9 þ 1Þ ¼ 9ei þ 1 für irgendeine ganze Zahl ei � 0 schreiben. Wenn wir dieses Ergebnis wieder in (Eq. 3) einsetzen, ergibt sich n¼

k P i¼0

di þ 9

k P

(Eq. 5)

ei :

i¼0

Pk Der zweite Summand Pk 9 i¼0 ei ist durch neun und damit durch drei teilbar. Wenn also i¼0 di durch drei teilbar ist, dann trifft selbiges auch auf n zu, und umgekehrt. (Der aufmerksame Leser wird feststellen, dass sich dieselbe Schlussweise auch auf die »Teilbar-durchneun-Regel« anwenden lässt.) Auch wenn der Leser (hoffentlich) zustimmen wird, dass diese beiden Beispiele mathematischer Beweise die fraglichen Aussagen zufriedenstellend nachweisen, erfordern beide Beweise Vorkenntnisse. Um den Beweis des Satzes von Pythagoras zu verstehen, müssen wir zumindest ein Grundverständnis von Dreiecken, Rechtecken, Längen und Flächen mitbringen. Ferner hat der Beweis die Form eines Bildes und würde daher einem blinden Zweifler verborgen bleiben. Entsprechend muss der Leser, um den Schritten des zweiten Beweises folgen zu können, sich im Besitz von Vorkenntnissen über ganze Zahlen befinden und wissen, wie Klammern multipliziert werden. Da der Beweis in Prosa verfasst ist, wird zudem eine gewisse Vertrautheit mit der deutschen Sprache vorausgesetzt, obwohl der Text womöglich für einen maschinellen Übersetzer bereits hinreichend einfach sein mag. Somit könnte ein Skeptiker darauf verweisen, dass jeder der beiden Beweise in sich zusammenfiele, wenn unsere Vorstellung von den grundlegenden Objekten (Länge, Fläche, 295 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Zahlen) nicht ganz fest gegründet wäre. Darüber hinaus könnte die Verwendung natürlicher Sprache Lücken in der Schlusskette verschleiern. Um diese Unzulänglichkeiten auszuräumen, entstand im 19. Jahrhundert eine neue mathematische Teildisziplin namens mathematische Logik. Statt auf Prosa zurückzugreifen, können seitdem Beweise in der formalen Sprache der mathematischen Logik geschrieben werden, die nur eine Handvoll Symbole umfasst, wie (Eq. 6)

8; 9; ^; _; :; !; $; 2; ¼; ð; Þ

sowie Namen für Variablen (wie n; d1 ; . . . ; dk ; e1 ; . . . ; ek weiter oben) und Prädikate (wie ›teilbar durch drei‹). Ein Beweis besteht dann einfach aus einer Folge von Ausdrücken in dieser formalen Sprache, so dass jeder Ausdruck durch die Anwendung einiger einfacher syntaktischer Deduktionsregeln aus den vorhergehenden abgeleitet werden kann. Zum Beispiel besagt der modus ponens, dass wir aus Ausdrücken der Form A und A ! B (»A impliziert B«) B ableiten können. Mit anderen Worten, immer dann, wenn der Ausdruck A gilt, so gilt auch der Ausdruck B. Ein formaler Beweis ist also nichts anderes als eine Zeichenkette, die aus den Symbolen von [Eq. 6] sowie aus Variablen- und Prädikatsnamen besteht und gewissen syntaktischen Regeln genügt. Der 1929 bewiesene Vollständigkeitssatz von Gödel zeigt, grob gesagt, dass jede mathematische Herleitung, die einen Satz aus Annahmen ableitet, in einen formalen Beweis überführt werden kann (Gödel 1930). Darüber hinaus kann die Richtigkeit eines formalen Beweises im Prinzip rein mechanisch durch einen Algorithmus (d. h. ein Computerprogramm) auf seine Korrektheit überprüft werden. Dies zeigt deutlich, dass die Überprüfung von Beweisen keine komplexe Aufgabe ist. Da jedoch solche formalen Beweise jegliche mathematische Intuition verbergen, veröffentlichen Mathematiker ihre Herleitungen in der Praxis natürlich in Prosa. Doch der Vollständigkeitssatz bietet die Gewissheit, dass jeder mathematische Beweis im Prinzip in eine Abfolge von Anwendungen von Grundregeln wie dem modus ponens zerlegt werden könnte. Abgesehen von der Verwendung von Prosa haben wir in den vorhergehenden Beweisen Begriffe wie Länge, Fläche oder ganze Zahlen vorausgesetzt. Um diese Unklarheiten zu beseitigen, greift die Mathematik auf Axiomatisierung zurück. Die Idee besteht darin, die Deduktionskette mit möglichst wenigen, möglichst einfachen 296 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

Aussagen zu beginnen. Diese Aussagen werden Axiome genannt. Peano hat zum Beispiel einige grundlegende Axiome aufgestellt, die darauf abzielen, den Begriff der natürlichen Zahl zu formalisieren: P1 Jede natürliche Zahl n hat einen Nachfolger SðnÞ. P2 Es gibt eine natürliche Zahl 1, die sich von dem Nachfolger SðnÞ jeder natürlichen Zahl n unterscheidet. P3 Wenn m und n natürliche Zahlen sind und SðnÞ ¼ SðmÞ gilt, dann gilt n ¼ m. P4 Wenn U eine Eigenschaft der natürlichen Zahlen ist, so dass 1 die Eigenschaft U hat und für jede natürliche Zahl n, die die Eigenschaft hat, dasselbe auch auf den Nachfolger SðnÞ zutrifft, dann haben alle natürlichen Zahlen die Eigenschaft U. Lassen Sie uns ein einfaches Beispiel betrachten. Nehmen Sie die natürliche Zahl n ¼ 5. Dann ist laut P1 der Nachfolger Sð5Þ ¼ 5 þ 1 ¼ 6. P2 besagt, dass es keine natürliche Zahl m gibt, so dass m þ 1 ¼ 1 gilt, also 1 die kleinste natürliche Zahl ist, und, ebenso wichtig, die natürliche Zahl 1 existiert. Weiterhin besagt P3, dass wenn n þ 1 ¼ m þ 1 gilt, n ¼ m gelten muss. Das letzte Axiom P4 ist etwas verschachtelter. Stellen Sie sich die natürlichen Zahlen als eine (unendliche) Reihe von Dominosteinen mit der folgenden Eigenschaft vor: Wenn ein Dominostein n umkippt, so fällt auch der n þ 1-te Dominostein. Wenn wir nun den ersten Dominostein der Kette umstoßen, fällt auch der zweite, der dritte, und so weiter. Schlussendlich fallen also unendlich viele Steine. Dieses Prinzip nennt sich das Induktionsprinzip. Die Axiome P1–P4 sind erstaunlich mächtig. Tatsächlich lässt sich eine Fülle von Ergebnissen in der Zahlentheorie allein aus diesen vier bescheidenen Axiomen herleiten. Die Peano-Axiome können gleichwohl unsere natürliche Vorstellung von der Menge der ganzen Zahlen nur unvollständig erfassen. Zumal zeigt der 1931 veröffentlichte Unvollständigkeitssatz von Gödel (grob), dass keine prägnante Axiomatisierung der ganzen Zahlen möglich ist, was die Grenzen des 297 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

axiomatischen Ansatzes aufzeigt (Gödel 1931). Ein Beispiel für ein Ergebnis, das durch die Peano-Axiome nicht beweisbar ist, ist eine Variante des Ramsey-Theorems, die wie folgt lautet: Für alle Tripel natürlicher Zahlen k; l; m gibt es eine natürliche Zahl n mit den folgenden Eigenschaften. Wenn wir jede k-elementige Untermenge der Menge N ¼ f1; 2; 3 . . . ng mit einer von l Farben färben, können wir eine Untermenge N� � N mit mindestens m Elementen finden, so dass alle k-elementigen Untermengen von N� die gleiche Farbe haben und die Größe von N� mindestens so groß ist wie das kleinste Element von N� (Paris 1977). Trotz dieser Einschränkungen und in Ermangelung besserer Alternativen greift die Mathematik auf die Idee der Axiomatisierung zurück. Da die meisten mathematischen Konzepte wie Länge, Fläche oder ganze Zahl im mächtigen Formalismus der Mengenlehre ausgedrückt werden können, bilden eine Handvoll Axiome, die so genannten Zermelo-Frankl-Axiome, die Säulen, auf denen der Großteil der modernen Mathematik ruht. Zusammenfassend lässt sich sagen, dass die überwältigende Mehrheit der mathematischen Theoreme, die seit der Antike aufgestellt wurden, formal aus den Zermelo-FranklAxiomen durch einfache, mechanisch überprüfbare Anwendungen von Grundregeln wie dem modus ponens abgeleitet werden können.

Wie findet man Beweise? Wenn man bedenkt, dass die Überprüfung von Beweisen im Wesentlichen eine mechanische Aufgabe ist, stellt sich natürlich die Frage, ob dasselbe auch für das Auffinden von Beweisen zutrifft. Es ist nicht ungewöhnlich, dass Novizen der Mathematik die Frage stellen: »Wie kommt man auf Beweise? Welchem Schema muss ich folgen?« In der Tat wurde eine Variante dieser Frage von David Hilbert, einem der Titanen der Mathematik, in seinem bereits erwähnten Vortrag im Jahr 1900 aufgeworfen. Folgendes ist als Hilberts zehntes Problem bekannt: Gibt es einen Algorithmus, der entscheidet, ob eine bestimmte Diophantische Gleichung eine Lösung in den positiven ganzen Zahlen hat? Die Fermat-Gleichung (Eq. 1) ist ein Beispiel für eine Diophantische Gleichung. Im Allgemeinen ist eine Diophantische Gleichung eine Polynomgleichung, die eine beliebige Anzahl von Variablen ent298 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

hält (nicht notwendigerweise nur a; b; c wie in (Eq. 1)). Es dürfen auch beliebige ganzzahlige Koeffizienten vor den Monomen stehen. Zum Beispiel hat die Diophantische Gleichung 3a2 –2abcd þ b2 c–3

¼0

(Eq. 7)

die Lösung a ¼ 1; b ¼ 2; c ¼ 2; d ¼ 1. Was meinte Hilbert mit »entscheiden«? Im Wesentlichen meinte er die Frage, ob das Lösen von Diophantischen Gleichungen eine »komplexe« Aufgabe ist oder ob diese Aufgabe mechanisiert werden kann. Mit anderen Worten, gibt es einen Algorithmus, der garantiert immer die richtige Antwort (›ja‹ oder ›nein‹) bei jeder Diophantischen Gleichung liefert? Ein offensichtlicher Algorithmus für die Suche nach Lösungen für Diophantische Gleichungen wie (Eq. 7) wäre, alle möglichen ganzzahligen Werte a; b; c; d auszuprobieren. Wenn dieser Ansatz sorgfältig umgesetzt wird (z. B. durch Ausprobieren aller Lösungskandidaten a; b; c; d, begrenzt durch irgendeine Zahl N und anschließende Steigerung der Begrenzung), können wir sicher sein, dass der Algorithmus schließlich eine Lösung findet, wenn die gegebene Diophantische Gleichung eine besitzt. Zum Beispiel dauert es nicht sehr lange, die Lösung a ¼ 1; b ¼ 2; c ¼ 2; d ¼ 1 zu (Eq. 7) zu finden. Angesichts einer Gleichung wie a4 þ b4 ¼ c4, die nach Fermats letztem Satz keine ganzzahlige Lösung besitzt, würde unser Algorithmus jedoch seine vergebliche Suche bis in alle Ewigkeit fortsetzen – das heißt, der Algorithmus könnte niemals »nein« antworten. Um dieses offensichtliche Problem zu vermeiden, verlangte Hilbert nach einem Algorithmus, der nicht nur garantiert niemals falsch antwortet, sondern auch bestimmt bei jeder Eingabe nach endlichen vielen Schritten stoppt und somit immer eine Antwort gibt. Somit könnte ein mathematischer Beweis dafür, dass die jeweilige Diophantische Gleichung eine Lösung besitzt oder nicht besitzt, durch einfaches Notieren der Schritte, die der Algorithmus ausgeführt hat, gefunden werden. Wenn ein solcher Algorithmus existiert, könnten wir ihn natürlich auf die Fermat-Gleichung (Eq. 1) für einen beliebigen Exponenten n anwenden. Auf diese Weise würden wir ein mechanisches Verfahren zur Erzeugung von Beweisen für mathematische Probleme erhalten, die einem praxiserfahrenen Mathematiker als äußerst schwierig erscheinen müssen. Daher sollte die Antwort auf Hilberts

299 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Frage wohl negativ ausfallen, wenn der Begriff der Komplexität einen Platz in der Mathematik hat. Hilberts zehntes Problem wurde schlussendlich von Davis, Matiyasevich, Putnam und Robinson (Davis/Matiyasevich/Robinson 1976) gelöst. Sie bewiesen, dass der Algorithmus, nach dem Hilbert fragte, nicht existiert. Ihre Lösung ist eng mit dem Halteproblem verflochten, auf das wir in Kürze zu sprechen kommen werden. Doch zuvor sollten wir uns eine andere Frage stellen: Wie kommen überhaupt die Aussagen zustande, die wir beweisen möchten?

Wie findet man Sätze? Mathematiker neigen dazu, sich einfach zu formulierende Probleme zu suchen, die nach einfachen, oder zumindest kurzen, Antworten verlangen. Das zehnte Problem von Hilbert, genauso wie alle ›Milleniumsprobleme‹, sind prominente Beispiele, ebenso wie Fermats letzter Satz. Obgleich einfach zu formulierende und bekannte Probleme ein Antrieb mathematischer Forschung sind, entstehen viele mathematische Durchbrüche vor allem durch die Schaffung neuer mathematischer Begriffe, die neue Fragen aufwerfen oder ein neues Licht auf bestehende werfen. Ein gutes Beispiel dafür ist die Erfindung der Analysis durch Newton und Leibniz. Weitere tiefschürfende Fragestellungen entstehen durch den Kontakt mit anderen Disziplinen wie Physik, Biologie, Informatik und den Wirtschaftswissenschaften, die neue mathematische Disziplinen, Begriffe, Vermutungen und schließlich Beweise inspiriert haben. Mehrere Milleniumsprobleme stammen ursprünglich aus anderen Disziplinen. Ein konkretes Beispiel, auf das wir in Kürze stoßen werden, ist das P6¼NP-Problem, das sich ohne den Fortschritt der modernen Computertechnik wohl kaum gestellt hätte. Es ist durchaus möglich, dass die Entwicklung der Mathematik in Verbindung mit dem Fortschritt in anderen Wissenschaften sowie der Technologie als komplex bezeichnet werden kann. Natürlich ist dieser Prozess nur eine Facette der Menschheitsgeschichte selbst. Vielleicht ist der individuelle kreative Funke, der zur Erfindung neuer mathematischer Konzepte und Forschungsrichtungen führt, ein nicht weniger komplexes psychologisches oder neuronales Phänomen. In Ermangelung eines mathematischen Rahmens, in den sich die individuelle oder historische Entwicklung mathematischer Ideen zwängen 300 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

ließe, werden wir uns jedoch auf die inhärente mathematische Komplexität der Aufgabenstellung, mathematische Beweise zu finden, beschränken.

Auf dem Gipfel der Komplexität Hilberts zehntes Problem kann als Versuch gewertet werden, die Komplexität des Problems der Diophantischen Gleichungen zu messen. Ein Algorithmus, der die Existenz einer Lösung entscheiden könnte, würde die Komplexitätsfrage endgültig negativ beantworten, indem er zeigt, dass ein mechanisches Verfahren zur Beantwortung dieser Fragestellung ausreicht. Daher liegt es nahe zu fragen, welche Arten von mathematischen Problemen prinzipiell durch Algorithmen gelöst werden können. Um diese Frage zu beantworten, ist es notwendig, eine mathematische Definition des Algorithmus-Begriffs auszuarbeiten. Zu Beginn des 20. Jahrhunderts wurden mehrere Begriffsbildungen vorgeschlagen. Beispiele sind die Turingmaschine, die Registermaschine und der �-Kalkül. Alle diese Begriffe erwiesen sich jedoch als äquivalent (Papadimitriou 1995). Anstatt uns in die Details dieser Konstruktionen zu vertiefen, stellen Sie sich einfach ein Computerprogramm in Ihrer bevorzugten (universellen) Programmiersprache als eine gute Definition von »Algorithmus« vor. Wir gehen davon aus, dass dem Programm zu Beginn eine Eingabe gegeben wird und das Programm nach dem Start aber nicht mit der Außenwelt interagiert, abgesehen davon, dass es möglicherweise irgendwann eine Ausgabe produziert. Wie komplex ist die mathematische Analyse von Algorithmen? Zunächst einmal beobachten wir, dass dieses Problem nicht einfacher sein kann als die Lösung von Diophantischen Gleichungen. Wenn wir nämlich leicht entscheiden könnten, ob ein bestimmter Algorithmus nach einer endlichen Anzahl von Schritten stoppt (d. h. seine Berechnung beendet und ein Ergebnis ausgibt), dann könnten wir diese Fähigkeit auf den oben erwähnten Algorithmus anwenden, der versucht, Lösungen für eine Diophantische Gleichung zu finden. Sollte dieser Algorithmus jemals enden, besitzt die Diophantische Gleichung eine Lösung, sonst nicht. Ähnlich verhält es sich mit jedem vermeintlich komplexen System. Nehmen Sie zum Beispiel ein Gittermodell der Proteinfaltung (siehe in diesem Band Schwalbe/Wachtveitl/Heckel et al.). Wie bei 301 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

den Diophantischen Gleichungen könnten wir einen Algorithmus entwerfen, der alle möglichen Faltungen eines Proteins ausprobiert. Anders als im vorigen Beispiel würde dieser Algorithmus immer eine Antwort liefern, da es natürlich nur endlich viele Faltungsmöglichkeiten gibt. Gleichwohl ist die Anzahl der möglichen Faltungen astronomisch. Aber im Prinzip könnten wir ein Computerprogramm schreiben, das sie alle aufzählt. In der Konsequenz könnte jede Frage zur Proteinfaltung als eine Frage über diesen Algorithmus gestellt werden. Folglich stellt die mathematische Untersuchung von Algorithmen eine mindestens ebenso komplexe Herausforderung dar wie das Studium eines jeden Systems, welches durch ein Computerprogramm simuliert werden kann. Es ist somit zu erwarten, dass die Analyse von Algorithmen eine Aufgabe von ziemlich enormer Komplexität darstellt. Kehren wir für einen Augenblick zu den Diophantischen Gleichungen zurück. Dort standen wir vor einer sehr einfachen Frage: Wird der Algorithmus, der alle möglichen Lösungen ausprobiert, jemals anhalten oder endlos weitersuchen? Diese Frage wird als das Halteproblem bezeichnet. Da die Antwort auf Hilberts zehntes Problem negativ ausfiel, kann es keinen Algorithmus geben, der das Halteproblem löst. In der Tat ist es nicht schwierig, diese Tatsache direkt zu beweisen, ohne auf die Lösung von Hilberts zehntem Problem zurückzugreifen, wie wir gleich sehen werden. Theorem 1 (Turing 1937). Es gibt keinen Algorithmus, der das Halteproblem entscheidet. Beweis Angenommen, es gäbe einen solchen Algorithmus. Nennen wir ihn H. Dann entscheidet H, wenn man den Programmcode eines beliebigen Algorithmus’ A eingibt, ob A nach einer endlichen Anzahl von Schritten stoppt (dann antwortet H mit ›ja‹) oder nicht (›nein‹). Betrachten wir nun den folgenden Algorithmus B. Bei einer Eingabe x startet B den Algorithmus H mit dieser Eingabe x. Falls H mit ›ja‹ antwortet, beginnt B eine unendliche (sinnlose) Berechnung. Wenn hingegen H mit »nein« antwortet, stoppt B prompt. Was passiert, wenn wir B mit seinem eigenen Programmcode füttern? Es gibt zwei Möglichkeiten.

302 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

Möglichkeit 1: der Algorithmus B stoppt dann antwortet H bei der Eingabe B mit ›ja‹, weil H das Halteproblem löst. Wenn H jedoch ›ja‹ antwortet, dann hält B per Konstruktion nicht an. Möglichkeit 2: der Algorithmus B hält nicht an dann gibt HðBÞ ›nein‹ aus. Aber in diesem Fall hält B sofort an. Wenn also B aufhört, dann hört er nicht auf, und wenn B nicht aufhört, hört er auf. Dieser Widerspruch widerlegt die Annnahme, dass es einen Algorithmus H gibt, der das Halteproblem löst. ◻ In dem obigen Beweis haben wir uns einer sehr weit verbreiteten Beweistechnik bedient: des Beweises per Widerspruch. Ausgehend von einer Grundannahme wird eine strikte Deduktionskette gebildet, die in offenbar falschen Aussagen endet. Daher muss die Grundannahme unzutreffend gewesen sein. Theorem 1 zeigt, dass die Beantwortung der wohl grundlegendsten Frage zu Algorithmen eine hoffnungslos schwierige Aufgabe ist. Aufbauend auf Theorem 1 erweitert das Theorem von Rice diese Aussage auf eine große Klasse von Fragen über Algorithmen, die Mathematiker als nicht trivial bezeichnen. Tatsächlich beruht der Beweis für das Problem der Diophantischen Gleichungen auf Theorem 1. Im Kern des Arguments steht eine geschickte Konstruktion, die zeigt, dass ein beliebiger Programmcode derart in eine Diophantische Gleichung übersetzt werden kann, dass diese Gleichung genau dann eine Lösung besitzt, wenn der Algorithmus nach endlich vielen Schritten anhält. Mit anderen Worten kann also jeder Programmcode durch Diophantische Gleichungen ausgedrückt werden, das heißt, die Komplexität des Halteproblems stimmt mit der Komplexität des Lösens Diophantischer Gleichungen überein!

Von Simplex zu komplex Wie wir soeben gesehen haben, erwies sich die Antwort auf Hilberts zehntes Problem als negativ. Aber selbst eine positive Antwort hätte menschliche Mathematiker, die an Diophantischen Gleichungen arbeiten, nicht unmittelbar um ihre Existenz bangen lassen. Denn selbst wenn die Aufgabe, Diophantische Gleichungen zu lösen, an einen Algorithmus hätte delegiert werden können, hätte sich der Ressourcenbedarf dieses Algorithmus möglicherweise als exorbitant er303 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

wiesen. Beispielsweise dürfte ein Algorithmus, dessen Zeitbedarf für die Lösung selbst einer scheinbar einfachen Diophantischen Gleichung unsere Lebensdauer (oder die der menschlichen Spezies oder unseres Sonnensystems) übersteigt, wohl kaum als praktische Lösung durchgehen. Algorithmen mit solch massiv hohen Laufzeiten sind keineswegs so selten, wie es vielleicht auf den ersten Blick scheinen mag. Beispielsweise suchte Leonard Euler, ein weiterer Olympionik der Mathematik, 1769 nach natürlichzahligen Lösungen der Gleichung a4 þ b4 þ c4 ¼ d4 : Außerstande, eine solche Lösung zu finden, vermutete Euler, dass keine existiert. Hier jedoch irrte selbst der grosse Euler. Im Jahr 1986 zeigte Elkies (Elkies 1988) 1, dass 26824404 þ 153656394 þ 187967604 ¼ 206156734 : Wie lange würde es dauern, bis ein Algorithmus wie derjenige, der alle möglichen Kandidaten ausprobiert, sozusagen mittels Brachialgewalt auf diese Lösung stößt? Selbst wenn wir dem Algorithmus eine Obergrenze von, sagen wir, 2; 1 � 107 für die größte ganze Zahl geben würden, würde der Algorithmus, um a; b; c zu finden, circa 8 � 1020 Versuche benötigen. Doch was heißt das? Sehr leistungsstarke moderne Computer schaffen es durchaus 109, also 1 Milliarde, Versuche pro Sekunde durchzuführen. Doch selbst bei dieser immensen Geschwindigkeit würden unsere Nachkommen noch in etwa 3000 Jahren einer Antwort harren. Es überrascht also kaum, dass Elkies nicht durch stupides Ausprobieren auf seine Lösung gestoßen ist. Angesichts dieses Beispiels ist es naheliegend, dass das Aufkommen moderner Computer seit Mitte des 20. Jahrhunderts zu einer näheren Untersuchung der ›Komplexität‹ in mathematischen Fragestellungen geführt hat. Die Zielsetzung war, zu ergründen, welche Probleme prinzipiell einerseits eine stupide, vollständige und somit langwierige Suche nach einer Lösung erfordern und für welche Probleme andererseits kluge Abkürzungen existieren. Wir werden als nächstes ein universelles Beispiel der letzteren Art kennenlernen.

Dieses Beispiel wurde von Andrew Wiles in seinem Vortrag auf dem International Congress of Mathematicians in Berlin 1998 zitiert.

1

304 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften 3/2

1

7/8 1

0

Abb. 2. Das von (Eq. 10) definierte Polytop (rot) enthält keine ganzzahligen Punkte.

Lineare Gleichungen und Ungleichungen Lineare Gleichungen bieten ein Lehrbuchbeispiel für ein einfaches Problem. Bereits in der Schule lernen wir, wie ein lineares System der Form (Eq. 8)

Ax ¼ y;

gelöst wird. Hierbei sei A eine rationale m � n-Matrix, y ein rationaler Vektor der Größe m und x ein n-dimensionaler Vektor von Unbekannten. Womöglich erscheint einigen Lesern folgende äquivalente Form des Ausdrucks [Eq. 8] vertrauter: a11 x1 a21 x1 .. .

þ þ .. .

a12 x2 a22 x2 .. .

þ þ .. .

��� ��� .. .

þ þ .. .

a1n xn a2n xn .. .

¼ ¼ .. .

y1 y2 .. .

am1 x1

þ

am2 x2

þ

���

þ

amn xn

¼

ym :

Ein Algorithmus zur Lösung solcher linearer Systeme, allgemein als »Gaußsches Eliminationsverfahren« bezeichnet, fördert entweder eine Lösung zutage oder stellt die Nichtexistenz von Lösungen fest. Die erforderliche Anzahl der arithmetischen Grundoperationen (Ad3 dition, Multiplikation, Division) beträgt höchstens ðm þ nÞ , ist also 305 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

nicht viel größer als das Gleichungssystem selbst. Folglich skaliert das Gaußsche Eliminationsverfahren auch für (mäßig) große lineare Systeme. In der Tat wird der Algorithmus, eines der Arbeitspferde der angewandten Mathematik, als Unterprogramm zur Bewältigung zahlloser anderer Probleme von der Wettervorhersage bis zum maschinellen Lernen genutzt. Ein wenig allgemeiner sind Systeme linearer Ungleichungen. In dieser Verallgemeinerung von [Eq. 8] soll ein Vektor x gefunden werden, so dass (Eq. 9)

Ax � y;

wobei die �-Beziehung koordinatenweise zu verstehen ist. Zum Beispiel besitzt das System 0 1 0 1 1 1 1 B –2 –1 C� � B –3=2 C B C B C B –1 0 C x1 B 0 C � (Eq. 10) B C x2 B C @ 0 –1 A @ 0 A 1 0 7=8 die Lösung x1 ¼ 2=3, x2 ¼ 1=4. Genauer gesagt existiert eine unendliche Anzahl von Lösungen. Die Menge dieser (reellen) Lösungen von (Eq. 10) bildet ein sogenanntes Polytop, wie in Abbildung 3 dargestellt. Im allgemeinen ist die Menge aller reellen Lösungen eines Systems linearer Ungleichungen wie (Eq. 9), sofern sie nicht leer ist, ein konvexes Polytop, dessen Habitat der euklidische Raum ist. Unzählige Probleme in den Wirtschaftswissenschaften, in Logistik und Planung können in die Form von Systemen linearer Ungleichungen, die auch als lineare Programme (LPs) bezeichnet werden, überführt werden. Darauf wiesen in den 1940er Jahren Hitchcock, Kantorowitsch und Koopmans hin. Den beiden Letzteren wurde im Jahr 1975 der Nobelpreis für Wirtschaftswissenschaften für diese Entdeckung verliehen. Unabhängig davon wurden LPs von Dantzig untersucht, der auch einen Algorithmus entwickelte, um entweder Lösungen zu finden oder deren Nichtexistenz festzustellen. Heute gilt sein Algorithmus, der als Simplex-Algorithmus bekannt ist und ebenso leicht zu erklären wie zu implementieren ist, als die Standardmethode für die Lösung großer LPs. In der Praxis hat sich der Simplexalgorithmus in der Produktionsplanung, Logistik, Terminierung und ähnlichen Problemen in der Mikroökonomie bewährt. 306 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

Aus mathematischer Sicht ist der Simplex-Algorithmus dennoch unbefriedigend. Denn es gibt Beispiele von LPs, bei denen die Laufzeit sich exponentiell zu der Anzahl der Variablen verhält. Das bedeutet, dass zur Lösung eines Problems mit n Variablen der Simplex-Algorithmus größenordnungsmäßig 2n Schritte benötigt. Selbst wenn die Anzahl der Variablen relativ gering ist (z. B. n ¼ 100), kann die vom Simplex-Algorithmus benötigte Zeit daher menschliche Maßstäbe weit übersteigen. Um uns exponentielles Wachstum zu vergegenwärtigen, greifen wir auf die Reiskornparabel zurück. Legen wir auf das erste Feld eines Schachbrettes ein Reiskorn, auf das zweite Feld zwei Reiskörner, auf das dritte Feld vier Reiskörner und so weiter, so genügten die 244 ¼ 17:592:186:044:416 Reiskörner auf Feld Nummer 45, um ganz Deutschland mit einer dünnen, aber nahrhaften Schicht von Reis zu überziehen. Bei Feld Nummer 64 angekommen, hätten wir es mit einer Menge Reis vom Gewicht des Mount Everest zu tun. Dieses Manko der exponentiellen Laufzeit auf manchen Eingaben wurde schließlich von Khachiyan behoben, der einen neuen Algorithmus, die sog. Ellipsoidmethode, entwickelte. Wie das Gaußsche Eliminationsverfahren erreicht auch die Ellipsoidmethode stets innerhalb einer Zeit, die polynomiell in der Anzahl der Variablen des zu lösenden Systems skaliert (Khachiyan 1980), das Ziel. Damit gelang es Khachiyan also zu zeigen, dass die Lösung von LPs niemals komplex ist. Dass das Lösen von LPs einfach ist, entspricht unserer Intuition, dass »lineare Probleme nicht komplex« sind. Tatsächlich wird in der Mathematik im Zusammenhang der sog. Komplexitätstheorie die Klasse der Probleme, die als LPs ausgedrückt werden können, gewöhnlich mit der Klasse der »grundlegend einfachen« Probleme identifiziert. Diese Klasse wird üblicherweise mit dem Symbol P bezeichnet. Somit umfasst P alle mathematischen Problemtypen, die direkt in ein lineares Programm der Form [Eq. 8] übersetzt werden können. Der Buchstabe P stammt von »Polynomialzeit«, zumal dank Khachiyans Algorithmus tatsächlich ein Verfahren bereitsteht, das jedes derartige Problem in einer Zeit löst, die polynomiell in der Größe der Aufgabenstellung skaliert. Da die Zeitanforderung nicht exponentiell, sondern polynomiell skaliert, können diese Probleme praktisch im industriellen Maßstab gelöst werden. Man kann also mit Fug und Recht behaupten, dass die Probleme in P nicht nur von einem abstrakten, theoretischen Standpunkt aus betrachtet einfach sind, son307 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

dern auch im wirklichen Leben. In der Tat können unzählige Probleme der realen Welt als lineare Programme ausgedrückt werden und fallen daher in die Klasse P . Ein schönes Beispiel ist die Ermittlung der kürzesten Route zwischen zwei Standorten, die Grundaufgabe jeder Navigationssoftware. Es sind verschiedene andere Charakterisierungen der Klasse P bekannt. Zum Beispiel kann P als die Klasse der Ja/Nein-Fragen eingeführt werden, für die ein Programmcode auf einem modernen Computer die richtige Antwort in einer Zeit finden kann, die polynomiell in der Größe der Problembeschreibung skaliert. Wie im Falle der verschiedenen Begriffsbildungen von »Algorithmus«, die wir bereits kennengelernt haben, sind alle diese Definitionen äquivalent (Papadimitriou 1995). Sie alle vermitteln ein und dieselbe Botschaft: Die Klasse P umfasst jene mathematischen Fragestellungen, die sich effektiv automatisieren lassen und daher einfach sind.

Lineare Ungleichungen über den ganzen Zahlen In der linearen Programmierung fragen wir nach einer rationalen Lösung für das System [Eq. 8] linearer Ungleichungen. Diese Aufgabe ist einfach. Der Ellipsoid-Algorithmus von Khachiyan löst sie abschließend. Aber wenn wir stattdessen nach einer ganzzahligen Lösung fragen, bei der also jeder Eintrag von x der Menge der ganzen Zahlen angehört, dann wird aus dem harmlosen linearen Problem eine beachtliche Herausforderung. Khachiyans Algorithmus ist nicht mehr anwendbar. Tatsächlich wurde trotz intensivster Forschungsbemühungen in mehr als 50 Jahren kein Algorithmus mit polynomieller Laufzeit zur Lösung dieses Problems gefunden, das unter »ganzzahlige lineare Programmierung« firmiert. Beispielsweise enthält das in Abbildung 3 angezeigte Polytop keinen Punkt mit ganzzahligen Koordinaten. Obwohl also das lineare Programm (Eq. 10) die rationale Lösung x1 ¼ 2=3, x2 ¼ 1=4 besitzt, existiert keine ganzzahlige Lösung. Diese Frage nach ganzzahligen Lösungen ist nicht nur rein akademischer Natur. In Anwendungen beschreiben lineare Gleichungen oft Abhängigkeiten bei der Produktion von Gütern, und die Minimierung der Kosten oder die Maximierung des Gewinns ist das Brot und Butter der Optimierung von Produktionsprozessen. Allerdings sind Güter oft nicht beliebig teilbar, sondern müssen in ganzen Einheiten gekauft, produziert oder trans308 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

portiert werden; z. B. ist es schwierig (wenn auch vielleicht nicht völlig unmöglich), ein halbes Auto zu verkaufen. Ein wenig theoretischer betrachtet gibt es eine Analogie zu dem Problem der Diophantischen Gleichungen. Eine reelle Lösung für eine Gleichung wie (Eq. 1) zu finden, ist für jedes n einfach. In der Tat betrachten wir für ganze Zahlen a; b > 0 einfach pffiffiffiffiffiffiffiffiffiffiffiffiffiffi c ¼ n an þ bn : (Eq. 11) Aber natürlich ist die rechte Seite von (Eq. 11) im Allgemeinen keine ganze Zahl. Genauer zeigt der große Satz von Fermat, dass das für n > 2 niemals der Fall ist. Doch während man auf dem Umweg über das Halteproblem zeigen kann, dass kein Algorithmus, ganz unabhängig von der Rechenzeit, die zur Verfügung steht, in der Lage ist, das Problem der Diophantischen Gleichungen zu lösen, existiert im Fall der ganzzahligen linearen Programmierung ein Algorithmus, der stets in endlicher Zeit richtig antwortet. Die Grundidee besteht darin, einfach alle möglichen ganzzahligen Vektoren innerhalb eines ausreichend großen Würfels auszuprobieren, der garantiert eine ganzzahlige Lösung enthält, wenn es überhaupt eine gibt. Bei diesem Unterfangen begegnet uns jedoch ein offensichtliches Problem: Die Anzahl der benötigten Versuche verhält sich exponentiell zu der Anzahl der Variablen. Selbst wenn die Anzahl der Variablen also einigermaßen überschaubar ist, sagen wir n ¼ 1000, würde eine exponentielle Laufzeit von 2n jegliche menschlichen Maßstäbe übersteigen. Selbst wenn die Menschheit bereit wäre, alle jetzt existenten Computer und darüber hinaus alles Rechengerät, das jemals gebaut werden mag, allein dieser Aufgabe zu widmen, würde die Lebensdauer unseres Sonnensystems nicht genügen, um die Berechnung zu Ende zu führen. Auch die Entdeckung neuer Techniken wie etwa des Quantencomputers würde daran nichts ändern. Die Menge aller mathematischen Probleme, die als ganzzahlige lineare Programmierprobleme ausgedrückt werden können, wird allgemein als NP bezeichnet. Da jedes lineare Programm in ein äquivalentes ganzzahliges lineares Programm übersetzt werden kann, enthält NP die Klasse P . Da aber bislang keine umgekehrte Übersetzung ganzzahliger linearer Programme in einfache lineare Programme bekannt ist, wissen wir genaugenommen nicht, ob die beiden Klassen P und NP übereinstimmen. Es wird aber weithin vermutet, dass dies nicht der Fall ist und dass ein exponentieller Zeitbedarf für ganzzah309 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

lige lineare Programme unvermeidlich ist. Dieses Problem, bekannt als das »P 6¼ NP -Problem«, gilt als eine der größten Herausforderungen der modernen Mathematik, und die Frage hat es berechtigterweise auf die erlesene Liste der Millenniumsprobleme geschafft. In der realen Welt gibt eine Fülle von Problemen, die sich als ganzzahlige lineare Probleme ausdrücken lassen. In den meisten Fällen ist die Ganzzahligkeitsbedinung von entscheidender Bedeutung. Diese mathematischen Probleme können somit typischerweise nicht als einfache LPs ausgedrückt werden (falls nicht doch P ¼ NP ). Diese Fragestellungen sind als NP -vollständige Probleme (Cook 1971; Karp 1972) bekannt. Zu den bekanntesten Beispielen zählen das Problem des Handelsreisenden, das Erfüllbarkeitsproblem oder das Lösen einer gegebenen n2 � n2 -Sudoku-Tabelle. Im Problem des Handelsreisenden geht es darum, die kürzeste Route durch eine gegebene Menge verschiedener Stationen zu finden, wohl um Waren zu verkaufen. Neben solchen abstrakten Problemstellungen finden sich in der Praxis Unmengen NP -vollständiger Probleme in Wirtschaft, Informatik, Biologie, Physik und anderen Disziplinen. Das Problem der Proteinfaltung im Gittermodell ist ein konkretes Anwendungsbeispiel. Mit anderen Worten: Fragen zu vielen Systemen, die in diesen Disziplinen umgangssprachlich als »komplex« bezeichnet werden, lassen sich in der Sprache der ganzzahligen linearen Programme ausdrücken. Daher liegt es auf der Hand, zu fragen, ob und inwiefern die augenscheinliche Komplexität dieser Fragestellungen mit der scheinbaren Schwierigkeit des Problems der ganzzahligen linearen Programme zusammenhängt. Doch zuvor sollten wir bemerken, dass nicht jedes ganzzahlige lineare Programm, und erst recht nicht jede Instanz eines NP -vollständigen Problems, gleich ein schwerer Fall ist. Denn große reale Instanzen des Problems des Handelsreisenden, des Erfüllbarkeitsproblems oder anderer ähnlicher Probleme können manchmal durch geschickte Heuristiken gelöst werden. Der Erfolg solcher heuristischer Verfahren erklärt sich dadurch, dass vielfach NP -vollständige Probleme, die in realen Anwendungen auftreten, das Ergebnis anderer Prozesse sind, die selbst nicht komplex sind. Beispielsweise mag es sich dabei um Messungen handeln, deren Ergebnisse durch Messfehler verrauscht sind, weil man eben nicht genau genug messen kann. Bei der Modellierung solcher Probleme wird gemeinhin angenommen, dass das Rauschen zufällig ist. Diese Annahme vereinfacht die Lösungsfindung erheblich (Spielmann/Teng 2004). Darüber hinaus können In310 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

stanzen des NP -vollständigen Erfüllbarkeitsproblems, die in der Modellüberprüfung auftreten, wo es darum geht, die Korrektheit eines Hardware- oder Softwaresystems zu verifizieren), häufig durch Algorithmen, die ganz speziell für diese Anwendung entwickelt wurden, effizient gelöst werden. Doch im Gegensatz zum Problem der linearen Programmierung ohne Ganzzahligkeitsbedingung, das durch den Algorithmus von Khachiyan gelöst werden kann, kennen wir keinen effizienten Allzweckalgorithmus für allgemeine ganzzahlige lineare Programme. Somit erfordert die Überwindung der NP-Vollständigkeit, soweit wir wissen, eben doch manchmal echte menschliche Kreativität. Zu guter Letzt sei angemerkt, dass neben P und NP die Komplexitätstheorie einen veritablen Zoo von Komplexitätsklassen aufbietet. Zum Beispiel umfasst die Klasse #P grob gesprochen Probleme, die sich in die Aufgabe, die Anzahl der Lösungen eines ganzzahligen linearen Programms zu bestimmen (und nicht nur zu sagen, ob überhaupt eine Lösung existiert), überführen lassen. Diese Klasse, die NP enthält, ist von besonderer Bedeutung in der Statistik. Darüber hinaus gibt es zwischen NP und der Klasse der entscheidbaren Probleme, die also überhaupt von einem Algorithmus gelöst werden können, ganz unabhängig von seinem Zeitbedarf, eine unendliche Hierarchie von Komplexitätsklassen. Zwischen vielen dieser Klassen bestehen Beziehungen, die zeigen, dass die eine Klasse die andere enthält oder nicht enthält (Papadimitriou 1995). Diese mathematische Theorie zeigt also, dass Komplexität vielleicht kein absolutes, sondern ein relatives Phänomen ist. Es ist denkbar, dass sich die Komplexität verschiedener Probleme oder »Systeme« am besten erfasst lässt, indem man fragt, welche anderen Systeme ein gegebenes System ausdrücken kann.

Proteinfaltung Das Proteinfaltungsproblem, dessen biologische Aspekte im Beitrag von Schwalbe /Wachtveitl/Heckel et al. (s. S. 402 ff.) diskutiert werden, liefert ein wunderbares Beispiel für die Janusköpfigkeit der Komplexität mathematischer Probleme. Wir werden einerseits feststellen, dass das Proteinfaltungsproblem eigentlich der ganzzahligen linearen Programmierung entspricht, also NP -vollständig ist. Andererseits falten sich Proteine in der realen Welt allerdings in Bruchteilen von Sekunden. 311 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Eine weithin untersuchte mathematische Abstraktion des Proteinfaltungsproblems lautet wie folgt (Dill/Bromberg/Yue et al. 1995; Lau/Dill 1989). Ein Protein wird als Kette s ¼ ðs1 ; . . . ; sn Þ mit si ¼ �1 modelliert, die anzeigt, ob die i’te Aminosäure des Proteins hydrophil oder hydrophob ist. Eine praktikable Einbettung der Kette (also eine mögliche Faltung des Proteins) ist eine Abbildung, so dass die Sequenz �1 ; . . . ; �n ein selbstvermeidender Pfad auf dem ganzzahligen Gitter ist. In diesem Modell besteht das dreidimensionale ganzzahlige Gitter aus den Punkten ðx1 ; x2 ; x3 Þ, die ganzzahlige Einträge haben: x1 ; x2 ; x3 2 Z es ist also eine Art dreidimensionales Raster. (Ein wenig informell ist � eine Vorschrift, die aufeinanderfolgende Aminosäuren auf benachbarte Gitterpunkte abbildet und keine Schleifen enthält.) Zusätzlich gibt es eine Energiefunktion E ð�Þ, die jeder möglichen Einbettung � ein Energieniveau zuordnet. Konkret wird die Energie E ð�Þ durch die Anzahl der Gitterkanten bestimmt, die hydrophile oder hydrophobe Proteine unter der Einbettung � verbinden – dies modelliert, dass solche Verbindungen eher unwahrscheinlich sind. Eine natürliche Frage ist, ob wir bei einer Sequenz s einen Grundzustand � bestimmen können, d. h. eine Einbettung, die E ð�Þ minimiert (Bryngelson/Wolynes 1987). Es ist nicht schwierig, diese Fragestellung als ganzzahliges lineares Programm zu formulieren. Folglich ist die Komplexität, eine optimale Faltung � unseres Proteins zu finden, von oben durch die Komplexität des Problems der ganzzahligen linearen Programmierung beschränkt. Umgekehrt, vielleicht überraschend, kann jedes ganzzahlige lineare Programm in ein Proteinfaltungsproblem übersetzt werden! Mit anderen Worten, beide Probleme sind – aus mathematischer Sicht – gleich komplex. Das heißt, das Proteinfaltungsproblem ist genauso aussagekräftig wie die gesamte Komplexitätsklasse NP . Im vorigen Abschnitt haben wir einen Algorithmus betrachtet, der versucht, eine Lösung für ein ganzzahliges lineares Programm mit Hilfe einer Brute-Force-Aufzählung zu finden. In ähnlicher Weise könnten wir versuchen, alle möglichen Einbettungen � eines gegebenen Proteins aufzuzählen (z. B. ausgehend vom Ursprung). Dieser Algorithmus würde natürlich letztendlich eine optimale Einbettung finden. Aber wie im Fall der ganzzahligen linearen Programmierung würde die Zeit, die dieses Unterfangen in Anspruch nimmt, wahrscheinlich die Lebensdauer unserer Galaxie übersteigen. Im Zusammenhang mit der Proteinfaltung ist diese Beobachtung als Levinthals Paradoxon bekannt. Dabei war sich Levinthal natürlich bewusst, dass 312 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

die Natur Proteine in Bruchteilen von Sekunden faltet. Diese Tatsache ist umso bemerkenswerter, als dass unser Modell lediglich eine relativ einfache Abstraktion der deutlich komplizierteren Interaktionen ist, die wir in der realen Welt beobachten. Heißt das, dass wir beginnen sollten, ganzzahlige lineare Programme zu lösen, indem wir sie als Proteine »in vitro« kodieren und ihre Lösung von der anschließenden Faltung dieses Proteins ablesen? Vermutlich nicht. Der Grund dafür ist, wie oben im allgemeinen Kontext der NP-vollständigen Probleme diskutiert, dass die Proteine, die sich in der Natur gut falten, vermutlich von besonderer Art sind. So haben sie sich zusammen mit den Organismen entwickelt, die von ihren Faltungsmechanismen abhängen. Mit anderen Worten, die Proteine, die sich in der Natur gut falten lassen, wurden genau wegen dieser Eigenschaft ausgewählt. Im Gegensatz dazu ließe sich eine Proteinkette, die ein ganzzahliges lineares Programm für eine anspruchsvolle Rechenaufgabe kodiert (wie das Problem der Parität mit Rauschen, das wir im nächsten Abschnitt erörtern werden), wahrscheinlich nicht leicht in ihre optimale Einbettung falten. Daher kann die Verbindung zwischen der ganzzahligen linearen Programmierung und der Proteinfaltung bestenfalls die Proteinfaltung erklären und entzieht sich einem einfachen kombinatorischen Verständnis. Aber auch diese Verbindung reicht nicht aus, um die Komplexität der Proteine zu erklären, die sich zusammen mit Organismen entwickeln, um günstige Faltungen zu ermöglichen.

Unmöglich, schwer, einfach Scheinbar komplexe »Systeme« zeichnen sich durch ihre evolutionäre Natur aus, die unerwartete und unvorhersehbare Entwicklungen zeitigt. Aber was genau bedeutet »unvorhersehbar«? Etwa, dass das System auch für einen Beobachter mit unbegrenzten analytischen Fähigkeiten prinzipiell unvorhersehbar ist, weil die beobachtete zeitliche Entwicklung des Systems keine Hinweise preisgibt? Oder übersteigen die analytischen Fähigkeiten, die nötig wären, um aus der beobachteten Evolution die notwendigen Schlussfolgerungen zu ziehen, »lediglich« menschliche Maßstäbe? Können wir im letzteren Fall Verbindung herstellen zwischen dem Begriff der Berechnungskomplexität, wie wir ihn anhand der Klassen P und NP kennengelernt haben, und der Komplexität einer Vorhersage der zukünftigen Entwicklung 313 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

des »Systems«? In diesem Abschnitt versuchen wir, diese Fragen am Beispiel eines leicht zu beschreibenden mathematischen »Systems« zu erläutern, das eine »zeitliche« Evolution vollzieht.

Parität mit Rauschen Unser »System« entstammt der Kommunikationstheorie, einem Bereich der Mathematik, der auf die Arbeit von Shannon in den 1940er Jahren (Shannon 1948) zurückgeht. Stellen Sie sich einen Sender vor, der versucht, eine Nachricht über einen verrauschten Kanal an einen Empfänger weiterzuleiten. Die Nachricht besteht aus einer Folge von Bits – also Einsen und Nullen –, von denen der Empfänger versucht, so viele wie möglich korrekt wiederherzustellen. Um den Empfänger dabei zu unterstützen, fügt der Sender der Nachricht gezielt Redundanz hinzu. Konkret bedient er sich dabei eines einfachen, aber naheliegenden Kodierungsschemas. Anstatt nämlich die einfache Nachricht x� zu senden, übermittelt der Sender den Vektor Ax�, wobei A eine sowohl dem Sender als auch dem Empfänger bekannte Matrix ist. Leider verändert der verrauschte Kanal jedes gesendete Bit mit einer gewissen Wahrscheinlichkeit p > 0 unabhängig. Also kommt beim Empfänger ein Zufallsvektor y� an, der sich aus Ax� ergibt, indem jedes Bit mit einer Wahrscheinlichkeit p > 0 verkehrt wird. Ein kurzes Beispiel mag dieses Verfahren verdeutlichen. Wir wollen das 4-Bit-Wort x� ¼ ð1; 0; 0; 1Þ mithilfe der Matrix 0 1 1 0 0 0 B0 1 0 0C B C B0 0 1 0C B C C A¼B B0 0 0 1C B1 1 0 1C B C @1 0 1 1A 0 1 1 1

314 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

versenden. Die Matrix kann als sogenannter Faktorgraph dargestellt werden, wobei die runden Knoten oben die Bits der Eingangsnachrichten und die quadratischen Prüfknoten unten die Paritätschecks dieser Bits zur Erzeugung der Kanalausgabe darstellen. Die runden Knoten entsprechen also den Spalten und die Quadrate den Zeilen der Matrix A. Nunmehr berechnen wir Ax� ¼ ð1; 0; 0; 1; 0; 0; 1Þ. Dieses Wort wird über den Kanal geschickt, der es zufällig verrauscht. Die tatsächliche Kanalausgabe könnte also beispielsweise y� ¼ ð1; 1; 0; 1; 0; 0; 0; 1Þ sein. In diesem Fall ist der Empfänger in der Lage, die durch A beigefügte Redundanz zu nutzen, um die korrekte Nachricht wiederherzustellen. Eine korrekte Wiederherstellung ist gleichwohl nicht bei jeder Kanalausgabe möglich. Formal gesehen ist x� ein Zufallsvektor der Dimension n über dem Körper mit den beiden Elementen 0; 1. In diesem Körper sind die arithmetischen Operationen definiert durch 0 þ 0 ¼ 0, 0 þ 1 ¼ 1 þ 0 ¼ 1, 1 þ 1 ¼ 0 und 0 � 0 ¼ 0 � 1 ¼ 1 � 0 ¼ 0, 1 � 1 ¼ 1. Der Einfachheit halber nehmen wir an, dass A eine zufällige m � n-Matrix ist, deren Zeilen jeweils genau drei Einsen enthalten. Weiterhin nehmen wir an, dass die Matrix A stochastisch unabhängig von x� ist, also unabhängig von der zu übermittelnden Nachricht gewählt wird. Schließlich ergibt sich der empfangene Vektor y� aus y� ¼ Ax� þ z, wobei ein Zufallsvektor ist, der unabhängig von x� und A erzeugt wird, so dass jede Komponente von z unabhängig mit einer Wahrscheinlichkeit von p > 0 gleich eins ist. Dieses Kodierungsschema ist in der Literatur als Low-Density Generator Matrix (›ldgm‹) Code bekannt (Kudekar/Richardson/Urbanke 2011). Es liegt auf der Hand, dass ein größeres m mit einem größeren Vektor y� und somit mit einem größeren Informationsgehalt einhergeht, den die empfangene Nachricht y� über die ursprüngliche Nachricht x� vermittelt. Wir können uns also den ldgm-Code als einen Prozess vorstellen, der sich zeitlich entwickelt, wobei t ¼ 3m=n � 0 sich als bequemer Zeitparameter herausstellen wird. Auf den ersten Blick könnte man vermuten, dass das prinzipielle Vermögen, empfängerseitig die ursprüngliche Nachricht x� wiederherzustellen, mit der Länge von y� und damit mit dem Zeitparameter t kontinuierlich, möglicherweise sogar linear zunimmt. Doch für ldgm-Codes wie für viele andere Probleme im Bereich der Informationstheorie ist dem nicht so. Wie wir sehen werden, gibt es zwei Schwellwerte t� und ty , an denen sich »abrupte« Phasenübergänge vollziehen. Genauer bliebe dem Empfänger für t < t� selbst unter Annahme unbegrenzter Re315 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

chenressourcen, also selbst wenn er alle möglichen ursprünglichen Nachrichten durchprobieren könnte, nichts übrig, als die ursprüngliche Nachricht rein zufällig zu raten. Die empfangene Nachricht enthält also ganz und gar und überhaupt keine Information über die gesendete Nachricht. Umgekehrt sind für t > ty effiziente Algorithmen (das heißt, Algorithmen mit polynomieller Laufzeit) bekannt, die die ursprüngliche Nachricht zumindest weitgehend aus der empfangenen Bitfolge rekonstruieren können. In dem Zeitraum t� < t < ty schließlich könnte ein Empfänger mit unbegrenzten Möglichkeiten theoretisch die ursprüngliche Nachricht x� weitgehend rekonstruieren, jedoch ist kein effizienter Algorithmus bekannt, der diese Aufgabe in vernünftiger Zeit löst. Diese drei Phasen wollen wir im Folgenden genauer unter die Lupe nehmen.

Informationstheoretisch unmöglich Da das Rauschen z rein zufällig ist, können wir freilich nicht erwarten, x� mit Sicherheit genau aus A und y� wiederherstellen zu können. Es ist stattdessen leicht zu sehen, dass das bestmögliche Rekonstruktionsverfahren eine zufällige Eingangsnachricht x gemäß der aposteriori-Verteilung von x� gegeben A und y� zieht. Weist der korrekte Vektor eine hohe Wahrscheinlichkeit unter dieser a-posterioriVerteilung auf, so kann zumindest meistens korrekt dekodiert werden. Damit wird unsere Dekodierungsaufgabe zu einem statistischen Inferenzproblem. In solchen Problemen ist es üblich, die Güte der Dekodierung an dem erwarteten Anteil der ursprünglichen Nachricht x� zu messen, der korrekt rekonstruiert werden kann. Dieser erwartete Anteil der korrekten Bits wird mit Rt ð pÞ bezeichnet. Offensichtlich liegt Rt ð pÞ zwischen 1=2 und 1. Der Leser sei daran erinnert, dass t dabei unser Zeitparameter ist. Wenn Rt ð pÞ seinen minimalen Wert von 1=2 annimmt, so bleibt uns nichts als bloßes Raten übrig; der gesamte Kommunikationsprozess der Kodierung, Übermittlung und Dekodierung ist somit sinnfrei. Wenn andererseits Rt > 1=2 ist, dann kann ein gehöriger Anteil der ursprünglichen Nachricht x� wiederhergestellt werden. Der folgende Satz stellt die Existenz einer kritischen Zeit t� ¼ t� ð pÞ fest, an der dieser Übergang von nichtrekonstruierbar zu rekonstruierbar sich vollzieht.

316 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

Theorem 2 (Coja-Oghlan/Krzakala/Perkins et al. 2018). Für jedes 0 < p < 1 existiert ein t� > 0 so dass Rt ðpÞ ¼ 1=2 wenn t < t� und Rt ðpÞ > 1=2 wenn t > t� . Für t < t� enthalten die dem Empfänger zur Verfügung stehenden Daten, nämlich die Matrix A und der Vektor y�, schlicht nicht genügend Information, um x� zu rekonstruieren. Jede Spur der ursprünglichen Nachricht hat das Rauschen verwischt, sodass, egal wie sehr wir uns auch anstrengen, weder bestehende noch in der Zukunft zu entdeckende mathematische Techniken x� zu rekonstruieren vermögen. Mathematisch gesprochen ist die Lösung des Dekodierungsproblems informationstheoretisch unmöglich, weil die Entropie der a-posteriori-Verteilung zu hoch ist. Tatsächlich zeigt das folgende Theorem, dass es für t < t� nicht einmal möglich ist, zu erkennen, ob der empfangene Vektor y� von einer tatsächlichen Nachricht x� stammt oder reines Rauschen ist. Um dies mathematisch auszudrücken, sei ein Vektor, der nach dem Zufallsprinzip und unabhängig dem gesamten Kommunikationsprozess ausgewählt wurde. Mit anderen Worten stellt y pures Rauschen dar. Theorem 3 (Coja-Oghlan/Krzakala/Perskins et al. 2018). Für alle t < t� ist y� ununterscheidbar von reinem Rauschen y, während beide für t > t� deutlich unterscheidbar sind. 2 Stellen Sie sich also eine interessierte Beobachterin vor, die die Entwicklung der Matrix A und der empfangenen Nachricht im Laufe der Zeit aufzeichnet. Bis zur Zeit t� hat die Beobachterin nicht die geringste Chance herauszufinden, ob die Symbolfolgen, die sie aufgezeichnet hat, aus einem tatsächlichen Kommunikationsprozess hervorgegangen sind oder reines Rauschen darstellen. Das liegt daran, dass laut Theorem 3 der Prozess, der die Zeilen von A zusammen mit den Nullen und Einsen von y� nacheinander offenbart, und der Prozess des »reinen Rauschens« ðA; yÞ, bei dem die Zeilen von A und die Bits von y vollkommen unabhängig voneinander sind, ununterscheidbar sind. Somit ist das Unvermögen der Beobachterin in keiner Weise auf ihre eigenen Unzulänglichkeiten, etwa einen Mangel an In der exakten Sprache der Mathematik schreibe dTV für den totalen Variationsabstand zwischen zwei Zufallsvariablen. Dann gilt für jedes 0 < p < 1 und alle t < t� limn!1 dTV ððA; yÞ; ðA; y� ÞÞ ¼ 0 während limn!1 dTV ððA; yÞ; ðA; y� ÞÞ ¼ 1 für t > t� .

2

317 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Einfallsreichtum oder Fleiß, zurückzuführen. Die Informationen, die ihr zur Verfügung stehen, sind einfach zu stark verdünnt. Im Gegensatz vermag die Beobachterin ab dem Zeitpunkt t > t� zu erkennen, welchen der beiden Prozesse, den Kommunikationsprozess oder pures Rauschen, sie aufzeichnet. Es liegt nun sogar, zumindest prinzipiell, genügend Information vor, um mit an Sicherheit grenzender Wahrscheinlichkeit darauf schließen zu können, ob sie reines Rauschen oder eine tatsächlich sinnvolle Botschaft aufgenommen hat. Also findet zum Zeitpunkt t� ein echter Phasenübergang statt. Es stellt sich nun allerdings die Frage, ob die analytischen und rechnerischen Kapazitäten unserer Beobachterin ausreichen, um ihre Aufgabe innerhalb eines akzeptablen Zeitraums zu lösen. Das Inferenzproblem ist also nicht mehr unmöglich; aber ist es komplex?

Möglich, aber komplex? Wäre die Fehlerwahrscheinlichkeit p null, so wäre das Wiederherstellen der ursprünglichen Nachricht ein Leichtes. Denn in diesem Fall liefert die Gaußsche Elimination einen optimalen Inferenzalgorithmus. Selbst wenn wir womöglich nicht in der Lage sind, die ursprüngliche Nachricht x� genau wiederherzustellen, ermöglicht uns das Verfahren doch, eine Zufallslösung x des linearen Systems Ax ¼ y� zu berechnen. Somit können wir zumindest die informationstheoretisch bestmögliche Annäherung an x� finden. Da die Gaußsche Elimination effizient ist (d. h. die Laufzeit skaliert polynomiell in m þ n), ist freilich auch unser Inferenzalgorithmus effizient. Für streng positive Rauschpegel p ist ein solcher effizienter Inferenzalgorithmus allerdings nicht bekannt. Tatsächlich ist die Aufgabe, ein lineares System Ax ¼ y nach einem möglichst viele Gleichungen erfüllenden Vektor x auch nur »näherungsweise« zu lösen, notorisch schwierig. Dieses Problem, bekannt als Parität mit Rauschen, ist NP -vollständig. Das bedeutet natürlich nur, dass es möglicherweise keinen effizienten Algorithmus gibt, der alle möglichen Fälle von Parität mit Rauschen löst. Nichtsdestotrotz ist die NP -Vollständigkeit eines Problems ein guter Indikator dafür, dass sich das Problem in der Praxis als schwierig erweisen kann. Insbesondere im Falle von ldgm-Codes ist diese Vermutung auch vollkommen zutreffend. Trotz jahrzehntelanger Forschung ist kein effizienter Algorithmus zur Ermittlung des Schätzers x von x� für einen Wert von 318 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

t < 1 gefunden worden. Es ist kein effizienter Algorithmus bekannt, der eine nicht-triviale Approximation von x� ausgibt. Es ist nicht einmal ein solcher Algorithmus bekannt, der bei einem Paar ðA; y� Þ mit positiver Wahrscheinlichkeit sagen kann, dass es aus einer tatsächlichen Nachricht statt einer reinen Rauschinstanz ðA; yÞ stammt. Das einzige bekannte positive Ergebnis besagt, daß jenseits einer zweiten Schwelle t > ty effiziente Algorithmen das Problem lösen können. Diese zweite Schwelle ty liegt jedoch um Größenordnungen über der Schwelle, von der an informationstheoretische Annäherungen an x� möglich sind. Andererseits gibt es negative Ergebnisse, die zeigen, dass die leistungsfähigsten derzeit bekannten Ansätze in diesem Bereich versagen (Kothari/Mori/O’Donell 2017). Entsprechend hat sich die Forschung auf kombinatorische Eigenschaften des ldgm-Problems konzentriert, die seine scheinbare Widerspenstigkeit erklären. Diese Forschungsrichtung hat eine interessante Verbindung zwischen ldgm-Codes und mathematischen Modellen physikalischer Systeme namens Spin-Gläsern (Mézard 2009) zutage gefördert. Ein Spin-Glas ist eine Legierung verschiedener Metalle, die eigentümliche magnetische Eigenschaften aufweist. Um ihr eigenartiges Verhalten zu verstehen, haben theoretische Physiker den Versuch unternommen, sich mit vereinfachten mathematischen Modellen diesen Systemen zu nähern. Diese Modelle weisen eine gewisse Ähnlichkeit mit den Gittermodellen der Proteinfaltung, denen wir bereits begegnet sind, auf. Die physikalischen Berechnungen, die bereits teils mathematisch verifiziert sind, legen nahe, dass ldgm-Codes mit t > t� einen perfekten mehrdimensionalen Irrgarten bilden (Krzakala/Montanari/Ricci-Tersenghi et al. 2007). Die wahre Lösung x� befindet sich irgendwo inmitten des Labyrinths. Allerdings ist sie von einer exponentiellen Unzahl anderer lokal optimaler Lösungen umgeben, die Algorithmen auf ihrer Suche nach x� in die Irre führen. Während im Fall von p ¼ 0 das Gaußsche Eliminationsverfahren die singuläre algebraische Natur des Problems ausnutzt, scheint es für positive p keine solche Abkürzung, gewissermaßen eine Schneise quer durch den Irrgarten, zu geben. Natürlich schließt diese von der Physik inspirierte Argumentation die Existenz eines völlig unerwarteten, neuartigen Algorithmus nicht aus. Dennoch könnte die Intuition des Spin-Glases nahelegen, dass, soweit wir mit einfach zu beschreibenden, wohldefinierten mathematischen Problemformulierungen kommen, ldgm-Codes ein lehrreiches Beispiel für das Attribut »komplexes System« sein könnten. 319 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Mikroskopisch komplex, makroskopisch einfach? Wie bereits beschrieben, gibt es einen Schwellenwert ty , ab welchem das Problem der ldgm-Codes auch algorithmisch effizient gelöst werden kann. An diesem Schwellenwert tritt ein Phänomen auf, das für die Untersuchung großer Systeme sehr typisch ist und das einen neuen Blickwinkel auf die Komplexität bestimmter Systeme eröffnet. Präziser formuliert geht es um das Konzept der Regularität. Eines der wichtigsten und einschlägigsten Theoreme mit weitreichenden Folgen in verschiedensten Teilgebieten der Mathematik ist das sogenannte Regularitätslemma (Szemerédi 1975). Es wurde im Jahr 1975 von Endre Szemerédi, einem ungarischen Mathematiker, entdeckt und beschreibt eine wesentliche Eigenschaft großer Netzwerke. In diesem Kontext können wir uns ein Netzwerk als eine Menge von Punkten (Knoten) vorstellen, von denen manche durch Striche (Kanten) verbunden sind. Besitzt ein solches Netzwerk nun sehr viele Knoten und wir erhalten einige globale Eigenschaften, wie beispielsweise die Gesamtanzahl von Kanten oder aber die Anzahl der Knoten mit einer bestimmten Anzahl von Nachbarn, so wirkt es schlicht unmöglich, sich auch nur vorzustellen, wie viele verschiedene Möglichkeiten es gibt, die Kanten anzuordnen. Betrachten wir einen kleinen Teil eines solchen Netzwerks mikroskopisch, so müssen wir auf alles vorbereitet sein! Eventuell sind dort alle Knoten miteinander verbunden, oder aber es existieren gar keine Kanten oder die Region sieht aus wie das Haus des Nikolaus. Kurz gesagt helfen makroskopische Kennzahlen nicht, um das System mikroskopisch zu verstehen – es wirkt chaotisch und komplex. Das Regularitätslemma (und seine Erweiterungen) bringen nun Struktur in dieses vermeintlich chaotische System. Alle großen Netzwerke besitzen erstaunlich viele (makroskopische) Gemeinsamkeiten. Genauer gesagt können wir die Knoten in ein paar wenige – in diesem Fall ist der Begriff wenig sehr dehnbar – Klassen einteilen, sodass die Kanten, die zwischen diesen Klassen verlaufen, mehr oder weniger gleichmäßig angeordnet sind. Was sagt das über Komplexität aus? Während es sehr komplex erscheint, die (mikroskopischen) Feinheiten eines sehr großen Netzwerks zu studieren und zu erfassen, das nahezu chaotisch wirkt, liefert uns das Regularitätslemma ein grandioses Werkzeug, das es uns erlaubt, aus einer Art Adler-Perspektive auf das Netzwerk zu schauen. Wir erkennen, dass in dem 320 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

vermeintlichen Chaos doch sehr viel Struktur steckt, die wir vielleicht nicht erwarten würden. Der Beweis dieser Eigenschaft, die einem scheinbar komplexen System eine sehr einfache und absolut nichtkomplexe Struktur gibt, wurde im Jahr 2012 – 37 Jahre nach der Entdeckung – mit dem Abel-Preis ausgezeichnet. Aufbauend auf Szemerédis ursprünglicher Arbeit wurde das Regularitätslemma auf viele weitere Bereiche der Mathematik ausgeweitet. So gibt es mittlerweile Regularitätslemmata für Matrizen, Permutationen, Wahrscheinlichkeitsmaße und viele weitere mathematische Objekte. Ebenfalls zentral ist, dass Regularität eine tiefgreifende Verbindung zwischen zwei Teilgebieten der Mathematik, die unterschiedlicher kaum wirken könnten, schafft: Diskrete Mathematik und Analysis (Lovász 2012). Kehren wir zu den ldgm-Codes zurück. Es ist möglich, die Frage, ob das Paar ðA; y� Þ oder ðA; yÞ beobachtet wird, in ein Problem auf einem großen Netzwerk zu übersetzen (Coja-Oghlan/Cooper/Frieze 2010). Das Regularitätslemma erlaubt es nun, dieses Netzwerk aus der Adler-Perspektive zu studieren und tatsächlich finden sich (ab einem bestimmten Schwellenwert t > ty ) in den globalen Eigenschaften dieses Netzwerks Informationen, die es erlauben, zwischen reinem Rauschen und einer echten Nachricht zu entscheiden. Insbesondere lernen wir aus dem Regularitätslemma, dass zunächst sehr komplexe, nahezu mikroskopisch chaotisch wirkende Systeme makroskopisch betrachtet sehr strukturiert sein müssen. Außerdem gibt es Fälle, in denen diese Struktur uns die Möglichkeit gibt, die scheinbare Komplexität des Systems dramatisch zu reduzieren.

Schlussfolgerungen und Zusammenhänge Wenn Komplexität ihren Platz in der Mathematik haben soll, müssen wir sie in den Vorgängen suchen, die zu Lösungen mathematischer Probleme, insbesondere zum Auffinden von Beweisen, führen. Die negative Lösung von Hilberts zehntem Problem zeigt, wie der Komplexität der Lösung Diophantischer Gleichungen eine genaue mathematische Bedeutung beigemessen werden kann. Dieses Problem, das auf das Halteproblem zurückführt, ist unentscheidbar. Daher ist es unmöglich, diese Aufgabe zu automatisieren. Formal gesprochen gibt es keinen Algorithmus, der dieses Problem stets in endlicher Zeit löst. 321 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Wir haben auch festgestellt, dass in der Mathematik Komplexität nicht absolut ist. Selbst wenn es prinzipiell möglich ist, eine mathematische Aufgabe zu automatisieren, d. h. selbst wenn ein Algorithmus die Aufgabe in endlicher Zeit lösen könnte, kann der dazu erforderliche Aufwand menschliche Maßstäbe weit übersteigen. Zu dem Zeitpunkt, da der Algorithmus mit der Lösung um die Ecke kommt, wird sich also niemand mehr um das Problem scheren. Dieser Kontrast zwischen nachweislich einfachen und zumindest einigermaßen komplexen Aufgaben kann durch den Vergleich der Probleme der linearen Programmierung und der ganzzahligen linearen Programmierung veranschaulicht werden. Die P 6¼ NP -Frage, eines der Milleniumsprobleme der Mathematik, bringt dies auf den Punkt. Das Problem der Proteinfaltung ist ein Beispiel für eine NP -vollständige Frage. Nichtsdestotrotz löst die Natur diese Aufgabe im Bruchteil einer Sekunde; somit besteht eine erhebliche Lücke zwischen der manchmal allzu schwarzmalerischen theoretischen Begriffsbildung und der Komplexität in der realen Welt. Die Bildung eines Proteins, dessen Faltungsprozess Milliarden von Jahren erfordert, wäre für das Überleben eines Organismus natürlich kaum förderlich. Die Evolution hätte also vermutlich gar nicht erst einen solchen Weg eingeschlagen. Mit anderen Worten: Echte Proteine haben eine Struktur, die sich gut falten lässt, weil diese durch die natürliche Evolution genau nach diesem Kriterium ausgewählt wurden. Wenn wir dagegen vorhersagen müssten, wie sich ein willkürlich konstruiertes Protein faltet, stünden wir vor einer ziemlich unergründlichen Aufgabe, die die volle Ausdruckskraft der ganzzahligen linearen Programmierung umfasst. Schließlich gibt es mathematische Probleme, die wir mangels Information nicht lösen können. Mit dem ldgm-Code, dessen Entwicklung nicht genügend Informationen ausgibt, um die Ausgabe eines sinnvollen Kommunikationsprozesses von reinem Rauschen zu unterscheiden, haben wir ein Beispiel kennengelernt. Zumindest bis zu einem kritischen Punkt t� liegt die Schwierigkeit also nicht in unseren mangelhaften analytischen Fähigkeiten. Die Unmöglichkeit ergibt sich vielmehr aus der informationstheoretischen Natur des Problems selbst; man könnte sagen, das Problem ist schlecht gestellt. Im Gegensatz dazu ist es jenseits des informationstheoretischen Phasenübergangs lediglich den Defiziten unserer analytischen und rechnerischen Kapazitäten geschuldet, die es uns verbieten, das Problem effektiv zu lösen. 322 https://doi.org/10.5771/9783495825464 .

Komplexität in den mathematischen Wissenschaften

Literatur Bryngelson, Joseph D./Wolynes, Peter G. (1987): Spin glasses and the statistical mechanics of protein folding, in: Proceedings of the National Academy of Sciences 84, 7524–7528. Chandru, Vijay/Dattasharma, Abhi/Kumard, Anil V. S. (2003): The algorithmics of folding proteins on lattices, in: Discrete Applied Mathematics 127, 145–161. Coja-Oghlan, Amin/Cooper, Colin/Frieze, Alan (2010): An Efficient Sparse Regularity Concept, in: SIAM J. Discret. Math. 23 (4), 2000–2034. Coja-Oghlan, Amin/Krzakala, Florent/Perkins, Will/Zdeborová, Lenka (2018): Information-theoretic thresholds from the cavity method, in: Advances in Mathematics 333, 694–795. Cook, Stephen A. (1971): The complexity of theorem proving procedures, in: Proc. 3rd STOC, 151–158. Dill, Ken A./Bromberg, Sarina/Yue, Kaizhi/Chan, Hue Sun/Fiebig, Klaus M./ Yee, David P./Thomas, Paul D. (1995): Principles of protein folding – a perspective from simple exact models, in: Protein science 4, 561–602. Davis, M./Matiyasevich, Y./Robinson, J. (1976): Hilbert’s Tenth Problem: Diophantine Equations: Positive Aspects of a Negative Solution, in: F. Browder (Hg.): Mathematical Developments Arising from Hilbert Problems. Proceedings of Symposia in Pure Mathematics. XXVIII.2, American Mathematical Society, 323–378. Elkies, Noam D. (1988): On A4 þ B4 þ C4 ¼ D4 , in: Mathematics of Computation 51, 825–835. Gödel, Kurt (1930): Die Vollständigkeit der Axiome des logischen Funktionenkalküls, in: Monatshefte für Mathematik 37, 349–360. Gödel, Kurt (1931): Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme, in: I. Monatshefte für Mathematik und Physik 38, 173–198. Karp, Richard M. (1972): Reducibility among combinatorial problems, in: R. Miller/J. Thatcher/J. Bohlinger (Hg.): Complexity of Computer Computations. New York u. a., 85–103. Khachiyan, Leonid. (1980): Polynomial algorithms in Linear Programming, in: Zhurnal Vychisditel’noi Matematiki i Matematicheskoi Fiziki 20, 51–68. Kudekar, Shrinivas/Richardson, Thomas J./Urbanke, Rüdiger L. (2011): Threshold saturation via spatial coupling: Why convolutional LDPC ensembles perform so well over the BEC, in: IEEE Transactions on Information Theory 57, 803–834. Lau, Kit Fun/Dill, Ken A. (1989): A lattice statistical mechanics model of the conformational and sequence spaces of proteins, in: Macromolecules 22, 3986–3997. Lovász, László. (2012): Large Networks and Graph Limits. Providence, R.I.

323 https://doi.org/10.5771/9783495825464 .

Amin Coja-Oghlan, Max Hahn-Klimroth, Philipp Loick

Kothari, Pravesh K./Mori, Ryuhei/O’Donnell, Ryan/Witmer, David (2017): Sum of squares lower bounds for refuting any CSP, in: Proc. 49th STOC, 132–145. Krzakala, Florent/Montanari, Andrea/Ricci-Tersenghi, Federico/Semerjian, Guilhem/Zdeborová, Lenka (2007): Gibbs states and the set of solutions of random constraint satisfaction problems, in: Proc. National Academy of Sciences 104, 10318–10323. Mézard, Marc/Montanari, Andrea (2009): Information, physics and computation. Oxford. Christos M. Papadimitriou (1995): Computational complexity. Reading, Massachussets. Paris, Jeff (1977): A mathematical incompleteness in Peano arithmetic, in: In Studies in Logic and the Foundations of Mathematics 90, 1133–1142. Shannon, Claude (1948): A mathematical theory of communication, in: Bell System Technical Journal 27, 379–423; 623–656. Spielman, Daniel A./Teng, Shang-Hua (2004): Smoothed analysis of algorithms: Why the simplex algorithm usually takes polynomial time, in: Journal of the ACM (JACM) 51, 385–463. Szemerédi, Endre (1975): On sets of integers containing no k elements in arithmetic progression, in: Acta Arithmetica 27, 199–245. Turing, Alan (1937): On computable numbers, with an application to the Entscheidungsproblem, in: Proc. LMS 42, 230–265. Wiles, Andrew J. (1995): Modular elliptic curves and Fermat’s Last Theorem, in: Annals of Mathematics 141, 443–551.

324 https://doi.org/10.5771/9783495825464 .

Komplexität als zentraler Begriff einer Organismustheorie Komplexität schafft Leben Jürgen Bereiter-Hahn

Können alle Lebensphänomene wie Autopoiese, Stoffwechsel, Fähigkeit zur Regeneration, mentale Fähigkeiten bis hin zu Empfindungen, Gedächtnis, Bewusstsein und Theoriebildung nach den Prinzipien von Physik und Chemie erklärt werden? Dies ist eine in den Biowissenschaften immer wiederkehrende Frage (Penzlin 2016). Sie sollte nicht mit der Feststellung, dass alle Lebenserscheinungen auf chemischen und physikalischen Prozessen beruhen, verwechselt werden. Lebewesen wären nach dieser reduktionistischen Auffassung nichts essentiell anderes als alle anderen materiellen Objekte auch, wenngleich mit hoher Komplexität und typischen Fähigkeiten, z. B. zur Selbstreproduktion. Auch Emergenzauffassungen operieren mit der Rolle der Komplexität. Diesem Begriff kommt damit eine entscheidende Bedeutung für die Interpretation der belebten Welt zu. Unter der berechtigten Annahme einer Einheit von Welt erstreckt sich das Verhältnis von Komplexität und Emergenz nicht nur auf die belebte Welt, sondern auf den gesamten Kosmos. Der in der Praxis naturwissenschaftlicher Forschung so erfolgreiche Dualismus zwischen Materie und Geist, entsprechend der Descart’schen Trennung von res extensa und res cogitans, spiegelt sich in der Unterscheidung von Natur- und Humanwissenschaften wieder. Er löst sich in einem monistischen Weltbild zu einer einheitlichen Beschreibungsform auf, bei der die Betrachtungsebene, also die wissenschaftliche Methodik, zur Ursache für den eingeschränkten Blickwinkel auf nur jeweils einen physikalisch-materiellen oder emergenten, autopoietischen und letztlich geistig-rationalen Aspekt wird. Der Nachweis der Möglichkeit zur Überbrückung scheinbar unüberwindlicher ontologischer Differenzen ist eines der interessantesten und schwierigsten Felder der Komplexitätsforschung und kann nur über eine Zusammenfüh-

325 https://doi.org/10.5771/9783495825464 .

Jürgen Bereiter-Hahn

rung humanwissenschaftlicher und naturwissenschaftlicher Weltsicht erfolgen 1. Eine basale Frage, die es zu beantworten gilt, ist: Was kennzeichnet Formen von Leben, durch welche Formen der Komplexität lässt sich Lebendigkeit erzeugen bzw. verstehen? Die Frage, wie naturwissenschaftlich fassbare Phänomene einen Emergenzgrad 2 aufweisen, der die Überbrückung der ontologischen Differenz zwischen molekularem Vorgang und z. B. einer Empfindung ermöglicht, stellt eine große Herausforderung an interdisziplinäres Vorgehen dar.

1.

Lebendigkeit

Rein formal können lebende Zellen als abgegrenzte Heteroaggregate einer großen Zahl von Makromolekülen aufgefasst werden, die ein wässriges Milieu mit verschiedenen Ionen und kleinen Molekülen einschließen. Die Besonderheiten dieser Heteroaggregate stecken in ihrer Dynamik und Genese, der Entstehung sowohl im Rahmen der Evolution als auch im Rahmen der Autopoiese jeder einzelnen Zelle, jedes einzelnen Organismus. Autopoiese oder auch Selbstorganisation wird z. B. von Varela (z. B. Varela 1994) als das zentrale Merkmal von Lebewesen dargestellt 3. Eine Analyse dieses Begriffes muss bei der Klärung dessen beginnen, was wir unter Selbst (Auto-) verstehen. Es handelt sich bei der Autopoiese von Organismen nicht einfach um die Summe physikochemischer Aggregationsprozesse, sondern um gesteuerte Vorgänge. Ein gutes Beispiel für diesen Unterschied liefert die Bildung von Kollagenanordnungen, wie sie als extrazelluläre Matrix von Bindegewebszellen synthetisiert werden und z. B. Fischschuppen bilden. Sie können makroskopisch identisch im ReagenzEin geeignetes Beispiel hierfür könnte der Zeitbegriff sein, da für diesen viele physikalische und lebenswissenschaftliche Daten vorhanden sind (z. B. Steuerung circadianer Rhythmen), die dann in kulturelles Verhalten umgesetzt werden. 2 In einem physikalistischen Weltbild kommt dem Begriff lediglich beschreibende Funktion zu von Sachverhalten, die einer kausalen Auflösung noch nicht zugänglich sind. Bei ganzheitlicher Betrachtung von Vorgängen wird die logische/ontologische Differenz der Betrachtungsebenen betont, die durch den Begriff der Emergenz überbrückt wird. 3 Nach Maturana/Varela (Maturana/Varela 1973) ist Autopoiese nicht nur notwendig, sondern auch hinreichend als Definition und zum Verstehen von Leben. Diese Auffassung erscheint etwas sehr vereinfacht (Daminao/Luisi 2010), wie auch im Folgenden gezeigt wird. 1

326 https://doi.org/10.5771/9783495825464 .

Komplexität als zentraler Begriff einer Organismustheorie

glas hergestellt werden. Die Feinstruktur hinsichtlich der Anordnung dicker und dünner Kollagenfasern ist jedoch eine deutlich andere, sie resultiert aus einer gesteuerten Freisetzung von Kollagen durch Zellen (Gaill et al. 1991). Die zellulär erzeugten Aggregate folgen zwar den physikochemischen Regeln, sind jedoch nicht dasselbe wie die Kollagenstrukturen ähnlicher Form, die durch Selbstorganisation aus Lösungen entstehen. Im Laufe seiner Entstehung ändert sich dieses Selbst fortwährend 4, gleich, ob wir den Prozess der Bildung einer Protozelle aus molekularen Bausteinen oder die Bildung einer eukaryonten Zelle über endosymbiontische Bakterien oder die Bildung eines Tieres oder einer Pflanze von einer Einzelzelle über Embryonalformen bis zum fertigen – aber immer noch sich verändernden – Organismus verfolgen. All diese Prozesse verlaufen nicht gleichsinnig in eine Richtung, sondern es überlappen Entstehen und Abbauen, Werden und Vergehen. Das ist so auf der Ebene der Moleküle (Synthese/Abbau), von Zellen (Proliferation/Apoptose; Bildung von Organellen und Zerstörung z. B. über Autophagie) wie von vielzelligen Organismen (Entstehen/Sterben). Da sich das jeweils übergeordnete System weiterentwickelt, stehen Werden und Vergehen auch nicht im Gleichgewicht, sondern ändern, abhängig von der Phase eines Entwicklungsprozesses, ihre Dominanz und Erscheinung. Entwicklung erfolgt also nicht als Serie von Gleichgewichtsprozessen, sondern als gerichtetes Geschehen. Die Entwicklung einer Pflanze oder eines Tieres erscheint zielgerichtet und wäre danach vom Ende der Entwicklung her bestimmt. Als Folge genetischer Determination könnte dies auch zutreffen, jedoch ist es nicht das Transkriptom bzw. das Genexpressionsmuster des »Zielzustandes« das die Entwicklungsprozesse steuert, sondern das Transkriptom selbst unterliegt einer kontinuierlichen Entwicklung. Jede Entwicklungsphase muss für sich in ihrem jeweiligen Umfeld lebens- und entwicklungsfähig sein. Es handelt sich also um ein teleonomes, nicht um ein telologisches Geschehen (Vollmer 2006): Die scheinbare Zielgerichtetheit resultiert aus Prozessen von unten, vom jeweils früheren, einfacheren Stadium zum nächstfolgenden. Der Eindruck der Zielgerichtetheit ergibt sich erst bei einer Betrachtung vom Ende her, vom Ergebnis, zu dem der EntwicklungsDiese Vorgänge entziehen sich daher einer mathematischen Beschreibung mit Hilfe von Parametern, sondern erfordern Variablen, deren Veränderung und Entwicklung ihrerseits im Autopoieseprozess erfolgt (Koutrofinis/Wessel 2011)

4

327 https://doi.org/10.5771/9783495825464 .

Jürgen Bereiter-Hahn

prozess geführt hat. Das hat Konsequenzen für die Beurteilung der Rolle der genetischen Grundlagen von Entwicklung. Diese entfalten ihre Wirkung, d. h. sie werden zur Information als sich verändernde Genexpressionsmuster in enger Wechselwirkung mit all den phänotypischen Differenzierungen, die ihrerseits sowohl genetisch codiert sind als auch in Form von Funktionen eine Auseinandersetzung mit der Umwelt, einer Struktur oder Zelle sind. Die Lebensfähigkeit der vielfältigen Entwicklungsstadien resultiert aus dem Zusammenspiel aller Strukturen und Prozesse in einer Zelle oder einem sich entwickelnden Organismus und wird noch potenziert durch die Fähigkeit zur Regulation von gestörten Vorgängen. Die Behauptung von Francis Crick (Crick 1981), durch die Aufklärung der DNA-Struktur und der genetischen Kodierung »haben wir das Geheimnis des Lebens gelöst«, verkürzt die Lebensphänomene auf DNA: es ist das Zusammenspiel, die Kooperativität der Bausteine eines Organismus, die dessen Lebendigkeit und Entwicklungsfähigkeit begründen, erst so kann der Informationsgehalt der DNA wirklich zur Information werden, d. h. Bedeutung 5 erlangen, die für den Erhalt des Gesamtsystems unabdingbar ist. Dieses Zusammenspiel umfasst Werden, Vergehen und Arbeit leisten (Funktion). Nur so besteht ein erwachsener Organismus nicht nur die Überlebensprüfung durch die Evolution, sondern auch den Weg dorthin, also z. B. alle Stadien der Keimesentwicklung oder Larven.

2.

Evolution

Alle Lebewesen sind im Verlaufe einer Evolution entstanden. Bevor diese auch nur ansatzweise besprochen werden kann, müssen wir uns über den Stellenwert einiger Grundbegriffe im Klaren sein. Nach neodarwinistischer Lesart wirkt auf die Nachkommen eines Organismus die Selektion, d. h. die Überlebens- und Fortpflanzungswahrscheinlichkeit wird durch Auslese der Besten begrenzt. Dadurch wird eine Maximierung der Fitness erzielt. Die Fitness bemisst sich ihrerseits am Fortpflanzungserfolg. Selektion ist also das Schlagwort, mit dem das survival of the fittest begründet wird. Selektion wird von den Der Begriff der Bedeutung unterscheidet die Information, die in biologischen Systemen wirksam wird, von rein physikalischen Systemen, für die Bedeutung keine angemessene Beschreibungsform ist.

5

328 https://doi.org/10.5771/9783495825464 .

Komplexität als zentraler Begriff einer Organismustheorie

meisten Evolutionsbiologen als der Mechanismus angesehen, der durch Aussondern weniger fitter Organismen aus einem Überschuss an Nachkommen im Rahmen der Konkurrenz um begrenzte Ressourcen und Vermeiden von Gefahren zum ständigen Aufrechterhalten bzw. Erhöhen des Fortpflanzungserfolges führt. Dies ist eine zwar richtige, jedoch sehr eingeschränkte Interpretation. Die Selektion als Eliminierungsprozess betrifft zunächst all die Lebewesen, denen basale Lebensfähigkeiten fehlen oder die unzureichend ausgebildet sind. Das hat noch nichts mit Kompetition, mit Konkurrenz zu tun. Bei eng begrenzten Ressourcen haben natürlich Individuen oder Gruppen von Individuen mit größerer Leistungsfähigkeit eine höhere Chance als Sieger, d. h. reproduzierend, aus der Konkurrenz hervorzugehen. Konkurrenz ist ein Prozess, der vorwiegend zwischen Individuen derselben Art vorkommt. Sie konkurrieren miteinander um dieselben Ressourcen, dieselben Geschlechtspartner; sie sind denselben Krankheiten und Jägern ausgesetzt. Selektion auf Grund von Konkurrenz erfolgt bei sich ändernden Umweltbedingungen nur bei Limitierung von Ressourcen durch abiotische Faktoren, durch Überbevölkerung oder das Überhandnehmen von Räubern und Krankheiten. Diese Form von Selektionsdruck ist nicht notwendig der Fall. Der Nachkommenüberschuss stellt das Material für eine Selektion, hat aber darüber hinaus eine sehr zentrale Bedeutung für die Bildung und das Funktionieren von Ökosystemen, z. B. als Teil von Stoffkreisläufen. Eine Stabilisierung des Ökosystems kann damit ein Selektionsvorteil sein, der indirekt über die Umgebung wirkt. Das Überhandnehmen der Individuen einer Art kann auch durch Vermehrungsbeschränkung ohne Rücksicht auf besondere genetische Konstitution erfolgen (solange überhaupt ein lebensfähiger Organismus entsteht). Ein Beispiel hierfür sind die vielen Jungpflanzen, die in Wäldern sich aus Samen entwickeln. Die große Bewuchsdichte stellt bereits einen regulierenden Faktor dar, der nur zeitlich begrenztes Wachstum, d. h. ohne Erreichen der Fortpflanzungsfähigkeit, erlaubt. Durch Pflanzenfresser werden gerade die jüngsten Pflanzen entfernt, gleich, ob sie über hervorragende Fortpflanzungsfähigkeiten verfügen oder nicht. Erst bei Auftreten wirklich neuer Errungenschaften (z. B. Entwicklung eines Giftes oder einer schlecht schmeckenden Substanz) kommt diese zur Geltung und mag vor dem Gefressenwerden bewahren und so dem Individuum einen Selektionsvorteil verschaffen. Die Selektion schafft dabei nichts Neues, sondern bewertet lediglich die Einbindung eines Organismus (Phäno329 https://doi.org/10.5771/9783495825464 .

Jürgen Bereiter-Hahn

typ) in das jeweilige Ökosystem. Ein Ökosystem lässt sich nach diesen Überlegungen wie ein Superorganismus beschreiben, in dem Werden und Vergehen einer Vielzahl von Organismenarten Wachstum, Stabilität oder Untergang bewirken. Wenigstens formal tritt dieselbe Thematik bei Wirtschaftssystemen auf und das Verständnis der Wege, die zu stabilen Ökosystemen führen, könnte den Weg aus dem Zwang zu fortwährendem wirtschaftlichen Wachstum weisen. Worauf wirkt die Auslese, auf welche Einheit bezieht sich Selektion? Zunächst auf unabhängig voneinander lebende Einzelindividuen, auf die jeweiligen Reproduktionseinheiten. Das ist nur richtig, solange keine Differenzierungen und Abhängigkeiten zwischen den Individuen bestehen. Sie betrifft also z. B. nicht mehr Einzelzellen in mehrzelligen Organismen, wenn die Zellen unterschiedlich differenziert sind und unterschiedliche Funktionen in einem Ganzen einnehmen. Angewandt auf menschliche Gesellschaften kann Selektion nur dann die Fitness einer Gesellschaft erhöhen, wenn systemrelevante Funktionen der eliminierten oder unterdrückten Individuen von anderen übernommen werden können. Krieger dürfen nicht alle Bauern umbringen, dann haben sie nichts mehr zu essen. Wohl aber kann ein Volk (oder Stamm) ein anderes vernichten, ohne sich selbst zu schaden, wenn die Fähigkeiten zum Überleben im eigenen Volk vorhanden sind. Die Bedeutung der wechselseitigen Abhängigkeit der Komponenten in komplexen Systemen zeigt sich, wenn ganze Ökosysteme durch Verschieben der Häufigkeit einzelner Mitglieder untergehen, z. B. wenn eine Art überhandnimmt und durch ungehemmte Vermehrung die Lebensgrundlage aller anderen Mitglieder zerstört. Das wurde z. B. deutlich, als durch Bejagen von Seeottern die Fressfeinde der Seeigel eliminiert wurden und sich daraufhin die Seeigel in diesem Gebiet so vermehrten, dass sie die gesamten Seewiesen kahl fraßen und damit nicht nur ihre eigene Lebensgrundlage, sondern auch den Lebensraum vieler Kleinlebewesen zerstörten. Der Eingriff in die Komplexität des Ökosystems durch Eliminieren eines Gliedes führte also zum Untergang des Gesamtsystems (»Seeigelwüste«) 6. Die Betonung der für die Evolution von Lebewesen bestimmenden Faktoren, wie es schon in der Wortwahl sichtbar wird (z. B. Kampf ums Dasein, Überleben der Tüchtigsten) ist ihrerseits das Ergebnis einer kulturellen Entwicklung und Situation und durchaus 6

Zitiert nach E. O. Wilson (1995)

330 https://doi.org/10.5771/9783495825464 .

Komplexität als zentraler Begriff einer Organismustheorie

kein naturwissenschaftlich fassbares Faktum. Während noch Mitte des vorigen Jahrhunderts von Evolutionsbiologen fast ausschließlich in der konkurrenzgetriebenen Selektion die Triebkraft für die Evolution gesehen wurde, betont mittlerweile eine immer größere Anzahl die Bedeutung der Kooperation 7. Kooperation von Teilen eines Systems ist die Grundlage von dessen Komplexität, sie ist der Mechanismus, der Neues hervorbringt. Es wurde vorstellbar, dass friedliches Zusammenleben vorteilhafter sein kann als Kriegsführung.

3.

Was kennzeichnet die Komplexität von Organismen und der durch diese Organismen geformten Systeme?

Diese Frage führt uns unmittelbar zum Konzept von Lebendigkeit. Wie bereits erwähnt, ist das Plasma lebender Zellen extrem dicht mit den verschiedensten Makromolekülen gepackt. Diese Makromoleküle bilden funktionelle Komplexe mit gleichen oder anderen Makromolekülen. Besondere Kennzeichen der Komplexität innerhalb des lebenden Zellplasmas sind: 1. Die hohe Packungsdichte 2. Die Vielzahl verschiedener beteiligter Moleküle 3. Die Bildung von Strukturen 4. Die hohe Dynamik der supramolekularen Aggregate, ihrer Bildung, ihres Zerfalls, ihrer Zusammensetzung und Bildung molekularer Motoren 5. Die Beeinflussbarkeit der supramolekularen Aggregate durch externe Faktoren 6. Die Änderung von Struktur und funktioneller Aktivität der Makromoleküle in Abhängigkeit ihrer Einbindung in supramolekulare Aggregate. 7. Wie bei Organen vielzelliger Organismen können auch die makromolekularen Aggregate im Laufe der Evolution von Zellen und je nach Randbedingung unterschiedliche Funktionen einnehmen. Vorgänge in Zellen, von der Wahrnehmung von Außenfaktoren über interne Signalverarbeitung bis zu Bewegungsvorgängen oder VerAuch für die Entstehung von Leben wie von autokatalytischen Zyklen ist Kooperation z. B. im Rahmen des NK-Modells von Kauffmann (Kauffman 1993) konstituierend.

7

331 https://doi.org/10.5771/9783495825464 .

Jürgen Bereiter-Hahn

mehrung, werden durch Reaktionsketten von miteinander sich verbindenden und wieder lösenden Makromolekülen getrieben. Die oben genannten Komplexitätsmerkmale werden im Folgenden an einigen wenigen Beispielen erläutert.

Packungsdichte, Vielzahl beteiligter Moleküle und Strukturbildung Chemische Reaktionen sind in Geschwindigkeit und Richtung der Reaktion von den Konzentrationen der Reaktionspartner und deren Reaktionsprodukt abhängig. So werden z. B. Enzyme nach ihrer Michaelis-Menten-Kinetik charakterisiert, d. h. bei Reagenzglasversuchen wird die Reaktionsgeschwindigkeit eines Enzyms in Abhängigkeit von der Konzentration des umzusetzenden Substrates bestimmt. Das ist weit entfernt von den Verhältnissen in lebenden Zellen. Die hohe Konzentration von Enzymen (und damit Packungsdichte) übertrifft – etwa im Falle der Glykolyse – die Konzentration von Substraten. Diese werden daher sehr schnell umgesetzt, es kommt nicht zu einer Gleichgewichtssituation, in der ein Enzym das in großem Überschuss vorhandene Substrat mit konstanter Geschwindigkeit umsetzt. Die hohe Packungsdichte von Proteinen in Zellen führt auch zu sehr kurzen Distanzen zwischen einzelnen Enzymen, insbesondere wenn sich Enzyme, deren Reaktionen aufeinanderfolgen, zu großen Komplexen verbinden und dann das Produkt des ersten Enzyms an das folgende Enzym jeweils weitergegeben wird. Dieses Phänomen wird schon 1985 als Mikrokompartimentierung beschrieben (Friedrich 1985). Die Komplexbildung kann entweder über unmittelbare Assoziation der Enzyme einer Kette erfolgen oder über einen dritten gemeinsamen Bindepartner. Am Beispiel der GlykolyseEnzyme lässt sich dies sehr schön veranschaulichen (Masters 1981). Ein Teil dieser Enzyme assoziiert sich mit Proteinen des Zellskeletts, also mit fädigen Strukturen des Plasmas, das dann nicht nur Funktionen bei der Formgebung von Zellen hat, sondern auch frei lösliche Enzyme strukturieren kann. Durch eine solche Bindung von Glykolyseenzymen wird aber auch die Zellskelettstruktur verändert, durch die Bindung verändern sich die Eigenschaften der Bindepartner, Komplexbildung geht unmittelbar mit Struktur- und Funktionsänderungen einher (Ovadi 1988; Ovadi/Srere 2000; Tillmann/BereiterHahn 1986). So hemmt z. B. inaktive Aldolase die Polymerisation des Aktin, aber fördert diese in dem Moment, da die Aldolase ihr 332 https://doi.org/10.5771/9783495825464 .

Komplexität als zentraler Begriff einer Organismustheorie

Substrat (Fruktosediphosphat) gebunden hat (Wagner et al. 1999). Diese Assoziationen wirken nicht nur unmittelbar zwischen den beteiligten Proteinen, sondern auch im übergeordneten System einer Zelle: Änderung von Zellform, von Bewegungsvorgängen, Einfluss auf Proliferationssteuerung. Evolutionär könnten die Vorläufer der Zytoskelettproteine von Eukaryonten in Bakterien als strukturelles Rückgrat verschiedener Enzymketten dienen. Durch solche Aggregationen entstand ein riesiger kombinatorischer Rektionsraum als Material für Selektion und damit die weitere Evolution.

Dynamik supramolekularer Aggregate und Abhängigkeit der Funktion von der Einbindung in komplexe Strukturen Makromoleküle wie z. B. Proteine können miteinander Aggregate bilden, die als Polymere in Erscheinung treten und in aller Regel reversibel sind, d. h. Polymerisation und Depolymerisation bilden eine funktionale Einheit. Das sei am Beispiel von Aktin gezeigt: Dieses Protein kann sich innerhalb von Sekunden zu langen Fäden zusammenfinden und auch wieder in seine Untereinheiten zerfallen. Bei der Bewegung von Zellen spielt der kontinuierliche Ablauf von Polymerisation und Depolymerisation eine entscheidende Rolle. Zellen, in denen das Gleichgewicht sehr auf Seiten des Polymers liegt, verharren weitgehend in Ruhe, durch Stimulation mit Wachstumshormonen kann die Depolymerisation und der zyklische Umbau angeregt werden, die Zellen werden beweglicher. Das wiederum hat Auswirkungen (Hemmung oder Förderung der Enzymaktivität) auf die oben beschriebenen Glykolyseenzyme, von denen einige intensiv an Aktin binden und auch dessen Polymerisation und die Steifigkeit des Aktin-Netzwerkes beeinflussen – also eine beidseitige Verschränkung von ganz verschiedenen Funktionen und Strukturen 8. Das ist Komplexität auf Zellebene! Eine weitere hochkomplexe Struktur ist das Chromosom. Es besteht längst nicht nur aus DNA und verbindenden Proteinen, die Hier werden nur einige Beispiele gezeigt, wie komplexe molekulare Wechselwirkungen strukturbildend wirken. Eine lebende Zelle muss mechanisch wie katalytisch ein in sich geschlossenes System sein, sonst besitzt es keine Fähigkeit zur Selbstreproduktion (Weber 2010). Dessen Darstellung setzt eine weitgehend vollständige Beschreibung aller Strukturkomponenten voraus und überschreitet den Rahmen dieser Übersicht.

8

333 https://doi.org/10.5771/9783495825464 .

Jürgen Bereiter-Hahn

durch Neutralisierung der negativen Ladungen der Phosphatgruppen überhaupt erst eine dichte Packung des Chromatins ermöglichen. Dichte Packung heißt hier, dass Dezimeter lange Fäden in Mikrometer große Strukturen verpackt werden und dennoch funktionsfähig bleiben. Funktionsfähig bedeutet hier zweierlei, sie können über Enzymkomplexe abgelesen und kopiert werden oder abgelesen und in Form von Boten-RNA aus dem Zellkern oder einem Areal, in dem die dicht gepackten DNA-Moleküle liegen, in das Zytoplasma transportiert werden. Dafür müssen große Proteinkomplexe an jeweils ganz bestimmte Abschnitte dieser langen DNA-Fäden andocken und an diesen entlang laufen und dabei das Werk des Kopierens vollbringen. Motilität, also aktive Bewegung, ist ein wesentliches Kennzeichen von Lebendigkeit. Mit dem Tod hört auch die Bewegung auf. Motilität auf Zellebene resultiert aus der Tätigkeit molekularer Maschinen, von denen es eine Vielzahl gibt und deren Funktion ausnahmslos Emergenz hochkomplexer, makromolekularer Strukturen ist. Diese Strukturen kanalisieren, wie auch Strukturen auf höherer Komplexitätsebene, Energieflüsse 9, die zu Transport-, Synthese- oder Abbauleistungen eingesetzt werden können. Beispiele auf zellulärer Ebene sind etwa die ATP-Synthase, der Proteinsyntheseapparat an den Ribosomen, die Transkription der DNA in mRNA oder die Replikation der DNA, Proteasomen betreiben den Abbau von Proteinen, Dynamin-GTPasen die Faltung von Membranen und Vesikelbildung und deren Transport innerhalb von Zellen u. s. w. Das macht deutlich, dass all die Erscheinungen, an denen wir Lebendigkeit feststellen, Leistungen des Plasmas und der dort geordneten molekularen Motoren sind. Motore, also auch molekulare Maschinen, sind stets komplexe Gebilde aus verschiedenen miteinander kooperierenden Komponenten. Damit wird auch verständlich, welche Funktion die hohe Packungsdichte von Molekülen im Plasma hat: Sie ermöglicht Ordnung. Die Dynamik solcher Strukturbildung kann als Emergenz auch bereits einfache und transiente Formen von Gedächtnis hervorrufen 10, das darauf beruht, dass die Reaktionen auf äußere Reize geSchrödinger (Schrödinger 1944) sah in Strukturen den Weg zur Kanalisierung von Negentropie, eine sehr allgemeine physikalische Formulierung von Lebensfunktionen, die den Untergang von Organismen ins Chaos verhindert. 10 Ich diskutiere dies am Beispiel des Verhaltens einer Amoebe (Bereiter-Hahn 2020) 9

334 https://doi.org/10.5771/9783495825464 .

Komplexität als zentraler Begriff einer Organismustheorie

richtete Bewegungen erfolgen, die durch entsprechend gerichtete Anordnung von Zytoskelettelementen (insbesondere von Aktin) bewirkt werden und auch nach Abklingen des Reizes für einige Zeit erhalten bleiben, so dass bevorzugt die Bewegung in die vorher durchgeführte Richtung auch ohne externen Reiz erfolgt.

4.

Komplexität im Rahmen von Vielzelligkeit

Die Formung von Organismen durch Vereinigung von Zellen erfolgte auf zwei Ebenen, einmal durch Zellfusion z. B. verschiedener Protozyten zu eukaryonten Zellen oder durch Fusion gleicher Zellen wie bei der Plasmodienbildung von Schleimpilzen sowie durch Bildung vielzelliger Verbände, wenn nach Zellteilungen die Tochterzellen beisammen bleiben, wie dies bei vielzelligen Tieren und Pflanzen der Fall ist. Im ersten Fall fusionieren nach der allgemein akzeptierten Endosymbiontentheorie Einzelzellen (Bakterien), die Spezialisten z. B. für Fortbewegung (Spirochaeten als zukünftige Cilien), Elektronentransport und ATP-Synthese (Rickettsien oder Archaebakterien) oder Photosynthese (Blaualgen, zur Bildung von Plastiden) sind, mit Bakterien, die das zytoplasmatische Umfeld darstellen. Die aufgenommenen Zellen werden nicht etwa von der aufnehmenden Zelle zerstört, verdaut, sondern sie bilden ein symbiontisches Ganzes mit der Fähigkeit zu neuen Stoffwechselaktivitäten, mit Fähigkeiten, die den einzelnen Partnern alleine nicht zukommen. Im Verlaufe der Evolution verstärkt sich die Integration dieser Teile z. B. dadurch, dass ein Teil des Genoms der aufgenommenen Endosymbionten in einen zentralen Zellkern übernommen wird und damit die so gebildeten Organelle nicht mehr alleine überlebens- und fortpflanzungsfähig sind; das Gleiche gilt jedoch auch für die aufnehmende Wirtszelle. Die Teile sind zu einer funktionellen Einheit, einem Ganzen geworden, wenngleich die Organelle noch die Fähigkeit zum Wachsen und Proliferieren haben, aber nur unter der Kontrolle der Kern-DNA. Beispielsweise für Mitochondrien ist eine entscheidende Rolle bei Altersprozessen und bei neurodegenerativen Erkrankungen bekannt. Dennoch sind diese Mangelerscheinungen nicht einfach Produkt von Mitochondrien, sondern sie sind eng eingebunden in gesamtzelluläre Auf- und Abbauprozesse; es lässt sich eben nicht eine ausschließliche Wirkung für das eine oder andere Zellorganell ausmachen.

335 https://doi.org/10.5771/9783495825464 .

Jürgen Bereiter-Hahn

Bei den echten Vielzellern (Eumetazoa, vielzellige Pflanzen) bleiben Zellen einer Art (d. h. mit derselben DNA-Sequenz) nach einer Teilung zusammen. Sie behalten ihre genetische Ausstattung und zelluläre Struktur und damit auch ein größeres Maß an Eigenständigkeit als die Organelle bei den durch Endosymbiose entstandenen eukaryonten Zellen. Dieses Niveau an Komplexität ist daher auch weniger starr und gefestigt als das eukaryonter einzelliger Organismen. Wie auf jeder Komplexitätsstufe von Organismen ist die Steuerung der Wechselwirkung das zentrale Thema. Die Eigenständigkeit und damit die Entwicklungsmöglichkeiten der einzelnen Zellen werden jedoch im Zuge der Evolution und der Entstehung einer Fülle neuer Organismen zunehmend eingeschränkt. Die Teile ordnen sich dem Gesamtsystem unter. Praktisch bedeutet dies, dass nur eine kleine Gruppe von Zellen, die Keimzellen, für die Reproduktion des Gesamtsystems fähig bleiben und alle anderen Gewebe und Zelltypen im Laufe der Ontogenese sich spezialisieren, d. h. differenzieren. Für jeden Zell- bzw. Gewebetyp bleibt jedoch eine kleine Population von Stammzellen erhalten, die weiterhin teilungsfähig sind und so den Nachschub für differenzierte, nicht mehr teilungsfähige Zellen liefern. Die Lebensprozesse der Einzelzellen ordnen sich bei vielzelligen Organismen der jeweiligen Aufgabe im Gesamtsystem unter, sie werden versklavt. Die Dynamik im Gesamtorganismus beruht unter anderem auch auf dem Entstehen und Untergehen von Zellen, z. B. sterben fortwährend Zellen des Darmepithels, es werden aber auch fortlaufend neue gebildet. Zellen der Oberhaut (Epidermis) bilden durch ihre Verhornung eine Schicht toter Zellen, die den Organismus nach außen abgrenzt. Diese Beispiele ließen sich beliebig fortführen. Komplexität bei vielzelligen Organismen bemisst sich an der Vielfalt der beteiligten Gewebe und ihren Funktionen, diese bauen auf den vorher beschriebenen molekularen Formen von Komplexität auf, ohne dass sie unmittelbar in Erscheinung treten. Die Beschreibung der Komplexität solcher Systeme ist also vereinfacht, vergröbert und dennoch hinreichend. Das wird noch deutlicher, wenn wir uns mit Ökosystemen oder mit Gesellschaften beschäftigen. Auch in einem Ökosystem wirken die verschiedenen Komponenten – Partner – zusammen. Das schließt ein, dass es Organismen gibt, die anderen als Beute dienen (z. B. Pflanzen als Nahrung für pflanzenfressende Tiere, kleine Tiere als Beute für Räuber, alle Lebewesen als Nahrungsquelle für Parasiten oder Partner für Symbionten). Der Nachkommenüberschuss fast aller Organismen bildet so die Voraussetzung für die 336 https://doi.org/10.5771/9783495825464 .

Komplexität als zentraler Begriff einer Organismustheorie

wechselseitigen Beziehungen. Der Untergang, der Tod von Organismen ist so essentiell wie die Neuentstehung von Individuen. Nur dann ist ein Ökosystem oder ein Organismus stabil. Dieses Prinzip gilt auf allen Ebenen der organismenbasierten Strukturen. In diesem Sinne ist auch ein Ökosystem eine dissipative Struktur. Gesellschaften, gleich ob von staatenbildenden Insekten, Säugern oder menschlichen Staats- und Wirtschaftssystemen gehorchen den Erfordernissen von Werden und Vergehen im Rahmen zeitlich begrenzter und variabler Beziehungen zwischen den Teilen des gesellschaftlichen Systems.

5.

Literatur

Bereiter-Hahn, Jürgen (2020): Biological basics for the development of norms, in: Ann History Philosophy Biol 25 (in press). Crick, Francis (1981): Life Itself. Its Origin and Nature. New York. Damiano, Luisa/Luisi, Pier Luigi (2010): Toward an autopoietic redefinition of life, in: Orig. Life Evol. Biosph. 40, 145–149. Friedrich, Peter (1985): Dynamic comopartmentation in soluble multienzyme system, in: Welch, G. Rickey (Hg.): Organized multienzyme Systems. New York, 141–176. Gaill, Françoise/Lechaire, Jean-Pierre/Denèfle, Jean-Pierre (1991): Fibrillar pattern of self-assembled and cell-assembled collagen: resemblance and analogy, in: Biol Cell 72, 149–158. Kauffman, Stuart A. (1993): The origins of order: Self-organization and selection in evolution. Oxford. Koutrofinis, Spyridon A./Wessel, Andreas (2011): Toward a post-physicalistic concept of the organism, in: Ann Hist Philos Biol. 16, 29–50. Masters, Colin J. (1981): Interactions between soluble enzymes and subcellular structure, in: CRC, Critical Reviews in Biochem 11(2), 105–143. Maturana, Humberto/Varela, Francisco (1973): De Máquinas y Seres Vivos: Una teoría sobre la organización biológica. Santiago. Ovádi, Judit/Srere, Paul A. (2000): Macromolecular compartmentation and channeling, in: Int Rev Cytol 192, 255–280. Ovádi, Judit (1988): Old pathway – new concept: control of glycolysis by metabolite-modulated dynamic enzyme associations, in: Trends Biochem Sci. 13, 486–490. Penzlin, Heinz (2016): Das Phänomen Leben. Grundfragen der Theoretischen Biologie 2. Aufl. Berlin/Heidelberg. Schrödinger, Erwin (1944): What is life? The physical aspect of the living cell. Cambridge. Tillmann, Utz/Bereiter-Hahn, Jürgen (1986): Relation of actin fibrils to energy metabolism of endothelial cells, in: Cell Tissue Res. 243, 579–585.

337 https://doi.org/10.5771/9783495825464 .

Jürgen Bereiter-Hahn

Varela, Francisco (1994): On defining life, in: Fleischaker, Gail R./Colonna, Stefano/Luisi, Pier Luigi (Hg.): Self-Production of Supramolecular Structures. Dordrecht, 23–31. Vollmer, Gerhard (1999): Teleologie – Teleonomie, in: Lexikon der Biologie. https://www.spektrum.de/lexikon/biologie/teleologie-teleonomie/ 65691. Wagner, Oliver/Zinke, Jenny/Dancker, Peter/Grill, Wolfgang/Bereiter-Hahn, Jürgen (1999): Viscoelastic properties of f-actin, microtubules, f-actin/aactinin, and f-actin/hexokinase determined in microliter volumes with a novel nondestructive method, in: Biophys. J. 76, 2784–2796. Weber, Bruce H. (2010): What is life? Defining life in the content of emergent complexity, in: Orig. Life Evol. Biosph. 40, 221–229. Wilson, Edward O. (1995): Der Wert der Vielfalt. Die Bedrohung des Artenreichtums und das Überbleiben des Menschen. München.

338 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution 1 George F. R. Ellis

1.

Einleitung

Das in diesem Kapitel erörterte Schlüsselthema ist, dass die Dinge irreversibel und zeitlich asymmetrisch auf der Makroebene geschehen, wie Eddington (Eddington 2019) betont, auch wenn die grundlegende Dynamik auf der Mikroebene (basierend auf Hamiltonoperatoren) reversibel und zeitsymmetrisch ist: Die Symmetrie T : ft ! t0 :¼

(1)

tg

lässt die relevanten zugrunde liegenden dynamischen Gleichungen invariant. Das bekannteste makroskopische Beispiel, bei dem diese Symmetrie nicht stimmt, ist der thermodynamische Zeitpfeil (§ 4.1), wie er im Zweiten Hauptsatz der Thermodynamik ausgedrückt wird: dS=dt � 0

(2)

wobei S die Entropie eines isolierten Systems ist. Dies ist sehr wichtig in der physikalischen Chemie, Biochemie, Biologie im Allgemeinen und im sozialen Leben (wo es den grundlegenden Ressourcenfragen zugrunde liegt, mit denen wir konfrontiert sind) sowie in der Astrophysik und Kosmologie. Irreversible Prozesse finden statt, wenn sich das Universum während des Quark-Hadron-Phasenübergangs, der Baryosynthese, am Ende der Inflation, während der Nukleosynthese, der Entkopplung von Materie und Strahlung, der Sternentstehung und -entwicklung sowie der Planetenbildung entwickelt (Dodelson 2003; Peter/Uzan 2013). So vergeht die Zeit zweifellos auf der MaIch danke Carlo Rovelli und John O’Donoghue für interessante Kommentare, Reinhard Stock für Vorschläge, die das Kapitel verbessert haben, und Barbara Drossel für die Zusammenarbeit an einer längeren, detaillierteren Version dieses Textes (Ellis/ Drossel 2019b).

1

339 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

kroebene, wobei Informationen durch dissipative Prozesse verloren gehen, denn sobald ein Pendel einmal zum Stillstand gekommen ist, kann man aus seinem gegenwärtigen Zustand seine Bewegung in der Vergangenheit nicht mehr feststellen. 2 Es ist von grundlegender Bedeutung, dass man aufgrund der Zeitsymmetrie (1) der relevanten Gleichungen durch Coarse Graining von klassischer oder Quantenmikrophysik nicht bestimmen kann, in welcher Zeitrichtung der Zweite Hauptsatz (2) gilt; vielmehr wird diese Richtung kontextuell durch makroskopische Bedingungen bestimmt. Auf diese fundamentale Frage (Loschmidts Paradoxon) komme ich in Abschnitt 4.1 zurück. Ebenso wichtig sind jedoch die Zeitpfeile für Strahlung (4.2), Elektrodynamik (4.3) und Quantenmechanik (4.5). Der gravitative Zeitpfeil (4.4) ist in einigen astrophysikalischen Zusammenhängen wichtig, aber nicht im gegenwärtigen Sonnensystem oder im täglichen Leben. Er muss in Situationen berücksichtigt werden, in denen Effekte durch Gravitationsstrahlung relevant sind. Die thermodynamischen, elektrodynamischen und quantenmechanischen Zeitpfeile führen gemeinsam zum biologischen Zeitpfeil (§ 4.6) und damit zum mentalen Zeitpfeil, den wir alle unbestreitbar in unserem täglichen Leben erleben. Im Gegensatz zu denjenigen, die behaupten, dass das Vergehen der Zeit eine Illusion ist (Davies 2012; Barbour 2001), vertrete ich den Standpunkt, dass das Vergehen der Zeit auf der Makroebene unwiderlegbar ist, und wie sich dies aus der Mikrophysik ergibt, muss als eine Schlüsselfrage betrachtet werden, die es zu erklären gilt. Meine Antwort wird sein, dass die Top-Down-Kausalität in der Hierarchie von Struktur und Kausalität stattfindet (Ellis 2016), wobei die Zeitpfeile auf der lokalen Ebene durch den kosmologischen Kontext des sich entwickelnden Universums bestimmt werden. Das Vergehen der Zeit ist real und beruht auf der Mikroebene des Kollapses der Quantenwellenfunktion, wodurch die indefinite Zukunft zur definiten Vergangenheit wird. Emergente astrophysikalische, biologische und technologische Strukturen entstehen, wobei die Vielfalt der Emergenzprozesse die Zeitpfeile nach oben zu diesen Strukturen transportiert. Dann wird Mathematische Modelle von Pendeln mit Reibung spiegeln diese Situation normalerweise nicht wider – vielmehr schwingen sie ewig, wenn auch mit exponentiell abnehmender Amplitude. Das liegt daran, dass sie einen Reibungsterm haben, der proportional zur Geschwindigkeit, aber nicht unabhängig von der Geschwindigkeit ist.

2

340 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

die Physik auf niedrigerer Ebene durch Auferlegung zeitabhängiger Beschränkungen auf höherer Ebene (Ellis/Kopel 2018; Ellis/Drossel 2019) von Biologie und Technologie »zwangsverpflichtet«; auf diese Weise werden Zeitskalen auf Mikroebenen (wie Elektronenflüsse in Herzzellen oder Transistoren) durch emergente Strukturen wie Herzschrittmacher (Noble 2002) oder Computertaktzyklen (Tanenbaum 2006) bestimmt. In Abschnitt 2 werden die sich herausbildenden Hierarchien von Struktur und Kausalitäten dargestellt, die den Kontext bilden, in dem dies alles geschieht. In Abschnitt 3 wird die damit verbundene Raumzeitsicht, nämlich das wachsende Blockuniversum (Evolving Block Universe, EBU), und die Emergenz der (globalen) Zeitrichtung aufgrund des kosmologischen Kontextes erläutert. Abschnitt 4 erörtert die Entstehung der verschiedenen lokalen Zeitpfeile in Übereinstimmung mit der Zeitrichtung. In Abschnitt 5 wird erörtert, wie dies mit dem Quantenkollaps der Wellenfunktion in einer halbklassischen Sichtweise zusammenhängt, in der die Raumzeit als klassisch angesehen wird, die lokale Physik aber als Quantenphysik, während in Abschnitt 6 kurz Fragen der Quantengravitation erörtert werden, die sich aufgrund der Entstehung der Raumzeit selbst stellen. Abschnitt 7 fasst die Ergebnisse zusammen.

2.

Makro-Mikro-Aspekte: Die Hierarchien von Struktur und Kausalität

Der Zeitpfeil taucht auf jeder Ebene sowohl auf der naturwissenschaftlichen als auch auf der biowissenschaftlichen Seite in der Hierarchie von Emergenz und Komplexität auf. Um dies richtig zu diskutieren, muss man die unterschiedlichen Ebenen dieser Hierarchie von Struktur und Kausalität klar unterscheiden (Ellis 2016). Diese Struktur variiert auf verschiedenen Stufen der Geschichte des Universums aufgrund wichtiger evolutionärer Übergänge, die der entstehenden Hierarchie neue Schichten hinzufügen. Dies ist darin begründet, dass die Entwicklung der Raumzeit aus den Ausgangsdaten von unten nach oben durch die Einsteinschen Feldgleichungen erfolgt (§ 2.1). Die Ebenen der emergenten Struktur sind im frühen Universum (§ 2.2) und im späten Universum (§ 2.3) sehr unterschiedlich.

341 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

2.1 Entwicklung der Raumzeit Die Einsteinschen Feldgleichungen (›EFE‹) Rab – 12 Rgab ¼ �Tab þ �gab ) T ab;b = 0

(3)

bestimmen die Evolution des metrischen Tensors gab ðxj Þ aus den Ausgangsdaten, wobei Rab der Ricci-Tensor, R der Ricci-Skalar, � die Gravitationskonstante, Tab der Gesamtspannungs-/Energie-Tensor der vorhandenen Materie und Felder und � die kosmologische Konstante (�;b = 0) ist. Dies sind partielle Differentialgleichungen zweiter Ordnung für gab ðxj Þ, so dass sie bei geeigneten Zustandsgleichungen für die vorhandene Materie und die vorhandenen Felder die Raum-ZeitStruktur von unten nach oben bestimmen (d. h. lokal in jedem kleinen Volumen dV und dann insgesamt durch Mittelwertbildung). Die Energie-Impuls-Erhaltungsgesetze (rechts von (3)) sind Integrationsbedingungen für die Feldgleichungen (sie folgen automatisch, wenn die EFE gültig sind). Auf diese Weise entsteht durch die mit den EFE (Hawking/Ellis 1973) verbundene Zeitentwicklung von unten nach oben (Bottomup) ein kosmologisches Raum-Zeit-Gefüge, wobei die Ergebnisse (Dodelson 2003; Peter/Uzan 2013; Ade et al. 2016; Aghanim et al. 2018) durch die Anfangsgeometrie der Raumzeit zusammen mit der sich mit der Zeit ändernden Zustandsgleichung der Materie bestimmt werden. Durch diesen kosmologischen Kontext eines expandierenden und sich entwickelnden Universums entsteht eine globale Zeitrichtung (3).

2.2 Das frühe Universum Im sehr frühen Universum, zum Zeitpunkt der Nukleosynthese, ist die Hierarchie wie in Tabelle 1 angegeben. Es kommen nur physikalische Strukturen vor. Die geglättete kosmologische Struktur (Ebene 5) weist sehr kleine Perturbationen (Ebene 4) auf, die aus der Inflation resultieren und die Keime einer zukünftigen großräumigen Struktur darstellen. Während der Nukleosynthese entstehen auf Ebene 3 zum ersten Mal leichte Kerne (Deuterium, Helium, Lithium) aus Protonen und Neutronen, die mit Elektronen und Neutrinos (auf Ebene 2) wechselwirken. All dies basiert vermutlich auf einer zu342 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

grundeliegenden fundamentalen Theorie (Ebene 1), die mit der String-Theorie/M-Theorie verwandt sein kann oder auch nicht. Ebene 5 Geglättete Kosmologie Ebene 4 Perturbationen auf großen Skalen Ebene 3 Nukleonen Ebene 2 Teilchen Ebene 1 Grundlegende Theorie

Tabelle 1. Die emergente Hierarchie von Struktur und Kausalität im frühen Universum (zur Zeit der Nukleosynthese)

Komplexe Wechselwirkungen finden zu früheren Zeiten im Zusammenhang mit Partonen und dem QCD-Hadron/Resonanzspektrum statt, wobei Protonen, Neutronen und Mesonen entstehen. Diese Themen werden von Reinhard Stock in seinem Beitrag behandelt (siehe S. 528 ff. in diesem Band).

2.3 Im späten Universum Im späteren Universum entstehen astronomische Strukturen wie Galaxien, Sterne der ersten und zweiten Generation und Planeten (Abb. 1). Auf geeigneten Planeten entsteht dann Leben und manchmal schließlich Intelligenz, Gesellschaft und Technologie. Die sich daraus ergebende emergente Struktur- und Kausalhierarchie für die Naturwissenschaften ist auf der linken Seite und für die Biowissenschaften auf der rechten Seite von Tabelle 2 dargestellt (Ellis 2016). Auf jeder Ebene dieser Hierarchien treten verschiedene Arten von Kausalitäten auf, die durch verschiedene Arten von Variablen beschrieben werden. Die höheren Ebenen auf der naturwissenschaftlichen Seite sind durch größere Mittelungsskalen (nach oben) und zunehmende Interaktionsenergie (nach unten) gekennzeichnet. Auf höheren Ebenen kommen Prozesse ins Spiel, die sich auf niedrigeren Ebenen nicht beschreiben lassen, z. B. die Entstehung einer Galaxie oder Akkretionsprozesse zu einem Schwarzen Loch.

343 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

Abb. 1. Die Evolutionsgeschichte des Universums nach dem Planck-Team. Ganz links ist der Beginn des Universums dargestellt, ganz rechts die Gegenwart (d. h. das Datum der Planck-Beobachtungen). (NASA/WMAP Science Team, Public domain, via Wikimedia Commons) Unbelebte Materie

Lebende Materie

Ebene 10

Kosmologie

Soziologie/Ökonomie/Politik

Ebene 9

Astronomie

Psychologie

Ebene 8

Weltraumwissenschaft

Physiologie

Ebene 7

Geologie, Geowissenschaften

Zellbiologie

Ebene 6

Materialwissenschaft

Molekularbiologie

Ebene 5

Physikalische Chemie

Biochemie

Ebene 4

Atomphysik

Atomphysik

Ebene 3

Kernphysik

Kernphysik

Ebene 2

Teilchenphysik

Teilchenphysik

Ebene 1

Grundlegende Theorie

Grundlegende Theorie

Tabelle 2. Die emergente Hierarchie von Struktur und Kausalität für unbelebte Materie (links) und Leben (rechts), wie sie von der akademischen Fachrichtung charakterisiert wird.

344 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Auf der Seite der Biowissenschaften kommen auf höheren Ebenen ganz andere Arten von Kausalitäten ins Spiel als auf der Seite der Naturwissenschaften, was sich auf biochemische und molekularbiologische Prozesse (Ebene 6), zelluläre Prozesse (Ebene 7), physiologische Prozesse (Ebene 8), mentale und psychologische Prozesse (Ebene 9) und soziale Prozesse (Ebene 10) zurückführen lässt, von denen jeder einzelne eindeutig kausal wirksam ist: So führen beispielsweise mentale Prozesse zur Konstruktion von Flugzeugen und Digitalcomputern (Ellis 2016), die sonst nicht existieren würden. Ähnliche Hierarchien gibt es bei komplexen künstlichen Systemen wie Uhren, Autos, Flugzeugen, Städten und Digitalrechnern, denn aus Gründen des Sounddesigns sind alle wirklich komplexen Systeme modulare hierarchische Strukturen (Simon 1996; Booch 2006). Das Vergehen der Zeit in diesem Kontext Der Vorgang, bei dem der Lauf der Zeit auf der Mikroebene stattfindet, ist ein irreversibler Kollaps der Quantenwellenfunktion (Abschnitt 5), der vermutlich auch in einer zugrunde liegenden Theorie der Quantengravitation dem Zeitablauf zugrunde liegt (Abschnitt 6). Der Bezug zu den MakroZeitpfeilen ist durch eine komplexe Verflechtung von Bottom-upEmergenz und Top-down-Beschränkungen (Ellis 2014) wie folgt: – Bottom-up-Prozesse (beschrieben durch Coarse Graining, effektive Feldtheorien, der Renormierungsgruppe) führen zur Entstehung höherer Strukturebenen und damit verbundener effektiver Gesetze aus Strukturen und Gesetzen der unteren Ebenen; – Die höheren Ebenen liefern dann den Kontext, in dem Prozesse auf den unteren Ebenen stattfinden; dieser Kontext übt einen Top-down-Effekt auf diese Dynamik aus, indem er sowohl globale Randbedingungen festlegt als auch zeitabhängige Beschränkungen auf Prozesse auf den unteren Ebenen ausübt (Ellis 2016); – Dieser Gesamtkontext und insbesondere die damit einhergehende Abnahme der Temperaturen der wechselwirkenden Materie und Strahlung mit der Zeit, zusammen mit einem Zustand niedriger Anfangsentropie in der Vergangenheit, führt dazu, dass lokale Zeitpfeile (thermodynamische, Strahlungs-, elektrodynamische, gravitative, quantenmechanische) in eine exakte, mit der globalen Richtung der Zeit übereinstimmende Form gebracht werden, die die Zeitrichtung für physikalische Mikroprozesse wie Baryosynthese, Nukleosynthese und Entkopplung von Materie und Strahlung bestimmt; 345 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis



Schließlich entstehen komplexe Systeme, wie Akkretionsscheiben, Sterne und Planetensysteme auf der Seite der physikalischen Wissenschaften und Biomoleküle, Zellen, Organismen, Ökosysteme und Gesellschaften auf der Seite der Biowissenschaften, wobei die Zeitpfeile auf der Mikroebene (thermodynamische und elektrodynamische) den Zeitpfeil in diesen entstehenden Makrosystemen bestimmen; – Diese emergenten höheren Ebenen üben nach unten gerichtete Einflüsse auf ihre Komponenten aus (Ellis 2016), die oft darauf hinauslaufen, das Geschehen auf den unteren Ebenen zu kontrollieren, insbesondere in einigen Fällen zu entscheiden, zu welchem Zeitpunkt Ereignisse auf den unteren Ebenen eintreten werden (Ellis/Kopel 2018; Ellis/Drossel 2019). Während dies geschieht, vergeht die Zeit irreversibel auf jeder entstehenden Ebene, was bedeutet, dass sie auch auf den zugrunde liegenden mikrophysikalischen Ebenen, aus denen sie entstehen, irreversibel vergehen muss, sonst würde das Ganze nicht kohärent ineinandergreifen. Dieses Ergebnis wird durch eine Wechselwirkung von Aufwärtsemergenz mit Abwärtseffekten (Ellis 2016) gewährleistet, die durch zeitabhängige Beschränkungen (Ellis/Kopel 2018; Ellis/ Drossel 2019a) ausgeübt werden. Auf jeder Ebene tritt die gleiche Kausalität auf (Noble 2012), wobei die zugehörigen Zeitpfeile auf jeder Ebene alle mit der kosmologischen Zeitrichtung übereinstimmen.

3.

Das wachsende Blockuniversum und die Richtung der Zeit

Es muss einen Weg geben, mit all dem in einem Raum-Zeit-Bild umzugehen, das mit der Allgemeinen Relativitätstheorie vereinbar ist. In der Tat gibt es ihn: Es handelt sich um ein sich entwickelndes Blockuniversum – Evolving Block Universe oder EBU (Ellis 2006; Ellis 2014; Ellis/Goswami 2014). Die Grundidee ist, dass wir eine Raumzeit-Mannigfaltigkeit mit sowohl zukünftigen als auch vergangenen Grenzen betrachten, wobei die vergangene Grenze fest ist, aber die zukünftige Grenze mit fortschreitender Zeit immer weiter fortschreitet (§ 3.1), wodurch die kosmologische Zeitrichtung festgelegt wird. Die Evolution findet entlang physikalisch und geometrisch bevorzugter zeitähnlicher Linien statt (§ 3.2), die geometrisch bevorzugte Flächen konstanter Zeit (§ 3.3) verhindern und dadurch die Lorentz346 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Kovarianz brechen. Die Raumzeitevolution wird dann durch die Standard-ADM-Gleichungen (§ 3.4) bestimmt, die an diese Zeitlinien und Flächen angepasst sind.

3.1 Das wachsende Blockuniversum Das EBU ist konzeptionell eine Raumzeit-Mannigfaltigkeit mit einer festen Vergangenheitsgrenze und einer beweglichen Zukunftsgrenze. Technisch gesehen handelt es sich um eine Ein-Parameter-Familie von 4-dimensionalen Mannigfaltigkeiten, die zusammen eine 5-dimensionale Mannigfaltigkeit bilden. Ich werde jedoch eher die erstere als die letztere Beschreibung verwenden. Mannigfaltigkeit mit Rand Eine 4-Mannigfaltigkeit M + ðt0 Þ mit einer Zukunftsgrenze ft ¼ t0 g wird durch einen Homöomorphismus eines 4-dimensionalen topologischen Raumes zur Halb-Region des 4-dimensionalen euklidischen Raumes E : ft � t0 g (Hirsch 1976). Die Zukunftsgrenze P ðtÞ ist das Bild von ft ¼ t0 g. In ähnlicher Weise wird eine Mannigfaltigkeit M- ð0Þ mit einer Vergangenheitsgrenze durch einen Homöomorphismus zur Halbregion des 4-dimensionalen euklidischen Raumes E þ : ft � 0g bestimmt. Die Vergangenheitsgrenze B ist das Bild von ft ¼ 0g. Eine Mannigfaltigkeit Mðt0 ; 0Þ mit beiden Grenzen hat eine Homöomorphie zur Region des 4-dimensionalen euklidischen Raumes E � : ft0 � t � 0g. Das wachsende Blockuniversum Im kosmologischen Kontext betrachten wir eine Mannigfaltigkeit fMðt; 0Þg mit fester Vergangenheitsgrenze fB : t ¼ 0g und zeitabhängiger Zukunftsgrenze P ðtÞ. Dies ist das wachsende Blockuniversum. Jede Mannigfaltigkeit Mðt1 ; 0Þ enthält Mðt2 ; 0Þ als Teilmenge, wenn t1 > t2 . Beispiel Das einfachste Beispiel ist eine Friedmann-Lemaître-Robertson-Walker-(FLRW-)Raumzeit (Hawking/Ellis 1973), angegeben in gleichsinnigen Koordinaten t; r; �; ’ durch a (4) ds2 ¼ dt2 þ a2 ðtÞd�2 ; 0 � t � t0 ; ua ¼ � , o wobei d�2 ein 3-Raum mit konstanter Krümmung k ¼ fþ1 oder 0 oder –1g ist. Die 3-Flächen ft ¼ constg sind räumlich homogen und damit von konstanter Dichte. Das Universum ist 347 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

räumlich um jeden Punkt isotrop und die Materieflusslinien mit dem Tangentenvektor ua ¼ dxa =dtðua ua ¼ 1Þ sind geodätisch. Die Gleichungen für aðtÞ folgen auf die Verwendung der Einsteinschen Feldgleichungen (3). Eine saubere Möglichkeit, das Ergebnis zu bestimmen, besteht in der Nutzung der Tatsache, dass für solche Flüsse die Beschleunigung, die Scherung und die vorticity verschwinden, so dass eine kovariante Analyse in jedem kleinvolumigen Element dV zu den Friedmann- und Raychaudhuri-Gleichungen in dV führt (siehe Ellis 1971); Coarse Graining zusammen mit der räumlichen Homogenität zeigt dann, dass sie auch auf der kosmologischen Ebene Bestand haben. Die Lösungen sind gut bekannt (Hawking/Ellis 1973; Dodelson 2003; Peter/Uzan 2013). Die Vergangenheitsgrenze B bei t ¼ 0 (die anfängliche Singularität) ist festgelegt. Die Zukunftsgrenze P ðt0 Þ bei t ¼ t0 (die Gegenwart) erstreckt sich im Laufe der Zeit kontinuierlich in die Zukunft (Abb. 2, vergleiche links und rechts). Zu jedem bestimmten Zeitpunkt t ¼ t0 existiert die so definierte Raumzeit-Mannigfaltigkeit Mðt0 ; 0Þ vom Beginn des Universums ðt ¼ 0Þ bis zum gewählten Zeitpunkt t0 . Im Laufe der Zeit wächst die Zukunftsgrenze: nehmen wir an, t0 ! t1 ¼ t0 þ �t; �t > 0; dann ist die Mannigfaltigkeit Mðt1 ; 0Þ. Die Zeitrichtung wird durch dieses Verfahren bestimmt: eine Mannigfaltigkeit Mðt2 ; 0Þ zu einem späteren Zeitpunkt t2 als dem früheren Zeitpunkt t1 < t2 enthält die entsprechende Mannigfaltigkeit Mðt1 ; 0Þ als Teilmenge. Daher kann man die Mannigfaltigkeiten anhand dieser Inklusionsabbildung ordnen und die kosmologische Zeitrichtung für eine Familie von Mannigfaltigkeiten Mðt; 0Þ durch diese Ordnung bestimmen (Abb. 2, Mitte).

348 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Abb. 2. Das EBU und die Richtung der Zeit. Das wachsende Blockuniversum zur Zeit T ¼ t0 (links) und t1 ¼ T0 þ �t (rechts). Die Raumzeit Mðt; 0Þ hat zwei Grenzen: eine feste am Anfang des Universums t ¼ 0 (unten) und eine bewegliche zum Zeitpunkt t (oben). Die Zeitrichtung zeigt vom festen Start bis zur sich ständig ändernden Gegenwart. Während t zunimmt, wird die Mannigfaltigkeit Mðt; 0Þ kontinuierlich größer, wobei Mðt; 0Þ eine Teilmenge von Mðt þ �t; 0Þ ist.

Das Alter des Universums Diese Raumzeitansicht ist implizit in der Standardkosmologie wie der Planck-Satellitenanalyse von CMB-Anisotropiedaten (Ade 2016; Aghanim et al. 2018) (siehe Abb. 1) enthalten, auch wenn dies nicht explizit angegeben ist. Der springende Punkt ist, dass sie eine Zahl T0 für das Alter des Universums zum Zeitpunkt der Messung angeben: T0 ’ 13; 87 � 109 Jahre. Es ist zu beachten, dass dies nicht als Alter unserer Galaxie, sondern des Universums angibt. Dies würde keinen Sinn ergeben, es sei denn, das Konzept des Alters des Universums (zum Zeitpunkt der Messung) wäre hier wohldefiniert (Abb. 1 und Abb. 2 links). Wenn das Experiment zu einem späteren Zeitpunkt T1 ¼ T0 þ �T0 ; �T0 > 0 wiederholt wird, wird sich das Alter um 0 erhöht haben und das wachsende Blockuniversum wird sich um diese Summe in die Zukunft ausgedehnt haben (rechte Abb. 2).

349 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

Die Vergangenheit existiert, die Zukunft nicht. Das EBU Mðt0 ; 0Þ existiert für alle Zeiten t : 0 < t < t0 , weil die entsprechenden Ereignisse in der kausalen Vergangenheit der Ereignisse zum gegenwärtigen Zeitpunkt t ¼ t0 liegen und somit das Geschehen in der Gegenwart t ¼ t0 beeinflussen können. So haben z. B. die Baryosynthese, die kosmologische Nukleosynthese, die Sternentstehung der ersten Generation, die stellare Nukleosynthese, die Sternentstehung der zweiten Generation und die Planetenentstehung alle vor dem heutigen Tag t ¼ T0 (d. h. dem 11. Dezember 2019) stattgefunden und die Bedingungen auf diesem Planeten zu diesem Zeitpunkt beeinflusst. Diese Prozesse müssen tatsächlich in der Vergangenheit stattgefunden haben (in einem ontologischen Sinne: sie sind tatsächlich geschehen), sonst hätten wir in der Gegenwart unverursachte Merkmale wie die Existenz von Baryonen, Kohlenstoff usw. auf der Erde und auch die Existenz der Erde selbst. Dementsprechend müssen die Raum-Zeit-Regionen, in denen sie aufgetreten sind, existieren, sonst wäre es nicht möglich, dass sie stattgefunden haben. Dies wird durch die kanonische Planck-Abbildung (Abb. 1) und durch das EBU (Abb. 2) zu jedem Zeitpunkt t0 dargestellt. Der zukünftige Bereich t > t0 existiert dagegen noch nicht, weil aufgrund des Hauptmerkmals der irreduziblen Quantenunsicherheit noch nicht entschieden ist, was dann geschehen wird (Abschnitt 5). Aufgrund der Erhaltungssätze gibt es Einschränkungen bezüglich dessen, was in diesem noch zu bestimmenden zukünftigen Bereich geschehen kann; welche dieser Möglichkeiten auftreten wird, ist jedoch noch nicht entschieden, so dass dieser Bereich nicht in der Zeit zurückreichen kann, um die Gegenwart zu beeinflussen (zumindest auf makroskopischer Ebene (Ellis/Rothman 2010)). Da dies sowohl für Ereignisse in der Raumzeit als auch für die Raumzeit selbst gilt (Abschnitt 6), ist die Zukunft noch nicht bestimmt und existiert daher nicht in einem ontologischen Sinne. Diese Sichtweise steht im Gegensatz zu den Möglichkeiten des »Presentismus« und des »Eternalismus« (Rovelli 2019b). Das weit in der Zukunft liegende Universum Letztendlich nimmt t von t ¼ 0 bis zu einem Maximalwert t ¼ tmax zu, so dass die Raumzeit Mðt ¼ tmax ; 0Þ nicht erweiterbar ist (Hawking/Ellis 1973), entweder weil die Zukunftsgrenze nach dem Zusammenbruch in eine Singularität übergeht oder asymptotisch bis ins Unendliche verläuft. Somit kann tmax endlich oder unendlich sein. Wegen des Vorhandenseins der 350 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

dunklen Energie, die wahrscheinlich eine kosmologische Konstante ist (Dodelson 2003; Peter/Uzan 2013; Aghanim 2018) und daher eine beschleunigte Ausdehnung für alle zukünftige Zeit verursachen wird, ist letzteres der wahrscheinlichste Fall. 3 Standardkonforme Raumzeitdiagramme, die zukünftige Unendlichkeit zeigen, wie sie in Hawking/Ellis 1973 und Penrose 2006 angegeben sind, stellen die Situation dar, wenn Mðt; 0Þ in ferner Zukunft zu M1 ð0Þ wird: lim Mðt; 0Þ: (5) M 1 ð0Þ ¼ t!1 Der Grund dafür, dass die Gegenwart in diesen Diagrammen nicht vorkommt, liegt also darin, dass in ihnen die Zeit ihren vollen Lauf genommen hat; sie stellen die Situation dar, in der alles, was jemals geschehen kann, geschehen ist. Jede gegenwärtige Fläche ft ¼ t0 g für das endliche t0 entspricht Ereignissen, die in der Vergangenheit der zukünftigen Unendlichkeit geschehen sind, was natürlich in einer endlichen Zeit nie erreicht wird (Ellis/Meissner/Nicolai 2018). Im Gegensatz dazu ist, wie oben erwähnt, das Konzept der Gegenwart ft ¼ t0 g explizit in das kanonische NASA-Diagramm der Evolution des Universums (Abb. 1) eingebaut, wie es im Wikipedia-Artikel Chronology of the Universe dargestellt ist: es ist der rechte Rand dieses Diagramms.

3.2 Evolution entlang bevorzugter zeitähnlicher Weltlinien Wir müssen jedoch in der Lage sein, ein solches EBU für allgemeinere Raumzeiten als die FLRW-Metrik (4) zu konstruieren und insbesondere für die gestörten FLRW-Modelle, die unsere besten Modelle des realen Universums sind (Dodelson 2003; Peter/Uzan 2013). Es stellt sich eine Reihe von Fragen. Relativität der Gleichzeitigkeit Wie steht es mit der Relativität der Gleichzeitigkeit in der Speziellen Relativitätstheorie? Dies gilt oft als Totenglocke für solche Modelle, da sie impliziert, dass es keine bevorzugten räumlichen Flächen wie die Gegenwart ft ¼ t0 g im EBU zu jedem Zeitpunkt t0 geben kann, weil die Gleichzeitigkeit von der BeIch nehme die unphysikalischen Zustandsgleichungen, die angeblich zu einem großen Riss führen können, nicht ernst. Es gibt keinen Grund zu glauben, dass eine solche Materie tatsächlich existieren kann.

3

351 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

wegung des Beobachters abhängt. Eine Änderung der Geschwindigkeit bedeutet unterschiedliche augenblickliche räumliche Flächen und daher kann es solche bevorzugten Oberflächen mit konstanter Zeit nicht geben. Die Antwort ist, dass erstens die Raumzeitstruktur des Universums durch die Allgemeine Relativitätstheorie (Hawking/Ellis 1973) bestimmt wird und nicht durch die Spezielle Relativitätstheorie, wie seit 1919 bekannt ist; und zweitens, dass alle physikalisch realistischen Raumzeiten zeitähnliche Weltlinien bevorzugt haben (Ellis 1971), wie es insbesondere im Fall der FLRW-Raumzeiten (4) der Fall ist. Wie überall in der realen Physik wird die Symmetrie der zugrunde liegenden Theorie durch physikalisch vorkommende Strukturen und Geometrie zunichte gemacht (Anderson 1972). Kurz gesagt, das reale Universum ist keine De-Sitter-, Anti-de-Sitter- oder Minkowski-Raumzeitinvarianz unter einer Gruppe G10 von Isometrien (Hawking/Ellis 1973). Die Evolution verläuft entlang zeitähnlicher Weltlinien Trotz der Aufmerksamkeit, die ihnen in Texten und Kursen geschenkt wird, sind durch Radar ermittelte Gleichzeitigkeitsflächen wie in der Speziellen Relativitätstheorie für die Dynamik irrelevant, da sich kein Einfluss schneller als das Licht bewegt. Bedingungsgleichungen gelten auf raumähnlichen Flächen und werden erhalten, wenn sie anfänglich wahr sind, aber das ist dann eine Folge der dynamischen Gleichungen plus Anfangsbedingungen, nicht weil sie darstellen, wie die Kausalität funktioniert. Tatsächlich entspricht die dynamische Evolution im Allgemeinen Einflüssen, die entlang zeitähnlicher Weltlinien auftreten. – Materie: Weil Materie Masse hat, findet ihre Evolution entlang zeitähnlicher Weltlinien statt; zum Beispiel die 4-Geschwindigkeit einer perfekten Flüssigkeit (Hawking/Ellis 1973; Ellis 1971). Sie hat Materie- und Schallwellenmoden (Ehlers/Prasanna 1996), beide zeitähnlich. – Elektromagnetische Strahlung: Die geometrisch-optische Approximation mit Ausbreitung entlang der Null-Geodäsie (Ellis 1971) wird bei der nächsten Ordnung durch Schweife in allen außer in sehr außergewöhnlichen Raumzeiten korrigiert. Während der Ausbreitung in einem Plasma sind die Strahlen zeitähnlich (Breuer/Ehlers 1980; Breuer/Ehlers 1981). Darüber hinaus hat Schwarzkörperstrahlung eine statistische Summe massefrei352 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

er Photonen mit einer Planck-Frequenzverteilung f (k) den Spannungstensor P T ab ¼ f ðkÞkaðiÞ kbðjÞ ; kaðiÞ kaðiÞ ¼ 0 ) T aa ¼ 0 (6) ðiÞ;ðjÞ

der im Falle einer isotropen Verteilung ein perfektes Fluid mit einem zeitähnlichen Eigenvektor ua und der Zustandsgleichung p ¼ �=3 ist. Nur ebene Wellenmoden haben Auswirkungen auf die Null-Geodäsie. Dies tritt in kosmologischen Skalen nicht signifikant auf (es ist nur in Skalen signifikant, auf denen Laser solche Strahlung verursachen, aber die Laser selbst gewährleisten dann, dass der Gesamtenergieimpulstensor nicht null ist). – Gravitationsstrahlung: Im Falle von Gravitationsstrahlung treten allgemein Schweife auf. Wenn sie mit Materie in Wechselwirkung tritt, kann sie sich nicht mehr frei ausbreiten und es kommt zu irreversiblen Prozessen (Hawking 1966). Insgesamt treten in realistischen Fällen entlang zeitähnlicher Kurven signifikante dynamische Einflüsse in gekrümmter Raumzeit auf, die ausreichen, um die Raumzeitkrümmung oder das Massenverhalten von Materie in der Raumzeit maßgeblich zu bestimmen. Dies trifft sicherlich auf kosmologische Skalen zu.

3.3 Flächen konstanter Zeit Wie also bestimmt man angesichts dieses Merkmals der effektiven zeitähnlichen Natur der Kausalität Flächen gleicher Zeit? Der Vorschlag, den ich gemacht habe (Ellis 2014; Ellis 2006; Ellis/Goswami 2014), ist, dass in einer generischen gestörten FLRWRaumzeit die Flächen konstanter Zeit {τ = const} durch die Eigenzeit bestimmt werden Rv pffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffivffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffiffi (7) � ðvÞ ¼ jgij ðx0 ðvÞ; x 0 Þdxi dxj jdv; 8xv 0 0

bestimmt entlang einer Kongruenz bevorzugter zeitähnlicher Linien xa ðvÞ ¼ fx0 ðvÞ; xv 0 } vom Beginn des Universums fv ¼ 0; xv 0 g bis zum Ereignis fx0 ðvÞ; xv 0 g, beginnend an jeder räumlichen Position x�0 , wobei � ein beliebiger Kurvenparameter ist und fx� g gleichsinnige Koordinaten sind. Die Vorschrift ist, bei der anfänglichen Singularität 4 (per Definition �ð0Þ ¼ 0Þ zu beginnen und das Integral (7) 4

In Fällen, in denen es keine anfängliche Singularität gibt, eine Fläche konstanter

353 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

entlang bevorzugter zeitähnlicher Weltlinien zur Bestimmung der konstanten Zeitflächen f� ¼ constg zu verwenden. Somit sind die Flächen der konstanten Eigenzeit f� ¼ constg (bestimmt durch (7)) sekundär zu den zeitähnlichen Weltlinien xa ðvÞ. Der Zeitparameter t in den vorhergehenden Abschnitten wird von nun an als die auf diese Weise bestimmte Eigenzeit � gewählt. In einem FLRW-Universum (4) werden dies die Standardflächen der konstanten Zeit ft ¼ constg sein. Diese Flächen konstanter Zeit � werden jedoch nicht im Radar-Sinne unmittelbar sein, wenn das FLRW-Universum expandiert. In einem inhomogenen Universum sind sie möglicherweise nicht einmal raumähnlich. Die bevorzugten zeitähnlichen Weltlinien Um diese Vorschrift geometrisch und physikalisch eindeutig zu machen, muss man eine bevorzugte Familie von zeitähnlichen Weltlinien xa ð�Þ definieren. Diese werden (Ellis 1971) durch die Familie der fundamentalen Weltlinien mit dem Tangentenvektor ua ¼ dxa =d� vorgegeben, die dadurch bestimmt werden, dass ua der zeitähnliche Eigenvektor des Materiespannungstensors ist, der durch die Einsteinschen Feldgleichungen (3) auch der zeitähnliche Eigenvektor des Ricci-Tensors ist: T a b ua ¼ �ub , Ra b ua ¼ �ub ; ua ua ¼ –1:

(8)

Diese Wahl bricht die Lorentz-Symmetrie: Sie wird sowohl in physikalischer als auch in geometrischer Hinsicht überall im realen Universum bevorzugt. Der Grund dafür ist, dass das reale Universum nirgendwo leer ist: Unter anderem durchdringt die kosmische Hintergrundstrahlung seit der Entkopplung jederzeit den gesamten Raum und definiert seitdem bei jedem Raumzeitereignis eine eindeutige zeitähnliche Richtung. Ich nehme die Existenz einer einzigartigen Lösung zu (8) als Voraussetzung an, eigentlich eine Energiebedingung (Hawking/Ellis 1973), die erfüllt sein muss, wenn der Materietensor als physikalisch realistisch betrachtet werden soll.

Dichte �, die auf einen Aufprall reagiert, wenn dies geschieht; andernfalls in einem entstehenden Universum (Ellis/Maartens 2003; Ellis/Murugan/Tsagas 2003) eine willkürlich gewählte Fläche konstanter Dichte, die weit vor dem Beginn der Inflation auftritt.

354 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

3.4 Evolution der Raumzeit Die Evolution der Raumzeit wird durch die EFE (3), die Anfangsbedingungen und die Materie und Felder in ihr bestimmt. Evolutionsgleichungen Unter Verwendung der Arnowitt-Deser-Misner-(ADM-)Formulierung (Arnowitt/Deser/Misner 1962) werden die EFE zu Evolutionsgleichungen für die Raumzeit entlang zeitähnlicher Weltlinien, wobei ihre spezifische Form bestimmt wird durch (i) die Wahl einer Blätterung der Raumzeit durch Flächen ft ¼ constg und (ii) die Wahl zeitähnlicher Weltlinien mit dem Tangentenvektor ua. Die Beziehung von ua zu den Normalen na wird durch den Verschiebungsvektor Ni ðx� Þ bestimmt und die Beziehung der Koordinatenzeit t zur Eigenzeit � entlang der zeitähnlichen Weltlinien wird durch die Lapse-Funktion Nðx� Þ bestimmt (Einzelheiten sind in Arnowitt/Deser/Misner 1962 angegeben). Die Anwendung beim EBU ist in Ellis/Goswami 2014 beschrieben. Um der Wahl des Vektors (8) zu entsprechen, wählen Sie den 4-Geschwindigkeitsvektor ua als Ricci-Eigenvektor: T0� ¼ 0 ) R� ¼ 2�jjj ¼ 0

(9)

der den Verschiebungsvektor N ðx Þ algebraisch bestimmt und dadurch die ð0; �Þ Bedingungsgleichungen löst. Bestimmung der Lapse-Funktion Nðxi Þ durch die Bedingung (7), dass der Zeitparameter t die Eigenzeit � entlang der Grundflusslinien xa ðtÞ misst, so dass ua ¼ dxa ð�Þ=d�. Diese Bedingungen zusammen bestimmen eindeutig den Lapse und die Verschiebung, wie in Ellis 2014 diskutiert. Die Evolution von Materie wird durch die Energie-Impulserhaltungsgleichungen zusammen mit den Zustandsgleichungen bestimmt. Dann bestimmen die üblichen ADM-Gleichungen (Arnowitt/Deser/Misner 1962) die Raum-Zeit-Metrik aus den gegebenen Ausgangsdaten. i

j

Zustands- und Eindeutigkeitsgleichungen So entstehen auf klassischer Ebene die Raumzeit und eine zugehörige Zeitrichtung aus dem Anfangszustand des Universums. Welche spezifische Raumzeit sich jedoch ergibt, hängt von den Zustandsgleichungen ab, die die Materietensor-Komponenten f�; p; qa ; �ab g betreffen. Da diese Zustandsgleichungen Quanteneffekte enthalten können, die inhärent indeterministisch sind (Ghirardi 2007), könnte es sein, dass die tatsächlich eintretende spezifische zukünftige Zeitentwicklung prinzipiell nicht 355 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

durch die Ausgangsdaten bestimmt ist (Ellis 2006; Ellis/Goswami 2014). Dies ist im realen Universum in der Tat der Fall, denn unter der Annahme, dass das Inflationsbild wahr ist (Dodelson 2003; Peter/ Uzan 2013), führten Quantenfluktuationen während der Inflation zu klassischen Fluktuationen am Ende der Inflation durch einen noch unbekannten Prozess, wodurch ein Kollaps der Quantenwellenfunktion stattfand. Dies ist im Prinzip eine stochastische Serie von Ereignissen (Ghirardi 2007), aber mit gut bestimmten statistischen Ergebnissen, die zu probabilistischen Vorhersagen für kosmologische Modelle führen (Dodelson 2003; Peter/Uzan 2013), so dass sie mit Beobachtungen verglichen werden können (Ade et al. 2016; Aghanim et al. 2018). Hier liegt die Vermutung nahe, dass die spezifischen eindeutigen Ergebnisse, die tatsächlich eingetreten sind, wie die Existenz unserer Galaxie, Sonne und Erde, nicht eindeutig durch Anfangsdaten im sehr frühen Universum vor dem Auftreten der Inflation spezifiziert sind. Wenn jedoch Quanteneffekte nicht dominant sind und geeignete klassische Zustandsgleichungen gegeben sind, wie zu Zeiten nach der Entkopplung, werden die Ergebnisse eindeutig sein (Hawking/Ellis 1973).

4.

Zeitpfeile

Zeitpfeile sind lokale physikalische Effekte, die nicht-lokal durch den kosmologischen Kontext des EBU mit seiner Zeitrichtung bestimmt werden (Abschnitt 3.1). Dies ist in Abbildung 3 dargestellt. Die lokalen Zeitpfeile bestehen aus dem thermodynamischen Zeitpfeil (§ 4.1) (Entropie nimmt in die Zukunft zu), dem Strahlungszeitpfeil (§ 4.2), dem elektrodynamischen Zeitpfeil (§ 4.3), dem gravitativen Zeitpfeil (§ 4.4), dem quantenmechanischen Zeitpfeil (§ 4.5) und dem biologischen Zeitpfeil (§ 4.6). In jedem Fall führen zeitsymmetrische zugrundeliegende Grundgleichungen zu zeitasymmetrischen Ergebnissen, in Übereinstimmung mit der Zeitrichtung, aufgrund des kosmologischen Kontextes. 5 Ich ignoriere hier den mit der schwachen Kraft verbundenen Zeitpfeil, der schwach zeitasymmetrisch ist. Die Begründung dafür ist, dass sie sich nicht direkt auf die Dynamik des Alltagslebens auswirkt, aber ihre Rolle im frühen Universum (z. B. während der Baryosynthese) und in der Astrophysik berücksichtigt werden muss, was ich hier nicht versuche.

5

356 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Abb. 3. Zeitpfeile. Lokale Zeitpfeile (thermodynamische, Strahlungs-, elektrodynamische, biologische, gravitative und quantenmechanische) werden durch kontextuelle Effekte bestimmt, so dass sie alle mit der Zeitrichtung (Abb. 2) übereinstimmen.

4.1 Thermodynamischer Zeitpfeil Der Zweite Hauptsatz der Thermodynamik ist ein fundamentaler Aspekt der Makrophysik, Chemie und Biologie, wie Arthur Eddington (Eddington 2019) nachdrücklich feststellte. Er stellt auf der Makroebene (Callender 2016) trotz der Zeitsymmetrie der zugrunde liegenden relevanten Mikrophysik eine Schlüsselzeitasymmetrie dar. Sie ergibt sich aus den Wahrscheinlichkeiten im Phasenraum auf der Mikroskala und ihrer Beziehung zu den Wahrscheinlichkeiten auf der Makroskala (Eddington 2019; Penrose 2006; 2017). Es habe die Region SP ;V ;T ðpi ; qj Þ des Mikrophasenraums fpi ; qj g, die coarsegrained Makrovariablen ðP ; V ; T Þ entspricht, ein Volumen fV gP ;V ;T . Die Hamiltonsche Evolution auf der Mikroskala bewahrt ein Liouville-Maß, und das Ergebnis wird mit überwältigender Wahrscheinlichkeit in Regionen des Phasenraums landen, die ein sehr großes Volumen fV gP ;V ;T haben (Penrose 2017; 2006). Zusammen mit zufälligen Anfangsbedingungen wird dies mit extrem hoher Wahrscheinlichkeit zum »Zweiten Hauptsatz« (2) führen. Es ist aber eigentlich kein unumstößliches Gesetz: Es könnte im Prinzip, in 357 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

einem Quasi-Gleichgewichtszustand, gelegentlich durch Fluktuationen verletzt werden. Loschmidts Paradoxon Solche Ableitungen bestimmen jedoch nicht wirklich den thermodynamischen Zeitpfeil, weil sie in beiden Zeitrichtungen gleich gut funktionieren. Loschmidts Paradoxon besteht darin, dass, wenn man Boltzmanns Ableitung des 2. Hauptsatzes (2) aus der kinetischen Theorie heranzieht, bei Verwendung der Substitution (1) genau dieselbe Ableitung auch zeigt, dass dS=dt0 � 0: d. h. der Zweite Hauptsatz auch in der entgegengesetzten Zeitrichtung gilt. Ein bevorzugter Zeitpfeil auf der Makroebene, in dem (2) gilt, kann nicht durch Coarse Graining der Physik auf der Mikroebene entstehen, weil durch (1) beide Zeitrichtungen in der Mikrophysik gleich sind (Penrose 2017). Dies gilt gleichermaßen für die mikrophysikalische Ableitung des Zweiten Hauptsatzes von Boltzmann im klassischen Fall und von Weinberg im Fall der Quantenfeldtheorie. 6 In der Tat ist dies bei nüchterner Überlegung aufgrund der Mikrosymmetrie (1) offensichtlich: Wenn man die Ableitung korrekt durchgeführt hat, ohne die Zeitrichtung von Hand hinzuzufügen, muss sie dieser Symmetrie gehorchen. Allgemeiner wird die Zeitumkehrsymmetrie in der Physik in Lamb/Roberts 1998 diskutiert. Nehmen wir einen Hamiltonoperator Hðq; pÞ an mit V ¼ V ðqÞ (d. h. �V =�t ¼ 0) und Hðq; pÞ ¼ Hðq; pÞ, was auf den üblichen kinetischen Term T ¼ T ðp2 Þ zutrifft. Dann werden die Bewegungsgleichungen invariant mit der Transformation T : ðq; p; tÞ ! ðq; –p; –tÞ

(10)

Wenn also Sþ ðqðtÞ; pðtÞÞ eine Lösung der Bewegungsgleichungen mit Ausgangsdaten ðqðt0 Þ; pðt0 Þ ist, dann ist S ðqðtÞ; pðtÞÞ :¼ Sþ ðqð tÞ; pð tÞÞ eine Lösung mit Anfangsdaten ðqðt0 Þ; pðt0 ÞÞ. Das heißt, das System erlaubt die identische dynamische Kurve, aber in der entgegengesetzten Zeitrichtung. Wenn Coarse Graining des ersten Kurvensatzes eine Entropiezunahme in der Zukunft beinhaltet, dann wird ein Coarse Graining des zweiten Satzes entsprechend eine Entropiezunahme in der Vergangenheit bedeuten. Beides wird von der lokalen Dynamik nicht bevorzugt. Somit führt Coarse Graining allein nicht zu einer Ableitung des zweiten Hauptsatzes der Thermodynamik (2) mit einer eindeutigen 6

Im letzteren Fall finden sich weitere Einzelheiten in Ellis 2016, 281–282.

358 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Zeitrichtung, die mit der Entropiezunahme verbunden ist (Penrose 2006; 2017; Albert 2000; Ellis 2016). Ein solcher Prozess kann den thermodynamischen Zeitpfeil nicht bestimmen, weil durch die zugrunde liegende Symmetrie (1) diese Ableitungen gleichermaßen dS=t � 0 und dS=dt0 � 0 ableiten. Die Lösung umfasst zwei Aspekte: ein Zustand in der Vergangenheit, d. h. spezielle Anfangsbedingungen am Anfang des Universums, und eine Neubetrachtung der Makro-Mikro-Beziehungen, wenn zeitabhängige Beschränkungen CðtÞ die Ergebnisse bestimmen. Ein Zustand in der Vergangenheit Die grundlegende Lösung ist eine kosmologische Hypothese: Die Randbedingungen sind zeitlich asymmetrisch. Konkret muss die Entropie auf kosmologischer Skala in der sehr fernen Vergangenheit viel geringer gewesen sein (Callender 2016; Penrose 2006; 2017; Rovelli 2019a), was natürlich notwendig ist, damit die Entropie wachsen kann. Dies ist David Alberts Vergangenheitshypothese (Albert 2000): »Wir stellen das kosmologische Postulat auf, dass das Universum in einem extrem winzigen Ausschnitt seines verfügbaren Phasenraums begann« (Callender 2016). Dies ist die Grundlage dafür, dass die Entropie bei irreversiblen Prozessen wie der Nukleosynthese und der Entkopplung von Materie und Strahlung und später bei der Strukturbildung in der zukünftigen Zeitrichtung zunehmen kann. Wie es zu diesen speziellen Anfangsbedingungen kam, ist umstritten, wobei viele behaupten, dass die Inflation dies lösen wird, und Penrose behauptet, dass dies wegen der mit Schwarzen Löchern und dem Weyl-Tensor verbundenen gravitativen Entropie nicht der Fall ist (Penrose 2017). Ich stehe in dieser Debatte auf die Seite von Penrose, auch wenn ich glaube, dass es ungelöste Probleme mit seinem Lösungsvorschlag einer konformen zyklischen Kosmologie (Conformal Cyclic Cosmology, CCC) gibt. In jedem Fall, wie auch immer es geschah, ist klar, dass ein solcher Zustand eingetreten sein muss und die Grundlage dafür bildete, dass der thermodynamische Zeitpfeil (2) mit der kosmologischen Zeitrichtung übereinstimmt (Abb. 3). Der Zusammenhang mit der Existenz der Zeitrichtung besteht darin, dass sie in der Vergangenheit angewandt wurde, wie durch diese Zeitrichtung bestimmt. Auf diese Weise kann sie in der Tat eine »Vergangenheitshypothese« sein. Makro-Mikro-Aspekte Der zweite Kernpunkt ist die Beziehung all dessen zu Makro-Mikro-Beziehungen, bei denen zeitabhängige Be359 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

schränkungen auftreten (Abschnitt 2.3), die zu einer damit verbundenen Richtung einer zeitlichen Abwärtskaskade zwischen den Skalen führen (Ellis 2014; 2016, 280–284). Zum Beispiel setzt die Expansion des Universums (4) in Übereinstimmung mit der Zeitrichtung (§ 3) einen Zeitpfeil für die Nukleosynthese und die Entkopplung von Materie und Strahlung, indem sie bewirkt, dass die Dichte �ðtÞ und die Temperatur TðtÞ mit der Zeit abnehmen: fdaðtÞ=dt > 0g ) fd�=dt < 0; dT ðtÞ=dt < 0g,

(11)

wobei daðtÞ=dt aus der kosmologisch gemittelten Energiedichte �ðtÞ und d�ðtÞ=dt ) dT ðtÞ=dt folgt, durch die kosmologische Zustandsgleichung p ¼ pð�Þ bestimmt wird. Genauer gesagt in der strahlungsdominierten Ära, in der die Krümmung und die kosmologische Konstante vernachlässigbar sind, gilt aus den Erhaltungsgleichungen und den Friedmann-Gleichungen für die Metrik (4), � �1=2 �ðtÞ _ _ ¼ 4 aðtÞ ¼ 4 8�G�ðtÞ (12) 3 �ðtÞ aðtÞ Dies zeigt, dass (13)

�ðtÞ / a–4 ðtÞ; aðtÞ / t1=2 : Die Energiedichte ist gegeben (Drossel/Ellis 2018, 18) durch 2

�R ðtÞ ¼ �30 g� ðT ÞT 4 ðtÞ;

(14)

wobei die Anzahl der Partikelarten g � ðT Þ � � gi þ 7 gi ¼ 106; 75 g� ðT Þ ¼ bosons � 8 fermions � für das Standardmodell der Teilchenphysik beträgt. Daher � �2 T ðtÞ ¼ 1010 K 1;92sek t

(15)

(16)

Damit ist die Zeitskala festgelegt, die zu den Standardprozessen der Nukleosynthese führt, wenn die Temperatur des Universums nach (16) abnimmt (Dodelson 2003; Peter/Uzan 2013). Die Kanäle für verschiedene Arten von reversiblen Prozessen (Teilchenphysik, Kernphysik, Atomphysik, Molekularphysik) schließen sich im Laufe der Entwicklung des Universums, da die kosmische Temperatur T ðtÞ unter die Schwelle für jeden dieser Prozesse fällt, so dass sich bei weiterem Absinken der Temperatur metastabile thermodynamische Zustände aufbauen können (Dyson 1971; Rovelli 2019a). Dies würde nicht geschehen, wenn die Ungleichheiten in (10) umgekehrt wür360 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

den. Dies führt außerdem dazu, dass zu späteren Zeiten nach der Entkopplung von Materie und Strahlung ein dunkler Nachthimmel entsteht (seine aktuelle Temperatur ist die Temperatur der kosmischen Hintergrundstrahlung von 2,73K), der die Wärmesenke bildet, in die die Abwärme von Sternen, der Sonne und der Biosphäre in der zukünftigen Zeitrichtung abgestrahlt wird. Diese Abwärtskaskade führt den thermodynamischen Zeitpfeil auf Mikroebene durch klassische und quantenmechanische Prozesse in die Physik ein (Drossel 2015) (auf der linken Seite von Tabelle 2).

4.2 Wellengleichungen und Zeit Wellen sind in der physischen Welt allgegenwärtig (Pretor-Pinney 2010). Wieder stellt sich die Frage, woher der zugehörige Zeitpfeil kommt, wenn man bedenkt, dass die quellenfreie Wellengleichung zeitsymmetrisch ist. Schall ist nach seiner Abstrahlung zu hören, jedoch ist der Wellenoperator u der Wellengleichung für Schall mit Schallgeschwindigkeit cs uu : ¼

1 @2u 2 –� u c2s @t2

ð17Þ

zeitsymmetrisch (in anderen Worten: (1) lässt (17) invariant), so dass Lösungen für uu ¼ 0 für beide Zeitrichtungen gleichermaßen auftreten sollten: d. h. mit einer Wirkung, die entweder vor oder nach dem Aussenden des Signals empfunden wurde. Das Bild des EBU bestimmt jedoch, dass es keine zukünftige Raumzeitregion gibt, von der aus sich Einflüsse ausbreiten können, um die Gegenwart zu beeinflussen (§ 3.1). In einer konform flachen Raumzeit wie einem FLRW-Modell (4) lautet die Lösung für (17) (18)

uðv; wÞ ¼ f ðvÞ þ gðwÞ

wobei v; w verzögerte bzw. vorgerückte Nullkoordinaten sind (siehe (20) unten für den Fall FLRW) und fðuÞ; gðwÞ willkürliche Funktionen sind. Da sich kein Signal aus der Zukunft in die Gegenwart ausbreiten kann, wird das in einem System aus der Vergangenheit ankommende Signal durch fðuÞ und das von ihm in die Zukunft ausgesandte Signal durch gðwÞ dargestellt. Das ankommende Signal ist also einfach uðv; wÞ ¼ fðvÞ. 361 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

Die einfallenden Wellen müssen Sommerfelds Strahlungsbedingung erfüllen, die eine Art Vergangenheitsbedingung ist: Im Wesentlichen sollten solche Wellen nicht in unverhältnismäßiger Weise auf eine Region fokussiert werden (Sommerfeld 1949), was aus probabilistischen Gründen nur unter besonderen Umständen mit natürlichen oder künstlichen Linsen oder Technologien wie Lasern oder Röntgengeräten möglich ist. Diese Bedingung entspricht dem zweiten Hauptsatz der Thermodynamik: Nimmt man die verzögerten Lösungen fðvÞ mit der Sommerfeld-Bedingung, so bedeutet dies, dass alle Quellen elektrodynamischer Felder lokalisierte Quellen sind, die in der Vergangenheit liegen (Weinstein 2011). Tatsächlich werden solche Wellen dissipativ sein, was durch die Hinzufügung eines Terms proportional zu �u=�t in der Wellengleichung (17) dargestellt wird. Dieser Term ist mit dem Energieverlust und dem Zweiten Hauptsatz verbunden. Somit sind alle Schallwellen auf lokalisierte Quellen in der Vergangenheit zurückzuführen, wobei Absorptions- und Dissipationsprozesse (nicht dargestellt durch (17)) schließlich die Energie der Schallwellen in Wärmeenergie umwandeln. Dasselbe gilt für alle anderen Wellen in elastischen Medien, wie Erdbeben oder Wasserwellen, die von einer lokalisierten Quelle in der zeitlichen Vergangenheit ausgehen und somit nach ihrer Ursache eintreffen.

4.3 Elektrodynamik Der elektrodynamische Zeitpfeil ist die ähnliche Aussage, dass elektromagnetische Wellen nach dem Senden und nicht vorher empfangen werden. Die Maxwell-Gleichungen sind jedoch zeitsymmetrisch, so dass sie nicht zu diesem Ergebnis führen (Ellis 2002): Fortgeschrittene und verzögerte Potentiale und die zugehörigen Greenschen Funktionen sind aufgrund der Symmetrie (1) gleichermaßen Lösungen für die aus den Maxwell-Gleichungen resultierenden Wellengleichungen für E und H. Sie ermöglichen es potentiell, dass elektromagnetische Wellen sowohl in die Vergangenheit als auch in die Zukunft wandern können (Ellis 2002). Wie im vorigen Fall (§ 4.2) bietet das EBU eine einfache Lösung für dieses Problem: Man kann die Ausbreitung elektromagnetischer Wellen nicht mit Hilfe fortgeschrittener Potentiale bestimmen, weil 362 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

der Raumzeitbereich, über den das zugehörige Integral genommen werden müsste, noch nicht existiert (§ 3.1). Sinnvoll ist in diesem Zusammenhang nur die verzögerte Greensche Funktion, die sicherstellt, dass sich die EM-Wellen entsprechend der kosmologischen Zeitrichtung in die Zukunft und nicht in die Vergangenheit ausbreiten, wobei der springende Punkt ist, dass diese Richtung von der bereits existierenden Region der Vergangenheit in die noch nicht existierende Region der Zukunft zeigt. Im Falle eines FLRW-Modells kann man die Metrik (4) schreiben als ds2 ¼ a2 ðtÞf–d�2 þ dr2 þ d�2 g ¼ a2 ðtÞf–dvdw þ d�2 g (19)

wobei fa2 ðtÞd�2 ¼ dt2 g , � ¼

R

dt=aðtÞ; v ¼ � þ r; w ¼ � – r

(20)

und die Lösung hat die gleiche Form wie (18), aber für die EM-Feldkomponenten: (21)

Fab ðv; wÞ ¼ fab ðvÞ þ gab ðwÞ

Dabei repräsentiert fab ðvÞ die Strahlung, die ein Objekt (ein Mobiltelefon, ein Blatt usw.) aus der Vergangenheit empfängt, und gab ðwÞ die Strahlung, die es in die Zukunft abgibt. Aufgrund des EBU-Kontexts hat die einfallende Strahlung die Form Fab ðv; wÞ ¼ fab ðvÞ. Ein anderer Aspekt ist, dass der Stromfluss, der auf das MaxwellKraftgesetz auf der Mikroebene zurückzuführen ist, auf der Makroebene eine Erwärmung verursacht, die mit dem emergenten Ohmschen Gesetz zusammenhängt. Dies ist mit einem Zeitpfeil verbunden (ein Stromfluss erwärmt die Widerstände nach dem Einschalten des Stroms, nicht vorher). Dies ist auf die Statistik der Elektronendrift und Kollisionen mit Ionen zurückzuführen. Es handelt sich also im Wesentlichen um ein thermodynamisches Phänomen aufgrund von Flüssen, die durch elektrische und magnetische Felder entstehen.

4.4 Gravitativer Zeitpfeil Der gravitative Zeitpfeil hängt mit Gravitationswellen (Hawking 1966) und Gezeitenkräften (Goswami/Ellis 2019) zusammen. Wir sind zum Beispiel sicher, dass die Quellen der von LIGO entdeckten Wellen in der Vergangenheit liegen und nicht in der Zukunft. Allerdings haben die Einsteinschen Gleichungen keine bevorzugte Zeit363 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

richtung und dasselbe gilt für die resultierenden Gravitationswellengleichungen (Hawking 1966); gemäß (1) könnte die Ausbreitung der Gravitationswellen im Prinzip auch in der anderen Zeitrichtung erfolgen. Die Antwort lautet wie in den Fällen von Skalarwelle und elektromagnetischer Welle: nur verzögerte Potentiale machen im EBUKontext Sinn. Der gravitative Zeitpfeil und der damit verbundene Gezeitenkraft-Zeitpfeil stimmen daher notwendigerweise mit der kosmologischen Zeitrichtung überein.

4.5 Quantenmechanischer Zeitpfeil Die unbestimmte Zukunft ändert sich in die bestimmte Zukunft, wenn die Wellenfunktion in einen Eigenzustand kollabiert (Ghirardi 2007; Ellis 2012), wie in Abschnitt 5 erörtert. Dies geschieht in einer kontextuellen Weise, vermittelt durch Wechselwirkungen mit Wärmebädern, die den quantenmechanischen Zeitpfeil mit dem thermodynamischen Zeitpfeil verbinden (Drossel/Ellis 2018). Der Prozess ist irreversibel: Es findet ein Informationsverlust während des Zusammenbruchs der Wellenfunktion (Ellis 2012) statt und Irreversibilität, die sich an den damit verbundenen biologischen Folgen wie der Photonenerkennung durch die Augen und der Photosynthese bei Pflanzen zeigt. Dies hängt wiederum mit der Thermodynamik und dem Zustand in der Vergangenheit zusammen: Wir erhalten zum Beispiel nicht die Art von Conspiracy, die erforderlich wäre, damit Elektronen, die durch photosynthetische Prozesse freigesetzt werden, ihre Geschwindigkeit umkehren und Photonen aus Chlorophyllmolekülen emittieren. Das Delayed-Choice-Experiment von Wheeler mit dem Vorschlag einer »verzögerten Quantenwahl«, das experimentell bestätigt wurde, lässt jedoch vermuten, dass man in der Lage sein könnte, in die Vergangenheit zurückzugehen, um unter ganz besonderen Umständen Mikroereignisse zu beeinflussen (Ellis/Rothman 2010). Dies muss weiter untersucht werden, wird aber keinen Einfluss auf Ereignisse großen Ausmaßes und den gesamten Zeitverlauf haben.

364 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

4.6 Biologischer Zeitpfeil Der biologische Zeitpfeil folgt in erster Linie aus dem thermodynamischen Zeitpfeil und den damit verbundenen Prozessen wie der Diffusion, aber vielleicht auch in einigen Fällen aus den elektrodynamischen und quantenmechanischen Zeitpfeilen. Die Zeitrichtung kaskadiert von der mikrophysikalischen Ebene hinauf zu emergenten biochemischen, entwicklungsbedingten und physiologischen Prozessen wie Entwicklungsprogrammen und Stoffwechselvorgängen (Campbell/Reece 2005) und führt so einen konkordanten Zeitpfeil in der Pflanzen- und Tierphysiologie und im Gehirn ein (Ellis 2014) (rechte Seite von Tabelle 2).

5.

Quantenmechanische Aspekte

Die Quantentheorie besteht aus zwei Teilen (Penrose 2006, 527–533): Evolution der einheitlichen Wellenfunktion U, plus Reduktion der Wellenfunktion R (§ 5.1). Letztere führt zu eindeutigen physikalischen Ergebnissen und ist daher mit dem Zeitablauf verbunden (§ 5.2).

5.1 Kollaps der Wellenfunktion Der unitäre Teil U der Evolution der Quantenwellenfunktion wird durch die Schrödingergleichung im nicht-relativistischen Fall und die Dirac-Gleichung U : Hj�i ¼ i� h �t� j�i

(22)

durch die Dirac-Gleichung im relativistischen Fall (Penrose 2006) beschrieben. Da der eigentliche Zweck der Wellenfunktion jedoch darin besteht, Wahrscheinlichkeiten klassischer Ergebnisse zu bestimmen, bedeutet all dies nichts Physikalisches, es sei denn, die Reduktion der Wellenfunktion R tritt auf und bestimmt solche Ergebnisse (Penrose 2006; Ellis 2012). Wenn ein solches Ereignis R eintritt, wird eine Wellenfunktion j�i d. h. eine Überlagerung von orthonormalen Eigenzuständen jun i eines Operators auf einen bestimmten Eigenzustand N dieses Operators projiziert:

365 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

(23)

R : j�iðt0 Þ ¼ �n cn jun i ! j�iðt1 Þ ¼ �N juN i.

In diesem irreversiblen Prozess gibt es eine irreduzible Unsicherheit: Das spezifische Auftreten von N wird nicht eindeutig durch den Ausgangszustand j�i (t0) (Ghirardi 2007) bestimmt. Die Statistik der Ergebnisse wird jedoch zuverlässig durch das Bohrsche Modell bestimmt: die Wahrscheinlichkeit pN des auftretenden spezifischen Ergebnisses juN i ist gegeben durch 2

pN ¼ jcN j .

(24)

Dies ist in Abb. 4 dargestellt. Es ist keine Möglichkeit bekannt, eindeutig vorherzusagen, wo das nächste Ereignis auf dem Bildschirm stattfinden wird, aber die Zuverlässigkeit der statistischen Ergebnisse ist klar, da die Anzahl der Elektronen, die den Spalt durchlaufen haben, zunimmt und das klassische Welleninterferenzmuster entsteht. Der Projektionsprozess (23) findet in Laborexperimenten wie dem 2Schlitz-Experiment statt, aber auch immer dann, wenn physikalische Wechselwirkungen stattfinden, wie z. B. bei der Nukleosynthese im frühen Universum, wenn ein Photon von einem CCD registriert wird und wenn ein Photon auf ein Chlorophyllmolekül in einem Blatt trifft und somit ein Elektron freisetzt, das bei der Photosynthese in Pflanzen eine Kaskade biochemischer Reaktionen auslöst. Es finden also ständig nicht-einheitliche Ereignisse statt, die nicht durch (22) (Isham 2001; Ellis 2012; Ghirardi 2007) beschrieben werden können. Nun gibt es verschiedene alternative Theorien auf dem Markt, um dieses experimentelle Ergebnis zu erklären, darunter die Kopenhagener Interpretation (im Wesentlichen sind Makroapparate klassisch und liefern den Kontext für den Kollaps der Wellenfunktion), Theorien zu versteckten Variablen wie die De-Broglie-Bohm-Theorie (diesen statistischen Ergebnissen liegt eine unzugängliche versteckte Variable zugrunde) und die Viele-Welten-Theorie von Everett (die Wellenfunktion spaltet sich jedes Mal, wenn ein Messereignis stattfindet, in separate unbeobachtbare Teile auf) (Isham 2001). Trotz ihrer behaupteten Einheitlichkeit ermöglichen es die beiden letztgenannten Theorien in Wirklichkeit nicht, anhand der Ausgangsdaten (wie in Abb. 4) 7 einzigartige spezifische Ergebnisse zu bestimFür eine klare Darstellung der Problematik der Viele-Welten-Interpretation siehe Why the Many-Worlds Interpretation Has Many Problems von Philip Ball (Quanta Magazine, 18. Oktober 2018).

7

366 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Abb. 4. Quantenunsicherheit Das von Dr. Tonomura durchgeführte Doppelspaltexperiment zeigt den Aufbau eines Interferenzmusters einzelner Elektronen. Die Anzahl der Elektronen beträgt (b) 200, (c) 6000, (d) 40.000 und (e) 140.000.

men, wie sie in der Realität erlebt werden; und es gibt für keine der beiden Theorien experimentelle Beweise. Ich unterstütze eher den Vorschlag des kontextuellen Kollapses der Wellenfunktion (Contextual Wavefunction Collapse, CWC) (Drossel/Ellis 2018), bei dem der Projektionsprozess (23) tatsächlich stattfindet und dieser der Born-Regel (24) gehorcht. Die Art und Weise, wie dies geschieht, wird jedoch durch den lokalen physikalischen Kontext mit einer komplexen Reihe von Interaktionen bestimmt (Drossel/Ellis 2018). In der Tat ist diese Abhängigkeit offensichtlich: Einige spezifische Apparate können Energie oder Polarisation messen und die Ergebnisse hängen von dieser Wahl ab; im letzteren Fall kann die Richtung der gemessenen Polarisation beliebig gewählt werden, was wiederum die Ergebnisse verändert (Susskind/ Friedman 2014). Tatsächlich ist dieser Vorschlag eine spezifische Form der Kopenhagener Interpretation, bei der der Makroapparat klassisch und nicht quantenmechanisch ist. Der Grund für diese klassische Natur ist die Beschränkung des Gültigkeitsbereichs einer bestimmten Wellenfunktion j�i (Ellis 2012) und insbesondere die Tatsache, dass ein Wärmebad nicht durch eine Vielteilchen-Wellen367 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

funktion beschrieben werden kann (Drossel 2017). Jeder reale Makroapparat beinhaltet Wärmebäder und ist somit ein klassisches Gebilde, auch wenn es aus lokalisierten Quantensystemen hervorgeht.

5.2 Der Lauf der Zeit Der Vorschlag lautet nun, dass im semi-klassischen Fall, d. h. wenn wir es mit Quantenprozessen zu tun haben, die vor einem klassischen Raumzeit-Hintergrund ablaufen, der Zeitablauf durch den mit Gleichung (23) beschriebenen Prozess R erfolgt, bei dem die unbestimmte Zukunft aufgrund der Wellenvektorreduktion in die bestimmte Vergangenheit übergeht. In Wirklichkeit ist dieser Prozess viel komplexer als die obige idealisierte Diskussion (siehe Ellis/Drossel 2019a), dennoch bleibt die Kernidee wahr. Wie oben betont wurde, beschränkt sich dieser Prozess nicht auf »Experimente«, die in einem Labor durchgeführt werden: er findet zu jeder Zeit und überall in der realen Welt statt, da physikalische, chemische und biochemische Wechselwirkungen stattfinden. Die Art und Weise, wie er abläuft, wird jeweils durch den lokalen physikalischen Kontext bestimmt, der die LorentzSymmetrie bricht: Er ist immer mit einer zeitlichen Vorzugsrichtung verbunden (z. B. dem Ruhesystem eines Labors oder eines Blatts). Eine Schlüsselrolle in diesem Kollaps-Prozess (Ellis/Drossel 2019a) spielen die Wärmebäder und ihre spezifischen Eigenschaften (Drossel 2017), die die Verbindung zum thermodynamischen Zeitpfeil und damit zur Ausdehnung des Universums herstellen. Wenn dies geschieht, kann die Quantenunsicherheit auf der Mikroebene verstärkt werden, um unvorhersehbare Ergebnisse auf der Makroebene zu erzielen. Ein Beispiel ist, dass kosmische Strahlung manchmal Fehler in der Funktionsweise von Transistoren und damit in den Ergebnissen von Digitalrechnern verursacht (O’Gorman et al. 1996). Dies geschieht auf eine von Natur aus unvorhersehbare Weise, da die Emission der kosmischen Strahlung ein Quantenereignis ist, das sogar prinzipiell unvorhersehbar ist (Ghirardi 2007).

5.3 Wieder Loschmidt Beim kontextuellen Kollaps der Wellenfunktion wird der Zeitpfeil dem Quantensystem über Wärmebäder mitgeteilt, die aufgrund des 368 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

kosmologischen Kontextes (Anfangszustand und dunkler Nachthimmel) dem zweiten Hauptsatz gehorchen. Eine gegenteilige Ansicht wird nun von Donoghue und Meneze (Donoghue/Meneze 2019) vertreten: »In unseren Konventionen zur Quantisierung verbirgt sich eine Verbindung zur Definition eines Kausalpfeils, d. h. was ist Vergangenheit und was ist Zukunft.« Die Autoren begründen dies mit der Behauptung, dass das Zeichen vor dem i in der Quantenmechanik den Unterschied zwischen Vergangenheit und Zukunft ausmacht, weil die zeitliche Entwicklung durch (22) bestimmt wird, was dazu führt, dass die »positive Energie« über eiEt=�h definiert wird und das Pfadintegral über eiS und nicht über e-iS liegt. Das ist sehr merkwürdig, denn es gibt keinen offensichtlichen Zusammenhang zwischen t, das in der Dirac-Gleichung (22) auftritt, und der Zeitrichtung, die von der Kosmologie bestimmt wird (§3), also warum sind sie konkordant? Wo ist der Zusammenhang zwischen (22) und (4)? Darüber hinaus: ist j�i in (22) im relativistischen Fall ein links- oder rechtshändiger 2-komponentiger Weyl-Spinor (wo eine bevorzugte Helizität ins Spiel kommt) oder ein 4-komponentiger Dirac-Spinor (wo beide Helizitäten auftreten)? Tatsächlich unterliegt ihr Vorschlag einer Version von Loschmidts Paradoxon (§ 4.1). Die Form der � �-Matrizen in der DiracGleichung wird bestimmt, indem man eine Quadratwurzel der KleinGordon-Gleichung nimmt, die zeitsymmetrisch ist, so dass das Ergebnis zeitsymmetrisch sein muss. Die � � -Matrizen müssen den folgenden Beziehungen gehorchen: 2

2

ð� 0 Þ ¼ 1; ð� i Þ ¼

1; � � � � þ � � � � ¼ 0f or � 6¼ �

(25)

wobei �; � ¼ 0; 1; 2; 3 und i ¼ 1; 2; 3. Wählen Sie eine Menge von � � die diese Gleichungen erfüllt; wir können � 00 ¼ � 0 setzen, und sie werden immer noch erfüllt. So können wir t0 :¼ t und � 00 ¼ � 0 in der Dirac-Gleichung setzen, und das Argument in Donoghue/Meneze 2019 wird wieder genau so funktionieren wie zuvor, aber diesmal in der entgegengesetzten Richtung der Zeit t0 . Das Argument funktioniert in beiden Richtungen der Zeit gleich gut. 8 Die Zeitrichtung, die sich, wie in (Donoghue/Meneze 2019) angegeben, abzeichnet, wird durch die Wahl des Vorzeichens von � 0

Dies ist natürlich nur eine Neuformulierung wohlbekannter Argumente über die CPT-Eigenschaften der Quantenfeldtheorie (Lancaster/Blundell 2014).

8

369 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

bestimmt (das mit der Wahl der Chiralität zusammenhängt). Welche Zeitrichtung sollte man auf diese Weise wählen? Meine Schlussfolgerung wird sein, dass man t in 22 so wählen muss, dass es gleich ist wie �, das bestimmt wird wie in § 3.3. Dies wird dann das richtige Vorzeichen bestimmen, das für � 0 zu wählen ist. Das heißt, der quantenmechanische Zeitpfeil in der Dirac-Gleichung wird von oben nach unten durch den kosmologischen Kontext bestimmt (Ellis/Drossel 2019a).

6.

Aspekte der Quantengravitation

Schließlich sollte mit dem Fortschreiten der Zeit natürlich auch die Raumzeit selbst entstehen. Abbildung 2 soll sich nicht nur auf Ereignisse in der Raumzeit, sondern auf die Raumzeit selbst beziehen. Das bedeutet natürlich, dass wir eine konsistente Theorie der Quantengravitation brauchen und derzeit haben wir keine gut definierte und konsistente solche Theorie (Murugan/Weltmann/Ellis 2012). Stattdessen war die Wheeler-DeWitt-Gleichung zur Beschreibung der Quantenwellenfunktion des Universums vielversprechend und ihre einheitliche Natur wurde als Schlüsselargument dafür genommen, warum die Zeit nicht vergeht (Barbour 2001). Ihre Befürworter greifen auf die Sichtweise von Everett (viele Welten) zurück, um zu versuchen, ihre Anwendung praktikabel zu machen, obwohl es keinen Beweis dafür gibt, dass diese Gleichung irgendein reales physikalisches System beschreibt. Im Gegensatz dazu glaube ich, dass eine tragfähige Quantengravitationstheorie von Anfang an auf der Unstetigkeit der Raumzeitstruktur beruhen sollte (Ellis 2019) und hier gibt es verschiedene Optionen (Hossenfelder 2013). Eine Möglichkeit, die mit der EBU-Idee übereinstimmt, ist der Vorschlag von Spin-Schaum (Perez 2003; Perez 2013), bei dem es sich um diskrete Raumzeiten handelt, die im Sinne des EBU wachsen und die daher mit den hier gemachten Vorschlägen kompatibel sind. Auch wenn dies (wie alle anderen Vorschläge zur Quantengravitation (Murugan/Weltmann/Ellis 2012) noch keine voll entwickelte, tragfähige Theorie ist, schlägt sie doch Richtungen für weitere Überlegungen vor, die mit den Vorschlägen in diesem Kapitel kompatibel sind. Eine echte Herausforderung für jede Quantengravitationstheorie ist jedoch die Frage nach dem Umgang mit dem Wellenfunktions370 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

kollaps (§ 5.1). In Übereinstimmung mit dem Rest dieses Kapitels bin ich der Meinung, dass dies nach dem Vorbild des kontextuellen Kollapses der Wellenfunktion (CWC) angegangen werden sollte (Ellis/ Drossel 2019a). Penroses Vorschlag, dass die Schwerkraft das relevante kontextuelle Merkmal im Zusammenhang mit dem Wellenfunktionskollaps ist (Penrose 2017), könnte sich in diesem Zusammenhang als richtig erweisen.

7.

Schlussfolgerung

Dieses Kapitel lieferte eine ganzheitliche Sichtweise des Zeitablaufs auf verschiedenen Struktur- und Funktionsebenen, wobei mit Entstehung der Zeitrichtung auf der makroskopischen (kosmologischen) Skala und damit verbundener Zeitpfeile auf der lokalen Skala während der Evolution des Universums ganz neue Eigenschaften aus der zugrunde liegenden Physik entstehen, wobei gebrochene Symmetrien ein Schlüsselmerkmal sind, das dies ermöglicht (Anderson 1972). Die relevanten Raumzeitlösungen brechen die Lorentz-Symmetrie und haben bevorzugte Koordinatensysteme. Das damit verbundene Raumzeitbild ist das eines sich entwickelnden Blockuniversums (Abb. 2), was in der Tat durch das kanonische Bild der kosmologischen Evolution des Planck-Teams (Abb. 1) dargestellt wird. Seine Zeitrichtung (Abb. 2) bricht die Symmetrie (1) und führt (angesichts der Vergangenheitshypothese) zu lokalen Zeitpfeilen, die mit der kosmologischen Zeitrichtung übereinstimmen (Abb. 3). Der kosmologische Kontext wirkt sich auf lokale physikalische Geschehnisse in entscheidender Weise aus (Ellis 2002; Ellis 2016). Spezielle Anfangsbedingungen stellen den Anfangszustand niedriger Entropie her, der es erlaubt, die Entropie in der zukünftigen Zeitrichtung zu erhöhen. Durch die Expansion des Universums entsteht der dunkle Nachthimmel, der die Senke für die Abwärme von Sternen, der Sonne und unserer Biosphäre bildet, die im Infrarot in die zukünftige Zeitrichtung abgestrahlt wird. Der hier gemachte Vorschlag des wachsenden Blockuniversums (EBU) basiert auf einem besonderen Vorschlag, wie bevorzugte zeitähnliche Weltlinien und abgeleitete Flächen konstanter Zeit bestimmt werden können. Für diejenigen, die diesen Vorschlag für unzureichend halten, besteht die Herausforderung darin, einen Alternativvorschlag zu finden, der der Tatsache gerecht wird, dass die Zeit 371 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

tatsächlich auf der Makroebene vergeht und daher auch auf der Mikroebene vergehen muss. Zu leugnen, dass die Zeit vergeht, bedeutet, dass man sich auf spektakuläre Weise einer riesigen Menge an Beweisen verschließt. Wenn wir diese Nachweise ernst nehmen, dann muss entweder die hier vorgestellte Ansicht oder eine Variante davon zutreffen. Natürlich bleiben Fragen offen, wie etwa die mit der schwachen Kraft verbundene Zeitasymmetrie. Ich glaube, der hier vorgestellte Rahmen ist eine gute Grundlage für die Untersuchung dieser Frage.

8.

Literatur

Ade, Peter A. et al (2016): Planck 2015 results-xiii. cosmological parameters, in: Astronomy and Astrophysics 594, A13. Aghanim, Nabila et al (2018): Planck 2018 results. VI. Cosmological parameters, in: arXiv preprint arXiv, 1807.06209. Albert, David (2000): Time and Chance. Cambridge, Massachusetts. Anderson, Philip W. (1972): More Is Different, in: Science 177, 393–396. Arnold, Vladimir I. (1989): Mathematical Methods of Classical Mechanics. New York u. a. Arnowitt, Richard/Deser, Stanley/Misner, Charles W. (1962): The Dynamics of General Relativity, in: Witten, Louis (Hg.): Gravitation: An Introduction to Current Research, 227–265. (Nachdruck in Gen. Rel. Grav. 40, 1997 [2008]). Barbour, Julian (2001): The end of time: The next revolution in physics. o. O. Berridge, Michael (2014): Cell Signalling Biology, in: http://www.cell signallingbiology.co.uk/csb/. doi:10.1042/csb0001001. Booch, Grady (2006): Object oriented analysis and design with application. Pearson Education India. Breuer, Reinhard A./Ehlers, Jürgen (1980): Propagation of high-frequency electromagnetic waves through a magnetized plasma in curved spacetime, in: I. Proceedings of the Royal Society of London. A. Mathematical and Physical Sciences 370 (1742), 389–406. Breuer, Reinhard A./Ehlers, Jürgen (1981): Propagation of high-frequency electromagnetic waves through a magnetized plasma in curved spacetime. II. Application of the asymptotic approximation, in: Proceedings of the Royal Society of London. A. Mathematical and Physical Sciences 374 (1756), 65–86. Callender, Craig (2016): Thermodynamic Asymmetry in Time, in: Zalta, E. N. (Hg.): The Stanford Encyclopedia of Philosophy (URL = https://plato. stanford.edu/archives/win2016/entries/time-thermo/). Campbell, Neil A./Reece, Jane B. (2005): Biology. San Francisco. Dodelson, Scott (2003): Modern Cosmology. London/Oxford/Boston u. a.

372 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Donoghue, John F./Meneze, Gabriel (2019): Arrow of Causality and Quantum Gravity, in: Phys Rev Lett 123, 171601. Drossel, Barbara (2015): On the relation between the second law of thermodynamics and classical and quantum mechanics, in: Falkenburg, B./Morrison, M. (Hg.): Why more is different. Heidelberg, 41–54. Drossel, Barbara (2017): Ten reasons why a thermalized system cannot be described by a many-particle wave function, in: Studies in History and Philosophy of Science Part B: Studies in History and Philosophy of Modern Physics 58, 12–21. Drossel, Barbara/Ellis, George (2018): Contextual wavefunction collapse: An integrated theory of quantum measurement, in: New Journal of Physics 20 (11), 113025. Dyson, Freeman J. (1971): Energy in the universe, in: Scientific American 225 (3), 50–59. Eddington, Arthur S. (2019): The nature of the physical world (Macmillan) Ehlers, Jürgen/Prasanna, Aragam R. (1996): A WKB formalism for multicomponent fields and its application to gravitational and sound waves in perfect fluids, in: Classical and Quantum Gravity 13 (8), 2231. Ellis, George F. R. (1971): General relativity and cosmology, in: Sachs, R. K. (Hg.): General Relativity and Cosmology, Varenna Course No. XLVII New York. (Nachdruck in: General Relativity and Gravitation 41, 581– 660 [2009]). Ellis, George F. R. (2002): Cosmology and local physics, in: New Astronomy Reviews 46, 645–657. Ellis, George F. R. (2006): Physics in the real universe: time and spacetime, in: General Relativity and Gravitation 38, 1797–1824. Ellis, George F. R. (2012): On the limits of quantum theory: contextuality and the quantum-classical cut, in: Annals of Physics 327, 1890–1932 (Arxiv preprint 1108.5261) Ellis, George F. R. (2014): The evolving block universe and the meshing together of times, in: Ann N Y Acad Sci. 2014 Okt; 1326, 26–41 (arXiv 1407.7243). Ellis, George F. R. (2016): How Can Physics Underlie the Mind? Top-Down Causation in the Human Context. Heidelberg. Ellis, George F. R. (2019): Foundational Issues Relating Spacetime, Matter, and Quantum Mechanics, in: Journal of Physics: Conference Series 1275, 012001. Ellis, George F. R./Drossel, Barbara (2019): How Downwards Causation Occurs in Digital Computers, in: Foundations of Physics 49, 1253–1277. Ellis, George F. R./Drossel, Barbara (2019): Emergence of Time, in: arXiv:1911.04772. Ellis, George F. R./Goswami, Rituparno (2014): Spacetime and the Passage of Time, in: Ashtekar, A./Petkov, V. (Hg.): Springer Handbook of Spacetime. Berlin/Heidelberg, 243–264.

373 https://doi.org/10.5771/9783495825464 .

George F. R. Ellis

Ellis, George F. R./Kopel, Jonathan (2018): The Dynamical Emergence of Biology From Physics: Branching Causation via Biomolecules, in: Frontiers in physiology 9, 1966. Ellis, George F. R./Maartens, Roy (2003): The emergent universe: Inflationary cosmology with no singularity, in: Classical and Quantum Gravity 21, 223–232. Ellis, George F. R./Meissner, Krzysztof/Nicolai, Hermann (2018): The Physics of Infinity, in: Nature Physics 14 (8), 770–772. Ellis, George F. R./Murugan, Jeff/Tsagas, Christos G. (2003): The emergent universe: an explicit construction, in: Classical and Quantum Gravity 21, 233. Ellis, George F. R./Rothman, Tony (2010): Time and spacetime: the crystallizing block universe, in: International Journal of Theoretical Physics 49, 988–1003. Ghirardi, Giancarlo (2007): Sneaking a Look at God’s Cards: Unraveling the Mysteries of Quantum Mechanics. Princeton. Goswami, Rituparno/Ellis, George F. R. (2019): Tidal forces are gravitational waves, in: arXiv:1912.00591. Hartwell, Leland H./Hopfield, John J./Leibler, Stanislas/Murray, Andrew W. (1999): From molecular to modular cell biology, in: Nature 402, Supplement: C47–C52. Hawking, Stephen W. (1966): Perturbations of an expanding universe, in: The Astrophysical Journal 145, 544–554. Hawking, Stephen W./Ellis, George F. R. (1973): The Large Scale Structure of Spacetime. Cambridge. Hirsch, Morris W. (1976): Differential topology. Berlin/Heidelberg. Hossenfelder, Sabine (2013): Minimal Length Scale Scenarios for Quantum Gravity, in: Living Rev. Relativity 16 (2) (http://www.livingreviews. org/lrr-2013-2). Isham, Chris J. (2001): Lectures on quantum theory Mathematical and structural foundations. (Allied Publishers.) Karplus, Martin (2014): Development of multiscale models for complex chemical systems: from H+ H2 to biomolecules, in: Angewandte Chemie International Edition 53, 9992–10005. Lamb, Jeroen S./Roberts, John A. (1998): Time-reversal symmetry in dynamical systems: a survey, in: Physica D: Nonlinear Phenomena 112, 1– 39. Lancaster, Tom/Blundell, Stephen J. (2014): Quantum field theory for the gifted amateur. Oxford. Liddle, Andrew R./Lyth, David (2006): Cosmological Inflation and Large Scale Structure. Cambridge. Loll, Renate (1998): Discrete Approaches to Quantum Gravity in Four Dimensions, in: Living Reviews in Relativity 1 (1), https://doi.org/10.12942/ lrr-1998-13. Murugan, Jeff/Weltmann, Amanda/Ellis, George F. R. (Hg.) (2012): Foundations of Space and Time: Reflections on Quantum Gravity. Cambridge.

374 https://doi.org/10.5771/9783495825464 .

Die Entstehung der Zeit durch kosmologische Evolution

Noble, Denis (2002): Modeling the heart–from genes to cells to the whole organ, in: Science 295, 1678–1682. Noble, Denis (2012): A theory of biological relativity: no privileged level of causation, in: Interface Focus 2, 55–64. O’Gorman, Timothy J. et al. (1996): Field testing for cosmic ray soft errors in semiconductor memories, in: IBM Journal of Research and Development 40, 41–50. Penrose, Roger (2006): The road to reality: A complete guide to the laws of the universe. New York. Penrose, Roger (2017): Fashion, faith, and fantasy in the new physics of the universe. Princeton. Perez, Alejandro (2003): Spin foam models for quantum gravity, in: Classical and Quantum Gravity 20, R43. Perez, Alejandro (2013): The Spin-Foam Approach to Quantum Gravity, in: Living Rev. Relativity 16, 3. (http://www.livingreviews.org/lrr-2013-3) Peter, Patrick/Uzan, Jean-Philippe (2013): Primordial Cosmology. Oxford. Pretor-Pinney, Gavin (2010): The Wave Watcher’s Companion: Ocean Waves, Stadium Waves, and All the Rest of Life’s Undulations. New York. Rovelli, Carlo (2019): Where was past low-entropy?, in: arXiv:1812.03578. Rovelli, Carlo (2019): Neither Presentism nor Eternalism, in: arXiv:1910.02474. Davis, Paul (2012): That mysterious flow, in: Scientific American 21 (Special Edition: A Matter of Time), 8–13. Simon, Herbert A. (1996): The sciences of the artificial. Cambridge/London. Sommerfeld, Arnold (1949): Partial differential equations in physics. New York. Susskind, Leonard/Friedman, Art (2014): Quantum mechanics: The theoretical minimum. New York. Tanenbaum, Andrew S. (2006): Structured Computer Organisation, 5. Ausgabe. Upper Saddle River, New Jersey. Weinberg, Steven (1995): The quantum theory of fields. Vol. 1: Foundations. Cambridge. Weinstein, Steven (2011): Electromagnetism and time-asymmetry, in: Modern Physics Letters A 26, 815–818.

375 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung Michael A. Rieger 1.

Zusammenfassung

Krebs beruht auf der irreversiblen Veränderung von körpereigenen Zellen unterschiedlichster Organe, welche aus ihren geordneten Netzwerken und Regelmechanismen ausbrechen und durch unkontrolliertes Verhalten zu einem Organversagen führen. Krebszellen vermehren sich nicht nur unkontrolliert, sie verändern sich auch ständig durch Mutation und Selektion und unterliegen einer Evolution der Erkrankung. Wie jedes biologische Zellsystem folgt die Pathophysiologie von Krebszellen den Regeln eines komplexen Systems. Durch die Veränderungen der Stabilität von Netzwerken und Abschaltung von Kontrollmechanismen unterliegen Krebszellen einem höheren Selektionsdruck und einer beschleunigten Evolution, besonders als Antwort auf Therapien. In diesem Artikel werden wichtige Analogien der Komplexitätstheorie mit der Entstehung und Biologie von Krebs hinterleuchtet und deren Konsequenzen für die Entwicklung von neuartigen Wirkstoffen und Therapiestrategien diskutiert. Die kausalen Zusammenhänge und Rückkoppelungen zwischen dem dynamischen Wachstum von ständig genetisch veränderten und heterogenen Krebszellen, der sich ändernde metabolische und entzündliche Zustand des Tumor-Mikromilieus, der Wettkampf aller Zellen um Nährstoffe, das Immunsystem des Patienten und die Wahl der Therapie machen die adaptive Komplexität von Krebs aus.

2.

Was ist Krebs?

Bei einer Krebserkrankung kommt es zum unkontrollierten Wachstum von körpereigenen Zellen, die sich in umgebende Gewebe und Organe verteilen und letztendlich zu einem tödlichen Versagen der Organfunktion führen. Dabei ist Krebs der Überbegriff einer Ansammlung von mehr als 100 Erkrankungen, die aus unterschiedlichs376 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

ten Körperzellen entstehen und unterschiedliche Organe betreffen. Normale Zellen teilen sich, um neue Zellen zu bilden, je nach Situation und Bedarf. Es gibt sehr regenerative und plastische Organe, bei denen Zellen eine sehr begrenzte Lebensdauer haben und sich daher die Mehrzahl an Zellen ständig erneuert, wie z. B. das Blutsystem, die Haut oder der Darm; oder die sich bei Bedarf temporär durch schnelle Zellteilung enorm vergrößern können, wie das Immunsystem während einer Infektion. Andere Organe sind deutlich weniger regenerativ, sie bestehen aus langlebigen Zellen ohne Teilungsfähigkeit und nur wenigen teilenden Zellen, wie z. B. das Gehirn oder das Herz. Wenn Zellen altern oder beschädigt werden, sterben sie und werden durch neue Zellen ersetzt. Wenn Krebs entsteht, ist dieser geordnete Prozess, den man Homöostase nennt, durchbrochen. Krebszellen teilen sich, obwohl keine neuen Zellen benötigt werden und sie haben oft durch den Verlust von Kontrollmechanismen ihre Fähigkeit verloren, in den Zelltod zu gehen. Es entsteht ein Tumor. Krebs ist eine maligne Tumorerkrankung, d. h. Krebszellen können in umliegendes Gewebe einwandern und über das Blutsystem oder das Lymphsystem entfernte Gewebe und Organe befallen und neue Tumore hervorbringen, weit entfernt vom eigentlichen Primärtumor. Krebszellen unterscheiden sich maßgeblich von normalen Zellen. Viele Änderungen müssen sich ereignen, damit sich aus einer normalen Zelle eine Krebszelle entwickelt. Daher ist auch das Auftreten von Krebs ein seltenes Ereignis, wenn man bedenkt, dass unser Körper aus 100 Billionen Zellen besteht und dass täglich mehr als 50 Milliarden Zellteilungen erfolgen. Krebszellen verlieren die Fähigkeit, nach Schädigung in den Zelltod zu gehen. Sie teilen sich schnell und unabhängig von Wachstumssignalen. Der natürliche Mechanismus einer Zelle, sich nur begrenzt zu teilen, ist inaktiviert. Auch wachstumsinhibierende Signale von außen werden von Krebszellen ignoriert. Tumore bewirken die Ausbildung des Gefäßsystems, das den Tumor mit Nährstoffen versorgt. Einzelne Krebszellen sondern sich vom Tumorgewebeverbund ab und wandern ins umliegende Gewebe und in die Zirkulation des Gefäßsystems, wo sie losgelöst von anderen Tumorzellen verweilen können, um zu einem späteren Zeitpunkt in Metastasen auswachsen zu können.

377 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

3.

Krebs entsteht nicht nur durch genetische Veränderungen

Wiederkehrende genetische Veränderungen, sogenannte Mutationen des Erbguts (DNA, Desoxyribonukleinsäure) zeichnen Krebszellen aus. Aber nicht jede Zelle, die genetische Mutationen aufweist, ist eine Krebszelle. Komplexe Ereignisse in temporaler und räumlicher Ebene müssen auftreten, damit eine mutierte Zelle zum Ursprung einer Krebserkrankung wird. Genetische Veränderungen, die zu der Entstehung von Krebs führen, können angeboren sein oder sie entstehen während unseres Lebens spontan in einer Gewebezelle als Ergebnis von fehlerhafter DNA-Replikation während der Zellteilung oder durch fehlerhafte Reparatur von DNA-Schäden nach Exposition von toxischen Umwelteinflüssen, wie z. B. Chemikalien, Zigarettenrauch oder Strahlung. Tausende von DNA-Schäden entstehen jeden Tag in unserem Körper und unzählige Mutationen entstehen während der Zellteilung, doch glücklicherweise entwickeln nur wenige von uns Krebs in ihrem Leben. Die Bedeutung von genetischen Mutationen bei der Entstehung von Krebs wird in verschiedenen Modellen in unterschiedlichen Wertigkeiten bemessen. Das traditionelle und dominierende Model der Krebsentstehung durch somatische Mutationen sieht Krebs als genetische Erkrankung. In diesem Modell spielen zeitliche Veränderungen im Zusammenspiel mit Variation und Selektion nach genetischen Veränderungen, die Änderungen in der Ausprägung (Phänotyp) der Zelle bewirken, die treibende Rolle der Krebsentstehung und -entwicklung (somatische Mutationstheorie) (Nowell 1976). Dazu gehören die sequenzielle Veränderung in multiple Tumorzellstadien und die Tumorzellevolution (Greaves/Maley 2012). Im Gegensatz dazu existiert das Modell der Feldtheorie der Gewebeorganisation (Tissue Organization field theory). Hier liegt der Fokus nicht auf einzelnen Genen und deren Veränderungen in Krebszellen, sondern mehr auf der Auflösung normaler, balancierter Gewebeorganisation. Die Theorie besagt auch, dass genetische Veränderungen nur die Folge von gestörter Gewebeorganisation sind und nicht notwendigerweise eine kausative Rolle spielen. Chronische Entzündungen werden z. B. als essenzieller Bestandteil der Krebsentstehung diskutiert. Die Prinzipien beider Modelle schließen ein gemeinsames Modell in der Theorie aus. Ein maßgeblicher Grund dafür ist 378 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

die Annahme des normalen Grundzustands einer Körperzelle: Während die somatische Mutationstheorie als Grundzustand die Zelle als quieszent (schlafend), und damit nicht in Teilung, sieht, geht die Gewebeorganisations-Feldtheorie davon aus, dass sich Zellen ständig vermehren mit Variation und Bewegung. Dabei ist es klar, dass es keinen gleichen Grundzustand jeder Zelle gibt, und dass das Stadium von Zellen, entweder teilend oder schlafend, maßgeblich durch deren Funktion und Position innerhalb ihres Verbands oder Systems gesteuert wird. Daher sind beide Modelle sicherlich eher artifizielltheoretisch inkompatibel. In der Praxis spielen beide Modelle zu unterschiedlichen Zeitpunkten eine wesentliche Rolle bei der Krebsentstehung. Systembiologische Ansätze erlauben, Teile beider Theorien und weiterer Modelle zu einem gemeinsamen Konzept zu vereinen und Prinzipien aller Modelle tragen zum Verständnis des komplexen Systems der Krebsentstehung bei.

4.

Die Heterogenität eines Tumors

Jeder Tumor eines Patienten hat sein eigenes Muster an genetischen Veränderungen. Und weitere genetische Veränderungen entstehen, während der Tumor wächst (Nowell 1976). Dadurch entsteht eine enorme intratumorale Variabilität und es bilden sich Subklone von Tumorzellen aus mit bestimmten genetischen Veränderungen (Alexandrov et al. 2013; Martincorena et al. 2015; Anderson et al. 2011, Abbildung 1). Diese Heterogenität an genetischen Veränderungen betrifft sogar einzelne Tumorzellen, jede Zelle kann unterschiedliche Mutationen aufweisen (Wang et al. 2014). Allerdings sind viele genetische Veränderungen nicht ausschlaggebend für die Tumorentstehung oder für die Entwicklung des Tumors, sondern neutrale Nebenprodukte ohne funktionellen Einfluss. Die genetische Instabilität von Krebszellen, beeinflusst durch Veränderungen und Schädigungen des DNA-Reparatursystems und durch Schädigung von Kontrollmechanismen während der Zellteilung, führt zu dieser genetischen Diversität. Dadurch verändern sich Krebszellen ständig und unterliegen einer raschen Evolution des Tumors (Abbildung 1). Viele dieser genetischen Veränderungen verhalten sich neutral oder bringen Nachteile für Krebszellen und die Zellen sterben oder werden vom Immunsystem eliminiert. Einige wenige Ereignisse allerdings bewirken einen weiteren Überlebens- und Wachstumsvorteil der betroffenen Krebs379 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

zellen und diese Zellen dominieren den Tumor und schaffen neue, aggressivere Eigenschaften (Abbildung 2). Da genetische Mutationen weitgehend zufällige Veränderungen sind, unterliegen Krebszellen einer enormen Selektion, d. h. vorteilbringende Mutationen setzen sich durch und es kommt zur Evolution während der Tumorprogression. Die Evolution von Tumorzellen mit unterschiedlichen genetischen Informationen kann linear oder verzweigt sein, was zur Ausprägung von unterschiedlichsten Subklonen in temporaler und räumlicher Anordnung führt (Greaves/Maley 2012). Tumore entstehen aus körpereigenen Gewebezellen und spiegeln eine gestörte, jedoch klar erkennbare Gewebeorganisation wider. Das heißt, Tumore sind das Abbild von normalen Geweben oder Organen, mit unterschiedlich spezialisierten Zellen innerhalb des Gewebes mit bestimmten Funktionen (Nowell 1976; Pierce/Speers 1988). Stamm- und Vorläuferzellen halten die Regeneration aller Zelltypen eines Gewebes aufrecht und bilden die Spitze einer Differenzierungshierarchie von unterschiedlich spezialisierten und differenzierten Zwischenstufen an Zellen auf dem Weg zur funktionellen reifen Zelle. Auch in Tumoren finden sich Zellen mit unterschiedlichem Grad der Differenzierung, von der Krebsstammzelle bis zur »reifen« Tumorzelle (Meacham/Morrison 2013; Visvader/Lindeman 2012). Die Differenzierungshierarchie trägt zur vertikalen Heterogenität von Krebszellen eines Tumors bei. Differenzierung beruht auf epigenetischen Veränderungen der einzelnen Zellstadien (unterschiedliche Genexpressionsprogramme) und Zellen einer Differenzierungslinie tragen keine veränderten genetischen Informationen (Abbildung 3). An der Spitze dieser epigenetischen Differenzierungshierarchie stehen Tumorzellen, die Eigenschaften von Gewebestammzellen besitzen und landläufig als Krebsstammzellen bezeichnet werden (Visvader/Lindeman 2012). Krebsstammzellen haben die Fähigkeit, alle anderen Tumorzellen hervorzubringen und stellen damit eine zentrale Tumorzellpopulation dar, die nach vermeintlich erfolgreicher Therapie wieder zum Aufflammen der Erkrankungen beitragen könnte (Lang et al. 2015). Tumore wachsen nicht isoliert, sondern eingebettet in das normale Mikromilieu eines Gewebes/Organs. Daher findet man unterschiedlichste Zelltypen in einem Tumor, die nicht von Krebszellen stammen, wie Endothelzellen von Blutgefäßen, Nervenzellen, Stromazellen und Zellen des Immunsystems, um nur einige zu nennen. Tatsächlich sind mehr als die Hälfte aller Zellen in einem soliden Krebsgewebe keine Tumorzellen. 380 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

Abb. 1. Die Entstehung und Evolution suklonaler Tumorarchitektur. Krebs entsteht aus einer veränderten körpereigenen Ursprungszelle (weiß). Durch die Ansammlung unterschiedlicher Mutationen (symbolisiert durch Blitze) über viele Jahre verändert sich die zelluläre Zusammensetzung des Tumors und ein Mosaik aus unterschiedlich mutierten Subklonen (farbige Kreise) entsteht. Die Subklone variieren in ihrer Zusammensetzung und Größe durch Selektion. Die Selektion wird maßgeblich durch die Lokalisation und das zelluläre Umfeld (Habitat) des Tumors beeinflusst, so dass Subklone sich in unterschiedlichen Habitaten unterschiedlich entwickeln, manche Subklone verschwinden (dargestellt durch das Kreuz). Therapien erhöhen den selektiven Druck auf die klonale Zusammensetzung, und resistente Klone können sich ausbreiten. Metastasen können sich aus kleinen oder großen Klonen des Primärtumors entwickeln. Von dem Ereignis einer genetischen Veränderung einer Zelle (Ursprungszelle) bis zur Diagnose eines Primärtumors können viele Jahre oder Jahrzehnte vergehen, die meisten genetischen Veränderungen in normalen Zellen führen niemals zu einem Tumor. Diese Abbildung ist abgeleitet aus Greaves und Maley 2012.

Das Zusammenspiel von äußeren Einflussfaktoren wie die Position der Krebszelle im Tumor, umgebende Zellen und Anschluss an die Zirkulation beeinflussen maßgeblich die Entwicklung einzelner Krebszellen (Meacham/Morrison 2013). Besonders drastisch ist der Selektionsdruck auf Krebszellen während der Therapie: Viele Krebszellen werden erfolgreich eliminiert, während Krebszellen, die resis381 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

Mutationen führen zum Zelltod Viele Mutationen verursachen einen funktionellen Nachteil

Mutierte Zellen werden vom Immunsystem eliminiert

Enormer selektiver Druck auf mutierte Zellen

Gesteigerte Fitness Erhöhte Selbsterneuerung Verhindern des Zelltods Differenzierungsblockade Entkommen der Immunantwort

Abb. 2. Genetische Veränderungen führen zu hohem Selektionsdruck. Die meisten genetischen Veränderungen sind entweder neutral oder sie führen zu einem selektiven Nachteil für die Zellen. Entweder stören genetische Veränderungen maßgeblich die kontrollierte Physiologie der Zelle und führen zum Überlebensnachteil für die Zellen, oder zellinterne Kontrollmechanismen erkennen die Veränderung und induzieren den programmierten Zelltod, oder das Immunsystem erkennt mutierte Zellen und eliminiert diese. Nur wenige Mutationen bewirken Vorteile für die Zelle, was zu einer Selektion von Eigenschaften führt, die essentiell sind für die Entstehung von Tumoren.

tent gegen die Therapie sind, überleben und für die Wiederentstehung des Tumors verantwortlich sind. Diese Resistenzmechanismen sind vielfältig, aber v. a. auch durch genetische Veränderungen begünstigt. Die Erkrankung selbst zeichnet sich durch eine enorme Dy382 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

namik und Plastizität aus, die durch die Effekte und nichtlinearen Zusammenhänge einer großen genetischen Variabilität und Veränderung einzelner Krebszellen entstehen: durch die sich entwickelnde und verändernde zelluläre Heterogenität der Zusammensetzung von Zellen in einem Tumor, die Antwort durch das Immunsystem, die metabolische Reprogrammierung von Krebszellen und die Tumorunterstützende oder -abwehrende Rolle des Tumor-Mikromilieus. Krebs ist daher ein komplexes Zusammenspiel aus Krebszell-intrinsischen, onkogenen Mechanismen und nicht-onkogen gesteuerten Mechanismen der Umgebung und der Umwelt (Abbildung 4). Krebszellen selbst können dabei die Umgebung maßgeblich beeinflussen und diese zu Gunsten des Tumors verändern (Ma et al. 2019).

5.

Der reduktionistische Ansatz in der Krebsforschung

Aktuelle Forschungsansätze in der Krebsforschung basieren auf dem Ansatz des Reduktionismus. Hierbei ist das Ganze die Summe der Einzelkomponenten. Dieser Ansatz, die Welt zu verstehen, beruht auf Arbeiten von Descartes, Galilei, Newton und LaPlace, und postuliert, dass alles Leben und die Materie im Universum den gleichen fundamentalen Gesetzmäßigkeiten unterliegt (Kauffman 2008). Um menschliche Physiologie und Pathophysiologie zu verstehen, reduzieren wir alles auf Kombinationen von Organsystemen, die weiter unterteilt werden in Gewebe, Zellen, Biomoleküle und chemische Substanzen. Der Nobelpreisträger Robert Weinberg findet das Verständnis von Krebs in der Teilchenphysik (Weinberg 2007). Francis Crick, der Entdecker der Doppelhelix-Struktur der DNA, sagt, dass das ultimative Ziel der modernen Forschung darin besteht, alles in der Biologie durch Gesetzmäßigkeiten der Physik und der Chemie zu erklären (Crick 2004). Mit diesem Ansatz lässt sich Zellverhalten umfänglich verstehen, wenn alle Komponenten und deren Verbindungen und Interaktionen bekannt und verstanden sind, welche als additiv und linear angesehen werden (Mazzocchi 2008; van Regenmortel 2004). Unter diesem reduktionistischen Blickwinkel werden Krankheiten wie Krebs studiert, um veränderte und defekte Gene, Proteine und Biomoleküle in Zellen und Geweben zu finden und zielgerichtete Therapien zu entwickeln. Reduktionistisches Denken ist logisch und vorhersehbar und war sehr erfolgreich für das Verstehen der Entstehung und Bio383 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

Abb. 3. Entstehung von zellulärer Heterogenität in Tumoren. Sowohl die Anhäufung von somatischen Mutationen und genetischen Veränderungen als auch der Differenzierungsgrad der Tumorzellen, von der Krebsstammzelle bis zur »reifen« Tumorzelle, trägt zur Heterogenität bei. Dabei können genetische Veränderungen in allen Differenzierungsstadien erfolgen und den Selektionsdruck von Subklonen maßgeblich beeinflussen.

logie von Krebs und bei der Entwicklung erfolgreicher Medikamente in der Krebstherapie. Man kann unter Verweis auf diesen Erklärungserfolg postulieren, da eine Reduktion prinzipiell bei vielen Theorien möglich sei, sollte man davon ausgehen, dass auch in den bislang unerklärten Bereichen Reduktionen möglich sind. Die Entdeckung des Fusionsgens aus den Genen BCR und Abl und die Entwicklung eines zielgerichteten Wirkstoffs gegen dieses onkogene Fusionsprotein haben die Behandlung von Patienten mit chronischer myeloischer Leukämie (CML) revolutioniert. Hier scheint die Reduktion der Krebserkrankung auf ein zentrales Ereignis, nämlich die chromosomale Rearrangierung zwischen Chromosom 9 und Chromosom 22, der Schlüssel für die erfolgreiche Therapie von CML. Dieses Paradebeispiel für zielgerichtete Therapeutika gegen den onkogenen Treiber konnte leider bisher nicht in dem Ausmaß für andere Krebserkrankungen wiederholt werden. Viele ähnliche Ansätze bei anderen Krebserkrankungen zeigten nicht den gleichen Erfolg, was das Gesamtüberleben der Patienten betrifft. Dies liegt möglicherweise da384 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

Nicht-Onkogen getriebene Neuverschaltung von Signalen

Genomische Veränderungen

intrinsisch

Differenzierungshierarchien

Komplexität von Krebs

extrinsisch Lebensstil Ernährung Umwelt

Therapie

Immunsystem

Entzündung Zelluläres Mikromilieu

Abb. 4. Einflüsse auf die Komplexität der Krebsentstehung. Unterschiedlichste Ereignisse und Faktoren, die entweder in der Tumorzelle selbst passieren (intrinsisch) oder durch Außeneinflüsse (extrinsisch) auf die Tumorzellen wirken, verursachen die Komplexität der Krebsentstehung.

ran, dass die reduktionistische Forschung fundamentale Eigenschaften von komplexen Systemen ignoriert, welche auf Interaktionen einzelner Komponenten basieren. Nicht alle Veränderungen von Tumorzellen basieren auf somatischen Veränderungen der Geninformation. Wir nennen dies nicht-onkogene Abhängigkeiten von Tumorzellen. Signale können in Tumorzellen verändert in Intensität, Dauer und Frequenz vorliegen, ohne dass somatische Mutationen in direktem Zusammenhang mit der Signalweiterleitung stehen. Interessanterweise betrifft es oft Signale, die bei vielen Tumorzellen durch Mutationen direkt betroffen sind, was vermuten lässt, dass diese Signale vielleicht sogar essenzieller und zentraler Bestandteil der Tumorzellbiologie sind.

385 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

6.

Die Regeln der Komplexität, Selbstorganisation und Emergenz

Komplexe Systeme haben meist eine große Anzahl von unabhängigen Komponenten mit einem hohen und variablen Anteil an Verbindungen (Waldrop 1992). Da diese Systeme durch die Verbindungen ihrer Komponenten charakterisiert sind, werden sie als Netzwerke beschrieben, die diese Verbindungen quantitativ und qualitativ beschreiben. Komplexe Systeme haben viele nichttraditionelle Eigenschaften (Rickles et al. 2007). Obwohl viele Ereignisse in komplexen Systemen physikalischen Gesetzen folgen, kann das Gesamtverhalten nicht hinreichend vorhergesagt oder experimentell reproduziert werden (Bak 1996). Biologie kann nicht auf physikalische Gesetzmäßigkeiten reduziert werden (Kauffman 2008), daher ist ein rein reduktionistischer Ansatz nicht in der Lage, lebende Systeme zu verstehen. Obwohl Einzelmoleküle generell totes Material sind, entwickeln die Interaktionen dieser Moleküle emergente Eigenschaften und letztendlich Leben. Daher ist die Gesamteinheit dieser Moleküle größer in ihrer Wirkung als die Summe dieser Moleküle (Richardson 2002), eine zentrale Gesetzmäßigkeit der Komplexität. Obwohl keine Gesetzmäßigkeiten der Physik gebrochen werden, können diese emergenten Eigenschaften nicht auf Physik oder einfache Gleichungen reduziert werden. Das Verhalten komplexer Systeme kann auch chaotisch werden, wobei kleine, scheinbar unbedeutende Ereignisse zu dramatischen Gesamtverhaltensänderungen führen, die unerwartet sind. Das Verhalten kann auch zu kritischen Punkten der Selbstorganisation führen, ein dynamischer Prozess, der große Systeme in ein Netzwerkstadium am Rande des Kollapses treibt. Ein einzelner Basenaustausch an einer relevanten Position im Erbgut einer Zelle kann zu einem Aminosäureaustausch eines zentralen Enzyms führen, das weitreichende Konsequenzen für die Genexpression von hunderten von Genen hat, und damit ganze Netzwerke verändert. Dabei sind vor allem vermeintlich kleine Änderungen in wichtigen regulatorischen Schlüsselfaktoren besonders kritisch, da dieser Effekt multipliziert wird und die Physiologie einer Zelle maßgeblich beeinflusst. Eine einzelne Punktmutation in dem Enzym DNA-Methyltransferase 3A an Aminosäure-Position 882 führt zu einer Änderung der Enzymaktivität, was weitreichende Konsequenzen auf die Genregulation

386 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

dieser Zelle hat, und bildet oft den Ausgangspunkt für die spätere Entwicklung von Blutkrebs (Brunetti et al. 2017). Komplexe Systeme besitzen aber auch eine Robustheit gegen Schwankungen, was etwas widersprüchlich zu dem vorigen Punkt erscheint. Die Aufrechterhaltung von zellulären Erscheinungsbildern und Stabilität in physiologischen Prozessen wird durch komplexe regulatorische Gennetzwerke bewerkstelligt, die bestimmte Genexpressionsmuster beibehalten und nach Störung wiederherstellen (Huang et al. 2009). Physiologische Degenerierung im Alter wurde in diesem Zusammenhang als Verlust der Stabilität komplexer Systeme gesehen, welche nicht mehr adaptiv auf tägliche Einflüsse und Störfaktoren reagieren können (Manor/Lipsitz 2013; Yaniv et al. 2013). Komplexe Systeme erzeugen Emergenz, eine organisatorische »bottom-up« Eigenschaft durch Komponenten, die sich spontan selbst organisieren, ohne dass sie gesteuert oder geplant werden (Waldrop 1992). In biologischen Systemen wurde Selbstorganisation als ein Prozess beschrieben, bei dem globale Muster nur aus einer Vielzahl von Interaktionen auf niedriger Ebene entstehen und wo die Regeln, die diesen Interaktionen folgen, nur durch lokale Informationen ausgeführt werden (Camazine 2001). Ähnliches Verhalten und ähnliche Eigenschaften können aus unterschiedlichsten Einflüssen entstehen (Colussi et al. 2013). Komplexe Systeme haben Anpassungsfähigkeiten, um ihr Überleben in einer wechselnden Umgebung zu sichern (Theise/d’Inverno 2004). Tumore wurden als komplexe Ökosysteme beschrieben mit unterschiedlichsten heterogenen Zellpopulationen, die mit einer Vielzahl an Nicht-Tumorzellen und dem Mikromilieu interagieren, und durch Behandlung ständig einer konstanten Evolution unterliegen (Du/Elemento 2015).

7.

Die Unvorhersehbarkeit von komplexen Systemen

Es ist schier unmöglich, die Zukunft bei komplexen Systemen vorherzusagen. Das chaotische Verhalten von komplexen Systemen verhindert deren Vorhersage. Nicht-lineare Gleichungen beschreiben chaotische Eigenschaften von Systemen. Diese sind besonders anfällig für kleine Änderungen des Ausgangszustandes. Minimale Veränderungen können in diesem System sehr große und unvorhersehbare Auswirkungen haben. Dabei ist es wichtig zu dokumentieren, 387 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

dass die Unfähigkeit zur Vorhersage nicht durch Limitationen in unserem Wissen oder durch mangelnde Rechenkapazität von Computern erklärt werden kann. Es ist die Konsequenz einer nicht-linearen Welt, in der wir leben. Emergente Eigenschaften können nicht vorhergesagt werden. Das komplette Genom eines Tumors mit allen Mutationen und Veränderungen erlaubt uns nicht, den Phänotyp und das Verhalten des Tumors vorherzusagen. Die Fähigkeit, alles auf einfache, fundamentale Gesetze zu reduzieren, befähigt nicht, von diesen Gesetzen aus zu beginnen und das große Ganze zu rekonstruieren (Anderson 1972). Natürlich wollen wir diese Komplexität gerne modellieren mit einfachen Gleichungen. Wenn allerdings jedes Element eines lebenden Systems zum Ganzen beiträgt, dann wird jedes Modell, das nur Teile der Elemente enthält, sehr ungenau. Dann bleibt uns nichts anderes übrig, als Eigenschaften zu erklären, nachdem sie eingetreten sind. Die Funktion von Molekülen kann abhängig sein vom Evolutionsdruck, der wiederum nicht notwendigerweise vorhersehbar ist. Biomoleküle, Zellen, Gewebe und Organismen können unterschiedlichste Funktionen aktuell ausüben oder zukünftig bewerkstelligen. Diese besitzen unterschiedlichste Relevanz in verschiedensten Zusammenhängen und alle sind betroffen vom gleichen Evolutionsdruck. Da Organismen in der Lage sind, kausale Entscheidungen zu treffen, können sie selbst evolutionäre Prozesse beeinflussen oder auslösen. Ein Beispiel hier ist die Wahl der Medikation bei einer Krebserkrankung durch den Arzt. Um die Zukunft vorhersagen zu können, müssten wir in der Lage sein, alle angrenzenden Möglichkeiten und alle möglichen Reaktionen im nächsten Moment zu kennen und rational die richtigen auszuwählen (Beckage et al. 2011; Kauffman 2008). Aber dies ist unmöglich, wenn man die chaotischen und emergenten Eigenschaften von komplexen Systemen in Betracht zieht, gekoppelt mit Evolution und möglichem kausalen Handeln von Organismen.

388 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

8.

Leben entsteht aus Diversität von Biomolekülen in einem geschlossenen System

Leben entsteht aus einer überschaubaren Mischung von Biomolekülen, die durch Wechselwirkung ihre eigene Formation katalysieren, und emergente kollektive Eigenschaften hervorbringen (Kauffman 1993). Jedes einzelne Biomolekül ist isoliert relativ unreaktiv. Doch wenn die Mischung dieser Moleküle eine ausreichende Komplexität in einem abgeschlossenen Reaktionsraum erreicht, dann entsteht ein selbsterhaltendes Netzwerk von Reaktionen, das sich reproduzieren und weiterentwickeln kann (Smith et al. 2014; Sousa et al. 2015). Dabei reproduzieren sich die einzelnen Moleküle nicht selbst, sondern bilden sich aus komplexen Katalysen durch andere beteiligte Moleküle. Obwohl die Wahrscheinlichkeit sehr gering ist, dass ein bestimmtes Molekül eine bestimmte Reaktion katalysiert, ist mit einer großen Anzahl von Molekülen und möglichen Reaktionen die Chance groß, dass einige Moleküle auch in bestimmter Weise reagieren (Kauffman 1993). Wenn Reaktionen erfolgen, werden weitere neue Moleküle generiert, die selbst wieder in zukünftigen Reaktionen beteiligt sein können. Dabei steigt die Anzahl an möglichen katalysierten Reaktionen steiler an als die Anzahl an Molekülen. Das führt zu einem kritischen Schwellenwert, an dem ein kollektives autokatalytisches Netzwerk an Molekülen existiert, in dem die Bildung jedes Moleküls durch andere Moleküle bewerkstelligt wird und Leben entsteht. Viele unterschiedliche Wege können zu diesem autokatalytischen Netzwerk führen, aber nur ein Weg ist nötig, um diesen Zustand zu erreichen (Kauffman 2008). Zellen sind ein System, das sich nicht im Equilibrium befindet, mit einem komplexen Metabolismus, der die Synthese und Transformation von tausenden organischen Molekülen in interkonnektiven Netzwerken verbindet (Kauffman 2008). Leben besteht aus unzähligen dieser autokatalytischen Netzwerke, die sich gegenseitig beeinflussen und auch von äußeren Stimuli moduliert werden. Bestimmte Netzwerke fluktuieren in ihrer Bedeutung, abhängig von den äußeren Bedingungen und von den physiologischen Notwendigkeiten.

389 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

9.

Die Ordnung in Organismen wird maßgeblich durch genetische Netzwerkeigenschaften bestimmt

Jede menschliche Zelle koordiniert die Aktivität von etwa 20.000 Genen und deren Genprodukte. Um komplexe Vorgänge wie die Zellteilung zu verstehen, müssen wir unser Grundverständnis über die generellen Prinzipien dieser Prozesse und deren Ordnung innerhalb der Zelle vertiefen. Traditionell erklärt sich die Entstehung der Ordnung durch natürliche Selektion, das darwinsche Evolutionsmodell (Darwin 1895). Wenn etwas in der Natur besser funktioniert, setzt sich diese Ordnung durch (Monod 1972). Eine alternative Ansicht allerdings ist, dass Ordnung eine zu erwartende Eigenschaft von molekularen Netzwerken ist, basierend auf den strukturellen Eigenschaften von Netzwerken, und nicht abhängig von den Details bestimmter Moleküle (Kauffman 1993). Gene, RNA und Proteine formen ein komplexes, in sich verwobenes Netzwerk, in dem Moleküle verbunden sind mit anderen Molekülen und diese an- und abschalten. Die Fähigkeit von Zellen, einen bestimmten Phänotyp (Ausprägung und Funktion) aufrechtzuerhalten, gelingt durch die Manifestierung eines regulatorischen Gennetzwerks in einem Stadium des Equilibriums, das auch »Attraktor« genannt wird, basierend auf der gegenseitigen Regulation von Netzwerkelementen (Kauffman 1969). Attraktoren sind in unserer Vorstellung in einem niedrigen Energiestadium am Boden einer Vertiefung, die von angrenzenden, weniger stabilen Stadien umgeben ist, die sich in einer energetisch höher gelegenen Ebene befinden und unaufhörlich von unterschiedlichen Richtungen zu der Vertiefung wandern (Huang et al. 2009; Huang et al. 2005). Bereits 1957 hat Conrad Waddington sein Bild der Differenzierung von Zellen als Berghang mit Tälern und Erhöhungen beschrieben, auf dem eine Kugel aus einem undifferenzierten Zustand am Gipfel des Berges ins Tal rollt (Waddington 1957, Abbildung 5). Mutationen und andere Veränderungen können diese funktionalen Verbindungen zwischen einigen Molekülen des Netzwerks verändern, das führt aber nicht zu gravierenden Änderungen der Stabilität dieses Netzwerks, wegen des Zwangs zur Ordnung innerhalb des Netzwerks. Die genetischen Netzwerkeigenschaften haben weitreichende Konsequenzen. Zelluläre Netzwerke, wenn sie einmal etabliert sind, haben eine inhärente Ordnung, die unabhängig von bestimmten Mo390 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

lekülen und Reaktionen erfolgt. Die Ordnung ist Teil der Interaktionen zwischen den einzelnen Mitspielern, wie gerade beschrieben, und verdeutlicht, dass reduktionistische Ansätze ungeeignet sind, um deren Biologie zu erklären.

10. Unordnung von zellulären Vorgängen durch biologischen Druck Wie passen die Gesetze von Komplexität und Selbstorganisation zu der Entstehung von Krebs? Es besteht in jedem lebenden System der Kampf zwischen Ordnung und Unordnung (Torres-Sosa et al. 2012). Ordnung wird benötigt für funktionierende Zellen, Gewebe und Organe. Andererseits wird ein gewisses Maß an Unordnung und Netzwerkflexibilität benötigt für die Entwicklung und Adaption an unterschiedliche Einflüsse. Entzündungsreaktionen und Immunabwehr müssen angeschaltet werden, wenn ein Erreger einen Organismus befällt. Krebs nützt die physiologischen Mechanismen von Netzwerkflexibilität aus und verhindert die Rückkehr von stabiler Ordnung (Mukherjee 2011). Um Krebs zu verstehen, müssen wir verstehen, wie physiologische Unordnung entsteht, wie Zellen damit fertig werden, um wieder Ordnung zu erreichen und wie diese Prozesse bei Krebs gestört sind. Erstens bewirkt die Bildung eines autokatalytischen Netzwerks selbst einen gewissen Grad an Unordnung. Wenn ein geschlossenes Netzwerk von Molekülen beginnt, miteinander zu reagieren, werden eine Vielzahl von neuen Molekülen erzeugt, die weitere Reaktionen bewirken. Dieses exponentielle Wachstum des Netzwerks, zusammen mit dem zweiten Gesetz der Thermodynamik, tendiert ununterbrochen zu Unordnung ohne eigentlichen Endpunkt, bis limitierende Faktoren erreicht werden (Sharov 2009). Konsequenterweise müssen Zellen ihre limitierenden Ressourcen nutzen, um diesen Tendenzen entgegenzuwirken. Zellen besitzen Membranen um einzelne Zellorganellen, um Biomoleküle in diesen Organellen zu kompartmentalisieren, und zu verhindern, dass existierende getrennte Netzwerke sich gegenseitig stören (Weyand et al. 2008). Zweitens verhindert strikte Ordnung in lebenden Systemen die natürliche Selektion. Drittens zeigt die Fähigkeit von lebenden Systemen, Mutationen und Veränderungen zu überleben, die nötige Flexibilität, die nicht vorhanden wäre in absoluter Ordnung. Viele Systeme sind nicht in der Lage, 391 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

Abb. 5. Zelldifferenzierung als Analogon einer epigenetischen Landschaft nach Waddington. Originalabbildung aus der Publikation »The strategy of genes« von C. H. Waddington (Waddington 1957). Die Kugel symbolisiert eine unreife Stammzelle in ihrer Differenzierung. Wenn der Ball den Hügel herunterrollt, wird sie in unterschiedliche Täler rollen, welche unterschiedliche Zelltypen symbolisieren. Da die Kugel sich in einem energetisch günstigeren Zustand in den Tälern befindet, verbleibt die Kugel in einer Differenzierungslinie. Das Wechseln von einem Tal in das nächste kommt nur selten und mit hohem Energieaufwand vor.

kleinste Veränderungen ohne gravierenden Verlust der Funktion zu überstehen. Computerprogramme sind ein Beispiel dafür, wo eine Veränderung des Codes bereits zum Absturz des Programms führt. Daher ist es die Eigenschaft komplexer Systeme, kleine Änderungen zu überstehen und möglicherweise sogar mit weiterentwickelter Funktion daraus hervorzugehen. Aus diesen Gründen werden Organismen in einer Position zwischen Ordnung und Unordnung beschrieben, einer Gratwanderung am Rande des Chaos, einem evolutionsgetriebenen Kompromiss aus Ordnung und Zufall. Diese Gratwanderung ist optimal für die Koordination und Weiterentwicklung komplexer Systeme (Shmulevich et al. 2005). Sie wurde auch als dynamischer Phasenübergang von Instabilität zum Attraktorstadium beschrieben (Davies et al. 2011). Viertens unterstützt physiologischer 392 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

Druck Unordnung, oft auch nur temporär. Infektionen, chronische Entzündungen, Hormonschwankungen und viele andere Ereignisse treiben Zellen in Proliferation, einen instabilen Zustand in Zellen. Kombinationen dieser instruktiven Einflüsse erhöhen die Wahrscheinlichkeit, dass zelluläre Netzwerke zur Unordnung getrieben werden.

11. Krebs entsteht, wenn Kontrollmechanismen gegen die Unordnung ausfallen Organismen besitzen unterschiedliche redundante Kontrollebenen, um sich gegen die Unordnung, die physiologischer Druck induziert, zu wehren. Die inhärente Struktur von biologischen Netzwerken limitiert das Verhalten eines Netzwerks auf einen kleinen Anteil des Zustandsraums. Damit bildet sich eine große »eingefrorene« Einheit aus, deren Stadium sich nicht leicht verändern lässt, sogar wenn die Stadien anderer beteiligter Moleküle sich stark verändern (Kauffman 1993). Transiente Veränderungen des Stadiums eines Genproduktes werden nicht an die weiteren Komponenten des Netzwerks weitergegeben. Dies ermöglicht nicht nur die Aufrechterhaltung der Netzwerkstabilität gegen kleinere Veränderungen, sondern garantiert auch die Grundlage für zelluläre Homöostase. Obwohl Zellen theoretisch unendlich viele Stadien ausbilden könnten, existieren nur ca. 300 Zelltypen in unserem Körper, welche einen konstanten Phänotyp durch die relativ stabile Expression der Mehrzahl ihrer Genprodukte beibehalten (Kauffman 1993). Eine T-Zelle des Immunsystems entwickelt sich nicht in eine Nierenzelle und selten ändern reife Zelltypen ihren Differenzierungsgrad. Als zweite Ebene agieren Zellmembranen als Grenzkontrolleure, um den Zugang neuer Moleküle streng zu regulieren, um existierende Netzwerke von neuen Reaktionspartnern zu schützen und unerwartete Reaktionen zu verhindern (Weyand et al. 2008). Eine veränderte Lokalisation von Rezeptoren durch genetische Veränderungen der Gene, die für diese Rezeptoren kodieren, kann zu neuen Signalwegen führen und andere Reaktionspartner beeinflussen. Ein Beispiel hierfür ist der Zytokinrezeptor FLT3, der in gesunden Zellen an der Zellmembran gebunden ist. Ein mutierter FLT3-Rezeptor, der häufig in der akuten myeloischen Leukämie vorkommt (Daver et al. 2019), ist in der Zelle im sogenannten endoplasmatischen Retikulum verankert, nicht an der Zelloberfläche, 393 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

und führt dort ohne weitere Stimulation zu veränderten und unkontrollierten Signalen in der Krebszelle (Schmidt-Arras et al. 2009). Zellen besitzen robuste Mechanismen der Fehlerkorrektur während der Zellteilung. Mehr als 169 Enzyme sind an der DNA-Reparaturmaschinerie beteiligt oder beeinflussen DNA-Reparaturprozesse (Hoeijmakers 2009). Diese Reparaturprozesse sind zwingend erforderlich, um die Fehlerrate der DNA-Synthese von 1 zu 100.000 auf 1 zu 100 Millionen Basenpaare zu reduzieren und so unmittelbare Veränderungen von Proteinstrukturen und Funktionen und folglich direkte Einflüsse auf existierende Netzwerke zu verhindern (Kunkel und Erie 2015). Zellen besitzen auch Mechanismen, um Bedingungen, die DNA-Schäden verursachen, wie z.B die Bildung oder Aufnahme von reaktiven Sauerstoffderivaten, zu vermeiden (McCord/ Fridovich 1969; Sturtz et al. 2001). Wenn Zellen geschädigt sind oder die Integrität der genomischen Information stark verändert ist, gehen diese Zellen durch mehrere Kontrollmechanismen induziert in den programmierten Zelltod (Wyllie 2010). Zusätzlich können Transkriptionsfaktoren und Signalmoleküle fatale Ereignisse erkennen und einen Zellzyklusarrest, Autophagie oder Abschaltung der Proteinsynthese initiieren (Rosenfeldt/Ryan 2011). Die Bedeutung dieser zentralen Kontrollmechanismen, um den programmierten Zelltod bei irreparabler Schädigung auszulösen, wird deutlich bei der hohen Anzahl an Tumoren mit gestörter Aktivität des Tumorsuppressorgens p53. Oft ist das p53-Gen mutiert oder deletiert (Hollstein et al. 1991). Die Zulassung des Medikaments Venetoclax im Jahr 2017 könnte ein Meilenstein für die Durchbrechung der Blockade des programmierten Zelltods in Krebszellen werden. Venetoclax inaktiviert ein anti-apoptotisches Protein (Bcl2) und führt zum Zelltod in Krebszellen. Viele klinische Studien werden in naher Zukunft zeigen, ob die Verwendung von Venetoclax, in Kombination mit anderen Therapeutika, eine breite Anwendung bei vielen Krebserkrankungen finden wird. Zentrale zelluläre Prozesse haben vielschichtige Kontrollmechanismen, um deren Aktivität streng zu regulieren. Durch multiple Checkpunkte während des Zellzyklus wird die genomische Integrität überprüft und der Zellzyklus inhibiert oder verlängert, um Schäden zu beheben (Chin/Yeong 2010; Stracker et al. 2009). Dadurch wird verhindert, dass sich geschädigte Zellen vermehren und Nachkommen mit DNA-Schäden hervorbringen.

394 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

Auch das Immunsystem dient der Überwachung von zellulärer Integrität. Zellen des adaptiven Immunsystems wie T-Zellen, B-Zellen und NK-Zellen sowie Makrophagen (angeborenes Immunsystem) erkennen und zerstören Körperzellen mit veränderten Eigenschaften (Grivennikov et al. 2010). Fehlen diese Zellen, wie bei immunsupprimierten Personen, ist das Risiko, an Krebs zu erkranken, stark erhöht (Rama/Grinyó 2010). In Tumoren werden vielfältige Mechanismen gefunden, die die Erkennung der Krebszellen durch das Immunsystem des Patienten verhindern. Die Anwendung von Medikamenten, die diesen Mechanismen entgegenwirken, ist im Vormarsch bei der Behandlung unterschiedlichster Krebserkrankungen. Zellen sind nicht die lineare Addition von 20000 Genprodukten, die in einer vorhersehbaren Weise miteinander interagieren, sondern das Produkt von Netzwerken mit emergenten Eigenschaften, deren Bedeutung nicht unmittelbar vorhersagbar ist. Obwohl diese Netzwerke einen hohen Grad an Stabilität besitzen, stehen sie unter ständigem Druck, aus den Kontrollmechanismen auszubrechen, welche die Ordnung erhalten. Nur durch vielschichtige, redundante Mechanismen auf unterschiedlichen Ebenen kann diese Ordnung erhalten bleiben. Und nur wenn mehrere dieser Mechanismen gestört sind oder ausfallen, kann es zur Krebsentstehung kommen, was dem multiplen Hit-Modell der Krebsentstehung entspricht (Knudson 1971; Nordling 1953; Hanahan/Weinberg 2011, Abbildung 6).

12. Welche Auswirkungen auf die Therapie hat die Komplexität in Krebs? Krebs ist ein unabdingbares Ereignis der menschlichen Physiologie und wird uns immer begleiten. Wir können Krebs besser verhindern durch die Vermeidung von auslösenden Risikofaktoren wie Umwelteinflüsse, Ernährung, chronische Entzündungen und Infektionen. Wir können die Entstehung von Krebs früher erkennen und die Behandlung von Krebs verbessern, aber wir werden niemals erreichen, dass wir in einer Welt ohne Krebs leben werden. Die enorme Heterogenität einzelner Tumorzellen und die rasche Veränderung und Adaption in Tumoren machen Krebs ein sich ständig bewegendes Ziel für die Therapie und führen zu Therapieresistenz und dem Wiederaufflammen der Erkrankung nach scheinbar erfolgreicher Therapie. Auch die große Variabilität von Tumoren zwischen Patienten mit 395 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

Abb. 6. Kontrollmechanismen von Tumoren. Dies sind die 10 wesentlichen Veränderungen von Tumorzellen, die die Tumorentstehung und das Wachstum von Tumoren begünstigen. Diese Abbildung ist abgeleitet von der Originalabbildung von Hanahan und Weinberg (Hanahan und Weinberg 2011).

scheinbar gleicher Krebserkrankung ist eine große Hürde für generalisierte Therapiestrategien, was zur Folge hat, dass mache Patienten nicht auf die Therapie ansprechen. Krebstherapien sollten nicht auf einzelne mutierte Moleküle abzielen, sondern auf Netzwerkveränderungen, die unterschiedliche Mutationen auslösen. Zentrale und essentielle Moleküle dieser Netzwerke müssen identifiziert werden, um diese zentralen Knotenpunkte therapeutisch auszuschalten. Auch eine ständige Adaption der Therapiestrategie über den Verlauf der Erkrankung muss der raschen Evolution von Tumoren entgegenwirken. Die Früherkennung oder sogar Prävention der Krebsentstehung sind zentrale Themen der Medizinforschung. Natürlich sind unzählige Risikofaktoren gefunden worden wie Lebensstil, Ernährung und Umwelteinflüsse, welche die Krebsentstehung beeinflussen, aber isoliert selten auslösen. Risikofaktoren reduzieren wesentlich schneller Redundanzmechanismen von normaler Gewebeorganisation über eine Vielzahl an Mechanismen, als dies durch Altersprozesse passieren würde, und erhöhen damit das Risiko für die Entstehung von 396 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

Krebs. Viele Studien belegen, dass Vorstufen von Krebszellen bereits Jahre vor der Entstehung des Tumors im Patienten gefunden werden (Martincorena et al. 2015). Bei vielen Personen entwickelt sich trotz der Anwesenheit dieser veränderten Zellen keine Krebserkrankung (Genovese et al. 2014; Jaiswal et al. 2014). Auch nach erfolgreicher Therapie können vereinzelte Krebszellen im Körper verbleiben. Das Immunsystem des Patienten spielt in der Kontrolle dieser Zellen eine wichtige Rolle, um Metastasierung und Wiederaufflammen der Erkrankung zu verhindern (López-Soto et al. 2017). Daher ist ein wichtiger Ansatz das Unterstützen von Leben mit Krebs, was eine Balance darstellt zwischen gestörten Netzwerken und der Kontrolle des Organismus, z. B. über das Immunsystem des Patienten. Die Anwendung von künstlicher Intelligenz kann zukünftig helfen, neue Zusammenhänge zu erkennen, die in der Summe eine bessere Früherkennung ermöglichen und eine bessere Prognose und Therapieempfehlung abgeben als einzelne Biomarker oder genetische Veränderungen.

13. Ausblick Um neue Wirkstoffe für eine effiziente und zielgerichtete Therapie gegen Krebs entwickeln zu können, ist ein reduktionistischer Forschungsansatz unabdingbar. Veränderte Zielstrukturen und Signalwege müssen in der Pathophysiologie von Krebs erforscht werden, um gerichtete Medikamente gegen diese Veränderungen zu entwickeln, auch wenn die Komplexität und Emergenz von Krebs als lebendes Zellsystem akzeptiert werden muss und dieses metastabile System durch Mutation und Selektion Wege finden wird, diesen Wirkstoffen zum Trotz Resistenzen zu entwickeln. Umso wichtiger scheint es, dass diese Wirkstoffe in komplexen Modellsystemen auf deren Wirksamkeit getestet werden. Dies untermauert die Notwendigkeit von präklinischen Versuchen im Tiermodell und von klinischen Studien. Die Flexibilität von Krebszellen, auf ihre Umwelt und auf Therapeutika im Zusammenspiel im Gesamtorganismus zu reagieren, legt die Vermutung nahe, dass gerichtete Kombinationstherapien gegen synergistische und additive Veränderungen in Krebszellen den größten Behandlungserfolg versprechen. Leider ist die Testung von Kombinationstherapien sehr aufwendig und kostspielig, da nicht nur die Kombination mehrerer Medikamente, sondern auch deren Dosierung und zeitliche Verabreichung einzeln er397 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

probt werden müssen. Kombinationstherapien haben unter Umständen größere Nebenwirkungen und müssen daher intensiv getestet werden. Die Erkenntnis, dass Krebs eine Erkrankung ist, die Gesetzen der Komplexität folgt, sollte Wissenschaftler und Ärzte nicht entmutigen, neue Wege in der Therapie zu erforschen. Es ist aber notwendig, die Komplexität der Krebsbiologie anzuerkennen, um neue Wege für eine erfolgreiche Weiterentwicklung von Therapeutika in Zukunft zu beschreiten.

14. Literaturverzeichnis Alexandrov, Ludmil B./Nik-Zainal, Serena/Wedge, David C. et al. (2013): Signatures of mutational processes in human cancer, in: Nature 500 (7463), 415–421. Anderson, Kristina/Lutz, Christoph/van Delft, Frederik W. et al. (2011): Genetic variegation of clonal architecture and propagating cells in leukaemia, in: Nature 469 (7330), 356–361. Anderson, Maurice J. (1972): The survival strategies of a complex organization. W. Palm Beach. Bak, Per (1996): How nature works. The science of self-organized criticality. Beckage, Brian/Gross, Louis J./Kauffman, Stuart (2011): The limits to prediction in ecological systems, in: Ecosphere 2 (11), art125. Brunetti, Lorenzo/Gundry, Michael C./Goodell, Margaret A. (2017): DNMT3A in Leukemia, in: Cold Spring Harbor perspectives in medicine 7 (2). Camazine, Scott (2001): Self-organization in biological systems, Chin, Cheen F./Yeong, Foong M. (2010): Safeguarding entry into mitosis. The antephase checkpoint, in: Molecular and cellular biology 30 (1), 22–32. Colussi, Dora/Brandi, Giovanni/Bazzoli, Franco et al. (2013): Molecular pathways involved in colorectal cancer. Implications for disease behavior and prevention, in: International journal of molecular sciences 14 (8), 16365–16385. Crick, Francis (2004): Of molecules and men. Amherst, New York. Darwin, Charles (1895): The origin of species. By means of natural selection, or The preservation of favoured races in the struggle for life. Daver, Naval/Schlenk, Richard F./Russell, Nigel H. et al. (2019): Targeting FLT3 mutations in AML. Review of current knowledge and evidence, in: Leukemia 33 (2), 299–312. Davies, Paul C./Demetrius, Lloyd/Tuszynski, Jack A. (2011): Cancer as a dynamical phase transition, in: Theoretical biology & medical modelling 8, 30.

398 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

Du, W./Elemento, O. (2015): Cancer systems biology. Embracing complexity to develop better anticancer therapeutic strategies, in: Oncogene 34 (25), 3215–3225. Genovese, Giulio/Kähler, Anna K./Handsaker, Robert E. et al. (2014): Clonal hematopoiesis and blood-cancer risk inferred from blood DNA sequence, in: The New England journal of medicine 371 (26), 2477–2487. Greaves, Mel/Maley, Carlo C. (2012): Clonal evolution in cancer, in: Nature 481 (7381), 306–313. Grivennikov, Sergei I./Greten, Florian R./Karin, Michael (2010): Immunity, inflammation, and cancer, in: Cell 140 (6), 883–899. Hanahan, Douglas/Weinberg, Robert A. (2011): Hallmarks of cancer. The next generation, in: Cell 144 (5), 646–674. Hoeijmakers, Jan H. J. (2009): DNA damage, aging, and cancer, in: The New England journal of medicine 361 (15), 1475–1485. Hollstein, M./Sidransky, D./Vogelstein, B. et al. (1991): p53 mutations in human cancers, in: Science (New York, N.Y.) 253 (5015), 49–53. Huang, Sui/Eichler, Gabriel/Bar-Yam, Yaneer et al. (2005): Cell fates as highdimensional attractor states of a complex gene regulatory network, in: Physical review letters 94 (12), 128701. Huang, Sui/Ernberg, Ingemar/Kauffman, Stuart (2009): Cancer attractors. A systems view of tumors from a gene network dynamics and developmental perspective, in: Seminars in cell & developmental biology 20 (7), 869–876. Jaiswal, Siddhartha/Fontanillas, Pierre/Flannick, Jason et al. (2014): Age-related clonal hematopoiesis associated with adverse outcomes, in: The New England journal of medicine 371 (26), 2488–2498. Kauffman, S. A. (1969): Metabolic stability and epigenesis in randomly constructed genetic nets, in: Journal of theoretical biology 22 (3), 437–467. Kauffman, Stuart (2008): Reinventing the Sacred. Burlington, Vt. Kauffman, Stuart A. (1993): Origins of Order. Self-Organization and Selection in Evolution. New York. Knudson, A. G. (1971): Mutation and cancer. Statistical study of retinoblastoma, in: Proceedings of the National Academy of Sciences of the United States of America 68 (4), 820–823. Kunkel, Thomas A./Erie, Dorothy A. (2015): Eukaryotic Mismatch Repair in Relation to DNA Replication, in: Annual review of genetics 49, 291–313. Lang, Fabian/Wojcik, Bartosch/Rieger, Michael A. (2015): Stem Cell Hierarchy and Clonal Evolution in Acute Lymphoblastic Leukemia, in: Stem cells international 2015, 137164. López-Soto, Alejandro/Gonzalez, Segundo/Smyth, Mark J. et al. (2017): Control of Metastasis by NK Cells, in: Cancer cell 32 (2), 135–154. Ma, Lichun/Hernandez, Maria O./Zhao, Yongmei, et al. (2019): Tumor Cell Biodiversity Drives Microenvironmental Reprogramming in Liver Cancer, in: Cancer cell 36 (4), 418–430.e6.

399 https://doi.org/10.5771/9783495825464 .

Michael A. Rieger

Manor, Brad/Lipsitz, Lewis A. (2013): Physiologic complexity and aging. Implications for physical function and rehabilitation, in: Progress in neuropsychopharmacology & biological psychiatry 45, 287–293. Martincorena, Iñigo/Roshan, Amit/Gerstung, Moritz et al. (2015): Tumor evolution. High burden and pervasive positive selection of somatic mutations in normal human skin, in: Science (New York, N.Y.) 348 (6237), 880–886. Mazzocchi, Fulvio (2008): Complexity in biology. Exceeding the limits of reductionism and determinism using complexity theory, in: EMBO reports 9 (1), 10–14. McCord, J. M./Fridovich, I. (1969): The utility of superoxide dismutase in studying free radical reactions. I. Radicals generated by the interaction of sulfite, dimethyl sulfoxide, and oxygen, in: The Journal of biological chemistry 244 (22), 6056–6063. Meacham, Corbin E./Morrison, Sean J. (2013): Tumour heterogeneity and cancer cell plasticity, in: Nature 501 (7467), 328–337. Monod, Jacques (1972): Chance and necessity. An essay on the natural philosophy of modern biology. London. Mukherjee, Siddhartha (2011): The emperor of all maladies. A biography of cancer. London. Nordling, C. O. (1953): A new theory on cancer-inducing mechanism, in: British journal of cancer 7 (1), 68–72. Nowell, P. C. (1976): The clonal evolution of tumor cell populations, in: Science (New York, N.Y.) 194 (4260), 23–28. Pierce, G. B./Speers, W. C. (1988): Tumors as caricatures of the process of tissue renewal. Prospects for therapy by directing differentiation, in: Cancer research 48 (8), 1996–2004. Rama, Inés/Grinyó, Josep M. (2010): Malignancy after renal transplantation. The role of immunosuppression, in: Nature reviews. Nephrology 6 (9), 511–519. Richardson, Seth Francis Corning (2002): The collapse of a complex state. A reappraisal of the end of the First Dynasty of Babylon, 1683–1597 B.C. Ann Arbor. Rickles, Dean/Hawe, Penelope/Shiell, Alan (2007): A simple guide to chaos and complexity, in: Journal of epidemiology and community health 61 (11), 933–937. Rosenfeldt, Mathias T./Ryan, Kevin M. (2011): The multiple roles of autophagy in cancer, in: Carcinogenesis 32 (7), 955–963. Schmidt-Arras, Dirk/Böhmer, Sylvia-Annette/Koch, Sina et al. (2009): Anchoring of FLT3 in the endoplasmic reticulum alters signaling quality, in: Blood 113 (15), 3568–3576. Sharov, Alexei A. (2009): Role of Utility and Inference in the Evolution of Functional Information, in: Biosemiotics 2 (1), 101–115. Shmulevich, Ilya/Kauffman, Stuart A./Aldana, Maximino (2005): Eukaryotic cells are dynamically ordered or critical but not chaotic, in: Proceedings

400 https://doi.org/10.5771/9783495825464 .

Die Komplexität der Krebsentstehung – Ursachen und Wirkung

of the National Academy of Sciences of the United States of America 102 (38), 13439–13444. Smith, Joshua I./Steel, Mike/Hordijk, Wim (2014): Autocatalytic sets in a partitioned biochemical network, in: Journal of systems chemistry 5, 2. Sousa, Filipa L./Hordijk, Wim/Steel, Mike et al. (2015): Autocatalytic sets in E. coli metabolism, in: Journal of systems chemistry 6 (1), 4. Stracker, Travis H./Usui, Takehiko/Petrini, John H. J. (2009): Taking the time to make important decisions. The checkpoint effector kinases Chk1 and Chk2 and the DNA damage response, in: DNA repair 8 (9), 1047–1054. Sturtz, L. A./Diekert, K./Jensen, L. T. et al. (2001): A fraction of yeast Cu,Znsuperoxide dismutase and its metallochaperone, CCS, localize to the intermembrane space of mitochondria. A physiological role for SOD1 in guarding against mitochondrial oxidative damage, in: The Journal of biological chemistry 276 (41), 38084–38089. Theise, Neil D./d’Inverno, Mark (2004): Understanding cell lineages as complex adaptive systems, in: Blood cells, molecules & diseases 32 (1), 17– 20. Torres-Sosa, Christian/Huang, Sui/Aldana, Maximino (2012): Criticality is an emergent property of genetic networks that exhibit evolvability, in: PLoS computational biology 8 (9), e1002669. van Regenmortel, Marc H. V. (2004): Reductionism and complexity in molecular biology. Scientists now have the tools to unravel biological and overcome the limitations of reductionism, in: EMBO reports 5 (11), 1016–1020. Visvader, Jane E./Lindeman, Geoffrey J. (2012): Cancer stem cells. Current status and evolving complexities, in: Cell stem cell 10 (6), 717–728. Waddington, C. H. (1957): The strategy of genes. London. Waldrop, M. Mitchell (1992): Complexity. The Emerging Science at the Edge of Order and Chaos. Newburyport. Wang, Yong/Waters, Jill/Leung, Marco L. et al. (2014): Clonal evolution in breast cancer revealed by single nucleus genome sequencing, in: Nature 512 (7513), 155–160. Weinberg, Robert Allan (2007): The biology of cancer. New York. Weyand, Simone/Shimamura, Tatsuro/Yajima, Shunsuke et al. (2008): Structure and molecular mechanism of a nucleobase-cation-symport-1 family transporter, in: Science (New York, N.Y.) 322 (5902), 709–713. Wyllie, Andrew H. (2010): »Where, O death, is thy sting?« A brief review of apoptosis biology, in: Molecular neurobiology 42 (1), 4–9. Yaniv, Yael/Lyashkov, Alexey E./Lakatta, Edward G. (2013): The fractal-like complexity of heart rate variability beyond neurotransmitters and autonomic receptors. Signaling intrinsic to sinoatrial node pacemaker cells, in: Cardiovascular pharmacology: open access 2.

401 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie: Moleküle der zellulären Informationsübertragung 1 Harald Schwalbe, Josef Wachtveitl, Alexander Heckel, Florian Buhr, Thomas M. Schimmer

1.

Einleitung: Komplexität und Emergenz in der Chemie

Chemie beschäftigt sich mit der Synthese, Analyse und Umwandlung von Materie. Moleküle besitzen spezifische Eigenschaften, und sie können Reaktionen eingehen, in denen sich neue Moleküle bilden. In natürlichen wie artifiziellen Systemen können Moleküle eine Funktion ausüben. Alle Materie auf Erden ist aus Atomen aufgebaut, die durch Bindungen miteinander verknüpft sind. Doch die Eigenschaften von Molekülen und Festkörpern können nicht aus den Eigenschaften der Atome direkt abgeleitet werden; die Eigenschaften der Atomverbände sind emergent und komplex. Um diese sich ändernden Eigenschaften von Molekülen charakterisieren zu können, ist es wichtig, Moleküle und ihre Eigenschaften analytisch nachweisen und theoretisch beschreiben zu können. Von dieser Warte aus ist es erstaunlich, dass in vielen typisch chemischen Forschungsansätzen Komplexität und Emergenz eine untergeordnete Rolle spielen. Dies ändert sich an den disziplinären Grenzen zur Physik und zur Biologie: Die Emergenz von molekularen Eigenschaften und den mit ihnen assoziierten Funktionen und die Komplexität des mikroskopischen

Danksagung: Das Kapitel ist geprägt von der Lehre in der Chemie an der GoetheUniversität Frankfurt. Hier soll insbesondere Prof. Gerhard Quinkert gedankt sein. In der Forschung zur Proteinfaltung wurden wir von Prof. Sir Christopher M. Dobson maßgeblich beeinflusst. Insbesondere sei Prof. Matthias Lutz-Bachmann gedankt für den Austausch zwischen Philosophie und Chemie. Wir danken Prof. Hartmut Leppin, Frau Dr. Anna Wacker, Frau Dr. Julia Wirmer-Bartoschek und allen Mitgliedern des durch die Aventis Foundation unterstützten Projekts »Komplexität in Wissenschaft, Kultur und Gesellschaft« am Forschungskolleg Humanwissenschaften der GoetheUniversität in Bad Homburg für intensive Diskussionen zum Inhalt des Artikels. Herrn Dr. Peter Gölitz sei für sein gründliches Lektorat gedankt.

1

402 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

wie des makroskopischen Aufbaus aller Materie sind an diesen Grenzflächen von großer Bedeutung. Die Erforschung der Entstehung des Lebens und der Evolution in den Naturwissenschaften ist mit der Lehre des Seins und des Seienden, der Ontologie, in der Philosophie verbunden. Ontologie befasst sich mit Fragen nach den Grundstrukturen und apriorischen Eigenschaften der Wirklichkeit und geht auf Aristoteles zurück, dessen Arbeiten von der vorsokratischen Philosophie beeinflusst waren (Schmitt 2020). Bei Aristoteles ist die Ontologie die Grundlage einer »Seinswissenschaft in aller Form« (Kremer 1984, 1189). Sie verbindet die Fragen nach dem Seienden und der Wirklichkeit mit denen nach einem höchsten, göttlichen Prinzip. In der frühen Neuzeit löst sich diese Verbindung auf zugunsten einer Wissenschaft vom Sein und einer Wissenschaft von Gott. Seitdem befasst sich Ontologie stärker mit den naturwissenschaftlichen Fragestellungen, während Metaphysik und Theologie die göttlichen Prinzipien thematisieren. Bei Leibniz erfährt die Ontologie schließlich eine Erweiterung als Wissenschaft vom »Seienden und Nicht-Seienden, von der Sache und der Art der Sache, von der Substanz und dem Akzidens« (Leibniz zit. nach Kremer 1984, 1191). Dabei steht Akzidens für etwas Zufälliges, also für eine Eigenschaft, die einer Sache oder einem Gegenstand in der Welt zukommen kann, aber nicht notwendigerweise zukommen muss. Kant transformiert die Ontologie in eine Transzendentalphilosophie, indem er danach fragt, welches die Bedingungen und Voraussetzungen für eine Erkenntnis der Gegenstände in Raum und Zeit sind, die uns »erscheinen«, also die Phänomene der äußeren Welt. Es geht um eine unmittelbare Erkenntnis der uns erscheinenden Dinge, wie sie also »an sich« sind, unabhängig vom menschlichen Akt des Erkennens. Für Kant ist dies die Frage nach dem Ding an sich, das für Kant prinzipiell unerkennbar ist. Ontologie wird bei Kant so zu einer »Wissenschaft von den allgemeinsten Begriffen und Grundsätzen aller natürlichen und sittlichen Dinge überhaupt, ohne Objekte anzunehmen, die gegeben wären.« (Kremer 1984, 1192). Erst im 20. Jahrhundert erfährt die Ontologie eine neue Ausrichtung, die sich zum einen auf Kant stützt, zum anderen in der analytischen Philosophie aber auch dem annähert, was in der aristotelischen Metaphysik als Ontologie angelegt war. Es geht der modernen Ontologie oftmals um die Erkenntnis »einer subjektunabhängigen, an sich bestimmten und doch erkennbaren Wirklichkeit« (Urbich/Zimmer 2020, VII). Sie hat somit aus »heutiger ›verwissen403 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

schaftlichter‹ Sicht (d. h. unter Wegfall der Perspektive auf das Transzendente oder Göttliche) die grundlegendsten Strukturen bzw. Elemente der Wirklichkeit im Ganzen zum Thema« (Urbich/Zimmer 2020, VIII), und ihre Ansätze treffen sich mit dem Anspruch und den Methoden der Naturwissenschaften. Denn es scheint Einigkeit darüber zu bestehen, dass die Frage nach der Entstehung und Evolution des Lebens eine prinzipiell beantwortbare Frage ist, bei aller Schwierigkeit der Definition der Begriffe. Aus philosophischer Sicht liegen die moderne Ontologie und die Naturwissenschaften vor allem dann zumindest methodisch nahe beieinander, wenn »philosophische Wirklichkeitsbeschreibungen […], in Analogie zur Naturwissenschaft, als formale oder zumindest begrifflich präzise Theorien von empirischen Daten entwickelt und bewertet werden« (Seibt 2020, 277). Insbesondere für die Frage nach Komplexität und Emergenz zeigen jedoch gerade moderne prozessontologische Ansätze oder solche einer Ontologie des Werdens (vgl. Sohst 2020) Parallelen und Synergiepotenziale. Ein naturwissenschaftliches Verstehen der Ursächlichkeiten der Evolution von Leben beinhaltet die Entwicklung quantifizierbarer Modelle, die (zumindest) post factum verifiziert werden können. Die naturwissenschaftliche Methode unterteilt die Allgemeinheit oder Gesamtheit der Fragen in spezifische Unterfragen, wohl wissend, dass sich an Grenzflächen häufig besondere Schwierigkeiten ergeben. Der Vorwurf des Reduktionismus einer solchen Unterteilung in Unterfragen greift zu kurz, insbesondere bei der Untersuchung der Evolution des Lebens. In diesem Kapitel versuchen wir, die chemischen Forschungsansätze zum Verständnis der Entstehung und der Evolution des Lebens nachzuzeichnen. Die Entstehung des Universums in den ersten Millisekunden nach dem Urknall, die Entstehung des Lebens und die Entstehung der Arten (Darwin 1859) sind verknüpft mit der Entstehung von Atomen. Diese Entstehung von Atomen ist die Voraussetzung für die Synthese von Molekülen und ihren Umwandlungen. Über drei Milliarden Jahre nach Entstehung des Universums konnten sich »größere« (vielatomige) Moleküle, sogenannte Naturstoffe, aus einfachen Molekülen wie Wasser und Ammoniak, die nur aus drei bzw. vier Atomen bestehen, entwickeln. Diese größeren Naturstoffe besitzen die Voraussetzungen und Eigenschaften, als Moleküle zelluläre Funktionen ausüben zu können, als Träger von Information zu fungieren und somit Leben zu ermöglichen. Eine erste Frage an der Grenzfläche von Astrophysik zur präbiotischen Chemie ist die Frage, 404 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

welche chemischen Moleküle in der Lage waren, lebensnotwendige Funktion zu bewerkstelligen. Dieser Frage nach der Chemie am Ursprung des Lebens ist insbesondere Albert Eschenmoser nachgegangen (Eschenmoser 2011), nicht nur in experimentellen Arbeiten, sondern insbesondere auch im Hinblick auf eine Klärung des philosophischen Rahmens für diese Art von präbiotischer Chemieforschung als einem wesentlichen Teil naturwissenschaftlicher Ontologie (Abschnitt 2). Eschenmosers Forschung ist vor allem empirisch, aber durch die Art der Definition der zu erforschenden Fragestellung schlägt er die Brücke zur Ontologie und belegt den prinzipiell empirischen, konstruktivistischen Ansatz der naturwissenschaftlichen Ontologie. Die Frage nach der Chemie am Ursprung des Lebens zielt auf ein Verstehen, welche Moleküle vor dem Übergang zu »Leben« evolviert sind 2 und dann die Vielzahl von zellulären Funktionen ausgeübt haben. Eine der wesentlichen Voraussetzungen für Leben ist der unverfälschte Informationstransfer von einer Zelle zur nächsten. Diese Übertragung von Information, so zeigt die chemische Forschung, beruht auf der Selbstorganisation von Molekülen. 3 Die Evolution biologischer Makromoleküle als Bestandteile lebender Zellen stand folglich unter dem Selektionsdruck ebendieser Fähigkeit. Die fundamentalen chemischen und physikalischen Eigenschaften eines selbstorganisierenden und selbstreplizierenden Systems als Grundlage der Entstehung von Leben sind insbesondere von Manfred Eigen beschrieben worden (Eigen 1971). Die Information-tragenden Moleküle in der Zelle sind die Nukleinsäuren DNA und RNA (Desoxyribonukleinsäure, engl. desoxyribonucleic acid, DNA, und Ribonukleinsäure, engl. ribonucleic acid, RNA). Die fehlerfreie Synthese eines neuen DNA-Stranges als Komplementärkopie eines der beiden aus einer Elternzelle stammenden DNA-Doppelstränge ist das zugrundeliegende Prinzip des zellulären Informationstransfers. Die beteiligten DNA-Moleküle werden aus diesem Grund als genotypische Moleküle bezeichnet. Die chemischen Eigenschaften der genotypischen Moleküle DNA und RNA werden in Abschnitt 3 diskutiert. Die Evolution

V. Prelog: »Natural products are the result of three billion years of development of the living world, and they have survived the natural selection process over a long period of evolution. I am convinced they always carry a message, which it is our job to decipher« (zitiert nach Eschenmoser 2011). 3 E. Wigner 1961, zit. nach Eigen 1971. 2

405 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

bleibt aber nicht bei der Weitergabe zellulärer Information stehen, die Informationsweitergabe selbst konstituiert Leben noch nicht. Sie ist nicht Selbstzweck, sondern die Information, die in der Abfolge der DNA-Bausteine ablesbar gespeichert ist, kodiert in den heutigen Organismen für mannigfaltige biologische Funktionen, die durch Proteine, und zwar vor allem durch Enzyme ausgeübt werden. Enzyme sind Katalysatormoleküle, die chemische Reaktionen beschleunigen und sie z. B. im engen Temperaturbereich nahe 37 °C ermöglichen. Proteine als dritte wesentliche Klasse von Biomakromolekülen neben den Nukleinsäuren DNA und RNA ermöglichen diese Mannigfaltigkeit zellulärer Funktionen und damit die größere Diversifikation höher evolvierter Organismen und ihrer spezifischen Organe. Proteine werden deshalb phänotypische Moleküle genannt. Der Informationstransfer am Beginn des Lebens musste deshalb von der Selbstreplikation von Nukleinsäure erweitert werden auf eine Weitergabe von Information von Nukleinsäuren hin zu Proteinen. Proteinsynthese, die so genannte Translation, wird gemäß dem auf DNA gespeicherten Bauplan nach der Umschreibung, der so genannten Transkription, des DNA-Makromoleküls auf RNA-Makromoleküle bewerkstelligt. Francis Crick hat mit seinem zentralen Dogma der Molekularbiologie den theoretischen Rahmen geschaffen, der den Verlauf der Synthesen der Biomakromoleküle insbesondere bzgl. ihrer Direktionalität beschreibt (Crick 1970). Dieser Prozess zellulären Informationstransfers erfordert die fehlerfreie Synthese von fundamental unterschiedlichen Klassen von Biomakromolekülen, nämlich den Nukleinsäuren und den Proteinen. Innerhalb der Zelle finden diese Synthesen an zwei makromolekularen Komplexen statt, die selbst aus DNA, RNA und Proteinen in Polymerasen bzw. RNA und Proteinen im Ribosom aufgebaut sind. Zunächst katalysieren Polymerasen (Kornberg 1959; Kornberg 2006) die Umschreibung eines der beiden DNA-Stränge in einen neuen DNA-Strang während der Replikation bzw. in einen RNA-Strang während der Transkription. Dann bewerkstelligen Ribosomen (Ramakrishnan/Steitz/Yonath 2009) die Synthese von Proteinen nach der Informationsvorschrift, die in der chemischen Abfolge von RNA-Bausteinen gespeichert ist. Die Informations- und Übersetzungsvorschrift, der sogenannte genetische Code, der diesen Synthesen zugrunde liegt, wurde von Nirenberg (Nirenberg 1968) und Khorana (Khorana 1968) entschlüsselt. Der genetische Code ist für alle Lebewesen universell gültig.

406 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 1. Bildliche Veranschaulichung des zentralen Dogmas der Molekularbiologie, das von Francis Crick formuliert wurde (Crick 1970). Aus einem der beiden DNA-Stränge wird im Prozess der Transkription eine komplementäre mRNA (die in der Mitte abgebildeten Buchstaben indizieren die mRNA Sequenz) hergestellt. Die Transkription wird von einem Enyzm, der RNA-Polymerase (hier rot dargestellt), katalysiert. In diesem RNA-PolymeraseKomplex wird die doppelsträngige DNA, die im Bild von links in den Komplex eindringt, entwunden, die neu synthetisierte, transkribierte mRNA verlässt den Komplex. In höheren Organismen kann die mRNA noch prozessiert werden, z. B. im Prozess des Splicens (hier graphisch nicht nachgezeichnet). Die transkribierte mRNA beinhaltet die Vorschrift für die Synthese von Proteinen. Die Sequenz der mRNA, also die Abfolge der RNA-Bausteine, kodiert, in welcher Abfolge die Aminosäuren im Protein angeordnet sind. Proteine werden am Ribosom synthetisiert (hier grünlich dargestellt, das Ribosom besteht aus zwei Untereinheiten). Die mRNA-Sequenz wird erkannt und dekodiert durch eine tRNA, ein Hybridmolekül aus RNA und Aminosäure. Die neu synthetisierte Proteinkette verlässt das Ribosom. Der Synthese sowohl der mRNA als auch des Proteins schließt sich ein sogenannter Prozess der Faltung an, in dem RNA und Proteine ihre dreidimensionale Gestalt (3D-Struktur) annehmen. Von dieser 3D-Struktur geht die Funktion der Biomakromoleküle aus. Diese 3D-Struktur ist für das Protein gezeigt.

Das vorliegende Kapitel soll eine Brücke schlagen zwischen naturwissenschaftlichen Phänomenen und den »Hauptströmungen der Gegenwarts-Philosophie«, um das Standardwerk von Wolfgang Stegmüller zu zitieren (Stegmüller 1987). In Band III seiner Monographie beschreibt Stegmüller die Evolutionstheorie von M. Eigen und ermöglicht damit den Austausch von der philosophischen Seite hin zu den chemischen, biochemischen und biologischen Aspekten der Evo407 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

lutionstheorie. Stegmüller weist darauf hin, dass man »als Philosoph geneigt« sei, »das Problem der Entstehung des Lebens in zwei Teilfragen aufzusplittern. In einem ersten Schritt wäre danach die Frage zu beantworten: ›Was ist überhaupt Evolution?‹, während in einem zweiten Schritt eine fundierte Theorie der Erklärung des Evolutionsgeschehens zu liefern wäre. Aber so geht es nicht. Es dürfte einen wichtigen Faktor in der Aneignung moderner Evolutionstheorien, wie der von Eigen, darstellen, zu erkennen, warum man nicht so vorgehen kann. Der Begriff der Evolution ist viel zu komplex und umfaßt viel zu viele verschiedenartige Einzelphänomene, Prozesse und daran beteiligte Gesetzmäßigkeiten, als daß man unmittelbar mit einer Explikation dieses Begriffes beginnen könnte. Worauf es vielmehr ankommt, ist die Aufspaltung des Problems der Evolution in eine Reihe von wissenschaftlich formulierbaren Einzelfragen, die Anordnung dieser Frage in eine korrekte Reihenfolge und die jeweilige Wahl des richtigen Ansatzpunktes bei der Problemlösung.« (Stegmüller 1987, 211) Weitere wichtige Aspekte einer philosophischen Komplexitätstheorie sind von H. Poser geleistet worden (Poser 2012). In seinem dritten Kapitel »Evolution als Deutungsschema« zitiert er Kant: »Es ist […] gewiß, daß wir die organisierten Wesen und deren innere Möglichkeiten nach bloß mechanischen Prinzipien der Natur nicht einmal zureichend kennen lernen, viel weniger uns erklären können; und zwar so gewiß, daß man dreist sagen kann, es ist für Menschen ungereimt, auch nur einen solchen Anschlag zu fassen, oder zu hoffen, daß noch etwa dereinst ein Newton aufstehen könne, der auch nur die Erzeugung eines Grashalms nach Naturgesetzen, die keine Absicht geordnet hat, begreiflich machen werde« (zit. nach Poser 2020, 265). Die hier nachgezeichneten Ergebnisse der Naturwissenschaften seit 1850, aber mit erhöhter Dynamik seit dem Zweiten Weltkrieg, widerlegen Kant. Tatsächlich ermöglicht das Verständnis der inhärenten chemischen Eigenschaften von Molekülen die als unmöglich erachtete quantitative Beschreibung und Funktion sogar eines Grashalms. Deshalb soll in diesem Kapitel anhand von Beispielen von Komplexität und Emergenz in der Chemie verständlich werden, dass die im Rahmen des gesamten vorliegenden Buchs zu beschreibenden komplexen Prozesse in einem recht hohen Maß einheitlich analysiert und beschrieben werden können. Als Resultat einer solchen diszipli408 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

nenübergreifenden Sicht auf Komplexität und Emergenz stehen Größen, die die Komplexität eines Systems quantifizieren können. Eine solche disziplinenübergreifende Theoriebildung sollte unterscheiden können zwischen einer (i) Vorhersagefähigkeit, gegebenenfalls Angabe einer Wahrscheinlichkeit, (ii) einer post factum in sich logischen, aber nicht (eindeutig) prognostizierbaren Evolution eines Systems sowie einer (iii) prinzipiell nicht wiederholbaren Evolution, also eines prinzipiell historischen Geschehens. Nicht der historische Ausgang des Prozesses, also das Ergebnis der Evolution, ist prinzipiell vorhersagbar, wohl aber der Prozesstyp 4 der Evolution.

2.

Zur Ätiologie potentiell präbiotischer biomolekularer Moleküle

Bei der Entstehung des Lebens gab es eine Periode, während der sich erste Moleküle gebildet haben müssen, die dann als Baustoffe für erste lebensfähige Zellen gedient haben. Im Folgenden zeichnen wir hier den methodischen und philosophischen Rahmen der Ätiologie solcher potentiell präbiotischen Verbindungen nach. Dieser Rahmen wurde insbesondere von Albert Eschenmoser entwickelt. Unter Ätiologie versteht man die Wissenschaft nach den Ursachen und Ursprüngen der Dinge. Im Kontext der Entstehung des Lebens stellt sich also die Frage nach dem Ursprung der Moleküle, die als »letzte gemeinsame Vorläufer« aller biologischen Zellen und Organismen gelten können. Die Entwicklung dieser »präbiotischen Verbindungen« hat vor vier Milliarden Jahren angefangen, aber über die genaue Zeitspanne der Entstehung dieser Verbindungen wissen wir genauso wenig wie über die chemischen Eigenschaften der Umgebung (in wässrigem Milieu, auf anorganischen Oberflächen oder in der Gasphase). Einigkeit scheint aber darüber zu bestehen, dass erste Einzeller vor ungefähr 3.8 Milliarden Jahren entstanden, erste Säugetiere vor 200 Millionen Jahren und der Homo sapiens vor 200.000 Jahren, die Befähigung zum Ackerbau vor 10.000 Jahren. Im Verlauf der Evolution beobachten wir also eine Beschleunigung der Evolutionsschritte. Der Entstehung präbiotischer Moleküle ist die Entstehung der chemischen Elemente und Atome vorausgegangen: Wasserstoff (H2) 4

Der Verwendung des Begriffs »Prozesstyp« kommt von Poser (2020).

409 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 2. Evolution chemischer Moleküle. a) Einfache Moleküle, die in Sternen und Sternnebeln gefunden wurden. In der zwei Milliarden Jahre dauernden Periode der chemischen Evolution sind präbiotische Moleküle entstanden: b) präbiotische zur Reaktion aktivierte RNA-Bausteine am Beispiel des RNABausteins Adenosintriphosphat (ATP) und c) präbiotische Aminosäuren Alanin (Ala) und Valin (Val). d) RNA-Doppelhelix: zwei komplementäre RNAStränge können eine RNA-Doppelhelix ausbilden, die ähnliche, aber nicht identische Eigenschaften im Vergleich zu einer DNA-Doppelhelix (s. Abb. 3) aufweist. e) dreidimensionale Struktur eines Proteins.

und Helium (He) entstanden beim Urknall, alle weiteren chemischen Elemente entstanden in Sternen. 5 Wasser (H2O), Ammoniak (NH3), Methan (CH4), Formaldehyd (H2C=O) und Phosphat (PO43–) entstehen in bestimmten Gasnebeln und können unter speziellen Bedingungen hinreichend stabil sein. Um sich der Frage nach der Ätiologie potentiell präbiotischer biomolekularer Moleküle zu nähern, kann man sich nicht auf gesicherte historische Fakten stützen, auch nicht im Sinne eines noch vorhandenen Relikts dieser Moleküle in »primitiven« Organismen. Stattdessen werden als fundamentaler Zugang zur Erforschung dieser präbiotischen Chemie Hypothesen über mögliche molekulare Szenarien formuliert. Diese Hypothesen werden mittels Experimenten auf ihre Plausibilität überprüft. Das Auffinden von potentiellen MoleAls Randnotiz sei hier vermerkt, dass zwischen 1770 und 1775 die Elemente Wasserstoff (H2), Sauerstoff (O2), Stickstoff (N2) sowie Kohlenstoff (C) entdeckt wurden, Phosophor wurde schön früher entdeckt.

5

410 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

külen, also den molekularen Spielern in der Phase der Evolution präbiotischer Moleküle, soll die Frage beantworten: Konnten diese Moleküle entstehen? Darüber hinaus ist die Untersuchung ihrer evolutionären Selektion notwendig, also: Weshalb konnten sie im Hinblick auf die Evolution von Leben unter variierenden Selektionsszenarien bestehen? Sowohl die Bedingungen für die Synthese präbiotischer Moleküle als auch die Funktion, die die präbiotischen Moleküle ausüben, sind einem Selektionsdruck unterworfen. Dennoch unterscheidet sich die Erforschung dieser beiden Fragestellungen in einem entscheidenden Punkt: Die Frage nach der Ätiologie der ersten präbiotischen Moleküle ist historisch. Die damaligen Bedingungen können nicht mehr reproduziert werden, es kann nicht nachgewiesen werden, welche die »gewinnenden« Randbedingungen gewesen sind; sie verbleiben deshalb spekulativ. Demgegenüber ist die Funktion, die von einem oder mehreren präbiotischen, aber noch existierenden Molekülen ausgeübt wird, zeit-invariant. Deshalb kann in exakter Weise erforscht werden, ob die wie auch immer selektierten Moleküle tatsächlich die jeweils zugeordnete Funktion ausüben können. So ist z. B. die Stabilität unter gegebenen Umweltbedingungen möglicher präbiotischer Moleküle eine thermodynamische Eigenschaft, die konstant und unveränderlich ist. Vielleicht sind auch andere Moleküle entstanden. Diese alternativen präbiotischen Moleküle bzw. molekularen Systeme mögen zwar im Verlauf der Evolution unter gegebenen Umgebungsbedingungen chemisch stabil gewesen sein, könnten aber während der Evolution nicht mehr notwendig gewesen sein. In diesem Kontext ist die bisweilen futurisch anmutende Frage nach Leben im Universum interessant, da gegebenenfalls andere Moleküle (unter anderen Umweltbedingungen) hätten evolvieren können. Eine in der Ontologie angestrebte Unterscheidung von Dingen, Prozessen und Ergebnissen scheint hier also nicht möglich, da es schon bei der Chemie potentieller präbiotischer Moleküle, aber auch darüber hinaus in der Evolution des Lebens gerade um eine Verschmelzung der »Dinge« mit dem Prozess ihrer Entstehung geht. »Die Modelle behandeln nicht Gegenstände und ihre Eigenschaften, sondern Prozesse. Ilya Prigogine und Manfred Eigen sprachen von einem Übergang vom Sein zum Werden, und schon Whitehead hat eine Prozessontologie vorgeschlagen« (Poser 2012). Die legendären ersten Experimente in der präbiotischen Chemie gehen auf Miller und Oró zurück. Ihre Experimente erbrachten einen 411 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

chemischen Nachweis, welche präbiotischen Moleküle sich bilden können. (Nicht-chirale) 6 α-Aminosäuren können aus den oben genannten »primitiveren« Vorläufermolekülen Wasserstoff (H2), Methan (CH4), Ammoniak (NH3) und Wasser (H2O) entstehen (Miller 1953). Die Nukleobase Adenin als Vorläufermolekül der Nukleinsäurebausteine kann aus Ammoniumhydroxid (NH4OH) und Blausäure (HCN) gebildet werden (Oró 1960). Zuckereinheiten können aus Glykolaldehydphosphat entstehen (Eschenmoser 2011). Die genannten Verbindungen, α-Aminosäuren, und die Verknüpfung von Nukleobasen, Zuckereinheiten und Phosphat(en) zu Nukleotiden (Fuller/Sanchez/Orgel 1972; Powner/Gerland/Sutherland 2009) stellen die monomeren Einheiten dar, die durch Polymerisationsreaktionen die in allen Zellen wesentlichen biomakromolekularen Verbindungen wie Proteine und Nukleinsäuren (DNA und RNA) bilden. Sie entstehen in diesen präbiotischen Experimenten unter einer großen Zahl von Bedingungen, sobald Energie und die oben genannten Vorläufermoleküle vorhanden sind. Interessanterweise werden diese monomeren Einheiten auch extraterrestrisch gefunden (Wolman/ Haverland/Miller 1972; Cronin/Pizzarello 1997; Callahan/Smith/ Cleaves et al. 2011). So interessant diese Experimente sind, sind sie doch weit davon entfernt, die nächsten Schritte hin zu Leben zu erklären, nämlich in welcher Weise potentiell aus präbiotischen Molekülen durch Selbstorganisation Leben entstanden ist. Präbiotische Chemie ist auch heute in keiner Weise in der Lage, diese Komplexität theoretisch zu modellieren noch sie experimentell nachzustellen. Gerade Letzteres ist natürlich spannend, da eine experimentelle Nachstellung dessen, was (chemisches) Leben ausmacht, einen beeindruckenden induktiven Verständnisnachweis darstellen würde. 7 In der präbiotischen Chemie sind Fragen nach dem »Warum« ein essentieller Bestandteil: Bei diesen ansonsten in den Naturwissenschaften, da teleologischen Die Erforschung der Ursache der Anreicherung von energiegleichen Molekülen unterschiedlicher Chiralität, also von Molekülen, die sich wie Bild und Spiegelbild verhalten, gehört fundamental an diesen Punkt. Es geht hier um die Frage, weshalb sich L-Aminosäuren, nicht aber D-Aminosäuren in Proteinen finden oder weshalb sich DZucker, nicht aber L-Zucker finden, wenn doch die Moleküle gleich stabil sind und als Mischung gleicher Konzentration in diesen Experimenten entstehen. Wir werden auf die Eschenmoser’sche Erklärung, der wir folgen, später eingehen. 7 In diesem Zusammenhang sei auf D. Bernals Bonmot verwiesen: »If life once made itself, it must not be too difficult to make it again.« (zit. nach Eschenmoser 2011). 6

412 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

verbotenen Fragen geht es in der präbiotischen Chemie darum, weshalb z. B. die Zuckerreste in Nukleinsäuren über Phosphatreste verknüpft sind anstelle von alternativen atomaren Überbrückungseinheiten wie Sulfaten, Silikaten oder Arsenaten (Westheimer 1987). Vergleichende Experimente mit den selektierten Molekülen und möglichen chemischen Alternativen adressieren sowohl die Frage, ob unter gegebenen Umständen eine Verbindung prinzipiell entstehen kann als auch einen Ansatzpunkt zur Beantwortung des Selektionsproblems. Wie oben gesagt, sind Untersuchungen der Funktion von solchen Kandidatenmolekülen zeit-invariant. Wenn also eines der alternativen Moleküle eine gewünschte Funktion nicht ausüben kann, könnte es zwar prinzipiell unter präbiotischen Bedingungen entstanden sein, aber aufgrund mangelnder Funktion wäre es dem evolutiven Selektionsdruck nicht gewachsen gewesen. Es sei auch noch darauf verwiesen, dass Evolution im Darwin’schen Sinn zwar kontinuierlich, nicht aber linear verlaufen muss. Bestimmte Moleküle könnten zu bestimmten Zeiten während der Evolution beigetragen haben, aber unter den sich ändernden Bedingungen ausgestorben sein, weil verbesserte Versionen die Funktion übernehmen oder sogar komplett neue Spieler die Funktion gekapert haben. Abschließend sei hier erwähnt, dass präbiotische Chemie in keiner Weise ein abgeschlossenes wissenschaftliches Feld ist. Die bearbeiteten Fragestellungen geben in hervorragender Weise Aufschluss über die fundamentale Reaktivität von chemischen Verbindungen und strahlen damit weit über die präbiotische Chemie in die allgemeine kontemporäre Synthesechemie hinein (Jovanovic/Tremmel/Pallan et al. 2020; Deck/Jauker/Richert 2011). Aber so viel kann gesagt werden: Die monomeren Bausteine aller in Organismen zentralen informations- und funktionstragenden Biomakromoleküle, die genotypischen DNAs, die phänotypischen Proteine sowie die RNAs, die geno- und phänotypische Eigenschaften vereinen, konnten unter präbiotischen Bedingungen entstehen und haben sich gegenüber ebenfalls möglichen chemischen Verbindungen durchgesetzt.

413 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

3.

Der atomare Aufbau der Nukleinsäuren DNA und RNA als Träger zellulärer Information

Es ist interessant, die molekularen Grundlagen der Vererbung, d. h. Entschlüsselung der DNA-Doppelhelix, kurz in ihren ideengeschichtlichen Rahmen zu setzen. Erwin Schrödinger, neben Werner Heisenberg einer der Begründer der Quantenmechanik in den 1920er Jahren, setzte mit seinem Buch »What is Life?« einen wesentlichen Impuls, der die Forschung zur Beantwortung der Frage befördert hat, welches Molekül in unseren Zellen die Erbinformation trägt und wie Erbinformation weitergegeben wird. Über Schrödingers Impuls hat Max Perutz 1987 folgenden Kommentar geschrieben (Perutz 1987), in dem er Jacques Monod zitiert: »Erwin Schrödinger’s book: What is Life?, published in 1944, drew several of the brightest physicists into molecular biology. But the book’s chief merit lies in its rescue from obscurity and popularization of an earlier paper by Timoféeff, Zimmer and Delbrück. […] After the war, many young physicists were disgusted by the military use that had been made of atomic energy. […] Schrödinger […] foretold revival and exaltation to those entering biology, especially the domain of genetics. To hear one of the fathers of quantum mechanics ask himself: ›What is Life?‹ and to describe heredity in terms of molecular structure, of interatomic bonds, of thermodynamic stability, sufficed to draw towards biology the enthusiasm of young physicists and to confer to them a certain legitimacy. Their ambitions and their interests were confined to a single problem: the physical nature of the genetic information« (Monod 1970, zit. nach Perutz 1987). Diese Aussage in Schrödingers Buch schien umso wichtiger, als ein anderer Doyen der Quantenmechanik, Niels Bohr, Leben als letztlich fundamental unerklärbares Faktum definieren wollte (Bohr 1933): »The existence of life must be considered as an elementary fact that cannot be explained, but must be taken as a starting point in biology, in a similar way as the quantum of action, which appears as an irrational element from the point of view of classical mechanical physics, taken together with the existence of elementary particles, forms the foundation of atomic physics. The asserted impossibility of a physical or chemical explanation of the function peculiar to life would be analogous to the insufficiency of the mechanical analysis for the understanding of the stability of atoms.« Die wichtige Arbeit von Timoféeff-Ressovsky, Zimmer und Delbrück (Timoféeff-Ressovsky/Zimmer/Delbrück 1935), auf die Perutz 414 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

hingewiesen hat, beschreiben, dass »die […] sich rasch entwickelnden […] Theorien der Lokalisation und linearen Anordnungen der Gene in den Chromosomen […] auch die Theorie des Gens wesentlich weitergebracht« haben. »Wir wissen jetzt, dass das Genom ein räumlich konstant und bestimmt angeordnetes stoffliches System ist, in dem die einzelnen Elementarteile, die Gene, ganz bestimmte Plätze einnehmen.« Diese Forschung zwischen 1930 und 1945 war durch atemberaubend genaue Spekulation logischer, aber nicht experimentell ableitbarer Anforderungen an die Eigenschaften der chemischen Moleküle der Vererbung und ihrer Selbstorganisation geprägt. 1940 berichteten Pauling und Delbrück: »The processes of synthesis and folding of highly complex molecules in the living cell involve, in addition to covalent-bond formation, only the intermolecular interaction of van der Waals attraction and repulsion, electrostatic interactions, hydrogen-bond formation, etc., which are now rather well understood. These interactions are such as to give stability to a system of two molecules with complementary structures in juxtaposition, rather than of two molecules with necessarily identical structures; we accordingly feel that complementariness should be given primary consideration in the discussion of the specific attraction between molecules and the enzymatic synthesis of molecules« (Pauling/Delbrück 1940). In gleicher Weise hatte J. B. S. Haldane bereits 1937 einen Mechanismus der Selbstreplikation der Moleküle der Vererbung vorgeschlagen: »We could conceive of a [copying] process [of the gene] analogous to the copying of a gramophone record by the intermediation of a negative.« (Haldane 1937, zit. nach Perutz 1987). Auf diesen Überlegungen formulieren Haldane, Pauling und Delbrück die molekularen Grundlagen für Selbstorganisation der Moleküle der Vererbung. Erstaunlicherweise war ihnen zu diesem Zeitpunkt völlig unbekannt, welche chemischen Moleküle Vererbung in menschlichen Zellen bewirken, dies noch in der Mitte des 20. Jahrhunderts! Die Erforschung der Vererbung baut auf den Vererbungsregeln von Mendel (Mendel 1866, zit. nach Hoßfeld/Jacobsen/Plass et al. 2017) und der Darwin’schen Theorie der Evolution durch natürliche Selektion auf (Darwin 1859). Erste Arbeiten zur Beobachtung, dass genau ein Gen, bestehend aus einem genotypischen Molekül, genau mit einer Funktion, ausgeübt von einem phänotypischen Molekül, einem Enzym, verknüpft ist, wurden 1908 von Garrod (Garrod 1923, zit. nach Piró/Tagarelli/Lagonia et al. 2010) und 1909 von Johannsen 415 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

(Johannsen 1909) 8 mit der These »Ein Gen – ein Enzym – eine biochemische Reaktion« postuliert und später von Beadle und Tatum nachgewiesen (Beadle/Tatum 1941). Erste Hinweise, dass die Nukleinsäure DNA das die Erbinformation tragende Biomakromolekül ist, wurden 1944 von O. T. Avery berichtet (Avery/MacLeod/McCarty 1944). Nukleinsäuren waren von Miescher 1871 im Kern von Zellen entdeckt worden, und die Aufklärung der chemischen Struktur der Nukleinsäuren geht auf Kossel (Kossel 1882–1883) und Levene (Levene 1928) zurück. Auf dieser Basis diskutieren wir im Folgenden, wie man aus dem chemischen Aufbau der Nukleinsäuren ableiten kann, wie genetische Information repliziert werden kann. Nukleinsäuren sind lange, lineare – also unverzweigte – Moleküle, die nach einem sehr einfachen Prinzip aufgebaut sind. Wie oben gesagt, soll der Name Nukleinsäure andeuten, dass sie unter anderem im Zellkern (Nukleus) gefunden werden, während der zweite Wortteil darauf hinweist, dass sie gewisse saure Eigenschaften haben. In ihrem langkettigen Charakter ähneln sie formal den Kunststoffen (Polymeren), die uns mit einer großen Vielfalt von Materialeigenschaften umgeben, und sind doch von ihnen grundlegend verschieden: im Gegensatz zu den Kunststoffen ist ihre Zusammensetzung alles andere als zufällig. Nukleinsäuren sind sogenannte Heteropolymere, die aus der gezielten Aneinanderreihung von vier Bausteinen entstehen – ähnlich einer Kette mit vier verschiedenfarbigen Perlen. Sie sind also prinzipiell nach dem oben Gesagten eines der Biomakromoleküle, die als Informationsspeicher dienen können. Wichtig ist dabei zu beachten, dass eine Nukleinsäure anders als eine normale Perlenkette und ähnlich einem Vektor oder auch mehrstelligen Zahlen eine Richtung hat – also einen Anfang und ein Ende. Dreht man die Ziffern der Zahl um, entsteht eine andere Zahl (123 6¼ 321). Ähnlich wie in einem binären Code oder dem normalen, auf der Basis 10 basierenden Zahlensystem ergeben sich so mit n Bausteinen (»Ziffern«) in einer Nukleinsäure 4n mögliche ArHier führt Johannsen auch die Begriffe »Genotyp« und »Phänotyp« ein: »Gerade darum ist es von der größten Wichtigkeit den Begriff Phänotypus (Erscheinungstypus) von dem Begriff Genotypus klar zu trennen. Mit diesem letzteren Begriff werden wir allerdings nicht operieren können – ein Genotypus tritt eben nicht rein in ›Erscheinung‹ ; der abgeleitete Begriff genotypischer Unterschied wird uns aber vielfach vom Nutzen sein.« (zit. nach Wanscher 1975). Der Übersichtsartikel von Wanscher zeichnet die Entwicklung nach, die Johannsen der Bedeutung des Begriffs »Genotyp« beimisst, die in sich sehr spannend ist.

8

416 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

ten des Zusammenbaus (analog den 2n oder 10n Zahlen, die man in den beiden genannten Zahlensystemen mit n Ziffern codieren kann). Um zu verstehen, wie eine Nukleinsäure in der Lage ist, als Molekül Speicher für Informationen zu sein, müssen wir uns zunächst den Aufbau genauer ansehen (Abb. 3). Dabei gibt es zwei Sorten von Nukleinsäuren: DNA (Desoxyribonukleinsäure) und RNA (Ribonukleinsäure), die sich im Aufbau nur unwesentlich, in der Funktion jedoch sehr stark unterscheiden (vide infra). Jeder Strang einer DNA besteht aus einem Rückgrat, das für alle vier Bausteine gleich ist, und Zuckereinheiten mit je einer von vier Nukleobasen. Das Rückgrat wird gebildet aus einer stets gleichen, alternierenden Abfolge von Desoxyribose-Einheiten (hellgrau in Abb. 3) und Phosphorsäurediestern (dunkelgrau in Abb. 3). Die sauren Eigenschaften der Letzteren waren namensgebend für den zweiten Teil des Wortes »Nukleinsäure«. Die variablen, informationstragenden Nukleobasen sind mit der Desoxyribose kovalent verknüpft und können mit den vier Buchstaben A (Adenin), G (Guanin), C (Cytosin) und T (Thymin) abgekürzt werden (man beachte die konsistente Farbgebung in Abb. 3). Die vier Nukleobasen unterteilen sich in zwei Gruppen, wie man in Abb. 3 sehen kann. A und G bestehen aus zwei verknüpften Ringen – einem sogenannten Purinsystem – und C und T aus nur einem Ringsystem – einem sogenannten Pyrimidinsystem. Das Kernstück zum Verständnis des informationstragenden Prinzips der Nukleinsäuren ergibt sich aus dem Verständnis der Wechselwirkungen zweier Nukleobasen (farbige Elemente in Abb. 3). Es gibt zwei Kräfte, die hier zu beachten sind: die hydrophoben Wechselwirkungen und sogenannte Wasserstoffbrücken. Hydrophobe Elemente in einem Molekül wechselwirken am liebsten mit weiteren hydrophoben Elementen und am wenigsten gern mit Wasser (daher der Name). So ist es verständlich, dass die Nukleobasen in Wasser am liebsten eine Form einnehmen, die sie vom umgebenden Wasser abschirmt, und damit eine Tendenz zur Aggregation untereinander haben. Die hydrophoben Wechselwirkungen sorgen dafür, dass man die flachen Nukleobasen – ähnlich wie Kisten – übereinander stapeln kann. Dies wird gleich wichtig sein für das Verständnis der Struktur der Nukleinsäuren, aber diese Interaktion ist unspezifisch und bei allen Nukleobasen im Wesentlichen gleich – ähnlich wie man Kisten unterschiedlichen Inhalts übereinander stapeln kann. Erst, wenn man die Wechselwirkungen über die Wasserstoffbrücken mit einbezieht, erschließt sich das informationstragende Prinzip 417 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

in seiner vollen Eleganz. Dabei darf man hier Wasserstoffbrücken gerne verstehen als ein System aus Stecker und Buchse. Ähnlich wie ein mehrpoliger Stecker spezifisch wird für seine passende Buchse aus der Verteilung und Anordnung der Stifte des Steckers und den passend angeordneten Vertiefungen der Buchse, können je zwei der vier Nukleobasen auch auf verschiedene Arten und Weisen »zusammengesteckt« werden. Einfache theoretische Betrachtungen, die jedoch experimentell belegt werden können, zeigen, dass sich je zwei der vier Nukleobasen geleitet durch das Wechselwirkungsprinzip der Wasserstoffbrücken auf 28 Weisen von selbst (!) finden können. Nun sind diese Aggregate ähnlich wie auch die bekannten Stecker und Buchsen nicht gleich fest. Genau eines dieser Paare enthält die höchstmögliche Anzahl von drei Wasserstoffbrücken – das Paar aus G=C (Wasserstoffbrücken sind in dieser Schreibweise durch Striche angedeutet) – während alle anderen weniger aufweisen. Dieses Paar ist damit besonders stabil. Wenn man nun alle anderen 27 möglichen Paare mit diesem vergleicht, dann gibt es darunter genau nur ein weiteres – das Paar aus A=T mit zwei Wasserstoffbrücken – das von außen dieselbe Form (!) aufweist (Abb. 3c). Ein jedes dieser beiden sogenannten »Watson-Crick-Basenpaare« – benannt nach den beiden Nobelpreisträgern, die die Struktur der DNA aufgeklärt haben – besteht dabei aus einer kürzeren Pyrimidin-Nukleobase und einer längeren PurinNukleobase, die in der Kombination dieselbe Länge, Breite und Höhe haben. Zusammen mit der zuvor beschriebenen vertikalen »Stapelbarkeit« dieser flachen Basenpaarscheiben erschließt sich das Bauprinzip, das zugleich der Schlüssel zum Verständnis der Informationsverarbeitung ist: Jede Nukleobase in einem NukleinsäureStrang hat seine passende, »komplementäre« Nukleobase und bildet ein Basenpaar. Aufgrund des Formprinzips können diese wiederum über ihre eigenen Desoxyribose- und Phosphorsäure-Einheiten zu einem Gegenstrang verknüpft werden (Abb. 3b) und das ganze Konstrukt wird über die Wasserstoffbrücken in den flachen Basenpaarscheiben und – senkrecht dazu – über die hydrophoben Wechselwirkungen zusammengehalten. Ein jedes Rückgrat der beiden Stränge ist dabei durch seine Phosphorsäurediester-Gruppen mit einer negativen Ladung hydrophil und damit ideal für die Wechselwirkung mit dem umgebenden Wasser geeignet, während die erwähnten hydrophoben Basenpaare in dieser Struktur – ihrer Natur entsprechend miteinander wechselwirkend – innen und damit vom Wasser abgeschirmt zu liegen kommen. Das Bild einer Leiter bietet sich an (Abb. 3d), in dem 418 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 3. a) Der Monomerbaustein Guanosin (R=OH) ist einer der vier Grundbausteine von RNA die Variante Desoxyguanosin (R=H) A, kommt in natürlicher DNA vor. b) Ein DNA-Strang besteht aus einer Abfolge von stets gleichen Desoxyribose- (hellgrau) und Phosphorsäurediestern-Einheiten (dunkelgrau) und hat eine Richtung (Pfeil). Jede Desoxyribose-Einheit kann eine variable, informationstragende Nukleobase tragen, die entweder A (Adenin, rot), G (Guanin, gelb), T (Thymin, grün) oder C (Cytosin, blau) sein kann. c) Über Wasserstoffbrücken (gestrichelt) können Nukleobasen von selbst miteinander wechselwirken. Die Paarung aus A=T und G=C zeichnet sich dadurch aus, dass sie dieselbe Form haben (siehe jeweils die Formel- und die Oberflächen-Darstellung). d) Aus diesen Basenpaaren entsteht durch Übereinanderstapeln eine DNA-Doppelhelix – ähnlich einer Leiter, jedoch helikal verdreht.

den innenliegenden, hydrophoben Basenpaaren die Rolle der Sprossen zukommt und in dem die beiden »hydrophilen Holme« durch das Desoxyribosephosphodiester-Rückgrat gebildet werden – und auch bei einer Leiter müssen alle Sprossen gleich breit sein. Nur bei DNA bestehen die Sprossen aus einem A=T, T=A, G=C oder C=G-Basenpaar und können somit Information tragen. Der Vollständigkeit halber sei erwähnt, dass ein solcher DNA-Doppelstrang im Gegensatz zu einer Leiter entlang der Achse spiralig (helikal) verdreht ist (Abb. 3d). Dies ist die oft erwähnte DNA-Doppelhelix. Es sei auch erwähnt, dass die Richtung von Strang und Gegenstrang in dieser Helix entgegengesetzt ist (antiparallel). Sehr viele andere Anordnungen sind ebenfalls denkbar, jedoch hat nur die eine gerade beschriebene eine derartige Regelmäßigkeit und bietet sich daher ideal an als Basis für ein 419 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 4. Abbildung 4 zeigt eine Polypeptidkette aus den sechs L-Aminosäuren Alanin (Ala, A), Leucin (Leu, L), Serin (Ser, S), Tryptophan (Trp, W), Isoleucin (Ile, I) und Glutamin (Gln, Q). Auf der linken Seite ist das N-terminale Ende mit einer Aminogruppe (NH2-Gruppe, rot), auf der rechten Seite ist das C-terminale Ende mit einer Carbonsäuregruppe (COOH-Gruppe, blau). Ein Strich repräsentiert eine chemische Bindung (eine Einfachbindung), zwei parallele Striche eine Doppelbindung. Um Einfachbindungen können die sie verbindenden Molekülteile rotieren. Keile und gestrichelte Linien geben die Chiralität am tetraedrischen Kohlenstoffatom an.

informationstragendes und -verarbeitendes System. RNA-Doppelhelices sind den DNA-Doppelhelices sehr ähnlich, insbesondere sind die Aufbauprinzipien identisch. Die monomeren Bausteine der DNAund RNA-Nukleinsäuren sind chiral, ebenso die DNA- und RNAHelices.

4.

Der atomare Aufbau von Proteinen als Funktionsbiomakromolekül

Wie die Nukleinsäuren sind auch Proteine Polymere. Ein Protein (Abb. 4) ist aus vielen Aminosäuren als monomeren Bausteinen aufgebaut. Die Anzahl n an Aminosäuren, die man in Proteinen in Zellen findet, ist sehr unterschiedlich; ein Protein kann typischerweise aus 50–400, aber auch aus noch mehr Aminosäuren bestehen. Aminosäuren sind Moleküle, die aus den Atomen C Kohlenstoff, H Wasserstoff, O Sauerstoff, N Stickstoff, S Schwefel aufgebaut sind. Einfache Aminosäuren konnten als präbiotische Moleküle nachgewiesen werden (s. Abschnitt 2). Der allgemeine chemische Aufbau einer Aminosäure ist in Abbildung 5 dargestellt. Aminosäuren sind α-Aminocarbonsäuren, d. h. 420 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 5. (Links): Die α-Aminosäure L-Alanin. Sie besteht von links nach rechts aus einer Aminogruppe (NH2), einem Cα-Atom, das eine der zwanzig verschiedenen Seitenketten trägt – in der Aminosäure Alanin eine Methylgruppe (CH3) – sowie der Carboxylgruppe (COOH). (Rechts): Ein Alanindipeptid, das aus zwei Alaninmonomeren besteht (L-Ala-L-Ala-OH). Die beiden monomeren Bausteine sind durch eine Peptidbindung (grau hinterlegt) miteinander verknüpft. Diese Peptidbindung entsteht, indem die Carboxylgruppe der N-terminalen Aminosäure mit der Aminogruppe der C-terminalen Aminosäure unter Abgabe von Wasser (H2O) reagieren.

die NH2-Aminogruppe ist am Cα-Atom der Aminosäure kovalent gebunden. Die vier Substituenten am Cα-Atom sind wie die Ecken eines Tetraeders angeordnet. Die tetraedrische Anordnung der vier Substituenten erzwingt es, dass sie auf zwei unterschiedliche Weisen angeordnet sein können, die beiden Anordnungen verhalten sich wie Bild und Spiegelbild. Ein solches Molekül mit vier verschiedenen Substituenten an einem C-Atom nennt man chiral. Mit Ausnahme von Glycin, das nur drei unterschiedliche Substituenten (N, C und zweimal H) besitzt, sind Aminosäuren chiral. Das Kohlenstoffatom, das durch eine Doppelbindung mit einem Sauerstoffatom (O) verknüpft ist, wird Carbonylkohlenstoffatom genannt und mit C' abgekürzt. In der Natur kommt in Proteinen, die am Ribosom hergestellt werden, nur eine der beiden möglichen chiralen Formen vor, die LAminosäuren. Es gibt im Wesentlichen 20 verschiedene proteinogene 9 Aminosäuren. Es gibt eine sehr große Zahl an möglichen Peptidsequenzen, genau: für ein Peptid aus n Aminosäuren 20n verschiedene Sequenzen (Tabelle 1).

Proteinogene Aminosäuren werden in der Zelle am Ribosom zu Proteinen kondensiert.

9

421 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer Name

Anzahl an Aminosäuren n 20n Anzahl der möglichen Sequenzen

Dipeptid

2

400

Tripeptid

3

8.000

Tetrapeptid

4

160.000

Pentapeptid

5

3.200.000

Tabelle 1. Die Zahl der möglichen Sequenzen ist sehr groß im Vergleich zur Zahl der in der Natur gefundenen Proteine. 10

Ein Protein hat einen N- und einen C-Terminus. Die Atome N, Cα, C' bilden das Rückgrat des Proteins. In immer gleicher Reihenfolge ist das Rückgrat von Proteinen durch kovalente 11 Bindung zwischen den Atomen: …-C'i-1-(Ni-Cαi-C'i)n-Ni+1-… verknüpft. Die Bindung zwischen zwei Aminosäuren wird Peptidbindung genannt. Wie die Nukleinsäuren ist ein Protein dementsprechend ein lineares polares Polymer. Die einzelnen Atome eines Proteins werden der jeweiligen Aminosäure zugeordnet: die Atome Ni-Cαi-C'i zur i-ten Aminosäure. Der Aufbau der Proteine aus Aminosäuren weist eine Richtung auf, nämlich per Definition vom N-terminalen zum C-terminalen Atom (in Abb. 4 in Farbe gekennzeichnet). Eine willkürliche ausgewählte Aminosäure i hat eine i-1 Nachbaraminosäure auf der N-terminalen Seite und eine i+1 Nachbaraminosäure auf der C-terminalen Seite. Die Aminosäuren bilden die monomeren Bausteine 12 des Proteins. Sie Die Sequenzierung des humanen Genoms zeigt, dass es ~25.000–30.000 verschiedene Gene gibt. Diese Gene können unterschiedlich prozessiert werden im Prozess des alternativen Spleißens, so dass die Zahl der verschiedenen Proteine vielleicht eine Größenordnung größer ist als die Zahl der Gene. Die einfache Berechnung der Zahl der möglichen Proteinsequenzen im Vergleich zur Zahl der in lebenden Zellen gefundenen Proteine zeigt aber, dass während der Evolution nur eine sehr kleine Zahl aller möglichen Proteine selektiert wurde. 11 Eine kovalente Bindung besteht zwischen zwei Atomen. Bei der Synthese von Proteinen werden die einzelnen Aminosäuren, die monomeren Bausteine, durch die Bildung einer neuen kovalenten Bindung verknüpft. In der Zelle geschieht diese Synthese am Ribosom (siehe Abbildung 1). Der Prozess der Proteinfaltung passiert zum Teil schon während der Synthese des Proteins, aber auch unabhängig davon (siehe Abschnitt 7). Im Regelfall bleiben die kovalenten Bindungen unverändert erhalten, die Ausnahme ist die oxidative Rückfaltung, in der zwei Cysteinreste eine Disulfidbrücke ausbilden. 12 Im Sinn der Betrachtung der Proteinfaltung als ein komplexes System ist eine 10

422 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 6. a) Das Alanintripeptid besitzt im Rückgrat zwei drehbare Einfachbindungen, deren Torsionswinkel mit ϕ (zwischen dem N-Atom und dem CαAtom) und ψ (zwischen dem Cα-Atom und dem C'-Atom) bezeichnet werden. Die dritte Bindung, die Peptidbindung, zwischen den Atomen C'i und Ni+1, ist aufgrund partiellen Doppelbindungscharakters nicht drehbar. Der Winkel ω nimmt den Wert 180°, in Ausnahmefällen 0° an. Die Atome Cα,i, C'i, Ni+1, Cα,i +1 liegen in einer Ebene (grau dargestellt), die Bindung ist (nahezu) planar. Die Konformation eines Peptids, das heißt die Position der Atome im Raum, wird dadurch definiert, dass die Orientierung jeweils planarer Einheiten (grau) der beiden Aminosäure über die beiden frei drehbaren Winkel ϕ und ψ bestimmt wird. Dabei können sich, je nach Wert der Winkel ϕ und ψ, α-Helices oder βFaltblätter bilden. b) Die Verteilungen der Winkel ϕ und ψ im »grün fluoreszierenden Protein« (PDB Code 1GFL).

unterscheiden sich anhand des Substituenten R, der an das Cα-Atom der jeweiligen Aminosäure gebunden ist. Das Proteinrückgrat besteht aus den Atomen N, Cα, C=O (kurz C').

Aminosäure ein monomerer Baustein oder auch ein Element. Das Element Aminosäure wird aus 5–15 Atomen aufgebaut. Ein monomerer Baustein ist vergleichbar mit einem Legostein, der ebenfalls aus unterschiedlich vielen kleineren Subeinheiten besteht, aber als gesamter Legostein zum Aufbau größerer Strukturen eingesetzt wird. Aminosäuren können wie eine Kette von Legosteinen angeordnet werden. Ein anderes Bild, das für das Verständnis der Proteinfaltung nützlich ist, ist das der Perlen auf einer Kette. Dann entsprechen die Aminosäuren den Perlen, und die kovalenten Bindungen sind die Kettenglieder, die die Perlen miteinander verknüpfen.

423 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 7. Eigenschaften von Aminosäuren, die von den verschiedenen Substituenten R in den Seitenketten der Aminosäuren herrühren.

424 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Im Wesentlichen gibt es 20 verschiedene Aminosäuren, die mit einem Buchstaben (I, L, V, A etc) oder mit drei Buchstaben (Ile, Leu, Val, Ala etc) gekennzeichnet werden. Aufgrund ihrer Substituenten R (oder auch Resten R) besitzen die Aminosäuren unterschiedliche Eigenschaften (Abb. 7). (Die Atome der) Aminosäuren wechselwirken miteinander. Aufgrund ihrer in Abbildung 7 angedeuteten unterschiedlichen Eigenschaften können Aminosäuren unterschiedlich miteinander wechselwirken. Sehr vereinfacht können dabei zwei wesentliche Wechselwirkungen unterschieden werden: hydrophile oder polare (P) Wechselwirkungen, insbesondere zwischen geladenen Aminosäureresten, und hydrophobe (H) Wechselwirkungen zwischen ungeladenen, (schlecht) wasserlöslichen Aminosäureresten. Aufgrund der Wechselwirkung zwischen einzelnen Atomen und Atomgruppierungen der Aminosäuren in Proteinen nehmen diese unterschiedliche Konformationen (»Strukturen«) im dreidimensionalen Raum ein (Abb. 8). Die systematische Strukturanalyse von Proteinen wurde von Linus Pauling (Nobelpreis für Chemie 1954) etabliert (Pauling/Corey/Branson 1951) 13. Die von Pauling etablierte Methode zur Vorhersage der Struktur von Proteinen beruht auf dem Bau von mechanischen Kugel-Stab-Modellen, in denen Atome kleine Kugeln und Bindungen Stäbchen sind. Im wahrsten Sinne des Wortes kann man mit diesen Stabmodellen spielen. Jedes Atom und jede einzelne Bindung werden maßstabsgerecht um einen Faktor ~ 1010 vergrößert. Ein Kohlenstoffatom ist vierwertig, kann also vier Bindungen eingehen. Geht dieses Kohlenstoffatom vier Einfachbindungen ein, so ist der Bindungswinkel gleich dem Tetraederwinkel von 109°. Beim Vorliegen einer Doppelbindung erhöht sich der Bindungswinkel auf 120°. Die Bindungen eines vierwertigen Kohlenstoffs spannen eine dreidimensionale Anordnung von vier Substituenten auf, solche Tetraeder sind prinzipiell bei vier verschiedenen Substituenten chiral. Die Bindungen eines dreiwertigen Kohlenstoffs spannen eine Ebene auf. Ausgehend von diesen fixen atomaren Eigenschaften können solche Konformationen spielerisch ineinander überführt werden, die durch Rotation um die frei drehbaren Torsionswinkel sich einstellen können, solange, bis »Konfigurationen« (um Paulings Semantik zu folgen) gefunden werden, die z. B. durch langreichweitige Wasserstoffbrücken zwischen verschiedenen Aminosäuren zusätzlich stabilisiert werden. Dieser rein deduktive chemische Ansatz zur Vorhersage stabiler Sekundärstrukturelemente wurde später durch Röntgenstrukturanalyse umfänglich bestätigt. Mit dem exakt gleichen methodischen Ansatz haben Watson und Crick die Struktur der DNA-Doppelhelix deduktiv abgeleitet; auch ihre finale Vorhersage war korrekt. In diesem zweiten Fall waren die Implikationen der DNA-Doppelhelix-Struktur viel weitreichender als die Implikationen von Pauling, worauf Watson und Crick im letzten Satz ihrer Veröffentlichung hinweisen: »It has not escaped our notice that the specific pairing we have postulated immediately suggests a possible copying mecha13

425 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 8. a) Die Hierarchien der Proteinstruktur unterteilen sich in die Abfolge der Aminosäuren (Sequenz oder auch Primärstruktur), verschiedene Sekundärstrukturen (α-Helix und β-Faltblatt), die Anordnung der Sekundärstrukturen zueinander beschreibt man als Tertiärstruktur. Schließlich können zwei Proteine miteinander wechselwirken, einen Protein-Protein-Komplex bilden, dessen Struktur als Quartärstruktur bezeichnet wird. b) Modellvorstellungen, wie sich die Tertiärstruktur eines Proteins ausbilden kann. Der Startpunkt der Strukturausbildung von Proteinen (der so genannten Proteinfaltung) ist der entfaltete Zustand (engl. »unfolded state«), der über verschiedene Zwischenstufen (engl. »secondary structure«, »intermediate compact state«) den gefalteten Zustand (engl. »native state«) annehmen kann. Abbildung verändert nach Dill/Bromberg/Yue et al. 1995.

Das Protein Lysozym als Beispiel eines Enzyms: seine Struktur und seine Funktion Bei Säugetieren und damit auch beim Menschen kommt das Protein Lysozym z. B. in der Tränenflüssigkeit oder im Speichel vor. Der Nanism for the genetic material« (Watson/Crick 1953). Unabhängig von den Arbeiten von Watson und Crick wurden Beugungsexperimente an DNA-Fasern von Rosalind Franklin und von Maurice Wilkins durchgeführt. Watson und Crick hatten partielle Kenntnis der unveröffentlichten experimentellen Ergebnisse, die insbesondere Gewissheit über Helikalität, Antiparallelität der beiden DNA-Stränge und Basen-Basen-Abstand brachten.

426 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 9. (Links oben): Überlagerungen der verschiedenen Konformationen des Proteins Lysozym, die mittels NMR-Spektroskopie bestimmt wurden (Schwalbe/Grimshaw/Spencer et al. 2001). Das Protein besteht aus α-Helix und β-Faltblatt-Sekundärstrukturelementen. (Rechts oben): Die einzelnen Sekundärstrukturelemente werden durch nicht-kovalente Bindungen untereinander stabilisiert, z. B. Wasserstoffbrücken. (Unten): Die nicht-kovalenten Bindungen kommen durch polare Wechselwirkungen zwischen unterschiedlich partiell geladenen Atomgruppierungen zustande. Sie stabilisieren die Wechselwirkungen zweier Reste, die in der Primärstruktur nicht notwendigerweise benachbart sein müssen, sondern durchaus in der Aminosäure-Sequenz weit voneinander entfernt sein können. Diese nicht-lokalen Wechselwirkungen bringen zwei Aminosäuren in räumliche Nähe. Diese nichtlokalen Kontakte zwischen den Atomen bestimmen die dreidimensionalen Konformationen, in der Modellierung der Proteinfaltung spielen sie eine wesentliche Rolle. Die Abbildung wurde von Dr. Wirmer-Bartoschek erstellt.

me Lysozym wurde von Alexander Fleming geprägt, der die antibakterielle Wirkung von Speichel dem Protein Lysozym zuwies. Sie beruht darauf, dass das Enzym die β-1,4-glycosidischen Bindungen zwischen N-Acetylmuraminsäure-(NAM) und N-Acetylglucosaminresten, also im weiteren Sinn Zuckerderivaten, hydrolysieren kann, 427 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

die in Bakterien vorkommen. Die dreidimensionale Struktur von Lysozym war die erste mittels Röntgenstrukturanalyse gelöste Struktur eines Enzyms, sie wurde von David Phillips bestimmt (Blake/Koenig/ Mair et al. 1965). Lysozym besteht aus 129 Aminosäuren und damit aus ungefähr 1500 Atomen. Die Konformation des Proteins wird durch 129*2 frei drehbare Torsionswinkel im Proteinrückgrat bestimmt und zusätzlich durch ~3*129 frei drehbare Torsionswinkel (χ1, χ2) in den Proteinseitenketten. Das Protein ist globulär, d. h. kugelförmig mit einem Radius von 2–3 Nanometern. Seine Oberfläche ist durch eine Hydrathülle von ca. Zehntausenden Wassermolekülen umgeben. Bei Raumtemperatur führen die thermischen Bewegungen der Wassermoleküle, aber auch Vibrationen der Atome dazu, dass die Atompositionen ständig fluktuieren. Diese Fluktuation ist durch das Bündel von Strukturen in Abb. 9 repräsentiert. Die thermische Energie ist aber nicht groß genug, um die dreidimensionale Konformation des Proteins zu zerstören. Im gefalteten Zustand des Proteins oszillieren die Atome in einem kleinen Kegel um ihre Gleichgewichtslage.

5.

Die RNA-Welt sowie die Entzifferung und der Ursprung des genetischen Codes

In heutigen Organismen sind Nukleinsäuren, insbesondere DNA, Träger der genetischen Information. Eine Ausnahme sind manche Viren, in denen RNA Träger genetischer Information sind. Durch die in Abschnitt 3 beschriebene Komplementarität von DNA-Bausteinen in antiparallel angeordneten DNA-Strängen und aufgrund der chemischen Stabilität von DNA (noch heute kann die DNASequenz von Neandertalern bestimmt werden) besitzt DNA als langfristiger Informationsspeicher den entscheidenden Selektionsvorteil z. B. im Vergleich zur RNA. Im Hinblick auf die vielfältigen Anforderungen an Biomakromoleküle in lebenden Organismen sind DNAMoleküle allerdings in ihrer Funktion limitiert. Nicht zuletzt ist die strukturelle Rigidität von DNA einer der Gründe, weshalb bis heute nur sehr wenige DNA-Moleküle mit enzymatischer Funktion bekannt sind. DNA-Moleküle bilden im Wesentlichen zweidimensionale Strukturen (Abb. 3). Aus der Analyse der Funktionalität in kontemporären Organismen, die ja zeit-invariant ist, erscheint es nahezu unmöglich, dass DNA-Moleküle evolviert sind oder bei der Ent428 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

stehung des Lebens involviert waren, die ihre eigene Replikation hätten befördern, katalysieren können. Mit anderen Worten: Wie eine Eltern-DNA als Templat wirken und in exakter Weise kopiert werden kann, wie dies Haldane postulierte (Haldane 1937), wird durch die Struktur der DNA-Doppelhelix (Abb. 3) von Watson und Crick geklärt. Für die exakte Synthese des Tochterstrangs, also die Verknüpfung der komplementären monomeren DNA-Bausteine, muss der Einbau der monomeren Bausteine katalysiert werden. Eine solche katalytische Funktion konnte bisher für DNA nicht nachgewiesen werden. Dieser fehlende Nachweis einer mit DNA-Molekülen verknüpfbaren Funktion lässt eine Evolution, hätte es nur DNA-Moleküle gegeben, sehr unwahrscheinlich werden. Damit ergibt sich ein »Henne-und-Ei«-Problem: Wie entstehen die funktionalen phänotypischen Moleküle, die die Replikation der genotypischen Moleküle katalysieren, wenn es am Übergang vom Unbelebtem zum Lebenden gerade diese phänotypischen Moleküle nicht gab? In allen heutigen Organismen übernehmen Proteine diese katalytischen Funktionen. Sie sind aufgrund der Vielfalt ihrer 20 Aminosäuren in der Lage, dreidimensionale, verklüftete Strukturen auszubilden, wie sie am Beispielprotein Lysozym in Abb. 9 gezeigt werden. Das molekularbiologische »Henne-und-Ei«-Problem lautet also: Was war zuerst: DNA oder Proteine? Einen möglichen und mittlerweile als sehr wahrscheinlich akzeptierten experimentellen Hinweis zur Beantwortung (»weder noch«) dieser Frage liefern die Arbeiten von Tom Cech und Sydney Altman, die 1989 mit dem Nobelpreis ausgezeichnet wurden (Cech 1989; Altman 1989). Die beiden konnten für zwei unabhängige Systeme erstmalig nachweisen, dass RNA-Moleküle anders als DNA-Moleküle sowohl genotypische als auch phänotypische Eigenschaften aufweisen. RNA-Moleküle können enzymatische Funktionen übernehmen. Solche RNAs werden Ribozyme (aus den Bestandteilen der Worte ribonucleic acids und enzyme) genannt. Die Notwendigkeit, dass es bei der Entstehung des Lebens Moleküle mit autokatalytischen Eigenschaften geben musste, begründet T. Cech in seinem Nobelpreisvortrag wie folgt: »A living cell requires thousands of different chemical reactions to utilize energy, move, grow, respond to external stimuli and reproduce itself. While these reactions take place spontaneously, they rarely proceed at a rate fast enough for life. Enzymes, biological catalysts found in all cells, greatly accelerate the rates of these chemical reactions and impart on them extraordinary specifi429 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 10. Die autokatalytische synthetische Verlängerung eines RNAStrangs. a) Zwei RNA-Stränge lagern sich antiparallel aneinander. Die Wahl dieser beiden Stränge ist nicht willkürlich. Man findet, dass ab einer Länge von vier Basenpaaren (hier A-U, G-C, C-G, U-A) der kurze doppelsträngige Bereich in der Lage ist, eine definierte und bei Raumtemperatur stabile doppelhelikale Struktur anzunehmen (siehe b). Es gibt insgesamt 44=256 verschiedene RNA-Sequenzen aus vier RNA-Bausteinen. Den kürzeren Strang nennt man einen RNA-Primer-Strang. Die Länge des längeren Strangs, der RNA-Templat-Strang genannt wird, ist willkürlich. Für den hier gewählten Strang aus 8 RNA-Bausteinen ergeben sich 48=65384 mögliche Sequenzen. Die zufällige zeitgleiche Synthese dieser beiden partiell komplementären Stränge erfordert noch nicht, eine astronomisch große Zahl von RNAs herzustellen. Die exakte Sequenz (5'-AGCU-3') der komplementären Bereiche ist dabei nicht von Belang, sondern nur ihre Komplementarität. b) Durch spontane Selbstorganisation dieser beiden Stränge entsteht eine kurze RNA-Doppelhelix. Sie ermöglicht die autokatalytische Vervielfältigung eines komplementären RNA-Stranges. Dafür gibt es einen chemischen Grund: Der Einbau des fünften RNA-Bausteins (im Beispiel rUTP) in den kürzeren Strang wird durch die helikale Struktur des Doppelstrangs sterisch begünstigt (der chemische Reaktionsmechanismus spricht genauer von stereoelektronischen Gründen). Diese sterische Begünstigung ist die chemische Ursache für die Autokatalyse. Ein zunächst zufällig entstehender kurzer RNA-Primer-Strang und ein etwas längerer RNA-Templat-Strang dienen als Matrize für autokatalytische Selbstreplikation.

city« (Cech 1989). Der Nachweis, dass RNA-Moleküle, die entweder in Organismen gefunden werden oder durch sogenannte In-vitro-Selektionsexperimente (Ellington/Szostak 1990; Robertson/Joyce 1990) im Labor entwickelt werden können, sowohl die Synthese von monomeren RNA-Bausteinen (Unrau/Bartel 1998), ihre eigene Replikation (Kiedrowski 1986; Wu/Orgel 1992a, b; Kurz/Göbel/Hartel et al. 1997; Ekland/Bartel 1996) (s. Abb. 4) als auch die Ligation zweier RNA-Stränge katalysieren können, als zeit-invariante Funktion, erhärtet experimentell die viel früher geäußerte Hypothese von Woese 430 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 11. a) RNA- und b) DNA-Triphosphate. DNA-Strukturen: c) DNA-Doppelhelix (B-Form), d) G-Quadruplex, e) i-motif; RNA-Strukturen: f) RNA-Doppelhelix (A-Form), g) tRNA, h) Purin-bindender Riboswitch (3RKF).

(1967), Crick (1968) und Orgel (1968) einer RNA-Welt (Joyce 1989), die einer Welt, in der Leben auf der Wirkung von DNAs, RNAs und Proteinen beruht, vorangegangen sein muss. Die funktionale Vielfältigkeit von RNA hängt damit zusammen, dass RNAs ähnlich wie Proteine und im Gegensatz zu DNA beeindruckende dreidimensionale Strukturen annehmen können, die eine große Vielzahl unterschiedlicher Reaktionen katalysieren können. 14 Diese katalytischen Möglichkeiten von RNA-Molekülen mit nur vier unterschiedlichen Nukleobasen sind zwar im Vergleich zur funktionalen Vielfalt von Proteinen begrenzt, aber Relikte der RNA-basierten Katalyse finden sich ubiquitär in heute lebenden Zellen. Insbesondere wird zum Beispiel der essentielle Schritt der Peptidbindungsbildung im Ribosom durch RNA-Moleküle katalysiert. Es wird deshalb mittlerweile als extrem wahrscheinlich angesehen, dass eine »RNA-only-Welt« der Koexistenz eines Systems aus RNA, DNA und Proteinen vorausgegangen ist. In diesem Kontext sei nochmals wiederholt, dass eine »DNA-only-Welt« wegen der fehlenden autokatalytischen Eigenschaften von DNA und dass eine »Protein-only-Welt« aufgrund eines fehlenden Mechanismus der Selbstreplikation ausgeschlossen werden können. Die für die fehlerfreie Selbstreplikation notwendige Selbstkomplementarität der Nukleobasen findet man nicht in den zwanzig kontemporären Aminosäuren und selbst dann nicht, hätte es zu Beginn Interessanterweise ist eine DNA-Doppelhelix, die eine andere Form einnimmt als eine RNA-Doppelhelix, aus zweimal vier DNA-Bausteinen gerade nicht in der Lage, die Anlagerung eines weiteren dNTPs zu katalysieren.

14

431 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

weniger als zwanzig Aminosäuren gegeben. Die exakte Komplementarität der Nukleobasen in den Nukleinsäuren findet keine Entsprechung innerhalb der Aminosäuren. In heutigen Organismen findet man Proteine, DNAs und RNAs. Neben den zur Replikation befähigten RNAs in einer »RNA-onlyWelt« müssen im Verlauf der Evolution DNAs und Proteine dazugekommen sein. Die wahrscheinliche Evolution wäre dann von einer »RNA-only-Welt« über eine »RNA-Protein-Welt« zu einer »DNARNA-Protein-Welt« verlaufen. Es bedarf dann der im zentralen Dogma der Molekularbiologie festgehaltenen Syntheseschritte, nämlich dessen der exakten Vervielfältigung der DNA während der Replikation und dessen der Umsetzung der DNA-Sequenzinformation in Proteinsequenzinformation während der Translation. Diese repetitiven Syntheseschritte werden abgeschlossen durch Faltungsprozesse von Proteinen, über deren prinzipielle Aspekte im Kontext von Komplexität und Emergenz in den Abschnitten 7 und 8 berichtet wird. In heutigen Organismen ist der Prozess der Weitergabe von zellulärer Information kein direkter Prozess von genotypischen DNAs zu phänotypischen Proteinen, sondern es wird zunächst eine Kopie des DNA-Strangs, eine komplementäre RNA, im Prozess der Transkription hergestellt. Diese Umschreibung (engl. »transcription«) von DNA auf RNA ist aus chemischer Sicht viel einfacher als die Übertragung (engl. »translation«) von Nukleinsäuren zu Proteinen, weil sich DNA und RNA sehr ähnlich sind. Drei ihrer vier Nukleobasen sind identisch und die vierte, Uracil bzw. Thymin, unterscheidet sich nur durch eine Methylgruppe (CH3) am Thymin, an deren Stelle im Uracil sich ein Wasserstoffatom (H) befindet. RNA und DNA unterscheiden sich weiterhin durch den Ersatz einer OH-Gruppe (der 2'-OH-Gruppe) im Zuckerteil der RNA durch ein Wasserstoffatom in der DNA (Abb. 3). In Zellen ist RNA viermal so häufig wie DNA. Das Enzym Ribonukleotidreduktase (RNR) bewerkstelligt die Reduktion der RNA-OH-Gruppe zum DNA-H-Atom (Huang/Parker/ Stubbe 2014). Damit ist die Evolution einer primitiven Form des Enzyms RNR beim Übergang der »RNA-Protein-Welt« zur »DNARNA-Protein-Welt« notwendig, um aus monomeren RNA-Bausteinen monomere DNA-Bausteine herzustellen. Sind DNA-Bausteine vorhanden und zwar in einer chemisch aktivierten Form, dann sind eine DNA-RNA-, aber auch eine RNA-DNA-Umschreibung vollständig verständlich. Sie beruht auf der in Abschnitt 3 beschriebenen

432 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 12. (Links): Genetischer Code, wie er in Lehrbüchern abgebildet wird. (Rechts): Stabilitäts-adaptierter genetischer Code nach Grosjean und Westhof, wie im Text diskutiert (Grosjean/Westhof 2016).

Komplementarität der Nukleobasen G und C sowie A und T für DNA bzw. U für RNA. Dahingegen bedurfte die Translation der vier verschiedenen RNA-Bausteine in die 20 verschiedenen Aminosäuren der chemischen Evolution einer völlig neuen Übersetzungsvorschrift, der Evolution eines genetischen Codes. Es müssen auf irgendeine Weise RNA-Bausteine mit Aminosäuren in eindeutiger Weise verknüpft sein. Nirenberg und Khorana haben 1961–1962 den genetischen Code experimentell entschlüsselt, und Crick und Orgel haben 1968 die Diskussion der grundsätzlichen Voraussetzungen für die Evolution des genetischen Codes geführt. Am Ursprung des Lebens muss es einen Übergang zu einem System gegeben haben, das die verschiedenen Klassen von Biomakromolekülen beinhaltete. Dieser evolutive Übergang verbleibt bisher in weiten Teilen unverstanden, wie Orgel schon 1968 konstatiert: »We have seen that ›organisms‹ without nucleic acids would lack the means of achieving genetic continuity, while organisms without proteins would be severely limited in their ability to use the chemicals in their environment. The difficulties associated with theories of the direct evolution of life as we now know it are of a quite different kind. While the practicability of organisms using both nucleic acids and protein is 433 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

not in doubt, we do not understand how they could have evolved. In particular, we do not understand the origin of the genetic code which provides the critical connection between the genetic and the functional apparatus of the cell.« (Orgel 1968). Auch mehr als 50 Jahre später ist das Rätsel nicht gelöst. Die fundamentalen Anforderungen an die Entwicklung eines selbstreplizierenden Systems aus RNA und Proteinen bestehen aus den folgenden Aspekten: 1. An die sich selbst replizierende RNA muss spezifisch eine Aminosäure gebunden sein; es muss sich ein RNA-Aminosäure-Hybridmolekül bilden. Diese Spezifität, dass an einer RNA aus gegebenenfalls mehreren RNA-Bausteinen immer spezifisch genau eine Aminosäure gebunden ist, stellt die Voraussetzung dafür dar, dass die genau weitergegebene RNA-Sequenzinformation in einen sukzessiven Einbau immer genau der gleichen Aminosäure in die wachsende Polypeptidkette umgesetzt wird. 2. Aus dem unter 1.) Gesagten ergeben sich zwei distinkt unterschiedliche funktionale Rollen für die beiden RNA-enthaltenden Moleküle. Das selbstreplizierende RNA-Molekül enthält die genetische Information (engl.: »message«), und die kontemporäre Form dieses Funktionsmoduls wird mRNA genannt. Das Hybridmolekül aus RNA und Aminosäure überträgt diese Information auf ein neu synthetisiertes Polypeptid (engl.: »transfer«) und wird tRNA genannt. 3. Für die Synthese eines Dipeptids müssen zwei RNA-Aminosäure-Hybridmoleküle, zwei tRNA-Moleküle, durch Selbstorganisation zusammenkommen. Dieses Zusammenkommen, diese Selbstorganisation zweier tRNA-Moleküle, wird durch einen Templateffekt der mRNA bewirkt (Abb. 13). Zwei lückenlos benachbarte Codons auf der mRNA geben den Bauplan für die Assemblierung zweier tRNAs, deren beide Anti-Codons komplementär, aber nicht-kovalent an die beiden mRNA-Codons binden. Der atomare Mechanismus dieser Selbstorganisation ist also die Basenkomplementarität. In den beiden beteiligten RNASpielern mRNA und tRNA werden in ihren wechselwirkenden, Selbstorganisation-bewirkenden Teilen die gleichen vier RNABausteine A,U,C,G gefunden. Die Wechselwirkung wird Codon (mRNA) – Anticodon (tRNA)-Wechselwirkung genannt. Ein UUU-Codon der mRNA paart mit einem AAA-Anticodon der tRNA. In der tRNA, die in ihrem RNA-Teil ein AAA-Anticodon 434 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

besitzt, ist die für eine weitere chemische Reaktion aktivierte Aminosäure Phenylalanin kovalent gebunden. 4. Eine mRNA aus sechs Nukleotiden kann als Selbstorganisationseinheit für zwei tRNAs fungieren. Die beiden Aminosäuren als Teile der beiden tRNAs werden so in räumliche Nähe gebracht. Allein dieser Nachbarschaftseffekt bewirkt (katalysiert) eine spezifische Bildung eines Moleküls aus zwei Aminosäuren und begünstigt deshalb die spezifische genaue Synthese eines Dipeptids aus zwei Aminosäuren. Ein solches Szenario ist erst kürzlich experimentell realisiert worden (Räuchle/Leveau/Richert 2020). Die Bindung zwischen dem RNA-Teil und dem Aminosäureteil der tRNA selbst ist chemisch labil und begünstigt damit die Bildung eines Dipeptids. 5. Dieses System muss aufgrund der funktionalen Eigenschaften der neu entstehenden, emergenten Polypeptide als Vorläufer der Proteine einen selektiven Vorteil besitzen. Dieser selektive Vorteil kann nur in den Eigenschaften des Proteins liegen, so dass die »RNA-Protein«-Welt die »RNA-only«-Welt ablöst. 6. Es bleibt unklar und auch faszinierend rätselhaft, ab welcher Länge kurze Polypeptide eine Funktion ausüben und so einen Selektionsvorteil besitzen. Die Entdeckung der Welt der »small proteins« vor kurzem ist in diesem Kontext interessant (z. B. Storz/Wolf/Ramamurthi 2014; Kubatova/Pyper/Jonker et al. 2020). 1968 haben Leslie Orgel und Francis Crick zwei Artikel »back-toback« und in gemeinsamer Absprache als Ergebnis einer wissenschaftlichen Tagung am 20. 12. 1966 in der British Biophysical Society in London veröffentlicht, in denen sie über den Ursprung des genetischen Codes bzw. des genetischen Apparats spekulieren. Die Nachzeichnung der Überlegungen von Crick seien nun diskutiert. Crick beschreibt zunächst den kontemporären genetischen Code, um aus Kenntnis dessen, was evolutiv selektiert wurde, Rückschlüsse auf die Notwendigkeiten während der Evolution zu ziehen. Es sei hier vermerkt, dass ein solches Vorgehen Gefahr läuft, einem ›survivorship bias‹ zu erliegen. Dieser Bias ist aber in a posteriori Forschung nicht zu umgehen. Das gedankliche spekulative Oszillieren zwischen den in lebenden Organismen vorgefundenen biochemischen Mechanismen und den Eigenschaften der beteiligten Biomakromoleküle und der Entstehung dieser Mechanismen während der Evolution ist extrem stimulierend und logisch erhellend. 435 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 13. Bildliche Darstellung der Codon-Anticodon-Wechselwirkung zwischen mRNA und tRNA (links). Diese Wechselwirkung ist die Voraussetzung der Proteinbiosynthese, die in den Ribosomen, einem biomakromolekularen Komplex aus mRNA, ribosomaler RNA (rRNA), tRNA und Proteinen stattfindet (Mitte). Finden sich die richtigen mRNA-tRNA-Paare in den so genannten P- und A-Sites des Ribosoms (P für Peptidyl und A für Aminoacyl), dann führt die räumliche Nähe der beiden tRNA zur Ausbildung einer neuen Peptidbindung. Damit wird die Polypeptidkette, die an die tRNA in der P-Site kovalent gebunden ist (symbolisiert durch graue Kugeln), auf die tRNA in der A-site übertragen. Nach Knüpfung der neuen Peptidbindung ist dann also die gesamte naszierende Polypeptidkette an der tRNA in der A-Site gebunden. Im nächsten Schritt der Translation, der Proteinbiosynthese, werden beide tRNAs in Richtung des 5'-Endes der mRNA transloziert und besetzen dann die E-Site (E für Exit) und die P-Site. Die unbeladene tRNA in der E-Site verlässt das Ribosom und die nächste tRNA kann an die in diesem Moment freie A-Site binden. Siehe auch Abbildung 18 für die Darstellung der Kinetik der einzelnen Schritte der Translation.

Der genetische Code (Abb. 12) ist ein nicht überlappender Triplett-Code. 61 der 64 Tripletts kodieren für je eine Aminosäure. Außer für die Aminosäuren Tryptophan (Trp) und Methionin (Met) gibt es mehr als ein kodierendes Triplett und ist also degeneriert. Der Code ist also degeneriert und besitzt folgende interessante Eigenschaften: 1. Die Korrelation zwischen Triplett und kodierender Aminosäure ist nicht zufällig, weder im Hinblick auf Identität der Aminosäure noch auf grundlegende physiko-chemische Eigenschaften wie Hydrophilie und Hydrophobie. 2. XYU- und XYC-Tripletts kodieren immer für die gleiche Aminosäure (X steht für einen ersten RNA-Baustein, Y für einen zweiten, aber anderen RNA-Baustein, U und C stehen für Uridin bzw. Cytosin). 3. XYA- und XYG-Tripletts kodieren häufig für die gleiche Aminosäure (A und G stehen für Adenosin bzw. Guanosin). Die Tri436 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

pletts für Tryptophan und Methionin, für die es nur ein einziges kodierendes Triplett gibt, stellen Ausnahmen dieser Regel dar. 4. Sind die beiden ersten RNA-Bausteine entweder nur G oder nur C, dann kodieren die vier Tripletts mit den gleichen zwei ersten RNA-Bausteinen immer die gleiche Aminosäure. In diesen Fällen ist die Identität des dritten RNA-Bausteins irrelevant. Dieser dritte RNA-Baustein wird »Wobble (dt.: »wackeln«)«-CodonPosition genannt. 5. Die Verteilung von Aminosäuren auf Tripletts ist nicht zufällig, z. B. kodieren alle Tripletts mit U als zweitem RNA-Baustein für hydrophobe Aminosäure. 6. Der genetische Code ist universell, d. h. der gleiche in allen Organismen. Crick diskutiert Theorien, wie der genetische Code entstanden sein könnte. 15 Die stereochemische Theorie von Woese postulierte eine enge Kopplung zwischen der Stelle der Wechselwirkung zwischen mRNA und tRNA, an dem die Information übertragen wird, und der Verknüpfung der Aminosäure an der tRNA. D. h. die chemische Komplementarität der Codon-Anticodon-Wechselwirkung solle bestimmen (Dunnill 1966), welche Aminosäure kovalent an die tRNA gebunden ist. 16 Eine elegante Widerlegung dieser stereochemischen Theorie zur Klärung der Frage, ob die Spezifität der Codon-Anticodon-Wechselwirkung auf der einen und kovalenter Verknüpfung einer Aminosäure auf der anderen Seite auf direkten stereochemischen Ursachen beruht, ist P. Schulz et al. gelungen (Wang/ Brock/Herberich/Schultz 2001). Schulz konnte ein System aus tRNA und so genannten Aminoacyl-tRNA-Synthetasen (die Klasse von Enzymen, die die Bindung einer Aminosäure an tRNAs katalysieren), entwickeln, das die kovalente Verknüpfung einer nicht-natürlichen Aminosäure O-Methyl-L-Tryosin an eine tRNA bewerkstelligt. Diese tRNA besitzt das Anticodon (AUC), das zu einem von drei StoppCodons (UAG) 17, dem Amber-Stopp-Codon, komplementär ist. Wenn Ausnahmen für den in allen Organismen genutzten, universellen genetischen Code werden in nicht-pflanzlichen Mitochondrien im Cytoplasma eukaryotischer Zellen beobachtet. Das ist interessant, da sie im Einklang mit der EndosymbiontenHypothese steht. Siehe z. B. Watanabe/Yokobori 2011 und dort zitierte Literatur. 16 Interessanterweise wurde auch die Theorie vertreten, dass die Aminosäure zur Codon-Sequenz der mRNA stereochemisch passen müsse. Für diese Theorie gibt es keinerlei experimentelle Bestätigung (Pelc/Welton 1966). 17 Das Stopp-Codon UAG wurde nach Harris Bernstein als amber (bernsteinfarben) 15

437 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

man ein Gen ohne Amber-Stopp-Codon synthetisiert und nur an einer Stelle einbaut, die dieses Amber-Stopp-Codon dekodiert, dann kann die nicht-natürliche Aminosäure in tRNAs eingebaut werden. 18 Diese nicht-natürliche Aminosäure wird im Bakterium Escherichia coli spezifisch in Proteine eingebaut. Diese Experimente zeigen, dass die Codon-Anticodon-Wechselwirkung keinen Einfluss auf die Identität der einzubauenden Aminosäure ausübt. Auf der konzeptionellen Ebene stellt sich noch die Frage, was gegen die Evolution eines Basenquartetts spricht. Die Codon-Anticodon-Wechselwirkung wird durch die Ausbildung von Wasserstoffbrücken stabilisiert (s. Abschnitt 3). Je mehr RNA-Bausteine Teil eines Codons sind, also vier Bausteine in einem Basenquartett statt drei Bausteinen im Basentriplett, desto stabiler wird diese Wechselwirkung. Im Verlauf der Proteinsynthese müssen sich mindestens zwei Codon-Anticodon-Paare in Nachbarschaft ausbilden, damit die an der Anticodon-tRNA gebundenen beiden Aminosäuren innerhalb des Ribosoms in räumliche Nachbarschaft gebracht werden können und eine neue Peptidbindung gebildet werden kann (s. Abb. 13). Nach diesem Schritt muss dann allerdings eine dieser beiden Codon-Anticodon-Wechselwirkungen wieder gebrochen werden, damit die nächste mit einer Aminosäure beladene tRNA im Ribosom geladen werden kann und kovalent verknüpft wird. Nur so kann die Polypeptidkette immer länger werden. Diese Assoziations- und Dissoziationsschritte verlaufen sehr schnell, jede tRNA verweilt im Ribosom typischerweise zwischen Millisekunden und wenigen Sekunden (s. Diskussion in Abschnitt 8). Je stabiler die Codon-Anticodon-Wechselwirkung ist, desto langsamer wird die Dissoziationsgeschwindigkeit, ein evolutiver Nachteil. Offensichtlich erwies sich das ein Basentriplett involvierende Codon-Anticodon-System im Verlauf der Evolution stabil im Vergleich zu einem mehr Bausteine beinhaltenden System oder einem System aus mehr als vier verschiedenen RNA-Bausteinen. Zusätzlich musste die kodierende Kapazität auch nicht erhöht werden, um mehr als 20 verschiedene Aminosäuren kodieren zu können.

benannt. Das Stopp-Codon UAA wird ochre (ockerfarben) und das Stopp-Codon UGA als opal (opalfarben) benannt. 18 In solchen E.-coli-Bakterien sind zusätzlich die Release-Faktoren, die das AmberStopp-Codon erkennen, unterdrückt.

438 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

An diesem Punkt sei auf die 2016 veröffentliche Untersuchung von E. Westhof hingewiesen (Grosjean/Westhof 2016): Die 64 verschiedenen Codon-Anticodon-Paare weisen einen sehr großen Unterschied in den Stabilitäten auf, wobei das UUU-AAA-Paar am labilsten (dreimal zwei Wasserstoffbrückenbindungen, s. Abb. 3) und das CCC-GGG-Paar am stabilsten (dreimal drei Wasserstoffbrückenbindungen) ist. Um diese Unterschiede auszugleichen, wurden in tRNAs in sehr spezifischer Weise RNA-Bausteine modifiziert, die sich in ihrem chemischen Aufbau von den vier RNA-Bausteinen U, C, A und G unterscheiden und so durch tertiäre Wechselwirkungen die Stabilitätsunterschiede der Codon-Anticodon-Wechselwirkung ausgleichen. Diese Betrachtungen führen zur Hypothese, dass sich im Verlauf der Evolution zunächst ein GC-Code entwickelt haben könnte, der dann durch Einführung von A- und U-RNA-Bausteinen und RNA-Modifikationen erweitert wurde. Für die Entschlüsselung des genetischen Codes war die Entwicklung eines zellfreien Proteinsynthesesystems, eines zellfreien Translationssystems, von Paul Zamecnik und Mahlon Hoagland von essentieller Bedeutung (Hoagland/Stephenson/Scott et al. 1958). Zamecnik und Hoagland konnten zeigen, dass in einem zellfreien Extrakt aus Rattenleber radioaktiv markierte Aminosäuren in Proteine eingebaut werden können und dass diese Aminosäuren zunächst an spezifischen tRNAs gebunden sind. Dies war ein erster experimenteller Nachweis der Existenz des Hybridmoleküls aus Transfer-RNA und Aminosäuren. Ein solches von ihnen entwickeltes nicht-gekoppeltes 19 zellfreies Translationssystem enthält Aminosäuren, RNA-Bausteine, mRNA und das Ribosom als Translationsmaschinerie. Diese Experimente waren die essentielle Grundlage für Marshall Nirenberg und Heinrich Matthaei, um einen experimentellen Ansatz zu entwickeln, mit dessen Hilfe der genetische Code entschlüsselt werden kann 20. Nirenberg und Matthaei konnten zeigen, dass ein mRNA-Polymeres, das nur aus U-RNA-Bausteinen besteht, ein Aminosäurepolymeres nur aus Phenylalaninen bildet: mRNA (U)m ! Peptid (Phe)m/3. ZuMan unterscheidet zwischen gekoppelten Translationssystemen und nicht-gekoppelten Translationssystemen. In nicht-gekoppelten Translationssystemen wird fertige mRNA dazugegeben, während in einem gekoppelten System zusätzlich zur Translation auch die Maschinerie zur Transkription, also die RNA-Polymerase, hinzugegeben wird. 20 Dieser Abschnitt ist durch das Lehrbuch: »Aspekte der Organischen Chemie« von G. Quinkert, E. Egert und C. Griesinger inspiriert. 19

439 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

gegebenes radioaktiv (14C) markiertes Phenylalanin wird zunächst an die tRNA angelagert. Diese Reaktion ist, wie oben gesagt, enzymatisch durch Aminoacyl-tRNA-Synthetasen katalysiert. Erst eine mRNA aus drei oder mehreren U-Bausteinen bewirkt den Einbau von radioaktivem Phenylalanin, nicht aber schon (U)2. In gleicher Weise erwirkt (C)m bzw. (A)m die Synthese von (Pro)m/3 bzw. (Lys)m/3. 21 Poly-U, poly-C und poly-A, die für diese Experimente zum Teil aus biologischen Quellen isoliert, zum Teil chemisch synthetisiert wurden (vide infra), sind homopolymere RNAs, sie bestehen also immer aus den gleichen monomeren RNA-Bausteinen. Nicht alle mRNAs konnten aus natürlichen Quellen isoliert werden. Har Gobind Khorana war es, der in heroischer Weise sämtliche notwendigen RNA-Polymere chemisch synthetisiert hat, um alle Felder des genetischen Codes zu füllen. Um die Vervollständigung des genetischen Codes zu verstehen, sei hier nur kurz auf zwei weitere Aspekte hingewiesen: Gibt man in das zellfreie Translationssystem eine mRNA der Sequenz 5'-(AC)m-3', so ergeben sich zwei mögliche Tripletts: 5'-ACA-3' und 5'-CAC-3', die für Threonin bzw. Histidin kodieren. Man nennt dies unterschiedliche Leserahmen: der erste Leserahmen startet beim ersten Nukleotid A am 5'-Ende, ein zweiter Leserahmen startet beim vierten Nukleotid C. Aus dieser möglichen Ambiguität der Leserahmen ergibt sich die Notwendigkeit, ein StartSignal für das Ablesen der mRNA durch das Ribosom zu setzen und somit den Leserahmen zu setzen. Diese Rolle nimmt das Start-Codon 5'-AUG-3' ein. Eine kopolymere mRNA der Sequenz 5'-AAGAAG3' weist drei Leserahmen auf: 5'-AAG-3' kodiert für Lysin, 5'-AGA3' für Arginin und 5'-GAA-3' für Glutamat. Die polymeren mRNAs mit Sequenzen (GUAA)m oder (AUAG)m ergaben kein periodisches Tetrapeptid-Muster. Stattdessen konnte man ein Gemisch aus Diund Tripeptiden isolieren. Daraus konnte man ableiten, dass UAA und UAG (neben UGA) als Stopp-Codon fungieren.

Ein äquivalenter Ansatz mit (G)m scheitert, weil solche mRNA so genannte GQuadruplexe bilden, die die Translation verhindern.

21

440 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

6.

Die Bedeutung der Selbstorganisation von Biomakromolekülen bei der Entstehung des Lebens

Viele der wissenschaftstheoretisch grundlegenden Überlegungen zur Selbstorganisation von Biomakromolekülen gehen auf Manfred Eigen zurück (Eigen 1971). Seine Überlegungen setzen an, wo die in Abschnitt 2 referierten Betrachtungen von Albert Eschenmoser aufhören: Aus den primitiven Vorläufermolekülen sind als Ergebnis präbiotischer Chemie monomere Verbindungen, nämlich Aminosäuren und RNA- sowie DNA-Bausteine, entstanden, die mittels einer repetitiven Synthesechemie unter Abspaltung von Wasser zu den polymeren Biomakromolekülen Proteine, RNA und DNA kondensieren können. Es ist Teil der Synthese der polymeren Biomakromoleküle, und es ist wesentlich für den zellulären Informationstransfer, dass die polymeren Biomakromoleküle bei einer gegebenen Temperatur sich spontan selbstorganisieren. Diese Selbstorganisation setzt Wechselwirkungen zwischen Atomen bzw. Atomgruppierungen, so genannten funktionellen Gruppen, innerhalb und zwischen Molekülen voraus, um eine gerichtete Formbildung von Molekülen im Gegensatz zu zufälligen Wechselwirkungen zwischen diesen Makromolekülen zu ermöglichen. Bei gegebener Temperatur und Konzentration der sich organisierenden Moleküle ist Selbstorganisation ein spontaner Prozess. Fast alle biomakromolekulare Funktion setzt gerichtete Wechselwirkungen als Antrieb von Selbstorganisation und Formbildung voraus. Die molekularen Voraussetzungen, wie Moleküle solche gerichteten dreidimensionalen Strukturen annehmen können, wurden in Abschnitt 3 für die Nukleinsäuren DNA und RNA und in Abschnitt 4 für Proteine diskutiert. Der Prozess des Übergangs einer linearen Kette von Polynukleinsäuren oder Polypeptiden hin zur Ausbildung eines dreidimensionalen Gebildes wird Faltung genannt. Insbesondere Proteine und RNAs sind in der Lage, ein komplexes dreidimensionales Gebilde, eine dreidimensionale Konformation anzunehmen. Im Folgenden zeichnen wir die wissenschaftstheoretischen Grundlagen, wie sie von Eigen entwickelt wurden, nach. »At the ›beginning‹ – whatever the precise meaning of this may be – there must have been molecular chaos, without any functional organization among the immense variety of chemical species.« (Eigen

441 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

1971) 22. Der Ausgangspunkt der chemischen und biologischen Evolution ist also eine zufällige Ansammlung von Molekülen. Diese Moleküle bestehen aus nach dem Urknall entstandenen unterschiedlichen Atomen (Wasserstoff H, Kohlenstoff C, Stickstoff N, Sauerstoff O, Phosphat P) mit unterschiedlichen elektronischen und chemischen Eigenschaften. Die Bildung von kovalenten und nicht-kovalenten Bindungen zwischen unterschiedlichen Atomen mit unterschiedlichen Elektronenaffinitäten führt zu Molekülen mit einer unsymmetrischen Verteilung von partiellen Ladungen. Solche Moleküle sind deshalb Dipole oder Multipole. Demgegenüber bestehen attraktive Kräfte in Verbindungen aus unterschiedlichen Atomen mit ähnlichen bzw. gleichen Elektronenaffinitäten. Diese attraktiven Kräfte werden als hydrophobe Wechselwirkungen bezeichnet und sie führen dazu, dass sich stark hydrophobe Moleküle in wässrigem Milieu nicht lösen. Die Biomakromoleküle, die aus verschiedenen monomeren Bausteinen bestehen, besitzen typischerweise hydrophile und hydrophobe Eigenschaften, die sich in ihren unterschiedlichen Teilen anreichern (s. Abschnitte 3 und 4). Ein wesentlicher Anteil ihrer Selbstorganisation beruht auf der Balance dieser beiden unterschiedlichen Arten von Wechselwirkungen bei der Faltung zur dreidimensionalen Gestalt. Die hydrophoben Teile eines Proteins werden in der dreidimensionalen Struktur vom Wasser weg nach innen zeigen, die hydrophilen Teile dagegen nach außen zum Wasser. Im wässrigen Milieu können sich Moleküle aufgrund von Dipoleigenschaften und von hydrophoben Eigenschaften anziehen bzw. abstoßen. Solange diese Wechselwirkungen zwischen Molekülen zufällig sind, sind alle möglichen räumlichen Anordnungen gleich unwahrscheinlich. Im Umkehrschluss setzt Leben also eine Überwindung des ungerichteten molekularen, strukturellen Chaos voraus. Hierfür mag schon ausgereicht haben, dass erste Reaktionen an geladenen Flächen von Mineralien verliefen. Die Selbstorganisation von Molekülen ermöglicht die Weiterleitung von Information. In diesem Sinne besitzen Moleküle in der auf kovalenter Chemie beruhenden Verteilung von Dipolen und hydrophoben Resten Information, weil dadurch die Anordnung von Atomen fixiert ist. Um dies mit einem anschaulichen Bild verständlich zu machen, können wir uns vorstellen, dass ein Molekül drei aus zwei »Am Anfang schuf Gott Himmel und Erde. Und die Erde war tohu wa-bohu.« Moses 1:1–2

22

442 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie





→ → →

→ →

→ → → → →

→ → → → → →







→ → →

unterschiedlichen Atomen bestehende Atomgruppierungen besitzt. Eines der beiden Atome sei partiell negativ geladen, das zweite Atom partiell positiv. Die Position im Molekül dieser unterschiedlichen partiellen Ladungen stellen wir durch einen Pfeil dar, dessen Pfeilspitze vom partiell positiv geladenen Atom zum partiell negativ geladenen Atom zeigt. Aufgrund der primären geometrischen Eigenschaften des Moleküls gibt es nun verschiedene Ausrichtungsmöglichkeiten der Pfeile, die einem Dipol, also einem Magneten, entsprechen, zum Beispiel: , , , , , , , . Diese acht möglichen Einstellungen des Atompaars liefern die Möglichkeit zur gerichteten Anordnung mehrerer Moleküle mit solchen Atompaaren: Ein Dipol der Orientierung: positive Partialladung oben, negative Partialladung unten, wird sich bevorzugt mit einem komplementär ausgerichteten Dipol assoziieren. Eine solche Selbstorganisation verschiedener Moleküle übermittelt Information. Bei Raumtemperatur ist die Selbstorganisation zudem reversibel, da die Anziehungskräfte im Vergleich zur thermischen Energie nicht groß sind. Diese Reversibilität impliziert, dass durch Selbstorganisation immer wieder die gleichen makromolekularen Strukturen entstehen müssen und Strukturbildung und -zerfall in einem Gleichgewicht stehen. Eigen weist darauf hin, dass es bei Informationstransfer nicht um die Entstehung von Information geht, sondern darum, wie sie kodiert, wie sie weitergeleitet und wie sie dekodiert werden kann. In der Sprache von Molekülen: Wie sehen die Moleküle aus, die durch ihren molekularen Aufbau Information beinhalten können, wie wird Information durch Selbstorganisation von einem Molekül auf ein nächstes Molekül, von Zellen in einer Elterngeneration an Zellen in der Töchtergeneration weitergegeben und wie wird die Information in Funktion umgewandelt? Erstaunlicherweise sind erst in den fünfziger Jahren des letzten Jahrhunderts die molekularen Grundlagen mit der Entschlüsselung der Struktur der DNA-Doppelhelix gelegt worden (Watson/Crick 1953a, b) (siehe Abschnitt 3), in der Folge ist der grundsätzliche Mechanismus im zentralen Dogma der Molekularbiologie (siehe Abschnitt 5) beschrieben worden. Wesentliche Aspekte der Informationstheorie sind mit Wahrscheinlichkeiten verknüpft. Ein Ereignis Z1 aus Z0 möglichen Ereignissen gleicher Wahrscheinlichkeit (wie wahrscheinlich ist es, dreimal eine 6 zu würfeln?) hat einen Informationsgehalt: I = K ln Z0 (das Würfeln der Abfolge 6,6,6 ist ein Ereignis aus 63=216 möglichen Ereignissen, K ist eine Konstante, die abhängig ist von der Zahl der 443 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

kodierenden Bits). Informationstransfer erfordert, dass dieses eine Ereignis korrekt vor allen weiteren möglichen 215 Ereignissen weitergegeben wird. Informationstransfer involviert digitale Einheiten, im Computer werden binäre Einheiten genutzt. ν binäre Bits bilden eine Informationseinheit, ein Byte. Information ist kodiert in der Abfolge von n Bytes. Um 256 unterschiedliche Ereignisse kodieren zu können, braucht man mindestens n = log10256/log102 = 8 Bits, verwendet man mehr als 8 Bits, um 256 unterschiedliche Ereignisse zu kodieren, wird der Code degeneriert. Für den zellulären Informationstransfer werden Biomakromoleküle genutzt. Die monomeren Bausteine der Biomakromoleküle entsprechen dabei den digitalen Einheiten im Computer. Durch die Polymerisation der monomeren Bausteine zu Oligomeren ergeben sich Bytes, die zum Beispiel für einzelne Zahlen (z. B. 0–9) kodieren, und die Polymerisation von Oligomeren zu Polymeren kodiert für jede beliebige Zahl im dezimalen System: je größer das polymere Biomakromolekül, umso größer die kodierbare Zahl unterschiedlicher Ereignisse. Im von DNA ausgehenden Informationstransfer (siehe Abschnitt 5) finden wir nicht binäre Bits (ein binäres Bit besitzt die Basis λ=2), sondern quarternäre Bits (Basis λ=4). Diese Bits sind die vier DNA-Bausteine A, G, C und T. Immer drei bits (also zum Beispiel die Abfolge GCT) werden zu einem Byte zusammengefasst. Aus diesen Basentripletts können 43=64 unterschiedliche Bytes entstehen. In Zellen kodieren Basentripletts für Aminosäuren. Man nennt diese Basentripletts ein Codon für eine spezifische Aminosäure. Die 64 unterschiedlichen Bytes kodieren für 20 unterschiedliche Aminosäuren. 23 Der genetische Code ist also degeneriert: Es gibt mit 64 Bytes mehr Bytes als nötig sind, um die 20 Aminosäuren, ein Start- 24 und drei Stop-Codons zu kodieren. Aus diesem Grunde findet man in der Natur, dass mehr als ein Codon eine Aminosäure kodieren kann. Zwei unterschiedliche Codons, die die gleiche Aminosäure kodieren, nennt man synonyme Codons. Die allgemeine Übersetzungsvorschrift, die die Codons mit den durch sie kodierten Aminosäuren verknüpft, nennt man den genetischen Code, der, wie oben einge-

Es gibt zusätzliche proteinogene Aminosäuren wie Selenocystein. Ihre Existenz sprengt die Generalität des genetischen Codes nicht und soll hier nicht weiter diskutiert werden. 24 AUG ist in Eukaryoten das Startcodon, das für die Aminosäure Methionin codiert. In Prokaryoten codiert AUG für Formylmethionin. 23

444 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

führt, von Nirenberg, Matthaei und Khorana entschlüsselt wurde (Nirenberg 1968; Khorana 1968). Beispiele

λ

kleine Proteine

20 100 20100=10130

Proteine aus Codons, die nur A und T enthalten

6

100 6100=1078

DNA-Kette, die für 33 Aminosäuren kodiert

4

99

Ein Oligopeptid der Länge 12, das zufällig jede der 20 Aminosäuren enthalten kann.

20 12

n

Nλ,n

499=1069 2012=4 · 1015

Tabelle 2. Zahl der möglichen verschiedenen Sequenzen Nλ,n eines aus n Einheiten einer Basis λ bestehenden Biomakromoleküls nach Eigen 1971. Tabelle 3. Vergleich der Anzahl an Proteinmolekülen eines Molekulargewichts 104 (~100 Aminosäuren), die man unter verschiedenen Szenarien finden kann, nach Eigen 1971:

a)

b)

Proteine sind maximal dicht gepackt Universum eine 1 Meter dicke Schicht auf der Erdoberfläche eine 1 m3 große Kiste in Wasser gelöste Proteine einer Konzentration Liter alle Ozeane Teich (100 · 100 m einer Tiefe von 10 m) Messbecher (1 Liter)

10103 2 · 1040 6 · 1025 von 10-3 Mol/ 1042 6 · 1028 6 · 1020

Die Tabellen 2 und 3 verdeutlichen den Aspekt astronomisch großer Zahlen, sobald man die Zahl der monomeren Einheiten eines Biomakromoleküls erhöht. Ein aus nur 100 monomeren Einheiten bestehendes Biomakromolekül besitzt eine solche große Zahl von möglichen Sequenzen und damit eine astronomisch große Kapazität, Information zu speichern. Wäre Proteinsynthese nicht instruiert, sondern zufällig, dann könnte man ein spezifisches Protein mit einer gewissen Länge aus der Menge der vielen möglichen Sequenzen niemals erneut herstellen. Selbst wenn die Proteinsynthese unendlich schnell vonstatten ginge, gäbe es dafür nicht genug Materie auf der Welt, um dies zu bewerkstelligen. Die Synthese muss also instruiert sein. Um Aspekte einer solcher Instruktion näher zu bringen, wollen wir folgende Analogie zur Veranschaulichung nutzen: Zufälliges Würfeln einer beliebigen Zah445 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

lensequenz, ein Vorgehen, das einer zufälligen Synthese immer neuer Biomakromoleküle entspricht, führt mit an null grenzender Wahrscheinlichkeit zum gleichen Ergebnis, würfelt man häufig genug. Auf der anderen Seite besteht DNA in den menschlichen Chromosomen aus 3 Milliarden DNA-Bausteinen. Diese DNA-Bausteine können prinzipiell 41.000.000.000 verschiedene Aminosäuresequenzen kodieren. Auch wenn man hinzufügt, dass bei höheren Lebewesen der Anteil an kodierender DNA nur ~ 1 % der Gesamt-DNA beträgt, besitzt die schiere Zahl an möglicher Information keine funktionale Bedeutung, sondern die mit Leben assoziierte Information, die in Molekülen und ihrer Selbstorganisation gespeichert ist, muss im Laufe ihrer Evolution durch Selektion mit ihrer (funktionalen) Geschichte und den Umständen ihrer Entstehung verknüpft werden. Die Entstehung eines molekularen, selbstorganisierenden und selbstreplizierenden Systems und seine Evolution, sein zeitlicher Ablauf, sind irreversibel und nicht-reproduzierbar. Der Urknall ist ein singuläres emergentes Ereignis. Die Entstehung des Lebens ist ein evolutiver Prozess. Es wird häufig darauf hingewiesen, dass die Evolution des Lebens historisch kontinuierlich verläuft, ja verlaufen muss, da sich sonst alle primitiveren Formen als abrupt dysfunktional erweisen bzw. erwiesen hätten. Darwins Theorie (Darwin 1859) 25 bilEs sei auf die Diskussion zur Evolution des Lebens vor Darwin hingewiesen, den sogenannten Pariser Akademiestreit zwischen Georges Cuvier und Étienne Geoffroy Saint-Hilaire, in dem die diametral gegensätzlichen Positionen: »Form folgt Funktion bzw. Funktion folgt Form« diskutiert wurden. Der Aspekt dieses Streitgesprächs war die Thematisierung der Bedeutung der Evolution in der Biologie. Dieser Disput ist auch Gegenstand von Gesprächen zwischen Goethe und Eckermann am 02. 08. 1830: »Ich rede von dem in der Akademie zum öffentlichen Ausbruch gekommenen, für die Wissenschaft so höchst bedeutenden Streit zwischen Cuvier und Geoffroy de SaintHilaire!« […] »Die Sache ist von der höchsten Bedeutung«, fuhr Goethe fort, »und Sie können sich keinen Begriff machen, was ich bei der Nachricht von der Sitzung des 19. Juli empfinde. Wir haben jetzt an Geoffroy de Saint-Hilaire einen mächtigen Alliirten auf die Dauer. Ich sehe aber zugleich daraus, wie groß die Theilnahme der franzzösischen wissenschaftlichen Welt an dieser Angelegenheit sein muß, indem trotz der furchtbaren politischen Aufregung die Sitzung des 19. Juli dennoch bei einem gefüllten Hause stattfand. Das Beste aber ist, daß die von Geoffroy in Frankreich eingeführte synthetische Behandlungsweise der Natur jetzt nicht mehr rückgängig zu machen ist. Die Angelegenheit ist durch die freien Diskussionen in der Akademie, und zwar in Gegenwart eines großen Publicums, jetzt öffentlich geworden, sie läßt sich nicht mehr an geheime Ausschüsse verweisen und bei geschlossenen Thüren abthun und unterdrücken. Von nun an wird auch in Frankreich bei der Naturforschung der Geist herrschen und über die Materie Herr sein. Man wird Blicke in

25

446 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

det die notwendige Brücke zwischen den Spielen mit großen Zahlen und der Evolution von Arten. Es ist wert, diese Verknüpfung zwischen Physik/Mathematik, Chemie und Biologie nachzuzeichnen. Zentral für das Konzept der Evolution von Leben ist der Aspekt, dass Information durch Selektion an Wert gewinnt. Der Begriff der Selektion geht auf Darwin zurück: »This preservation of favourable individual differences and variations, and the destruction of those which are injurious, I have called Natural Selection, or the Survival of the Fittest« (Darwin 1859).

Interessanterweise war das Fehlen des Verständnisses der molekularen Grundlagen für die Selektion für Darwin kein Grund, an der Validität seiner Theorie zu zweifeln: »It is no valid objection [to the concept of Natural Selection] that science as yet throws no light on the far higher problem of the essence or the origin of life« (Darwin 1859). Wie können wir Selektion auf molekularer Grundlage erklären? Gehen wir zurück zur Würfelanalogie und stellen uns vor, wir besäßen einen Tetraeder-Würfel, auf dessen vier Flächen jeweils einer der vier DNA-Bausteine A,T,G,C steht. Stellen wir uns vor, wir machten ein Würfelspiel. Als erste Spielregel soll gelten, dass wir solange würfeln, bis wir genau eine der 430 möglichen Sequenzen eines DNA-Makromoleküls aus n=30 Bausteinen finden. Ein Spielleiter weiß die Sequenz, die Spieler nicht. Diese langweilige Spielregel führt zu einem sehr langwierigen Spiel und zeigt, dass kein einziges Biomakromolekül bestimmter Sequenz und Funktion sich durch Zufall, durch Würfeln, unter allen anderen möglichen Sequenzen angereichert haben kann. Durch einfache Modifikation der Spielregeln wird das Spiel schneller: Immer dann, wenn wir die Position eines Bausteins richtig gewürfelt haben, behalten wir dank Ansage des Spielleiters dieses Ergebnis bei. Wir führen also einen selektiven Vorgroße Schöpfungs-Maximen thun, in die geheimnisvolle Werkstatt Gottes! Was ist auch im Grunde aller Verkehr mit der Natur, wenn wir auf analytischem Wege bloß mit einzelnen materiellen Theilen uns zu schaffen machen, und wir nicht das Athmen des Geistes empfinden, der jedem Theile die Richtung vorschreibt und jede Ausschweifung durch ein inwohnendes Gesetz bändigt oder sanktionirt!« Die Autoren danken G. Quinkert für den Hinweis auf diese Diskussion (unveröffentlichtes Manuskript aus dem Nachlass von G. Quinkert).

447 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

teil ein, abgeleitet aus der a-priori-Kenntnis der richtigen Sequenz. Da für DNAs n/4 der Positionen zufällig richtig gewürfelt werden, verringert sich die Zahl der notwendigen Würfe im Mittel auf 4(n-n/4) = 96 Würfe. In unserem gedanklichen Spiel haben wir als Selektionskriterium angewendet, dass die richtige Sequenz vorab bekannt ist. In natürlichen Systemen ist die Selektion selbstverständlich vielschichtig, insbesondere ist eine einzelne Sequenzposition und ihre Auswirkung auf die selektierte Eigenschaft immer abhängig von anderen Bausteinen in komplexer Weise. Innerhalb der Evolution des Lebens spielen nun drei unterschiedliche Phasen eine wesentliche Rolle: 1. Die präbiotische Phase, die in Abschnitt 2 diskutiert wurde. 2. Die Phase der Selbstorganisation von präbiotischen Molekülen, um selbst-replizierende Systeme zu schaffen, die hier diskutiert wird. 3. Die Evolution individueller Organismen. Die Evolution individueller Organismen wird in anderen Beiträgen in diesem Buch diskutiert. Diese dritte Phase umschließt atemberaubend spannende Fragen der Zelldifferenzierung, der Entwicklung geschlechtlicher Fortpflanzung, der Entstehung des Nervensystems, den Bereich autonomer Entscheidungen, Kommunikation u. a. als Voraussetzung für Selbstbewusstsein und logische Reflexion. Diese Aspekte werden erforscht in den Disziplinen der Biologie, Medizin, Psychologie, Soziologie etc. Im Folgenden wollen wir die Evolutionstheorie der Materie von Eigen diskutieren, also den Übergang zwischen »Nicht-Leben«, z. B. Mineralien, und »Leben«, z. B. Bakterien, Pflanzen, Tiere. 26 Für diesen Übergang zu selbst-replizierenden Systemen ist die Selbstorganisation präbiotischer Moleküle essentiell. Das System, in dem die Evolution stattfindet, enthält die für chemische Reaktionen aktivierten präbiotischen Moleküle, insbesondere Aminosäuren und Nukleinsäuren, sowie einen konstanten Energieeintrag in Form von Wärme und Licht (beides von der Sonne). Dieser Energieeintrag stellt in fundamentaler Weise die Triebkraft dar, dieses System in einen offenen Stegmüller weist darauf hin, dass Eigen »den Vagheitsspielraum der Begriffe des Unbelebten und des Belebten« nicht beseitigt, »um die Frage mit Hilfe genauerer Begriffe formulieren zu können. Vielmehr wird in beiden Fällen auf Gebilde zurückgegriffen, die jenseits des Vagheitsspielraums liegen, und es wird die Frage gestellt, wie der Übergang von Gebilden der einen Art zu Gebilden der anderen Art zu erklären ist« (Stegmüller 1987, 210–211).

26

448 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Ungleichgewichtszustand zu versetzen. In der weiteren Diskussion ersetzen wir ab jetzt DNA durch RNA, weil die hier beschriebenen Effekte für RNAs experimentell nachgewiesen werden können. In einem solchen System können längere Stränge von RNA synthetisiert werden. Im Hinblick auf die Entstehung selbst-replizierender Systeme muss sich die Synthese autokatalytisch verstärken. Dies passiert spontan wie folgt: Ein initial gebildeter Strang aus acht Bausteinen der Sequenz 5'-AACCGGUU-3' beschleunigt die Synthese eines identischen zweiten Strangs. Vorausgesetzt, der RNA-Strang ist zu einer solchen autokatalytischen Selbstreplikation fähig, die eine Konzentrationserhöhung eines spezifischen RNA-Strangs aus der großen Zahl (48 = 65536) möglicher RNA-Stränge unterschiedlicher Sequenz erwirkt, dann muss dieser selbst-replizierende RNA-Strang bevorzugte Eigenschaften haben, um gegenüber den anderen möglichen RNA-Strängen aus acht Bausteinen zu »überleben«, also als »fittest sequence« selektiert zu werden. Diese Selektion beruht auf einer diesem chemischen Molekül inhärenten funktionalen Eigenschaft. Dazu könnte zum Beispiel eine höhere Stabilität bei einer gegebenen Temperatur im Vergleich zu den anderen 48 Sequenzen zählen. Die molekularen Grundlagen für eine solche Selbstreplikation und auch für die Vererbung genetischer Merkmale liegen in der chemischen Struktur der RNA begründet. Die Evolution der Materie ist vollständig mittels physikalischer und chemischer Gesetzmäßigkeiten erklärbar. Eigens Theorie liefert damit die fundamentale Grundlage für Darwins Theorie, die von Darwin selbst zugegebene Lücke. Diese Theorie ist zudem in gleichem Sinne quantitativ wie die klassische Mechanik, die Thermodynamik und die Quantenmechanik. Eigen führt zur Veranschaulichung des weiteren Verlaufs der Evolution selbstreplizierender Systeme einen Kasten ein, der in einem Flussgleichgewicht mit seiner Umgebung steht. 27 In diesem Kasten befinden sich monomere Bausteine, z. B. die vier RNA-Bausteine in ihrer zur Polymerisation befähigten aktivierten Form, also RNA-Triphosphate (rNTPs, wobei N als Buchstabe für jedes der vier Nukleobasen genutzt wird). Weiterhin besitzt das System einen konstanten Zufluss an Energie, z. B. gerade in Form dieser sehr reaktiven rNTPs. Jeder spontan entstehende Strang besitzt die Fähigkeit der Für die Abfassung der sich hier anschließenden Diskussion sei W. Stegmüller (1987) gedankt für seine Übersetzungshilfe eines Philosophen der Ausführungen von M. Eigen.

27

449 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Selbstreplikation. Die Abfolge der Bausteine in jedem dieser Polymeren enthält Information, die Polymeren sind also Informationsträger. Die Synthese der Polymeren und ihr Zerfall stehen im Gleichgewicht. In dieser Situation bleibt zwar das Vorhandensein von Polymeren konstant, nicht aber die in ihrer Sequenzabfolge vorhandene Information. Ohne Wechselwirkungen (und unter der im Wesentlichen berechtigten Vernachlässigung unterschiedlicher chemischer Reaktivitäten und Stabilitäten der einzelnen Polymeren) wird jede Sequenz mit gleicher Wahrscheinlichkeit gebildet, jede Art von Information zerfällt in diesem Kasten. Im Gegensatz dazu werden sich durch Selbstorganisation, die auf Wechselwirkung zwischen Teilchen beruht, und durch Mutationen einige wenige Sequenzen aufgrund ihrer stabileren Eigenschaften durchsetzen. Die Autokatalyse nimmt aber im Übergang von Dimer, Trimer, Tetramer hin zu einem RNA-Duplexstrang aus RNA-Primer und RNA-Templat rapide zu (siehe Diskussion oben). Diese Selektion aufgrund von Selbstorganisation ist ein emergenter Prozess, der zwangsläufig stattfindet, aber nicht vorhersagbar ist: Es lässt sich nicht vorhersagen, welche RNA-Duplexstränge zunächst zufällig entstehen, welche zufälligen Mutationen aufgrund nicht perfekter Synthese stattfinden, noch vorhersagen, welche Polymere am Schluss selektiert werden. Die Unvorhersagbarkeit des selektierten Polymeren liegt fundamental darin begründet, dass die Zahl der möglichen Polymeren ab einer gegebenen Anzahl an monomeren Bausteinen im Polymer astronomisch groß ist (siehe Tabelle 2 und 3). Stegmüller weist an diesem Punkt der Diskussion darauf hin, dass eigentlich erst Eigens Evolutionstheorie der Materie Darwins Begriff des »survival of the fittest« eine quantifizierbare Bedeutung gibt, indem sie durch die Definition einer Wertfunktion den Begriff »fittest« quantifiziert. 28 Vom »fittest« zu sprechen, ist für die Evolution von Molekülen mit Funktionen, aber ohne die Eigenschaften von Organismen, moralisch unbedenklich möglich. Poser vermerkt dazu: »Trotz der Zufälligkeit und trotz der Unabhängigkeit der Elemente der Trias [Mutation/Selektion/Retention] werden diese als Teile eines Ordnungssystems gesehen. Dabei gilt keineswegs jede Veränderung bereits als Mutation, sondern eine solche Variante, die auf eine mögliche Selektion bezogen ist. Umgekehrt ist eine Selektion nicht irDarwins Prinzip wurde als Tautologie kritisiert, es sage nichts anderes aus als »survival of the survivor«.

28

450 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

gendeine positiv/negativ-Separierung, sondern nur eine solche, die durch eine Mutation veranlasst ist. Es geht also bei der Trias, wie Niklas Luhmann hervorhebt, erkenntnistheoretisch gesehen ›um korrespondierende Begriffe, die außerhalb der Evolutionstheorie keine Verwendung haben.‹ Insofern erfährt die Unabhängigkeit von Mutation und Selektion eine system- oder modellbezogene Eingrenzung, die es jeweils auszuweisen gilt. Insbesondere wäre es naiv, in Mutationen und Selektionen eine Beschreibung des Gegebenen, etwa der Natur, zu sehen. Es handelt sich erkenntnistheoretisch betrachtet um eine erst von außen aufgeprägte Ordnungsstruktur« (Poser 2012). Posers Einführung der Natur als etwas, das existiert und Eigenschaften außerhalb des naturwissenschaftlich Beschreibbaren besäße, ist hinwiederum aus naturwissenschaftlicher Sicht erstaunlich. Zum weiteren Verständnis der Evolution von Materie im oben beschriebenen Kasten sind folgende Aspekte wichtig: Im Kasten seien eine Vielzahl von n Polymeren unterschiedlicher Sequenz ihrer monomeren Bausteine gebildet (P1, P2, …, Pn). Die zeitliche Änderung der Konzentration dxi/dt eines Polymeren Pi wird durch verschiedene Faktoren bestimmt (Gleichung 1): P dxi ¼ ðFi –Ri Þ � xi þ Qik � Xk (1) dt i6¼k

Die Konstante Fi beschreibt die Selbstreplikation eines Polymeren Pi, und die Konstante Ri den Zerfall desselben Polymeren Pi. Die Selbstreplikation Fi ist abhängig von den zwei Faktoren Ai und Qi, und die Zerfallskonstante Ri von den zwei Faktoren Di und Vi: Fi ¼ Ai � Qi

(2)

Ri ¼ Di þ Vi

(3)

Ai sei die Reproduktionsrate und Qi sei ein Qualitätsfaktor für die Reproduktion. Für Q=1 wird das i-te Polymere fehlerlos reproduziert. Je kleiner Qi, desto größer der Fehler der Reproduktion. Jedes Polymere besitzt eine unterschiedliche Reproduktionsrate und einen unterschiedlichen Qualitätsfaktor. Reproduktionsfehler führen zu einer Mutanten k der Ausgangssequenz, also einem Polymeren Pk (k6¼i) unterschiedlicher Sequenz. Die Gesamtzahl der Mutanten, die sich innerhalb eines Zeitintervalls von einer Ausgangssequenz bilden können, ist durch das Produkt Ai*(1-Qi) gegeben. Die Distanz zweier Sequenzen der Polymeren Pi und Pk, die Pi durch Mutation in Pk überführt, wird die Shannon-Distanz genannt. Zwei Polymere mit 451 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

3 Mutationen haben eine Shannon-Distanz von 3. Die Shannon-Distanz ist sehr klein im Vergleich der astronomisch großen Zahl möglicher Sequenzen. Ein RNA-Polymeres aus 100 RNA-Bausteinen besitzt 4100=1,6*1060 verschiedene Sequenzen, die Anzahl an notwendigen Mutationen, also die Shannon-Distanz, um jede mögliche Sequenz in alle anderen möglichen Sequenzen zu führen, ist maximal 100=102. Eine Mutation ist also in diesem System zunächst der Einbau eines falschen Monomeren. Im hier beschriebenen System erfolgen Mutationen spontan, werden nicht durch exogene Faktoren wie radioaktive Strahlung oder Einfluss von mutagenen Substanzen erzeugt. In Organismen muss man diesen Begriff der Mutation erweitern, wie an anderer Stelle im Buch diskutiert. In Gleichung (3) geben Di die Zerfallsrate des i-ten Polymeren an und Vi eine mögliche Verdünnung dieser Sequenzen. Schließlich berücksichtigt der Summenterm in Gleichung (1), dass durch Mutation eines Polymeren Pk gerade Pi wieder entstehen kann. Die Wahrscheinlichkeit, dass dies eintrifft, hängt von der Shannon-Distanz zwischen den Polymeren Pk und Pi und dem Qualitätsfaktor Qk ab. Als Reaktionsumgebung, in der ein solches Gedankenexperiment umgesetzt werden kann, könnte sich der gedankliche Kasten mit der Außenwelt in einem Flussgleichgewicht befinden, bei dem z. B. kleinere Polymere mit weniger Bausteinen und damit kleinerer dreidimensionaler Struktur durch größenselektive Poren herausdiffundieren könnten. In einem experimentellen Aufbau, der eine solche Situation nachstellt, befindet sich eine Kiste mit semipermeablen Wänden in einem größeren Eimer, in dem sich die aktivierten monomeren RNA-Bausteine befinden. Folgende Reaktionen würden in der Kiste stattfinden: ATP + GTP + UTP + CTP ! verschiedene RNA-Stränge + P2O74– (4)

Das Nukleotidtriphosphat ATP besteht aus der Nukleobase Adenin, der Zuckereinheit und einer Triphosphatgruppe am 5'-Ende. Bei der Polymerisation von solchen Nukleotidtriphosphaten entstehen verschiedene RNA-Stränge unterschiedlicher Länge und unterschiedlicher Sequenz. Die Triebkraft dieser Reaktion ist die Freisetzung des Diphosphats P2O74–, das im Vergleich zu den Triphosphaten stabiler und damit energieärmer ist. Diese Stabilität ist eine molekulare Eigenschaft. Die Ausgangsverbindungen der Triphosphate sind im Verlauf präbiotischer Chemie entstanden. Die RNA-Stränge vervielfältigen 452 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

sich jetzt autokatalytisch (siehe Abbildung 10): Zufällig könnten ein RNA-Strang der Sequenz 5'-GCUAUAGC-3' und ein zweiter kürzerer Strang 5'-GCUA-3' entstanden sein. Der zweite Strang ist komplementär zum 5'-Ende des längeren Strangs und würde durch Selbstorganisation ein Dimer aus zwei Strängen bilden, das aus den beiden unterschiedlichen Molekülen besteht (siehe Gleichung 5). In diesem Dimeren ist die weitere Polymerisationsreaktion vom 4mer zum 8mer RNA-Strang durch Selbstorganisation bevorzugt, sie wird autokatalytisch schneller (siehe Diskussion in der Bildunterschrift der Abbildung 10) (Wu/Orgel 1992). Bei der willkürlichen Wahl der Sequenzen der beiden Stränge haben wir die Sequenzen so ausgewählt, dass der neu entstehende Strang, der Tochterstrang, identisch zum Elternstrang ist, da wir von einer selbstkomplementären, palindromischen 29 Sequenz des 8mer Elternstrangs RNA ausgegangen sind. Durch die autokatalytische Selbstreplikation der RNA verdoppelt sich die Zahl identischer RNA-Stränge, während dies im Fall nicht-palindromischer RNA-Stränge nicht nach einem, sondern nach zwei Synthesezyklen passiert:

ð5Þ

Die Befähigung zur Selbstreplikation der RNA beruht auf der Möglichkeit der Selbstorganisation, die für die RNA und DNA auf der Komplementarität in der Zahl der Wasserstoffbrückendonoren und -akzeptoren von A und U bzw. C und G beruht. Die Effizienz der Selbstreplikation beruht auf dem autokatalytischen Schritt, dem die Anlagerung von zwei komplementären Strängen (4mer und 8mer RNA) vorausgeht. Die Addition weiterer monomerer Bausteine an kurze Doppelhelix, die sich aus 4mer und 8mer bildet (s. Abb. 10), ist um etliches effizienter als die Verlängerung nur eines Stranges RNA am 3'-Ende (Wu/Orgel 1992). Es sei aber nochmal betont, dass die Fähigkeit zur Selbstreplikation und zur Autokatalyse auf den inPalindromische Sequenzen sind Sequenzen, deren Abfolge in 5'-3' und in 3'-5'Richtung gleich ist. Dieser Begriff ist der Sprache angelehnt: Reliefpfeiler ist ein Palindrom.

29

453 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

härenten chemischen Eigenschaften der RNA-Bausteine beruht. Sie sind dementsprechend eine physikochemische Notwendigkeit. Auch die fehlerhafte Selbstreplikation, die zu einer Mutation führt, ist nicht nur rein zufällig, sondern sie hängt von physikochemischen Eigenschaften wie der relativen Konzentration der monomeren RNA-Triphosphate, den rNTPs und der Affinität eines neuen Bausteins zum existierenden Einzelstrang bzw. zum Doppelstrang aus Primer-RNA und Templat-RNA (s. Abb. 10) ab. Diese Eigenschaften ermöglichen quantifizierbare Vorhersagen der Fehlerrate. Wann allerdings eine Mutante auftritt, ist nicht vorhersagbar, sondern stochastisch. Bereits die einfachen Reaktionssysteme besitzen für lebende Systeme charakteristische Elemente: 1. Anabolismus und Katabolismus, also der Aufbau und Abbau systemeigener Stoffe, werden durch die Aufnahme der energiereichen RNA-Triphosphate und die Abscheidung von Diphosphaten bewerkstelligt (s. Gleichung 4 und 5). Aufgrund der semipermeablen Membran 30, des Kastens, ist das System ein offenes System, durch die Nicht-Realisierbarkeit aller möglichen RNASequenzen und der autokatalytischen Eigenschaften der Selbstreplikation initial entstehender RNA-Stränge ist das System irreversibel, da die Polymerisation durch autokatalytische Wirkung in unterschiedlicher Weise beschleunigt wird. Die solare Energie erbringt den Energieeintrag für die Synthese aktivierter RNA-Triphosphate, in denen die thermische Sonnenenergie in Form chemischer Energie umgewandelt und gespeichert ist. Die präbiotische Synthese von Lipidmolekülen, die durch Selbstorganisation Membranen bilden, ist chemisch weniger gut untersucht, aber zum Teil im Artikel von Albert Eschenmoser im Rahmen der präbiotischen Synthese von phosphorylierten Zuckerderivaten beinhaltet. Lipide besitzen lange hydrophobe Reste, die sie wasserunlöslich machen. Durch hydrophobe Wechselwirkungen bilden sich Bizellen und Liposomen, die die Wände des Eigen’schen Kastens darstellen können. Je nach Art des Lipids bilden die Liposomen kugelförmige dreidimensionale Gebilde, in deren Innerem sich ein wässriges Milieu befindet. In diesem wässrigen Milieu können die Biomakromoleküle, aber auch Salze wie Natrium- und Kaliumchlorid, und die aktivierten monomeren Bausteine enthalten sein. Konzentrationsunterschiede von Salzen zwischen dem wässrigen Milieu außerhalb einer Zelle und im Inneren erzeugen ein elektrisches Potential, das z. B. essentiell für Reizweiterleitung in Nervenzellen ist. Durch Membranen kann es zu einem passiven Stofftransport kommen, der abhängig von der Größe des transportierten Moleküls (je kleiner, desto besser) und von seiner Ladung (je weniger geladen, desto besser) ist.

30

454 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

2.

Die Komplementarität der RNA-Bausteine ermöglicht Selbstreplikation, einzelne RNA-Stränge können ihre Information oder auch Identität eindeutig weitergeben, vererben. 3. Fehlerhafte Selbstreplikation ist die molekulare Grundlage für Mutationen, die Variabilität in den sich replizierenden Strängen einführen. Das Verhältnis von Mutation und genauer Replikation wird sowohl für die evolutive Anpassungsfähigkeit als auch das Überleben der Identität essentiell, wie später beschrieben. In diesen primitiven lebenden Systemen kann nach Eigen Segregation und Selektion stattfinden. Segregation beschreibt das Verhältnis Ai*Qi zu Di. Polymere, für die gilt, dass Ai*Qi > Di, überleben, während Polymere, für die gilt, dass Ai*Qi < Di, aussterben. Über Segregation hinaus kann ein Selektionsdruck entstehen, der durch die veränderlichen äußeren Parameter, die allgemeine Konzentration aller RNA-Triphosphate oder aber auch durch Drosselung der Zufuhr einzelner RNA-Triphosphate entstehen kann. An dieser Stelle wird der Begriff der Überschussproduktion Ei = Ai – Di des Polymeren Pi eingeführt, relativ zur durchschnittlichen Produktion E0, dem Mittelwert der Konzentration aller Polymeren. Den Polymeren wird ein Selektionswert Wi = Ai*Qi-Di zugewiesen. Die Polymeren zerfallen in zwei Klassen: nur Polymere mit Ei > Eo vermehren sich. Der Selektionswert definiert deshalb einen Schwellenwert, der das Verhältnis von Aufbau und Zerfall eines gegebenen Polymeren widerspiegelt. Im System stationärer Zufuhr von Ausgangsverbindungen bewirkt die autokatalytische Eigenschaft der Selbstreplikation, dass die Polymerenvielfalt im System zerfällt, bis im Grenzfall exakter Reproduktion nur noch ein einziges Polymeres mit größtem Selektionswert verbleibt. Im weiteren Verlauf evolvieren die Polymere zu einem Ensemble, in dem gegebenenfalls im Unterschuss bereits punktweise mutierte Polymere koexistieren. Ein solches Ensemble könnte zum Beispiel zu 90 % identischen Polymeren mit an diesem Zeitpunkt der Evolution, unter diesen momentanen Umgebungsbedingungen optimalen Sequenzen, zu 5 % aus verschiedenen Polymeren jeweils nur einer, aber durch unterschiedliche Mutation, aus 3 % aus Polymeren mit zwei Mutationen und 2 % weiteren Polymeren mit einer höheren Anzahl an Mutationen bestehen. Ist die Anzahl der Polymer im Ensemble groß, so kann zumindest eine Kopie jeder Einfachmutante vorhanden sein. Für ein solches Ensemble hat Eigen den Begriff Quasispezies eingeführt, seine experimentelle Bestätigung wird unten besprochen. Eine solche Quasispezies hat den 455 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

evolutiven Vorteil, viel schneller als ein Ensemble aus 100 % identischen Polymeren auf einen sich ändernden Selektionsdruck reagieren zu können. Der Selektionswert stellt ein relatives Optimum dar, das bei gegebener Selektion evolviert ist. Dass ein absolutes Optimum quasi nie erreichbar ist, liegt an der unvollständigen Abdeckung des schier astronomisch großen Sequenzraums. Es stellt somit ein relatives Optimum im Raum der biologisch möglichen Welten dar. Die Analogie der Ausdrücke »biologisch mögliche Welten« rekurriert auf Leibniz’ »beste aller möglichen Welten« und belegt, in welch herausgehobener Weise die Komplexitätsforschung auf philosophischen Grundlagen von Leibniz beruht. 31 An dieser Stelle sei vermerkt, dass die astronomisch großen Sequenzräume, die sich durch effiziente Katalyse der Polymerisation von Nukleinsäuren eröffnen, eine Erklärung für das Entstehen einer chiralen Welt ergeben, die zwangsläufig ist: Die monomeren Nukleinsäure-Bausteine sind chiral, die D- und L-Formen der Bausteine sind gleich stabil und sind zu Beginn der Ätiologie präbiotischer Moleküle zu gleichen Teilen vorhanden. Bei der Polymerisation von einzelnen Bausteinen zu Oligomeren können prinzipiell entweder monomere Bausteine gleicher Chiralität oder unterschiedlicher Chiralität eingebaut werden. Im ersten Fall entstehen homochirale Oligomere, im zweiten Fall entstehen heterochirale Oligomere. Homochirale Oligomere (alle Bausteine entweder alle D oder alle L) sind wesentlich stabiler als heterochirale Oligomere (Bausteine sind gemischt D und L), da sich homochirale Oligomere durch Spiralisierung stabilisieren können. In einer zunächst nicht-chiralen Welt würden die enantiomeren Bild- und Spiegelbild-Oligomere mit gleicher Wahrscheinlichkeit entstehen. In dem Moment, in dem die Länge der Oligomeren dazu führt, dass es zu stochastischen Schwankungen des Oligomerisierungsgrades der L-Welt und der DWelt kommt, entsteht Chiralität. Die selektierte D-Chiralität der »RNA-only«-Welt wäre daher zufällig. Eschenmoser schreibt in Bollin/Micura/Eschenmoser 1997: »The potential of oligonucleotides to self-assemble by chiroselective co-oligomerization of short activated oligomers calls for an analysis of its relevance to one of the standing problems of an etiology of life, the origin of biomolecular homochirality […]. In fact, by considerations of the following kind, one can convince oneself at a qualitative level that the capacity for breaking molecular mirror symmetry must be an intrinsic property of an oligonucleotide system. If a mixture consisting of the racemic enantiomer pairs of all eight diastereomers of all 44 possible oligonucleotide tetramers were to cooligomerize stochastically by chirospecific ligation to (D) and (L) libraries consisting each of higher oligomers, say 100-mers, these two libraries would consist of equal amounts of homochiral all-(D) and all-(L) oligomers. The two libraries taken together would no longer constitute a racemic mixture, however. Breaking symmetry by deracemization would be an inevitable property of the system because, in the formation of both the (D) library and the (L) library, the number of possible sequences with growing oligomer length would soon rise far beyond the number of actually forming sequences. The number of possible sequences in each library would be (44)25 = 4100 (~1060), and the (maximum) number of sequences which possibly could be formed would be ~1024 if co-oligomerization started from a mixture containing 1 mole of each 31

456 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

In Eigens Evolutionstheorie der Materie gibt es damit eine genaue, quantifizierbare Definition des »survival of the fittest«, das demjenigen Polymeren zugewiesen werden kann, »dessen Selektionswert gegenüber seinen Konkurrenten« (Stegmüller 1987) bei gegebenem Selektionsdruck überlegen ist. Der Optimierung des Selektionswerts sind in diesem einfachen selbstreplizierenden System Grenzen gesetzt. Jede chemische Reaktion ist reversibel. Weiterhin kann es bei jedem Polymerisationsschritt, z. B. durch fehlerhaften Einbau von UTP anstelle von CTP während der in Gleichung (5) skizzierten chemischen Reaktion, zu einer Nebenreaktion kommen. Die korrekte Replikation des Polymeren Pi wird umso schwieriger, je länger das Polymere ist. Der Qualitätsfaktor Qi des Polymeren Pi einer Länge n hängt vom korrekten Einbau in jedem Verlängerungsschritt q ab: Qi = qn. Bei einer Länge von 100 und einem angenommenen korrekten Einbau q von 0,99 (99 % korrekter Einbau) ergibt sich 0,99100 = 0,37, also nur noch 37 % der entstehenden Polymeren sind tatsächlich das korrekte Polymere Pi. Der Informationsgehalt des selbstreplizierenden Systems kann aber nur durch die Vergrößerung der Länge des Polymeren erzielt werden. In kontemporären lebenden Organismen ist die Reproduktionsgenauigkeit bei der Replikation bei 99,9999 %, dies wird durch genauen Einbau und durch eine sich anschließende Fehlerkontrolle bewerkstelligt, bei Transkription und Translation liegen die nach Qualitätskontrolle genannten Werte bei 99,9–99,99 %. Die Replikation, also die Weitergabe der DNA an die Tochterzelle, muss viel genauer sein als Transkription und Translation. Diese Genauigkeit konnte im Verlauf der Evolution aber nicht durch RNA-Moleküle selbst erzielt werden. So war die Entstehung von Proteinen als effizienten Katalysatoren der Replikation die entscheidende Voraussetzung, die Fehlerraten

tetramer species (= 4096 moles, corresponding to 1.3~ 103 kg material). Such being the case, and provided that co-oligomerization proceeded stochastically, as supposed, any given sequence in both libraries would eventually occur only once. Thus, the constitutional composition (sequence composition) of the (D) library and the (L) library would not be identical and, therefore, the two libraries taken together could not constitute a racemic mixture. Two libraries composed of molecular components that have a different constitutional distribution have, in principle, different chemical properties. Specifically, their behavior in amplification by chirospecific sequence replication – again, in principle – would be different, and if the system were to evolve eventually against internal and external selection pressures, emerging winner sequences would be homochiral and belong to either the (D) series or the (L) series.«

457 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

zu senken, und damit komplexeres Leben im Sinne von mehr Information enthaltendes Leben hervorzubringen. Eigens Modell der Evolution der Materie liefert auch hierfür, für die Erweiterung einer »RNA-only«-Welt hin zu einer »ProteinRNA«-Welt, mit der Einführung von gekoppelten Hyperzyklen den gedanklichen Rahmen. Die chemische Möglichkeit der Verknüpfung von RNA- und Aminosäurebausteinen und die Entstehung des genetischen Codes waren die Voraussetzung für diesen Schritt der Evolution zu höheren Lebewesen. Im Sinne einer kontinuierlichen Evolution haben sich der genetische Code, also die Korrelation zwischen kodierendem Basentriplett und kodierter Aminosäure, zufällig entwickelt. Es ist davon auszugehen, dass zunächst nicht alle möglichen Aminosäuren einer präbiotischen Chemie kodiert wurden, und die Existenz eines Triplettcodes zunächst aus GC-RNA-Bausteinen entstanden ist, wie bereits angedeutet. Die Entstehung eines gekoppelten Hyperzyklus ist atemberaubend spannend, »weil hier in merkwürdiger Weise logische Notwendigkeiten, chemisch-physikalische Gesetzmäßigkeiten und ›mechanistische Zufälligkeiten‹ zusammenspielen mussten« (Stegmüller 1987). In diesem emergenten Schritt werden die Synthesen zwei zur Polymerisation befähigter Polymerklassen, RNA und Proteinen, aneinander gekoppelt. Zufällige Mutationen auf Ebene der RNA führen durch die Synthesekopplungen zu Proteinen mit unterschiedlicher Sequenz und damit unterschiedlicher 3D-Struktur und Eigenschaft. Erst dadurch kann Selektion, die auf Eigenschaften von Proteinen wirkt, durch Mutation von RNA-Bausteinen wirksam werden. Die logische Notwendigkeit liegt darin begründet, dass ein Basentriplett 20 verschiedene Aminosäuren kodieren kann; weshalb Basenquartetts nicht vorteilhaft sind, wurde bereits diskutiert. Der Code beruht auf der Selbstkomplementarität der RNA-Bausteine, der reversiblen Bildung und der Dissoziation von Basenpaaren; dies sind geometrische Notwendigkeiten, um reguläre zwei- und dreidimensionale Strukturen ausbilden zu können. Mechanistische Zufälligkeiten beziehen sich auf die zunächst zufälligen Verknüpfungen von Aminosäuren mit Basentripletts, die sich zu einem stabilen System evolviert haben. Ein Hyperzyklus aus RNA-Sequenzen und kovalent gebundenen Aminosäuren, die Proteine bilden können, besteht aus n polymeren RNA-Informationsträgern I1-In, die für n Proteinketten E1-En kodieren. Der RNA-Informationsträger vermehrt sich durch auf Selbstorganisation beruhender Selbstreplikation. Die Selbstreplika458 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

tion eines der Informationsträger kann dann selektiv verbessert werden, wenn Proteinketten entstanden sind, die die Selbstreplikation beschleunigen und ggfs. auch in ihrer Genauigkeit verbessern. Durch diese Verbesserungen können längere RNA-Informationsträgermoleküle synthetisiert werden, die wiederum für längere Proteinketten kodieren können. Ein System, in dem ein solcher Hyperzyklus einer »RNA-Protein«-Welt entstehen kann, wird eine »RNA-only«-Welt verdrängen. Die Hyperzyklus-Systeme erhalten weiterhin einen Selektionsvorteil, wenn sie sich durch eine Hülle von der sie umgebenden Welt abtrennen, wie es in den Organismen durch die Umschließung einer Membranhülle umgesetzt wurde (vgl. Fußnote 30). Über die zeitliche Abfolge der einzelnen Schritte gibt es unterschiedliche Meinungen. In Eigens Modell ist die Entstehung einer Membranhülle konzeptionell einfach, während die Evolution eines Hyperzyklus eine gedankliche Herausforderung darstellt. Deshalb beschäftigt sich Eigen weniger mit der Entwicklung einer Zellmembran, die eine Separation zwischen innen und außen ermöglicht, also einer von der Welt abschließenden Zellmembran. Eigens Theorie ist quantitativ und ebenfalls mit der Thermodynamik offener, irreversibler System kompatibel, ein Aspekt, der hier nicht weiter diskutiert werden kann. Abschnitt 6 wollen wir abschließen mit dem bahnbrechenden Experiment von Spiegelman, der die Evolution des Qβ-Bakteriophagen unter Selektionsdruck in vitro untersucht hat (Mills/Peterson/Spiegelman 1967; Joyce 2007). Die Bedeutung der Entwicklung dieses Systems ist es, dass Eigens Evolutionstheorie, die aufgrund ihres quantitativen Charakters genaue Vorhersagen liefert, experimentell nachgeprüft werden kann. Damit umgeht man die Kritik, dass das Studium der Evolution zwingend historisch sei und damit auch darauf reduziert werden könnte, nicht studiert werden zu müssen, da es ja offensichtlich ist, dass Leben auf Erden in der heutigen Art entstanden ist. Spiegelman isolierte aus dem Qβ-Bakteriophagen eine RNA-Polymerase, die die Replikation der Qβ-Bakteriophagen-RNA katalysiert. Damit hat er die beiden notwendigen, einen Hyperzyklus charakterisierenden Moleküle isoliert, um in vitro zu untersuchen, wie die RNA des Qβ-Bakteriophagen unter Selektionsdruck evolviert. Das Design eines solchen Experiments soll hier kurz beschrieben werden. Zunächst enthalten 250 μL Reaktionslösung 0.2 mg der Bakteriophagen-RNA, 40 μg der Bakteriophagen RNA-Polymerase und die 459 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

aktivierten RNA-Bausteine. Die RNA wird mittels Katalyse der RNA-Polymerase für 20 Minuten bei 35 °C vermehrt. Dann werden 20 μL entnommen und in frisches Reaktionsmilieu überführt, das alle Komponenten außer der RNA enthält. Die Quelle der RNA stammt also exklusiv aus dem ersten Ansatz. Da nur 8 % des Volumens des ersten Reaktionsansatzes transferiert werden, muss sich eine spezifische RNA innerhalb der 20 Minuten Reaktionszeit ungefähr zwölf Mal repliziert haben, um passagiert zu werden. Je häufiger sich eine RNA replizieren konnte, desto größer ist die Chance dieser RNA, den Transfer zu überleben. Durch dieses Experiment wird als Selektionsdruck die Replikationsrate erhöht: Spiegelman konnte zeigen, dass innerhalb von 14 Stunden, in denen 74 Transferschritte durchgeführt wurden, die Länge des überlebenden RNA-Genoms auf 17 % der Ausgangsgenomlänge reduziert war. Weiterhin wird die Einbaurate pro RNA-Baustein um einen Faktor 2.6 erhöht. Beides bewirkt eine 15-fache Beschleunigung der Replikationsrate des verkürzten RNAGenoms. Moderne Experimente erlauben, den Verlauf der Mutationen in jedem Zyklus genau zu verfolgen, um Rückschlüsse zu erhalten, welche Mutation den Selektionsvorteil bewirkt hat. Später durchgeführte Experimente von Weissmann nutzen ebenfalls Qβ-Bakteriophagen und bilden eine experimentelle Grundlage für das oben eingeführte Konzept der Quasispezies (Domingo/Sabo/Taniguchi et al. 1978). In diesen Experimenten wird die Lösung im Ausgangsreaktionsgefäß so weit verdünnt, dass im folgenden Reaktionsgemisch im Mittel immer genau ein einziger Phagenpartikel pro Reaktionsgefäß vorliegt. Damit werden alle folgenden Schritte und jeder folgende Verdünnungsschritt im Hinblick auf die Bakteriophagen monoklonal. Die Genomanalyse der sich replizierenden Bakteriophagen ergibt, dass die Fehlerrate der Replikation bei 3*10–4 liegt. Die RNA ist also heterogen und weist durchschnittlich 1–2 Mutationen auf. Weissmann schreibt: »We propose that the Qβ phage population is in dynamic equilibrium, with viable mutants arising at a high rate […] on the one hand, and being strongly selected against on the other. The genome of Qβ phage cannot be described as a defined unique structure, but rather as a weighted average of a large number of different individual sequences.« Damit hatte Weissmann die experimentelle Basis für das Konzept der Quasispezies gelegt, ein Begriff, der dann von Eigen geprägt wurde.

460 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

7.

Faltung von Biomakromolekülen: Von Information zu Funktion am Beispiel der Proteinfaltung

In Abschnitt 6 haben wir gesehen, dass die Existenz einer »RNAonly«-Welt abgelöst wurde durch die Koexistenz von RNA und Proteinen, deren Koevolution durch das Vorliegen von Hyperzyklen gekoppelt war. An einem späteren Schritt entstand das Protein Ribonukleotidreduktase, das RNA in DNA umwandeln kann und damit die Voraussetzung der Schaffung einer RNA-DNA-Protein-Welt legt. Der evolutive Vorteil einer RNA-DNA-Protein-Welt liegt zum einen in der größeren Stabilität der DNA als Permanentspeicher genetischer Information und zum anderen der höheren funktionalen Variabilität der Proteine im Vergleich zu RNA begründet. Mit Ausnahme von intrinsisch ungeordneten Proteinen, einem erst seit relativ kurzer Zeit eingeführten Konzept, ist die Funktion eines Proteins von seiner dreidimensionalen Struktur, seiner Konformation, abhängig (Anfinsen 1973). Die Ausbildung dieser dreidimensionalen Konformation nennt man die Faltung. Die Notwendigkeit der Faltung zur Erreichung der Funktion eines Proteins stellt damit eine wesentliche Erweiterung des zentralen Dogmas der Molekularbiologie dar und wird jetzt im Folgenden ausführlich diskutiert. Welche Konformation wird von einer gegebenen Abfolge von Aminosäuren eingenommen? Aufgrund von Experimenten von Anfinsen (Nobelpreis für Chemie 1972) zeigt sich, dass eine gegebene Abfolge von Aminosäuren immer die gleiche dreidimensionale Konformation einnimmt. Man nennt diese Konformation den gefalteten Zustand oder »native state« des Proteins. Für monomere Proteine ist dieser gefaltete Zustand der thermodynamisch stabilste, den die Proteinkette (auch Polypeptidkette) einer gegebenen Aminosäuresequenz einnehmen kann, also jener mit der niedrigsten aus verschiedenen molekularen Wechselwirkungen und entropischen Beiträgen zusammengesetzten Gesamtenergie (Anfinsen 1973). Der gefaltete Zustand kann geometrisch durch die Position aller einzelnen Atome beschrieben werden. Dabei können zwei Atome nicht die gleichen Koordinaten besitzen 32. Jedes Atom hat eine gewisse Ausdehnung (van-der-Waals-Radius). Durch die gegenseitige Abstoßung der Elektronenhüllen kommen sich Atome auch nicht zu Wo ein Körper ist, kann kein zweiter sein. »Ubi enim corpore est, non potest esse secunda«.

32

461 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

nahe. Wenn wir annehmen, dass eine Aminosäure durchschnittlich aus 10 Atomen besteht und ein gefaltetes Protein aus 100 Aminosäuren aufgebaut ist, dann wird der gefaltete Zustand durch 10*100= 1000 x,y,z-Koordinaten beschrieben. Jedes Atom i besitzt im Gleichgewicht eine Koordinate, eine Atomposition: Atomi-> F(xj,yj,zj). Diese ist aufgrund der thermischen Energie Fluktuationen unterworfen. Im gefalteten Zustand sind die Fluktuationen klein. Die möglichen Konformationen werden in Makrozustände und Mikrozustände unterteilt. Ein sogenannter Makrozustand ist dadurch gekennzeichnet, dass er von einem zweiten Makrozustand durch eine energetische Barriere getrennt ist. Abbildung 16 stellt die beiden Zustände »nativer Zustand« und »nahezu nativer Zustand« solcher Makrozustände dar. Die Höhe der Barriere ihrer gegenseitigen Umwandlung ist temperaturabhängig. Ein Makrozustand kann in sogenannte Mikrozustände zerfallen. Dies sind zum Beispiel die nicht gefalteten Zustände in Abbildung 16. Verschiedene Mikrozustände mit Elementen eines Systems zu besetzen ist entropisch bevorzugt, zwei Mikrozustände sind nicht durch eine Energiebarriere getrennt. 33 Thermodynamisches Problem der Proteinfaltung: Aufgrund der Experimente von Anfinsen müsste der gefaltete Zustand (»native state«) als thermodynamisch stabilste Konformation für jede beliebige Proteinsequenz vorhergesagt werden können, so wie es das unten diskutierte HP-Gittermodell ermöglicht. In den letzten Jahren wurden auf diesem Gebiet immense Fortschritte erzielt, insbesondere durch Methoden des machine learning (Senior/Evans/Jumper et al. 2020). Hierbei handelt es sich um Ansätze, bei denen ein Programm anhand experimentell bestimmter Proteinstrukturen und homologer Sequenzbeziehungen aus verwandten Organismen darauf trainiert wird, Muster zu erkennen und diese auf unbekannte Proteinsequenzen anzuwenden. Anders als frühere Methoden sind machine learning-Ansätze auch für solche Proteine beeindruckend genau, für die keine Strukturdaten eng verwandter Proteine vorliegen (De-novoStrukturvorhersage). Vom Prinzip her liefern derartige Ansätze aber keine Beschreibung des Faltungsvorgangs, und die Größe der TraiAnschauliches Bild für Makro- und Mikrozustände. Tal1 – Hügel – Tal2. Tal1 und Tal2 sind zwei Makrozustände. Um von Tal1 zu Tal2 zu kommen, muss man Hügel überqueren, dazu ist Energie notwendig. Tal1 und Tal2 können aus verschiedenen Wiesen bestehen. Entropisch bevorzugt ist es, dass sich z. B. drei Teile/Elemente des Systems jeweils auf einer eigenen Wiese befinden und nicht alle auf der gleichen. Um von einer Wiese zu anderen zu kommen, ist wenig Energie notwendig.

33

462 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

ningsdatensätze ist im Vergleich zur Anzahl aller natürlichen Proteinsequenzen oder gar aller denkbaren Proteinsequenzen vergleichbarer Länge infinitesimal gering. Daher sind auch die neuesten Ansätze in ihrer Anwendbarkeit vermutlich auf eine Teilmenge von Proteinsequenzen limitiert, die in einigen fundamentalen Eigenschaften den bisher experimentell lösbaren Strukturen ähnlich sind. Nach Anfinsen müsste jedoch die Sequenz allein zur Vorhersage des gefalteten Zustands ausreichend sein. Dass dies bisher nicht gelingt, liegt daran, dass die Wechselwirkungen zwischen den Aminosäureresten innerhalb des Proteins (Abb. 7) und die Wechselwirkung der Reste mit dem Lösungsmittel bzgl. ihrer enthalpischen (ΔH) und entropischen Beiträge (ΔS) nicht komplett beschrieben werden können. Das Problem stellt sich wie folgt: Es gibt für 129 Aminosäurereste eines Proteins (129*128)/2-paarweise Wechselwirkungen, die zwischen einem oder mehreren Atomen dieses Aminosäurerestes auftreten. Diese Wechselwirkungen sind in unterschiedlicher Weise vom Abstand und von der Orientierung der Atome abhängig. Ferner ist die Stärke der Wechselwirkungen abhängig von der Lösungsumgebung. Es gibt insbesondere (attraktive und repulsive) Ladungswechselwirkungen zwischen den polaren Aminosäuren und van-derWaals-Wechselwirkungen zwischen den hydrophoben Aminosäuren (Abb. 7). Ladungswechselwirkungen werden durch das CoulombGesetz beschrieben, die Wechselwirkung zweier geladener Aminosäuren ist abhängig vom Dielektrikum ε0 des Lösungsmittels. Deshalb hängt die Wechselwirkung zweier geladener Aminosäuren davon ab, ob sich ihre Seitenketten an der Oberfläche eines Proteins oder im Lösungsmittel-unzugänglichen Inneren befinden. Hydrophobe Wechselwirkungen zeigen schwieriger quantifizierbare Abstands- und Orientierungsabhängigkeiten. Im Gegensatz zu RNAund DNA-Polymeren, in denen die Wechselwirkungen zwischen einzelnen Bausteinen einfach zu beschreiben sind, sind die Wechselwirkungen in Proteinen bis jetzt auch mit quantenmechanischen Methoden nicht voll umfänglich beschreibbar. HP(hydrophob-polar)-Gittermodell zur mathematisch exakten Beschreibung des Proteinfaltungsproblems: Um deshalb die quantifizierbaren Aspekte des Proteinfaltungsproblems verständlicher zu machen, soll hier ein anschauliches Modell diskutiert werden. Dieses Modell vereinfacht das Faltungsproblem drastisch. Es hat den Vorteil, dass innerhalb dieses vereinfachten Modells jeder Schritt, jede mögliche Konformation, genau beschrieben werden kann. Das Modell ba463 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 14. Reduktion der Repräsentation einer Aminosäure im Rahmen des HP-Gittermodells. Eine Aminosäure wird durch eine Perle repräsentiert. Die Eigenschaften der 20 verschiedenen Aminosäuren werden in nur zwei unterschiedliche Klassen eingeteilt: polar (P, nicht-gefüllter Kreis) und hydrophob (H, gefüllter Kreis). Die Peptidbindung wird durch eine Linie repräsentiert. Das in a) dargestellte Dipeptide L-Ala-L-Ala-OH weist zwei Aminosäuren mit zwei hydrophoben Seitenketten auf, das in b) dargestellte Dipeptide L-Ala-L-Glu-OH weist Aminosäuren mit einer hydrophoben und einer hydrophilen Seitenkette auf. Der in c) indizierte Winkel α gibt die relative Orientierung der Aminosäuren an.

siert auf folgenden Überlegungen und Vereinfachungen: Proteine sind lineare polymere Moleküle, die aus Aminosäuren aufgebaut sind und deren dreidimensionale Konformation, deren Struktur, aufgrund nicht-lokaler Wechselwirkungen stabilisiert wird, also Wechselwirkungen zwischen zwei Aminosäuren, die nicht direkt benachbart sind. Das hier diskutierte vereinfachende HP-Gittermodell ist sehr anschaulich im Kontext einer disziplinenübergreifenden Komplexitätsdiskussion. Das Modell geht davon aus, dass eine Aminosäure durch einen Kreis (2D-Modell) oder eine Kugel (3D-Modell) repräsentiert wird (s. S. 361) und dass der sequentielle Abstand der kovalenten Bindungen zwischen zwei Aminosäuren durch eine verknüpfende Linie dargestellt wird (beads-on-a-string-model) (Abb. 14) (Lau/Dill 1989). Den verschiedenen Aminosäuren werden statt der zwanzig verschiedenen Eigenschaften (s. Abb. 7) nur zwei unterschiedliche Eigenschaften zugewiesen, entweder ist eine Aminosäure hydrophob (H) oder polar (P), in den Abbildungen 14–16 symbolisiert durch leere und schwarz gefüllte Kreise beziehungsweise Kugeln. Die relative Position von drei Kugeln im zweidimensionalen Raum wird dann beschrieben durch einen Winkel α. Die Kugeln können nun auf durch Einheitslängen voneinander entfernten Punkten auf einem Gitter positioniert werden. Dabei kön464 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 15. a) Gitterpunkte eines 2D-Gitters. b) Konstruktion eines 3D-Gitters. Abbildungen aus dem Netz. c) Eine Konformation einer Polypeptidkette im 2D HP-Gittermodell, d) eine Konformation einer Polypeptidkette im 3D HPGittermodell, modifiziert wiedergegeben nach Lau/Dill 1989.

nen Gitterpunkte durch Kugeln besetzt oder unbesetzt sein. Es gibt zwei- und dreidimensionale Gitter. Im zweidimensionalen Gitter (Abb. 15a) befinden sich die Kugeln in einer Ebene und die Verbindungslinie zwischen 2 Kugeln kann entweder nach oben/unten oder nach rechts/links gezogen werden (der Winkel α kann nur die Werte 0°/–180° oder �90° annehmen). Im dreidimensionalen Gitter (Abb. 15b) befinden sich die Kugeln in einem Quader und Verbindungslinien können zusätzlich nach vorne oder hinten ausgestreckt sein (die Position der benachbarten Kugel ist damit durch 2 orthogonale Winkel festgelegt). Alle Konformationen, die im zweidimensionalen (2D) Gitter repräsentiert werden können, sind auch im dreidimensionalen (3D) Gitter enthalten. Im 2D-Gitter gibt es z=4 Nachbarpunkte für jeden Punkt auf dem Gitter, die Zahl der mög465 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

lichen Orientierungen der Bindungen ist z-1=3. Für das 3D-kubische Gitter gilt: z=6. Wie in Abbildung 6 erkennbar, liegen die Atome Cαi,C'i,Ni+1, Cαi+1 aufgrund der Planarität der Peptidbindung in einer Ebene. Ihr Abstand ist konstant. Deshalb werden sie im HP-Modell durch eine virtuelle, die beiden Cα-Atome verbindende Linie repräsentiert. Der Abstand der beiden Cαi- und Cαi+1-Atome, man spricht auch von der virtuellen Cαi- und Cαi+1-Atome, ist 0.38 Nanometer. Die Repräsentation dieser virtuellen Bindung durch eine Linie eines einheitlichen Abstands im HP-Modell stellt also keine grobe Vereinfachung dar. Das HP-Modell ist bzgl. zweier Festlegungen allerdings grob vereinfachend. Zuerst wird die relative Orientierung zweier Reste stark eingeschränkt. Abbildung 6b zeigt die möglichen Werte, die die Rückgratwinkel ϕ und ψ in Proteinen einnehmen können, und Abbildung 9 zeigt die verschlungene dreidimensionale Faltung des Proteins Lysozym. Im 2D-HP-Gittermodell reduziert sich dies auf einen Winkel α, für den die Werte 0° oder �90° erlaubt sind. Allerdings kann man sich einfache Erweiterungen vorstellen, wie man von Karokästchen-Gittern zu interessanteren Gittern kommen kann. Als zweites werden die möglichen Wechselwirkungen zwischen zwei Aminosäuren stark eingeschränkt. Dies stellt die größte Vereinfachung der HP-Modelle dar. Jede der zwanzig Aminosäuren ist aus unterschiedlichen Atomen aufgebaut, so dass die von jeder Aminosäure ausgehenden Wechselwirkungsfelder verschieden sind. Diese kompensieren sich durch die dreidimensionale Anordnung der Aminosäuren im Raum, z. B. indem sich gegensätzlich geladene Reste anziehen und gleich geladene Reste möglichst weit voneinander entfernt sind. Dahingegen gibt es im HP-Modell nur zwei Arten von Aminosäuren, nämlich hydrophob (H) oder polar (P). Der Wechselwirkung dieser beiden möglichen Eigenschaften hydrophob oder polar werden Wechselwirkungsterme zugeschrieben: Im einfachen HPGittermodell von Dill et al. gelten die relativen Energien (HH, PP, HP=PH) = (-1,0,0) (Lau/Dill 1989), aber andere Zuordnungen sind ebenfalls vorgeschlagen worden. Ein negativer Energieterm ist stabilisierend. Man sieht, dass im HP-Modell nach Dill die Stabilität eines Proteins ausschließlich durch die Zahl der Kontakte/Wechselwirkungen zwischen zwei hydrophoben Aminosäuren hervorgerufen wird. Die Sequenz einer Polypeptidkette ist durch die Abfolge von hydrophoben oder hydrophilen Aminosäuren definiert. Die in Abbildung 16 gezeigte Kette hat die Sequenz: HHHPHPHPPHPH 466 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 16. Vier der möglichen Konformationen der Polypeptidkette mit der Sequenz HHHPHPHPPHPHPPHPPH. Konformation 1 stellt diejenige Konformation dar, die den größten »end-to-end«-Abstand (18*0.38=6.84 Nanometer) aufweist. In dieser Konformation sind alle Winkel α = 0°. Für Konformation 2 gilt: α4=–90°, α7=+90°. Die Zahl der attraktiven H-HWechselwirkungen ist in Konformation 1 und Konformation 2 gleich, weil beide Konformationen nur Wechselwirkungen zwischen benachbarten Resten aufweisen, die in allen Konformationen in gleicher Weise auftreten. Konformation 3 weist drei abzweigende Winkel auf: α4=-90°, α7=+90°, α7=-90°. Dadurch sind die beiden Reste 7 und 10 auf benachbarten Punkten des zweidimensionalen Gitters. Konformation 3 ist also gegenüber Konformation 1 und Konformation 2 um (-) eine Energieeinheit stabilisiert. Konformation 4 der Polypeptidkette wird durch die Werte von 16 Winkeln α bestimmt. Die Kette ist sehr kompakt. Sie weist neun attraktive H-H Wechselwirkungen auf (2–5, 3–18, 7–2, 7–10, 10–1, 12–1, 12–15, 15–18, 18–1). Die Zahl der möglichen Konformationen, die neun attraktive H-H-Wechselwirkungen aufweisen, ist viel kleiner als die Zahl der möglichen Konformationen, die eine oder zwei attraktive Wechselwirkungen aufweisen. Konformation 4 ist aufgrund dieser neun Wechselwirkungen stabilisiert (enthalpische Stabilisierung), Konformation 3 und ähnliche Konformationen sind aufgrund der Zahl der möglichen Konformationen mit nur einer Wechselwirkung stabilisiert (entropische Stabilisierung).

PPHPPH. Für solche Ketten können alle Konformationen generiert werden. Abb. 16 zeigt mögliche Konformationen 34 der Polypeptidkette. Sie variieren bzgl. der einzelnen Winkel α. Wie aus der Abbildung deutlich wird, ist Konformation 3 kompakter als Konformation 2 als 34

In der älteren Literatur spricht man auch von Konfigurationen. Dies ist verwirrend.

467 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Konformation 1. Der »end-to-end«-Abstand ist in den drei Konformationen unterschiedlich. Weiterhin erkennt man an dieser Konstruktion, dass die Zahl der gemäß Modell einzig attraktiven Wechselwirkungen (H-H-Wechselwirkungen) für Wechselwirkungen zwischen zwei benachbarten Resten Resti/Resti+1 in allen Konformationen gleich sind und deshalb nicht mitgezählt werden müssen. Die in Konformation 3 auftretende Wechselwirkung zwischen den Resten 7 und 10, die genau ein Gitterpunkt voneinander entfernt sind, ist die erste stabilisierende Wechselwirkung. Auf dieser Basis können sämtliche möglichen Konformationen konstruiert werden. Nach Konstruktion (auch im Computer) können ihre Stabilitäten thermodynamisch, also bzgl. ihrer Enthalpie und ihrer Entropie, berechnet werden. Im Modell ergibt sich z. B. die Energie der unterschiedlichen Konformationen aus der Zahl der HH-Kontakte, die Zahl der zugänglichen Konformationen ergibt sich aus einer zunehmenden Kompaktheit, induziert durch die Zunahme und Verdichtung der HH-Kontakte. Abbildung 17 liefert eine theoretische Formulierung des Prozesses der Proteinfaltung. Die Energielandschaft eines sich faltenden Proteins wird mittels eines Trichters dargestellt. Unter Bedingungen (von Temperatur und chemischer Umgebung), in denen sich ein Protein falten kann, verläuft die Faltung ausgehend von langgestreckten Konformationen ohne HH-Kontakte (n=0) hin zur thermodynamisch stabilsten Konformation mit maximalen HH-Kontakten. Am oberen Rand befinden sich viele mögliche Formen der Polypeptidkette ohne HH-Kontakte. Zunächst bilden sich noch relativ instabile Faltungsintermediate mit wenigen (n=2) HH-Kontakten. Es gibt eine noch große Anzahl verschiedener Formen mit zwei HH-Kontakten. Im Verlauf der Faltung verengt sich der Faltungstrichter, der ein Maß für die Zahl unterschiedlicher Formen (Konformationen) der Polypeptidkette ist. Ausgehend von Intermediaten mit zwei HH-Kontakten können sich zwei unterschiedliche, sehr stabile Formen bilden: eine nahezu native Form mit sieben HH-Kontakten und die stabilste, native Form mit neun HH-Kontakten. Wie aus Abbildung 17 graphisch ableitbar, ist die Anordnung der sieben HH-Kontakte in der nahezu nativen Form deutlich unterschiedlich zu den neun Kontakten in der nativen Form. Aus diesem Grund ist die nahezu native Form Nach der für Semantik in der Chemie zuständigen Kommission IUPAC handelt es sich um Konformationen.

468 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 17. (oben) Auftragung der Energie als Funktion der nativen Kontakte. Im Gittermodell werden als Vereinfachung ausschließlich hydrophobe Kontakte angenommen. Auf der linken Energieachse nimmt die Energie ab, je mehr Kontakte n (rechts) ausgebildet werden. Die Zahl der möglichen Strukturen nimmt ab, je mehr native Kontakte vorhanden sind. Strukturen mit weniger Kontakten sind entropisch bevorzugt.

metastabil. Um von der nahezu nativen Form zur nativen Form zu kommen, müssen einzelne HH-Kontakte aufgebrochen und neue HH-Kontakte gebildet werden. Die Umfaltung dieser beiden Energieformen ineinander verläuft langsam, weil die verbindenden Intermediate weniger stabil sind und damit höher im Faltungstrichter liegen, als die beiden (meta)-stabilen Formen. Für die beiden stabilen Formen verdichten sich die HH-Kontakte in einem inneren Kern des Gitters, dadurch werden Lösungsmittelkontakte reduziert. Dies wird als hydrophober Effekt bezeichnet, die wahrscheinlich größte Triebkraft der Proteinfaltung. Aspekte der Komplexität bzw. Komplexitätsprozesse bei Proteinfaltung – Leistungen des HP-Gitter-Modells: Aus dem bisher Gesagten wird die exponentielle Skalierung der Rechenschritte mit Zunahme der Zahl an Aminosäuren verständlich. Weiterhin wird 469 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

verständlich, dass die Art der Wechselwirkung und ihre Distanz- und Orientierungsabhängigkeit in wirklichen Proteinen schwierig, ggfs. unmöglich zu beschreiben ist. Die Wechselwirkungen, die ein Rest i eingeht, hängen von der Konformation vieler weiterer Reste ab. Wir können diese Wechselwirkungsterme bisher mittels Moleküldynamik-Simulationen, die auf klassischen Newtonschen Kraftfeldern beruhen, nur näherungsweise berechnen. Für quantenmechanische Berechnungen ist die Zahl der zu behandelnden Atome zu groß und insbesondere sind die Wechselwirkungen zwischen Protein und Lösungsmittel nicht hinreichend verstanden. Auf der anderen Seite kann der numerische Aufwand für die Berechnung der thermodynamischen Aspekte der Faltung mathematisch angegeben werden. Weiterhin sind die prinzipiellen Grenzen von enthalpischer und entropischer Stabilität wahrscheinlich zumindest näherungsweise benennbar. Aus diesen Aspekten ergibt sich also eine Beschreibung des komplexen Systems Proteinfaltung hinsichtlich der Zahl der Elemente (Atome bzw. Aminosäuren), der Kräfte zwischen diesen Teilchen (Coulomb, Lennard-Jones etc.), der Zahl der möglichen Zustände, der Energie dieser möglichen Zustände, des externen Energieeintrags in dieses System sowie des Verhaltens des Systems unter Energieeintrag. Es ist erstaunlich, dass Faltung in einem System, das alle Merkmale eines komplexen Systems aufweist, dennoch korrekt und reproduzierbar verläuft. Die Evolution des komplexen Systems verhält sich experimentell eindeutig. 35 Im Allgemeinen gehen biochemische/biophysikalische Experimente davon aus, dass die biologische Funktion von Ensembles des gleichen Proteins ausgeht, dass also nicht einzelne Proteinketten funktional sind. Die Größe des Ensembles ist dabei in der Größenordnung von 105–1017 Teilchen. Dabei gilt allgemein die ergodische 36 An diesem Punkt kommt Proteinfehlfaltung ins Spiel. Wenn Proteinfaltung nicht korrekt verläuft, können die fehl-gefalteten aggregierenden Proteine zu Proteinfaltungskrankheiten führen. Da die Chance des Eintritts von Proteinfehlfaltung mit der Zeit zunimmt, sind viele Proteinfehlfaltungskrankheiten ursächlich für die Krankheiten einer alternden Bevölkerung (Alzheimer, Parkinson etc.). siehe z. B. Chiti/Dobson 2017. 36 Die Ergodenhypothese (oft auch als Ergodentheorem bezeichnet) besagt, dass sich thermodynamische Systeme in der Regel zufällig verhalten (»molekulares Chaos«), sodass alle energetisch möglichen Phasenraum-Regionen auch erreicht werden. Die Zeit, die sich eine Trajektorie im Phasenraum der Mikrozustände in einer bestimmten 35

470 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Annahme: Das Ensemble der 105 Teilchen verhält sich so, wie sich auch ein einzelnes Teilchen – beobachtet über eine lange Zeit – verhalten würde, d. h. der Mittelwert einer Eigenschaft des Ensembles ist gleich dem zeitlichen Mittelwert derselben Eigenschaft des Einzelmoleküls. Im Allgemeinen 37 ist die Funktion eines Proteins, z. B. die Beschleunigung der Hydrolyse eines Zuckers durch das Enzym Lysozym, an die dreidimensionale Konformation gekoppelt, wenn auch häufig an schwach populierte aktivierte Zustände, in denen nicht alle nativen Kontakte ausgebildet sind, die aber im Wesentlichen die dreidimensionale Konformation des Proteins beibehalten. Evolutiv ist die Kopplung von Faltung, von Eigenschaften von Aminosäuren und ihrer funktionalen Diversität (Mannigfaltigkeit) in keiner Weise zwingend, sondern »unvorhersagbar neu«. Um eine chemische Reaktion zu katalysieren, muss ein Enzym innerhalb einer dreidimensionalen Konformation einzelne reaktive Atome in eine bestimmte räumliche Lage positionieren. In welcher dreidimensionalen Lage dies gelingt und welche Atome sich am besten dazu eignen und dass alle biochemisch notwendigen Reaktionen durch Enzyme katalysiert werden können, ist »unvorhersagbar neu«. Biochemische Funktion muss im Wesentlichen in engen Temperaturbereichen etabliert werden. Dass die evolvierten Strukturen dies bewerkstelligen, ist nicht zwingend, sondern »unvorhersagbar neu«, da die Zahl und Eigenschaften der Atome und ihrer Verbindung entkoppelt sind von Evolutionszyklen. Zeitkomplexität des Proteinfaltungsproblems: In der Informatik ist die zur Lösung eines Problems erforderliche Anzahl an Rechenoperationen ein intuitives Maß für seine Komplexität. Fundamental ist dabei die Frage, mit welcher Funktion der Rechenaufwand mit der Anzahl der Eingaben, also mit der Größe des zu berechnenden Systems skaliert. Aus dieser Betrachtung ergeben sich die von A. CojaOghlan in diesem Band (s. S. 291 ff.) eingeführten Komplexitätsklassen P und NP. Ein Problem ist in der Klasse P, wenn es in Polynomialzeit lösbar ist, wenn also der nötige Rechenaufwand in Form eines Polynoms mit der Größe des untersuchten Systems skaliert. Probleme in P werden als praktikabel angesehen, denn selbst wenn wie im oben genannten Beispiel die Interaktionsbeiträge jedes möglichen Region befindet, ist proportional zum Volumen dieser Region. Anders ausgedrückt besagt die Hypothese, dass thermodynamische Systeme ergodisch sind. 37 Eine Ausnahme bilden die intrinsisch ungeordneten Proteine.

471 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Aminosäurepaares für eine gegebene Konformation approximiert werden sollen, skaliert die Anzahl der notwendigen Rechenoperationen nur mit einer Funktion der Größenordnung n2 (auch höhere Exponenten sind möglich). Dem gegenüber stehen Probleme der Klasse NP, bei denen die Anzahl notwendiger Rechenoperationen mit der Zahl der Eingaben exponentiell skaliert, und eine Lösung daher nur für sehr kleine Systeme in praktikabler Rechenzeit möglich ist. 38 Ein klassisches Beispiel hierfür ist ein Proteinfaltungsalgorithmus, der jede mögliche Konformation evaluiert und daher trotz grober Modellvereinfachungen unlösbar ineffizient bleibt. Wenn z. B. jede Aminosäure in einem Protein nur zwei unterschiedliche Konformationen einnehmen kann, dann ergibt dies für ein Protein aus 129 Aminosäuren 2129= 6.8*1038 mögliche Gesamtkonformationen. Selbst ein hypothetischer Supercomputer, der 10 Billionen (1013) mögliche Konformationen pro Sekunde analysiert, würde für eine solche Rechnung 6,8*1038 *10-13s=6.8*1025s>1020 Jahre benötigen. Unser Universum ist nur 13.7 Milliarden (1.37*1010) Jahre alt. Probleme der Klasse NP haben zudem die interessante Besonderheit, dass trotz ihrer Komplexität eine vorgegebene Lösung in Polynomialzeit, also effizient überprüft werden kann. Die Berechnung der thermodynamischen Stabilität einer möglichen Proteinkonformation käme einer solchen Überprüfung gleich. Trotz der zahlreichen Wechselwirkungen, die hier ggf. vereinfachend aufsummiert werden müssen, ist eine solche Rechnung im theoretischen Sinne effizient. Versucht ein Algorithmus jedoch die Konformation mit der niedrigsten Energie zu finden, muss dafür jede Konformation evaluiert werden. Ein Alltagsbeispiel für dieses Ungleichgewicht sind Sudokurätsel, bei denen das Finden einer Lösung komplex, das Überprüfen eines gegebenen Lösungsvorschlags aber selbst für große Systeme einfach ist. Auch die Verschlüsselung von Daten macht sich dieses Prinzip zu Nutze. Da jedes Problem in P auch in NP lösbar ist (P ist daher eine Teilmenge von NP), benötigen wir noch eine Definition für besonders schwere, also »reine« NP-Probleme. Diese bezeichnen wir als »NP-vollständig«. Aus der theoretischen Perspektive wird Proteinfaltung typischerDies ist eine Vereinfachung. Formell sind Entscheidungsprobleme der Klasse NP von einer »nichtdeterministischen Turingmaschine« (NTM) in Polynomialzeit lösbar. Eine NTM ist jedoch ein theoretisches Konstrukt, das alle Lösungsmöglichkeiten parallel evaluiert. Von realen Computern werden die Lösungswege eines NP-Problems nacheinander in exponentieller Zeit berechnet. Betont wird durch eine solche Definition die exponentielle Zahl relativ einfacher Einzelrechnungen.

38

472 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

weise als NP-vollständiges Problem angesehen (Berger/Leighton 1998). Kinetisches Problem der Proteinfaltung: Warum ist eine informatische Betrachtungsweise der Proteinfaltung nützlich? Weil dasselbe Problem in der Natur besteht und dort äußerst effizient gelöst wird. Analog zum obigen Rechenbeispiel wurde die astronomische Zahl möglicher Zustände auch hier als problematisch erkannt. Dies wird als das Levinthal 39-Paradoxon 40 der Proteinfaltung bezeichnet. Die Zeit, die eine Aminosäure benötigt, um von einer Konformation in die andere zu wechseln, hängt von der Aktivierungsenergie für diese Änderungen ab. Selbst wenn man sehr kleine Aktivierungsenergien annimmt, die mit sehr kurzen Zeiten τ~10–13s einhergehen (10 Billionen Übergänge pro Sekunde), liegt die Zeit, die benötigt wird, um für 129 mögliche Aminosäuren alle Konformationen einmal einzunehmen und somit ein Protein über einen stochastischen Weg »zu falten«, in der oben erwähnten Größenordnung (1020 Jahre), eine Zeitspanne, die länger als das Alter des Universums ist. Experimentell beobachtet man jedoch, dass sich Proteine sehr schnell falten, je nach experimentellen Bedingungen innerhalb von wenigen Millisekunden bis Sekunden. Die Komplexitätsklassen P und NP werden aus praktischer Erfahrung als voneinander verschieden angenommen, allerdings bisher ohne mathematischen Beweis. Dieses sogenannte P-NP-Problem ist eine der fundamentalen ungelösten Fragen in der Mathematik. Das Levinthal-Paradoxon und die jüngsten Erfolge in der Proteinstrukturvorhersage durch machine learning könnten daher einen Hinweis dafür liefern, dass evtl. alle Probleme der Klasse NP mit dem richtigen Algorithmus auf die Komplexität P reduziert und damit effizient gelöst werden können, dass also in Wahrheit gilt: P = NP. Es ist wahrscheinlicher, dass Proteinfaltung in der Realität kein NP-vollständiges Problem ist, da Polypeptidketten nicht rein stochastisch, sondern entlang einer Energielandschaft falten (s. Abb. 17), in der nur ein verschwindend geringer Anteil des theoretisch möglichen Konformationsraums tatsächlich populiert wird. Levinthal selbst schlug als Lösung seines Gedankenexperiments vor, dass schnell geCyril Levinthal war ein High-School Teacher, also ein Gymnasiallehrer. Levinthal-Paradoxon veröffentlicht als Tagungsbericht einer Tagung für Mössbauer spectroscopy: Mössbauer spectroscopy in biological systems; proceedings of a meeting held at Allerton House, March 17 and 18, 1969, Monticello, Ill.

39 40

473 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

bildete lokale Interaktionen als Nukleationskerne für weitere Faltungsschritte fungieren würden, weshalb die Bezeichnung Paradoxon wohl als Übertreibung angesehen werden kann (Rooman/Dehouck/ Kwasigroch et al. 2002). In der Tat demonstrierte ein simples mathematisches Modell, dass bereits die Einführung minimaler energetischer »Strafen« für ungünstige lokale Wechselwirkungen die geschätzte Faltungszeit auf eine biologisch relevante Größenordnung senkt (Zwanzik/Szabo/Bagchi 1992). Da Sekundärstrukturen und lokale Kontakte schneller ausgebildet werden als nicht-lokale (tertiäre) Interaktionen, kann von einem durch Modularität stark vereinfachten Faltungsvorgang ausgegangen werden (Rollins/Dill 2014). Auch die Vermeidung nicht-produktiver lokaler Energieminima spielt dabei eine entscheidende Rolle. Eine für schnelle Faltung optimierte Energielandschaft ist jedoch keine grundlegende Klasseneigenschaft von Proteinen, sondern nach evolutiver Optimierung in der jeweiligen Aminosäuresequenz codiert (Dobson 2003). Wie in Tabelle 2 gezeigt, sind für ein mit 100 Aminosäuren relativ kleines Protein 1.26*10130 verschiedene Sequenzen möglich. Dem gegenüber stehen etwa 200 Millionen (2*108) nachgewiesene oder aus Genomanalysen abgeleitete natürliche Proteinsequenzen. Das bedeutet, dass der theoretische Sequenzraum, ähnlich wie der mögliche Konformationsraum, in der Realität als nahezu leer angenommen werden kann, und dass die winzigen Inseln tatsächlich existierender Sequenzen wahrscheinlich für äußerst seltene Eigenschaften optimiert sind. Die Fähigkeit zur schnellen und effizienten Faltung ist vermutlich eine solche Eigenschaft, was die Diskrepanz zwischen theoretischer und praktischer Komplexität des Proteinfaltungsproblems erklären könnte. 41

8.

Kinetische Aspekte des zellulären Informationstransfers

Zellulärer Informationstransfer ist die Weiterleitung der genetischen Information von einer Elternzelle zu einer Tochterzelle und die Umsetzung dieser genetischen Information in Funktion während Transkription und Translation. Bisher haben wir die jeweiligen synthetischen Schritte der Biopolymeren und die anschließende Faltung der

Für eine tiefergehende Diskussion des Themas Levinthal und Komplexität, siehe: Ngo/Marks/Karplus 1994.

41

474 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

dreidimensionalen Konformation von RNA und Protein getrennt diskutiert. Dies ist in weiten Teilen aufgrund der Arbeiten von Anfinsen gerechtfertigt, da die Information über die dreidimensionale Konformation in der Aminosäuresequenz enthalten ist (Abschnitt 6). Vor kurzem konnten wir aber in Experimenten zeigen, dass die Kinetik der Transkription und der Translation wesentlichen Einfluss auf die Funktion von RNAs und von Proteinen hat. Es konnte gezeigt werden, dass für bestimmte RNA-basierte Regulationssysteme (Riboswitches) die Transkriptionsregulation nur während der RNA-Synthese durch RNA-Transkriptionsintermediate erreicht werden kann. Diese Transkriptionsintermediate nehmen metastabile Konformationen ein, nach Beendigung der Transkription ist das vollständige RNA-Transkript nicht mehr regulatorisch aktiv (Wickiser/Winkler/ Breaker et al 2005; Helmling/Klötzner/Sochor et al 2018; Steinert/ Sochor/Wacker 2017; Binas/Schamber/Schwalbe 2020; Parra-Rojas/ Fürtig/Schwalbe et al 2020). Für RNA-basierte Regulation zeigen diese Experimente und ihre theoretische quantitative Modellierung eine Kopplung der Kinetik der RNA-Synthese, der gleichzeitigen Faltung der RNA in eine funktionale Struktur und strukturabhängige Regulation an. In Abschnitt 5 haben wir die Entstehung des genetischen Codes besprochen. Er liefert die Übersetzungsvorschrift, welche Basentripletts für welche Aminosäure kodieren. Basentripletts aus vier verschiedenen RNA-Bausteinen können bis zu 43 = 64 verschiedene Aminosäuren kodieren. Wir haben gesehen, dass es ein Start- und drei Stopp-Codons gibt. Nur die beiden Aminosäuren Tryptophan und Methionin werden nur von einem einzigen Codon kodiert, alle anderen Aminosäuren werden von bis zu sechs verschiedenen Codons kodiert, dabei ist insbesondere der dritte RNA-Baustein sehr variabel. Die Nutzung dieser synonymen Codons ist in verschiedenen Organismen sehr unterschiedlich (Tabelle 4) (Angov/Hillier/Kincaid et al. 2008). Erst vor kurzem konnten wir zum Verständnis, vor allem auch der funktionalen Konsequenzen, der Nutzung unterschiedlicher Codons beitragen (Buhr/Jha/Thommen et al. 2016; Schulte/Mao/ Reitz et al. 2020). Diese Untersuchungen führen einen kinetischen Aspekt zum zellulären Informationstransfer ein, insbesondere bei der Faltung eines Proteins bereits während des Verlaufs der Proteinbiosynthese. Die Arbeiten zeigten, dass je nach exakter Geschwindigkeit der Inkorporation jeder einzelnen Aminosäure während der 475 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Tabelle 4. Unterschiedliche Nutzung synonymer Codons am Beispiel der Codonnutzung für die Aminosäure Arginin (Arg) in einem Bakterium (Escherichia coli) und im Rind (Bos taurus). Codons für die Aminosäure Arg

Nutzung der Codons (absolute Werte) pro Tausend Codons E. coli

B. taurus

CGG

7,9

12,5

CGC

14,0

11,1

CGA

4,8

6,4

CGU

15,9

4,6

Translation des Augenlinsenproteins γB-Crystallin der Oxidationszustand von Cysteinresten im Protein verändert wird, was unterschiedliche Stabilitäten und lokale Strukturen des unterschiedlich translatierten Proteins zur Folge hat. Aufgrund dieser Beobachtungen wird die Erweiterung der Beschreibung zellulären Informationstransfers um eine kinetische Dimension erforderlich. Abbildung 18 vergleicht die Zeitskalen, auf denen Konformationsänderungen innerhalb eines Proteins stattfinden, mit der Geschwindigkeit der Proteintranslation. Faltungsrelevante Prozesse finden auf Zeitskalen statt, die zwölf Größenordnungen umspannen. Rotationen um Einfachbindungen finden auf einer Zeitskala von 10-10 Sekunden (Nanosekunden) statt, die Faltung einfacher Sekundärstrukturelemente wie insbesondere α-Helices benötigt 10 –6 Sekunden (Mikrosekunden) und die Faltung von Proteinen mit einer einzigen Domäne kann schon in einer Millisekunde (10 –3 Sekunden) verlaufen. Typische Faltungszeiten von Proteinen liegen auf einer Zeitskala von 100 Millisekunden und 10 Sekunden (10 –1 –101 Sekunden). Dem steht gegenüber, dass man für die Verweilzeiten eines Codon-Anticodon-Paars aus mRNA und tRNA am Ribosom ebenfalls zwischen 100 Millisekunden und einer Sekunde annimmt, mit einigen Variationen zwischen verschiedenen Organismen. Die Geschwindigkeit der Faltung und der Proteinsynthese befinden sich also auf der gleichen Zeitskala. Bei der Proteintranslation ist in jedem Verlängerungsschritt (Elongation) jeweils ein Codon der mRNA für sein komplementäres Anticodon der entsprechenden tRNA zugänglich. Die Rekrutierung der tRNA ist dabei der ratenlimitierende Schritt und hängt von der 476 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 18. Zeitbereiche für Faltungsprozesse und für die Proteinbiosynthese. Es zeigt sich, dass die Proteinfaltung auf der gleichen Zeitskala wie die Proteinbiosynthese verläuft (Zeitskala in rot angedeutet). Abbildung entnommen aus Buhr et al. 2018.

absoluten und relativen Konzentration der passenden tRNA-Spezies ab. Der richtigen Codon-Anticodon-Wechselwirkung kann dabei ein Ausprobieren einer Vielzahl falscher Codon-Anticodon-Wechselwirkungen aufgrund der Bindung einer falschen tRNA vorangehen. mRNA-Codons mit häufigeren tRNAs haben dabei eine größere Chance auf die richtige Codon-Anticodon-Wechselwirkung und werden daher im Mittel schneller abgelesen als Codons mit selteneren tRNAs. Da die jeweiligen tRNA-Konzentrationen mit den entsprechenden Codonhäufigkeiten im Genom korrelieren, kann die relative Codonnutzung in einem Organismus als Näherung für die Translationsgeschwindigkeit herangezogen werden (Tabelle 4). Die gleiche Aminosäure kann also unterschiedlich schnell eingebaut werden, je nachdem, welches synonyme Codon für die Translation genutzt wird. 477 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 19. Bildliche Veranschaulichung der Translation selten und häufig genutzter Codons. In dieser Abbildung ist die wachsende Polypeptidkette durch die graue Kette einer tRNA im Ribosom symbolisiert. Rechts neben der Bindungsstelle der tRNA, der so genannten P-site (s. Abbildungen 13 und 18), ist die A-site im Ribosom. Hier befindet sich das nächste Codon auf der mRNA (blaue Kette am unteren Ende des Ribosoms). Die verschiedenen tRNAs befinden sich außerhalb des Ribosoms. Sie sind unterschiedlich häufig vorhanden, sie besitzen also unterschiedliche Konzentrationen. Eine häufige tRNA, hier durch den dunkelblauen L-förmigen Schlauch symbolisiert, führt zu schneller Dekodierung der mRNA, während eine seltene tRNA, hier durch den hellgrauen L-förmigen Schlau symbolisiert, zu langsamer Dekodierung führt. Erst wenn die richtige komplementäre tRNA an der A-site des Ribosoms gebunden ist, kommt es zur Ausbildung einer neuen Peptidbindung.

Abbildung 20 zeigt die Variation der Codonnutzung einer gleichen mRNA-Sequenz des Proteins γB-Crystallin bei Translation im Rind oder im Bakterium. Proteine falten nicht nur nach ihrer Synthese am Ribosom, sondern auch nach Freisetzung von Ribosomen innerhalb der Zelle immer wieder. Faltung und Entfaltung eines Proteins finden also permanent statt. Die Detektion initialer Unterschiede während der gekoppelten Translation und Faltung des vollständig synthetisierten Proteins erfordert also, dass diese Unterschiede bei der ersten Faltung direkt nach Synthese in irgendeiner Weise gespeichert werden. Bisher kommen hierfür drei verschiedene Mechanismen in Frage: der Austausch ganzer Domänen des Proteins aus dem gefalteten Zustand (engl.: »domain swapping«), die Verschiebung von Sekundärstrukturen zwischen unterschiedlichen Anordnungen insbesondere von βFaltblattstrukturen (engl.: »β-register shifts«) sowie Unterschiede in kovalenten Modifikationen des Proteins. Für das Modellprotein γBCrystallin konnten wir zeigen, dass sich die Oxidationszustände von 478 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 20. (links) Codonnutzung der genetischen Information des Modellproteins γB-Crystallin im Rind (B. taurus) und im Bakterium (E. coli). Die Position von Cysteinresten im Protein ist durch gelbe Kreise markiert, die Sekundärstrukturelemente im Protein aus zwei Domänen ist in Kästen angegeben; (rechts) Geschwindigkeit der Translation in Abhängigkeit der mRNASequenz. U steht für die identische mRNA (unmodifiziert), die aus dem Rind heterolog im Bakterium exprimiert wird, H steht für eine mRNA, in der die Geschwindigkeit der Translation zwischen den beiden Organismen durch Austausch synonymer Codons angepasst (harmonisiert) wurde. Abbildungen entnommen aus Buhr 2018.

Cysteinaminosäuren des Proteins je nach verwendeter synonymer mRNA-Sequenz unterscheiden. Weiterhin konnten wir zeigen, dass diese Modifikationen heterogen sind und bereits im Exit-Tunnel des Ribosoms stattfinden können (Schulte/Mao/Reitz et al. 2020). Unter gemeinsamer Betrachtung der Geschwindigkeiten der Proteinsynthese und -faltung ergibt sich folgendes Bild: Die Synthese- und Faltungstrajektorien fächern sich für verschiedene Proteinmoleküle innerhalb des Ensembles auf (Abb. 21). Interessanterweise wird die Heterogenität ebenfalls für γB-Crystallin beobachtet, das aus Rinderaugen isoliert wurde. Eine Geschwindigkeitsoptimierung der Proteinsynthese durch evolutive Selektion der verwendeten synonymen Codons mit den kinetischen Anforderungen an produktive Proteinfaltung führt deshalb zu veränderten Proteinfaltungstrajektorien während der Proteinsynthese und reversiblen Faltungs- und Entfaltungsvorgängen in der Zelle und in vitro, wie in Abbildung 22 gezeigt. Im Verlauf der Trans479 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 21. Das Modell für die Kopplung zwischen Synthese und Faltung des Proteins γB-Crystallin unter Verwendung zweier synonymer mRNAs U und H. Abbildungen entnommen aus Buhr/Jha/Thommen et al. 2016. Das Cytosol im Bakterium E. coli ist prinzipiell reduzierend. Dies führt dazu, dass Disulfidbrücken zwischen Cysteinresten gebrochen werden, außer wenn durch die dreidimensionale Konformation der naszierenden Polypeptidkette die Disulfidbrücke sterisch abgeschirmt ist. Für mRNA (H) verläuft die Proteinsynthese schneller als für mRNA (U) (s. Abb. 19). (Oben): Die Proteinsynthese unter Nutzung der Codons der mRNA (U) ist zu langsam, als dass oxidierte Cysteinreste vor Reduktion sterisch geschützt sind. Da die Cysteinreste eine wichtige Funktion zur Faltungsstabilität während der Translation beitragen, können nur 65 % des Proteins nach Translation korrekt gefaltet werden, 35 % aggregieren (Mis). (Unten): Für mRNA (H) ist die Proteinsynthese so schnell, dass die gesamte N-terminale Domäne des Zwei-Domänen-Proteins bereits entstanden ist und dadurch die zu 58 % entstehende Cysteinbrücke vor Reduktion schützt. Faltung in diese Domäne führt nicht zu Aggregaten. Für die reduzierte Form ohne Cysteinbrücke (42 %) beobachtet man ebenfalls 35 % Aggregation. Im Falle der Translation der mRNA (H) isoliert man 58 % gefaltetes Protein mit einer Disulfidbrücke, 15 % aggregiertes Protein und 27 % gefaltetes Protein ohne Disulfidbrücke. Die vom Modell postulierte Ausbildung einer Disulfidbrücke noch im Exit-Tunnel des Ribosoms konnte mittlerweile bestätigt werden und damit nachgewiesen werden, dass Proteinmodifikationen bereits in diesem Tunnel stattfinden können. Die Daten zeigen, dass erstaunlicherweise sowohl nicht-native als auch native Disulfidbrücken gebildet werden (Schulte/Mao/Reitz et al. 2020).

480 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Abb. 22. Graphisches Modell zur Veranschaulichung der Kopplung zwischen Proteinsynthese (Translation) und kotranslationaler Faltung. Abbildungen entnommen aus Buhr 2018 nach der Publikation von Federov and Baldwin (Federov/Baldwin 1997). Abb. 22 erweitert also Abb. 16. Die Proteinkette wird durch ihre Synthese immer länger; damit werden die Faltungslandschaften ständig verändert. Während eine vollständig synthetisierte Proteinkette hohe Barrieren vom Intermediaten I1, I2, I3 zum nächsten Zustand M überwinden muss, können diese hohen energetischen Barrieren im Fall von kotranslationaler Faltung vermieden werden.

lation werden Teile des Proteins aus dem Ribosom (repräsentiert durch blaue Kugeln) entlassen. Diese Teile können sich als Subelemente bereits falten. Damit entgehen sie dem Levinthal-Paradoxon des astronomisch großen Konformationsraums durch die Beschränkung auf lokale Interaktionen. In diesem Szenario kann es zu vektorieller Faltung kommen, d. h. die N-terminale Domäne eines Proteins kann zuerst falten. Bemerkenswerterweise zog Levinthal selbst diese Möglichkeit bereits in Betracht (Levinthal 1968, 44). Durch das Einfügen seltener Codons und damit langsam translatierter Proteine 481 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Abb. 23. Modellierung der Kinetik der Proteinsynthese und der Faltung für zwei verschiedene Extremfälle. Abbildungen entnommen aus Buhr 2018, modifiziert nach O’Brien/Ciryam/Venduscolo et al. 2014.

kann dieser Prozess noch weiter begünstigt werden. Der Überschneidungspunkt des blauen und des grünen Trichters gibt den Punkt an, an dem das gesamte Protein synthetisiert worden ist und die Kinetik der Faltung identisch zur Faltungskinetik nach Freigabe (engl. »release) vom Ribosom ist (refolding). Die linke Seite des blauen Trichters symbolisiert die wachsende Proteinkette, die ab einer Schwellenlänge stabile Sekundärstrukturelemente ausbildet und somit eine stabile Konformation annehmen kann. Die Wellen, die den blauen und den grünen Trichter verbinden, symbolisieren beschleunigte kotranslationale Faltungstrajektorien. Diese Aspekte kann man auch quantitativ modellieren (Abb. 23). Dabei sind die Verlängerungsrate einer wachsenden Polypeptidkette am Ribosom (charakterisiert durch die Rate kA,i) und die Kinetik ihrer Faltung kUF,i die wesentlichen Parameter (Abb. 23, A). Man kann zwischen zwei Fällen unterscheiden: 1. Wenn die Syntheserate langsamer ist als die Rate der Proteinfaltung (kA,i < kUF,i), dann verläuft die Faltung im Gleichgewicht und ist thermodynamisch getrieben. Wenn kA,i ~ kUF,i oder kA,i > kUF,i, dann hat die naszierende Kette nicht hinreichend Zeit zu falten, bevor die Länge der außerhalb des Tunnels befindlichen Kette sich wieder ändert. Dann befindet sich diese Kette im Ungleichgewicht, wie in Abb. 20, unten, gezeigt und kinetische Effekte können einen Einfluss haben auf den finalen gefalteten Zustand. Dies begründet kinetische Aspekte des zellulären Informationstransfers.

482 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

9.

Einordnung in das Forschungsgebiet »Komplexität«

In acht Abschnitten wurde in diesem Kapitel die Evolution der biologischen Materie nachgezeichnet, soweit die Methoden der Chemie hier von Relevanz sind. Abschließend wollen wir, wo nötig und nicht selbstevident, die vorgestellten Aspekte vergleichen mit der in diesem Buch vorgelegten allgemeinen Definition der Evolution komplexer Systeme, die auf Seite 18 ausgeführt worden ist. 1.

Ein dynamisch komplexes System evolviert in der Zeit. In einem strengen Sinn ist seine Evolution irreversibel und nicht reproduzierbar.

Diese Aspekte treffen bei Systemen zwischen präbiotischer Chemie und der Evolution erster lebender Systeme umfänglich zu. Der spezielle Aspekt der Irreversibilität ist insbesondere gegeben durch den astronomisch großen Sequenzraum, der sich bei der Polymerisation von vier verschiedenen Nukleotiden oder zwanzig verschiedenen Aminosäuren öffnet. Der astronomisch große Sequenzraum ermöglicht keine vollständige Repräsentation aller möglichen Sequenzen. Stattdessen reichern sich initial gebildete Sequenzen selbst bei nur geringem Selektionsvorteil gegenüber allen anderen Sequenzen an. Die sich anreichernden Sequenzen sind also eine Untermenge aller möglichen Sequenzen. Punkt 1 negiert die Möglichkeit, dass, würde alles nochmal an den Anfang gesetzt, Evolution erneut so verlaufen könnte. An diesem Punkt setzt ausgehend von Jacques Monods Buchtitel »Zufall und Notwendigkeit« 42 eine Reflexion ein: Konnten aufgrund der universellen Gültigkeit von Naturgesetzen nur die Atome entstehen, die entstanden sind? Konnten mit diesem Reservoir von Atomen nur die präbiotischen Moleküle entstehen, deren Ätiologie Albert Eschenmoser nachzeichnet? Dafür sprechen die extraterrestrischen Befunde. Konnten aus diesen präbiotischen Molekülen nur diejenigen entstehen, die wir heute noch vorfinden? Setzt dann Zufall ein in der Erweiterung des möglichen Sequenzraums, der durch die Polymerisation monomerer RNA- und DNA-Bausteine notwendig entsteht? Dann wäre die Eigenschaft zur Polymerisation notwendig im Sinne von unabdingbar ebenso wie Selbstorganisation und autoJ. Monod (frz. 1970) Zufall und Notwendigkeit. Philosophische Fragen der modernen Biologie. München/Zürich, Piper, 1971.

42

483 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

katalytische Selbstreplikation. Und Leben begänne in der Eröffnung eines Sequenzraums, in dem zufällig einzelne Moleküle selektiert und dann diese zunächst autokatalytisch amplifiziert werden. Verkürzt gesagt: Leben beginnt, wo durch Zufall unter unendlich vielen möglichen Strukturen ausgewählt wird, diese Auswahl aber bindende Konsequenzen besitzt. Diese Selektion ist historisch. Die Wiederholung der Evolution, das Entstehen einer neuen Welt, würde die gleichen Elemente (Atome, Moleküle, Polymere) erbringen, nicht aber deren gleiche Verknüpfung. 2.

Komplexe Systeme sind offene Systeme. Dies impliziert, dass prinzipiell eine Abtrennung des komplexen Systems von seiner Umgebung möglich ist. […] Ein unumgänglicher Austausch besteht in Form von Energie. Die Komplexität der Umgebung kann häufig größer sein als die Systemkomplexität.

Punkt 2 der Definition komplexer Systeme wird in dem vorliegenden Kapitel insbesondere für das Eigen’sche System des permeablen Kastens wichtig. Der permeable Kasten ermöglicht die Aufstellung von Differentialgleichungen zur mathematischen Beschreibung einer primitiven Zelle, die Innen und Außen abtrennt und Stofftransport und den mit diesem Stofftransport verknüpften Energieeintrag partitioniert. Ohne diese Abtrennung gelingt der Übergang zum Leben nicht, denn dann wird der Verdünnungsfaktor Vi (Gleichung 3) dominant. Der Austausch zwischen Innen und Außen im permeablen Kasten konstituiert ein erstes System von Anabolismus und Katabolismus. Der permeable Kasten ermöglicht, dass das System bezüglich Energieeintrag zum einen offen ist, zum anderen dem Energieeintrag auch nicht entgehen kann. Charakteristisch für das System an der Schwelle zwischen Unbelebtem und Belebten ist allerdings, dass Komplexität innerhalb des Systems entsteht. Zunächst zufällig entstehende Information vermehrt sich durch autokatalytische Selbstreplikation. Bei autokatalytischer Selbstreplikation meint der Begriff »zufällig«, dass die exakte Sequenz der beiden RNA-Stränge – RNA-Templat und RNA-Primer – zufällig ist; sie müssen nur selbstkomplementär sein (s. Abb. 10). Autokatalyse setzt aber schon für solche RNA-Template und RNA-Primer ein, die noch durch eine stochastische Polymerisation entstehen können. Genau im Übergang zwischen den zufälligen RNA-Sequenzen und denen, die zur Selbstorganisation befähigt sind, entsteht durch Autokatalyse (Selektion einer spezifischen RNA-Sequenz 484 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

über andere mögliche RNA-Sequenzen) Information, die im System erhalten und weitergegeben wird. Man könnte hier von konservierter Information sprechen und spezifiziert damit zwischen zufälliger Abfolge von RNA-Bausteinen und konservierter, weil durch Selbstreplikation und Amplifikation verstärkter Information. Ist das komplexe System immer weniger komplex als die es umgebende Welt, eine Forderung von Niklas Luhmann? Aus unserer Sicht kann diese Frage nicht eindeutig beantwortet werden und berührt unterschiedliche Ebenen. Die Welt außerhalb des permeablen Kastens ist keiner Selbsteinschränkung, keiner Selektion unterlegen. Die Reduktion des astronomischen Sequenzraums und die damit einhergehende Selektion hat außerhalb des permeablen Kastens nicht stattgefunden, die Welt des Möglichen 43 ist nicht limitiert, das Komplexitätspotential nicht eingeschränkt (siehe hierzu aber auch die Diskussion zu Punkt 1 zu Notwendigkeiten). Auf der anderen Seite ist die Einschränkung des Komplexitätspotentials notwendige Voraussetzung für die Evolution neuer Funktionen, im Kapitel beschrieben im Übergang zwischen einer »RNA-only-Welt« hin zu einer »RNAProtein-Welt«, die durch Hyperzyklen entsteht. Weiterhin ist die prinzipielle Komplexität der Welt innen und außen nicht fundamental unterschiedlich, sondern die Wahrscheinlichkeiten des Eintritts eines bestimmten Ereignisses aus der astronomisch großen Zahl aller möglichen Ereignisse extrem unterschiedlich. 3.

Die Konfiguration eines Systems ist zu jedem Zeitpunkt seiner Evolution beschreibbar und zu jedem Punkt möglich innerhalb der Gesetze des Systems.

Diese prinzipielle Beschreibbarkeit ist analytisch zu jedem Zeitpunkt der Evolution des Systems gegeben. Davon zu unterscheiden ist die Vorhersagbarkeit, die nicht möglich ist, sowohl aufgrund des zu gro-

Man ist erinnert an Robert Musils Mann ohne Eigenschaften, wo dies in literarischer Form folgendermaßen ausgedrückt wird: »Wenn es aber Wirklichkeitssinn gibt, und niemand wird bezweifeln, daß er seine Daseinsberechtigung hat, dann muß es auch etwas geben, das man Möglichkeitssinn nennen kann. Wer ihn besitzt, sagt beispielsweise nicht: Hier ist dies oder das geschehen, wird geschehen, muß geschehen; sondern er erfindet: Hier könnte, sollte oder müßte geschehn; und wenn man ihm von irgend etwas erklärt, daß es so sei, wie es sei, dann denkt er: Nun, es könnte wahrscheinlich auch anders sein.« (Musil [1978] 2004, 16).

43

485 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

ßen Sequenzraums als auch prinzipiell aufgrund der stochastischen Fluktuationen des Systems. 4.

Die Elemente eines komplexen Systems können in verschiedenen hierarchischen Ordnungen angeordnet sein. Im Allgemeinen besteht Austausch zwischen diesen hierarchischen Stufen; dieser Austausch kann reversibel oder irreversibel, gerichtet sein oder sich im Gleichgewicht befinden. Häufig, aber nicht zwingend, evolviert Komplexität in dynamisch komplexen Systemen auf höheren Stufen aus den Eigenschaften der Elemente niedriger Stufen. In zeitunabhängigen komplexen Systemen kann Komplexität eine statische Eigenschaft höherer Ordnungen sein.

Eigens Beispiel der Evolution von Hyperzyklen, in denen die Selbstreplikation der RNA sowie die chemische Verknüpfung zweier unterschiedlicher Klassen von Polymeren (RNA und Proteine) den Bauplan für Proteine weitergibt und damit die Polymerisationen dieser unterschiedlichen Systeme gekoppelt sind, führt zu einem Funktionsvorteil gegenüber dem primitiveren einfachen Zyklus. Der Hyperzyklus beschreibt das Entstehen hierarchischer Ordnungen. Dieser Hyperzyklus funktioniert nur durch die eindeutige Verknüpfung der beiden Zyklen im Sinne der weitergegebenen Information und ist im Fall von RNA und Proteinen gerichtet von den informationstragenden RNAs hin zu den funktionstragenden Proteinen, ist also bzgl. Informationsweitergabe gerichtet und irreversibel. Dieser gerichtete Informationsfluss ist nicht umkehrbar im Sinne, dass Information vom Protein auf die RNA übertragen wird. Der Hyperzyklus ist ein Beispiel, wie Komplexität auf höherer Stufe sich aus den Elementen niedriger Stufen entwickelt. Der Hyperzyklus funktioniert zunächst dadurch, dass die RNA-Sequenz, die für ein RNA-Replikation-katalysierendes Protein kodiert, einen Selektionsvorteil besitzt. RNA verliert nicht die Rolle des Informationstemplats (der Negativkopie im Sinne Haldanes). Im Verlauf des Hyperzyklus können dann aber Proteine entstehen, die auf anderen Selektionsdruck reagieren. Dadurch entsteht ein neuer Selektionsdruck, auf den in der zweiten Ebene des Hyperzyklus geantwortet wird. Die Replikation der informationstragenden RNA-Moleküle muss dazu notwendigerweise in sich selbst fehlerbehaftet sein, damit neue Mutanten zu neuen Proteinen führen können, die einen Funktionsvorteil besitzen. Dieser Punkt ist bemerkenswert und atemlos spannend: Für das evolvierende System ändert 486 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

sich die Ebene, auf dem Selektionsdruck ausgeübt wird. Im Falle der Evolution des Lebens wirkt in der »RNA-only-Welt« ein Selektionsdruck zunächst auf diejenigen RNA-Sequenzen, die sich am effizientesten selbst replizieren können. Im Übergang zur primitiven »RNAProtein-Welt« werden diejenigen RNA-Moleküle selektiert, die Aminosäuren tragen und deshalb Anlass geben zum informierten Aufbau von Polypeptiden (im Gegensatz zur zufälligen Polymerisation von Polypeptiden). Wie hier schon für kurze Peptide ein Selektionsdruck entstehen konnte, verbleibt bisher unverstanden, denn diese kurzen Peptide müssen bereits einen funktionalen Selektionsvorteil aufweisen. Sind aber dann hinreichend lange Proteine entstanden, übernehmen diese Proteine die Autokatalyse und die Fehlerkontrolle der Selbstreplikation des RNA-Systems. Ab dieser Übernahme verschiebt sich der Wirkort der Selektion. In diesem Sinne ist die »RNA-Protein-Welt« komplexer als die »RNA-only-Welt«, da die Selektion und mit ihr verknüpft die Regulation indirekter wird und mehr Ansatzpunkte aufweist. Eigenschaften von Proteinen und ihrer durch Mutation verursachten Änderungen können zu einem Selektionsvorteil führen, da die Synthesevorschriften der beiden Polymerklassen gekoppelt sind. Während in der RNA-Welt Sequenz und Eigenschaft gekoppelt sind, Genotyp und Phänotyp in einem Polymeren zu finden sind, spalten in der »RNA-Protein-Welt« diese beiden Funktionen auf und werden durch die RNAs bzw. die Proteine ausgeübt. Der Übergang der »RNA-only-Welt« zur »RNA-ProteinWelt« ist einer der wesentlichen Emergenzpunkte der Evolution des Lebens. Denn: 5.

Die Evolution eines komplexen Systems ist prinzipiell von einem fast immer konstanten Energieeintrag getrieben. Dies erwirkt, dass Systeme von einem Zustand niederer Komplexität zu einem Zustand höherer Komplexität übergehen. Das Ausmaß der Komplexität ist innerhalb der Theorie komplexer Systeme beschreibbar und quantifizierbar.

Im Einklang mit Stegmüller wurde gezeigt, dass Eigens Theorie der Evolution der Materie genau diese Quantifizierbarkeit erlaubt und im Einklang mit dem zweiten Hauptsatz der Thermodynamik steht.

487 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

6.

Im Übergang sowohl statischer als auch dynamischer komplexer Systeme an Punkten bzw. in Perioden der Kritikalität werden komplexe Systeme emergent. Diese Emergenz kann auf einem Übergang aller oder nur einzelner Elemente des Systems bestehen.

In der nachgezeichneten Geschichte der Evolution von lebenden Systemen gibt es eine Vielzahl von Emergenzpunkten: Die Entstehung präbiotischer, komplementärer, polymerisierbarer Verbindungen aus den einfachen Atomen und Molekülen, die im stellaren Raum entstanden sind, ist ein Punkt der Emergenz. Die Entstehung komplementärer Verbindungen ermöglicht die Selbstorganisation der Materie. Der Übergang von Selbstorganisation zu Selbstreplikation ist ein zweiter Punkt der Emergenz. Die Kopplung zweier verschiedener Polymerklassen, RNA und Protein, zu einem Hybridmolekül (tRNA) und die Entstehung des genetischen Codes ist ein weiterer Emergenzpunkt. Die Faltung von Proteinen hin zu hoch funktionalen Biomakromolekülen und die Kodierung kinetischer Information als Teil von Funktion ein letzter der hier besprochenen Emergenzpunkte. Es sei aber auch darin erinnert, dass Emergenz und Komplexität zwei getrennte Phänomene sind. Emergenz ist nicht konstitutiv für Komplexität. Gerade an den hier nachgezeichneten Punkten des Übergangs der »RNA-only«-Welt zur »RNA-Protein«-Welt ist das zeitlich spätere System gekennzeichnet durch eine neue Art von Komplexität, die durch die Änderung der Selektion charakterisiert ist. Die »RNA-Protein«-Welt ist nicht reduzierbar auf ihre Vorstufe; und beide Welten nicht abbildbar auf einer kontinuierlichen Komplexitätsskala. Die »RNA-only-Welt« ist in sich selbst komplex, so wie die Welt der potentiell präbiotischen Moleküle komplex und nicht aus der »RNA-only«-Welt reduzierbar ist. Ist die Erforschung von Komplexität und Emergenz in der Chemie abgeschlossen? Insbesondere im siebten Abschnitt haben wir Aspekte einer neuen Komplexitätsstufe der Kopplung der Informationsweitergabe zwischen der zu übertragenden Information und der Geschwindigkeit, insbesondere also der kinetischen Modulation, der Informationsübertragung vorgestellt. Die biochemische und strukturbiologische Erforschung dieser kinetischen Aspekte ist Gegenstand unserer naturwissenschaftlichen Forschung. Die Integration der Implikationen der Kinetik der Komplexität in ein transdisziplinäres Forschungs488 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

programm ist Gegenstand dieses Buchs und des weiteren intensiven Diskurses als Teil einer modernen Naturphilosophie.

10. Literatur Altman, S. (Nobelpreis 1989): Enzymatic cleavage of RNA by RNA, in: https://www.nobelprize.org/prizes/chemistry/1989/altman/lecture/. Anfinsen, C. B. (1973): Principles that govern the folding of protein chains, in: Science 181, Nr. 4096, 223–230. Angov, E./Hillier, C. J./Kincaid, R. L./Lyon, J. A. (2008): Heterologous protein expression is enhanced by harmonizing the codon usage frequencies of the target gene with those of the expression host, in: PLoS One 3, e2189. Avery, O. T./MacLeod, C. M./McCarty, M. (1944): Studies on the chemical nature of the substance inducing transformation of pneumococcal types, in: J. Exp. Med. 79, 137–158. Beadle, G. W./Tatum, E. L. (1941): Genetic Control of biochemical reactions in neurospora, in: Proc. Natl. Acad. Sci. USA. 27, 499–506. Berger, B./Leighton, T. (1998): Protein folding in the hydrophobic-hydrophilic (HP) model is NP-complete, in: J Comput Biol. 5, 27–40. Binas, O./Schamber, T./Schwalbe, H. (2020): The conformational landscape of transcription intermediates involved in the regulation of the ZMP-sensing riboswitch from Thermosinus carboxydivorans, in: Nucleic Acids Res. 48, 6970–6979. Blake, C. C. F./Koenig, D. F./Mair, G. A./North, A. C. T./Phillips, D. C./ Sarma, V. R. (1965): Structure of Hen Egg-White Lysozyme: A Threedimensional Fourier Synthesis at 2 Å Resolution, in: Nature 206, 757– 761. Bohr, Nils (1933): Light and Life, in: Nature 131, 421–423. Bollin, M./Micura, R./Eschenmoser, A. (1997): Pyranosyl-RNA: chiroselective self-assembly of base sequences by ligative oligomerization of tetranucleotid-2',3'-cyclophosphates (with a commentary concerning the origin of biomolecular homochirality), in: Chem. & Biol. 4, 309–320. Buhr, F./Jha, S./Thommen, M./Mittelstaet, J./Kutz, F./Schwalbe, H./Rodnina, M. V./Komar, A. A. (2016): Synonymous codons direct cotranslational folding towards different protein conformationsin: Mol. Cell 61, 341–351. Callahan, M. P./Smith, K. E./Cleaves, H. J. (2nd)/Ruzicka, J./Stern, J. C./Glavin, D. P./C. H. House/Dworkin, J. P. (2011): Carbonaceous meteorites contain a wide range of extraterrestrial nucleobases, in: Proc. Natl. Acad. Sci. USA 108, 13995–13998. Cech, T. (Nobelpreis 1989): Self-splicing and enzymatic activity of an intervening sequence RNA from Tetrahymena, in: https://www.nobelprize. org/prizes/chemistry/1989/cech/lecture/.

489 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Chiti, F./Dobson, C. M. (2017): Protein Misfolding, Amyloid Formation, and Human Disease: A Summary of Progress Over the Last Decade, in: Annu Rev Biochem 86, 27–68. Crick, F. (1968): The Origin of the Genetic Code, in: J. Mol. Biol. 38, 367–379. Crick, Francis (1970): Central dogma of molecular biology, in: Nature 227, 561–563 Cronin, J. R./Pizzarello, S. (1997): Enantiomeric excesses in meteoritic amino acids, in: Science 275, 951–955. Darwin, C. (1851): On the origin of species On the Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life. London 1859 (Digitalisiert unter: http://www.biolib.de/ darwin/origin/origin.html) Deck, C./Jauker, M./Richert, C. (2011): Efficient enzyme-free copying of all four nucleobases templated by immobilized RNA, in: Nature Chemistry 3, 603–608. Dill, K. A./Bromberg, S./Yue, K./Fiebig, K. M./Yee, D. P./Thomas, P. D./ Chan, H. S. (1995): Principle of protein folding – a perspective from simple exact models, in: Protein Science 4, 561–602. Dobson, C. (2003): Protein folding and misfolding, in: Nature 426, 884–890. Domingo, E./Sabo, D./Taniguchi, T./Weissmann, C. (1978): Nucleotide sequence heterogeneity of an RNA phage population, in: Cell 13, 735–744. Dunker, A. K./Lawson, J. D./Brown, C. J./Williams, R. M./Romero, P./Oh, J. S./Oldfield, C. J./Campen, A. M./Ratliff, C. M./Hipps, K. W./Ausio, J./Nissen, M. S./Reeves, R./Kang, C./Kissinger, C. R./Bailey, R. W./ Griswold, M. D./Chiu, W./Garner, E. C./Obradovic, Z. (2001): Intrinsically disordered protein, in: J. Mol. Graph. Model. 19, 26–59. Dunnill, P. (1966): Triplet nucleotide-amino-acid pairing; a sterochemical basis for the devision between protein and non-protein aminoacids, in: Nature 210, 1265–1267. Eigen, Manfred (1971): Selforganisation of matter and evolution of biological macromolecules, in: Naturwissenschaften 58, 465–522. Ekland, E. H./Bartel, D. P. (1996): RNA-catalysed RNA polymerization using nucleoside triphosphates, in: Nature 283, 373–376. Ellington, A. D./Szostak, J. W. (1990): In vitro selection of RNA molecules that bind specific ligands, in: Nature 346, 818–822. Eschenmoser, A. (2011): Etiology of potentially primordial biomolecular structures: from vitamin B12 to the nucleic acids and an inquiry into the chemistry of life’s origin: a retrospective, in: Angew. Chem. Int. Ed Engl. 50, 12412–72. Federov, A. N./Baldwin, T. O. (1997): Cotranslational protein folding, in: J. Biol. Chem. 272, 32715–32718. Fuller, W. D./Sanchez, R. A./Orgel, L. E. (1972): Studies in prebiotic synthesis. VI. Synthesis of purine nucleosides, in: J. Mol. Biol. 67, 25–33. Garrod, A. E. (1923) (Hg.): Inborn errors of metabolism. 2. Aufl., Oxford 1923.

490 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Grosjean, H./Westhof, E. (2016): An integrated, structure- and energy based view on the genetic code, in: Nucl. Acids Res. 44, 8020–8040. Helmling, C./Klötzner, D. P./Sochor, F./Mooney, R. A./Wacker, A./Landick, R./Fürtig, B./Heckel, A./Schwalbe, H. (2018): Life times of metastable states guide regulatory signaling in transcriptional riboswitches, in: Nat Commun. 9, 944. Hoagland, M. B./Stephenson, M. L./Scott, J. R./Hecht, L. I./Zamecnik, P. C. (1958): A soluble riboncucleic acid intermediate in protein synthesis, in: J. Biol. Chem. 231, 241–257. Huang, M./Parker, M. J./Stubbe, J. (2014): Choosing the right metal: case studies of class I ribonucleotide reductases, in: J. Biol. Chem. 289, 28104–28111. Johannsen, W. (1909): Elemente der exakten Erblichkeitslehre. Jena. Jovanovic, D./Tremmel, P./Pallan, P. S./Egli, M./Richert, C. (2020): The enzyme-free release of nucleotides from phophoramidates depends strongly on the amino acid, in: Angew. Chem. Int. Ed. 59, 20154–20160. Joyce, G. F. (1989): RNA evolution and the origins of life, in: Nature 338, 217– 224. Joyce, G. F. (2007): Forty years of in vitro evolution, in: Angew. Chem. Int. Ed. Engl. 46, 6420–6434. Khorana, H. G. (1968): »Nucleic Acid Synthesis in the Study of the Genetic Code«, in: Nobel lecture (https://www.nobelprize.org/prizes/medicine/ 1968/khorana/lecture/). Kiedrowski, G. von (1986): A self-replicating Hexadeoxynucleotide, in: Angew. Chem. Int. Ed. 25, 932–935. Kornberg, A. (1959): The Biologic Synthesis of Deoxyribonucleic Acids, in: https://www.nobelprize.org/prizes/medicine/1959/kornberg/lecture Kornberg, R. D. (2006): Nobel prize for his studies of the molecular basis of eukaryotic transcription. Kossel, A. (1882–1883): Zur Chemie des Zellkerns, in: Zeitschrift für physiologische Chemie 7, 7 Kossel, A. (1882–1883): Zur Chemie des Zellkerns. Zeitschrift für physiologische Chemie 7, 7 Kremer, K. (1984): Ontologie, in: Joachim Ritter/Karlfried Gründer (Hg.): Historisches Wörterbuch der Philosophie. Band 6. Darmstadt 1984, 1189–1198. Kubatova, N./ Pyper, D. J./Jonker, H. R. A./Saxena, K./Remmel, L./Richter, C./ Brantl, S./Evguenieva-Hackenberg, E./ Hess, W. R./ Marchfelder, A./ Soppa, J./Streit, W./Mayzel, M./ Orekhov, V. Y./Fuxreiter, M./ Schmitz R. A./Schwalbe, H. (2020): Rapid Biophysical Characterization and NMR Spectroscopy Structural Analysis of Small Proteins from Bacteria and Archaea, in: ChemBioChem 21, 1178–1187. Kurz, M./Göbel, K./Hartel, C./Göbel, M. W. (1997): Nonenzymic oligomerization of ribonucleotides on guanosine-rich templates: suppression of the self-pairing of guanosine, in: Angew. Chem. Int. Ed. Engl. 36, 842– 845.

491 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Lau, K. F./Dill, K. A. (1989): A lattice statistical mechanics model of the conformational and sequence space of proteins, in: Macromolecules 22, 3986–3997. Levene, P. A./London, E. S. (1928): The structure of thymonucleic acid, in: Science 68, 572–573. Levinthal, C. (1968): Are there pathways for protein folding?, in: Journal de Chimie Physique 65,1, 44. Miller, S. L. (1953): A production of amino acids under possible primitive earth conditions, in: Science 117, 528–529. Mills, D. R./Peterson, R. L./Spiegelman, S. (1967): An extracellular Darwinian experiment with a self-duplicating nucleic acid molecule, in: Proc. Natl. Acad. Sci. USA 58, 217–224. Musil, Robert [1978] (2004): Der Mann ohne Eigenschaften. Erstes und Zweites Buch. Hg. von Adolf Frisé. 18. Aufl. Reinbek bei Hamburg. Monod, J. (1971, (frz. 1970): Zufall und Notwendigkeit. Philosophische Fragen der modernen Biologie. München/Zürich. Ngo, J. T./Marks, J./Karplus, M. (1994): Computational Complexity, Protein Structure Prediction, and the Levinthal Paradox, in: K. M. Merz/S. M. Le Grand (Hg.): The Protein Folding Problem and Tertiary Structure Prediction. Boston. Nirenberg, M. W. (1968): Nobel prize »for his studies of the genetic code«, in: https://www.nobelprize.org/prizes/medicine/1968/nirenberg/lecture/. O’Brien, E. P./Ciryam, P./Venduscolo, M./Dobson, C. M. (2014): Understanding the influence of codon translation rates on cotranslational protein folding, in: Acc. Chem. Res. 47, 1536–1544. Orgel, L. (1968): Evolution of the genetic apparatus, in: J. Mol. Biol. 38, 381– 393. Oró, J. (1960): Synthesis of adenine from ammonium cyanide, in: Biochem. Biophys. Res. Commun. 2, 407–412. Parra-Rojas, C./Fürtig, B./Schwalbe, H./Hernandez-Vargas, E. A. (2020): Quantitative modeling of the function of kinetically driven riboswitches, in: J. Theor. Biol. 506, 110406. Pauling, L./Corey, R. B./Branson, H. R. (1951): The structure of proteins – 2 hydrogen-bonded helical configurations of the polypeptide chain, in: Proc. Natl. Acad. Sci. USA 37, 205–211. Pauling, L./Delbrück, M. (1940): The nature of the intermolecular forces operative in biological processes, in: Science 92, 77–79. Pelc, S. R./Welton, M. G. E. (1966): Stereochemical relationship between coding triplets and amino-acids, in: Nature https://pubmed.ncbi.nlm. nih.gov/5922773/209, 868–870. Perutz, M. (1987): Physics and the riddle of life, in: Nature 326, 555–558. Piró, A./Tagarelli, G./Lagonia, P./Quattrone, A./Tagarelli, A. (2010): »Archibald Edward Garrod and alcaptonuria: ›Inborn errors of metabolism‹ revisited, in: Genetics in Medicine 12, 475–476. Poser, Hans (2012): Wissenschaftstheorie. Eine philosophische Einführung. Stuttgart.

492 https://doi.org/10.5771/9783495825464 .

Komplexität und Emergenz in der Chemie

Powner, M. W./Gerland, B./Sutherland, J. D. (2009): Synthesis of activated pyrimidine ribonucleotides in prebiotically plausible conditions, in: Nature 459, 239–242. Ramakrishnan, V./Steitz, T. A./Yonath, A. E. (2009): Nobel prize »for the studies of the structure and function of the ribosme.«, in: https://www. nobelprize.org/prizes/chemistry/2009/ramakrishnan/lecture/, https://www.nobelprize.org/prizes/chemistry/2009/steitz/lecture/, https://www.nobelprize.org/prizes/chemistry/2009/yonath/lecture/ Räuchle, M./Leveau, G./Richert, C. (2020): Synthesis of peptido RNAs from unprotected peptides and oligoribonucleotides via coupling in aqueous solution, in: Eur. J. Org. Chem. 45, 6966–6975. Robertson, D. L./Joyce, J. F. (1990): Selection in vitro of an RNA enzyme that specifically claves single-stranded DNA, in: Nature 344, 467–468. Rollins, G. C./Dill, K. A. (2014): General mechanism of two-state protein folding kinetics, in: J Am Chem Soc. 136, 11420–11427. Rooman M./Dehouck, Y./Kwasigroch, J. M./Biot, C./Gilis, D. (2002): What is paradoxical about Levinthal paradox?, in: J Biomol Struct Dyn. 20, 327– 329. Schmitt, A. (2020): Ursprung der Ontologie: Parmenides, in: Jan Urbich/Jörg Zimmer (Hg.): Handbuch Ontologie. Stuttgart, 3–11. Schulte, L./Mao, J./Reitz, J./Sreeramulu, S./Kudlinzki, D./Hodirnau, V.-V./ Meier-Credo, J./Saxena, K./Buhr, F./Langer, J. D./Blackledge, M./Frangakis, A. S./Glaubitz, C./Schwalbe, H. (2020): Cysteine oxidation and disulfide formation in the ribosomal exit tunnel, in: Nat. Commun. 11, 5569. Schwalbe, H./Grimshaw, S. B./Spencer, A./Buck, M./Boyd, J./Dobson, C. M./ Redfield, C./Smith, L. J. (2001): A refined solution structure of hen lysozyme determined using residual dipolar coupling data, in: Protein Sci. 10, 677–688. Senior, A. W./Evans, R./Jumper, J./Kirkpatrick, J./Sifre, L./Green, T./Qin, C./ Žídek, A./Nelson, A. W. R./Bridgland, A./Penedones, H./Petersen, S./ Simonyan, K./Crossan, S./Kohli, P./Jones, D. T./Silver, D./Kavukcuogli, K./Hassabis, D. (2020): Improved protein structure prediction using potentials from deep learning, in: Nature 577, 706–710. Sohst, W. (2020): Die Ontologie von Kräften, Prozessen und Emergenz: Sein als Werden, in: Jan Urbich/Jörg Zimmer (Hg.): Handbuch Ontologie. Stuttgart 2020, 418–427. Stegmüller, Wolfgang (1987): Hauptströmungen der Gegenwartsphilosophie. Band III, 8. Auflage. Stuttgart. Steinert, H./Sochor, F./Wacker, A./Buck, J./Helmling, C./Hiller, F./Keyhani, S./Noeske, J./Grimm, S./Rudolph, M. M./Keller, H./Mooney, R. A./ Landick, R./Suess, B./Fürtig, B./Wöhnert, J./Schwalbe, H. (2017): Pausing guides RNA folding to populate transiently stable RNA structure for riboswitch-based transcription regulation, in: Elife 6, e21297. Storz, G./Wolf, Y. I./Ramamurthi, K. S. (2014): Small proteins can no longer be ignored, in: Annu Rev Biochem. 83, 753–777.

493 https://doi.org/10.5771/9783495825464 .

H. Schwalbe, J. Wachtveitl, A. Heckel, Fl. Buhr, Th. Schimmer

Timoféeff-Ressovsky, N. W./Zimmer, K. G./Delbrück, M. (1935): Über die Natur der Genmutation und der Genstruktur. Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen. Urbich, J./Zimmer, J.: Einleitung, in: Dies. (Hg.): Handbuch Ontologie. Stuttgart 2020, VIII-IX. Wang, L./Brock, A./Herberich, B./Schultz, P. G. (2001): Expanding the genetic code of Escherichia coli, in: Science 292, 498–500. Wanscher, J. H. (1975): An analysis of Wilhelm Johannsen’s genetical term »genotyp« 1909–1926, in: Hereditas 79, 1–4. Watanabe, K./Yokobori, S. (2011): tRNA modifications and genetic code variations in animal mitochondria, in: J. Nucleic Acids 623095. Watson, J. D./Crick, F. H. (1953a): Molecular structure of nucleic acids: a structure for deoxyribose nucleic acid. 171, 737–8. Watson, J. D./Crick, F. H. (1953b): Genetical implications of the structure of the deoxyribonucleic acid. Nature 171, 964–967. Westheimer, E. (1987): Why nature chose phosphates?, in: Science 235, 1173– 1178. Wickiser, J. K./Winkler, W. C./Breaker, R. R./Crothers, D. M. (2005): The speed of RAN transcription and metabolite binding kinetics operate an FMN riboswitch, in: Mol Cell. 18, 49–60. Wigner, E. (1961): The Logic of Personal Knowledge. Assays presented to Michael Polanyi on his seventieth birthday 11th March 1961. Ed. by E. Shils. Glencoe, Ill. Woese, C. R. (1967): The Origins of the genetic code. New York. Wolman, Y./Haverland, W. J./Miller, S. L. (1972): Non-protein amino acids from spark discharges and their comparison with the murchison meteorite amino acids, in: Proc. Natl. Acad. Sci. USA 69, 809–811. Wu, T./Orgel, L. E. (1992a): Nonenzymic template-directed synthesis on oligodeoxycytidylate sequences in hairpin oligonucleotides, in: J. Am. Chem. Soc. 114, 317–322. Wu, T./Orgel, L. E. (1992b): Nonenzymic template-directed synthesis on hairpin oligonucleotides. 2. Templates containing cytidine and guanosine residues, in: J. Am. Chem. Soc. 114, 5496–5501. Wu, T./Orgel, L. E. (1992c): Nonenzymic template-directed synthesis on hairpin oligonucleotides. 3. Incorporation of adenosine and uridine residues, in: J. Am. Chem. Soc. 114, 7963–7969. Zwanzig, R./Szabo, A./Bagchi, B. (1992): Levinthal’s paradox, in: Proc Natl Acad Sci U S A. 89, 20–22.

494 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie Die Entstehung des Lebens, komplexe Phänomene, Eukaryoten und Komplexität als Begriff des 21. Jahrhunderts Jörg Soppa

1.

Einleitung

Die Biologie hat so viele Teilgebiete, dass inzwischen der Begriff Biowissenschaften gebräuchlich geworden ist. Dazu zählen z. B. die Mikrobiologie, Zellbiologie, Pflanzen- und Tierphysiologie, Botanik und Zoologie, Neurobiologie, Ökologie und Evolutionsbiologie. Entsprechend sind die Fragestellungen, Untersuchungsobjekte und Ebenen der Komplexität sehr unterschiedlich. Dazu zählen Ebenen wie einzelne Zellen, Gewebe, Organe, Organismen, Populationen von Tieren, Ökosysteme, die aus vielen verschiedenen Arten und ihren Wechselwirkungen bestehen, oder die Entwicklung der Arten im Verlaufe der Evolutionsgeschichte. Allen Teilgebieten der Biowissenschaften ist jedoch gemeinsam, dass sie sich mit dem Leben beschäftigen. In diesem Kapitel soll die Frage im Vordergrund stehen, ob Komplexität in den Biowissenschaften identische, ähnliche, überlappende oder sehr unterschiedliche Aspekte im Vergleich zu anderen Natur- und Geisteswissenschaften besitzt. In der Einleitung dieses Buches wurden einige Eigenschaften aufgeführt, die für Komplexität in verschiedenen Wissenschaften charakteristisch sein können. Zu diesen Elementen der Komplexität in anderen Wissenschaftsgebieten zählen vor allem die Emergenz von komplexen Systemen (= die Nichterklärbarkeit ihrer Eigenschaften aus der Kenntnis der Eigenschaften der Elemente), die Nichtlinearität ihrer Reaktion auf Änderungen der Umwelt, Homöostase bei wechselnden Bedingungen oder die prinzipielle Nichtvorhersagbarkeit ihrer geschichtlichen Entwicklung. Die Verwendung des Wortes Komplexität hat in verschiedenen Wissenschaften sehr unterschiedliche geschichtliche Entwicklungen erfahren. So wird in diesem Band im Beitrag von Felix Steilen die geschichtliche Wandlung in den Sozialwissenschaften seit mehr als 495 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

zwei Jahrhunderten berichtet. Um die Entwicklung in den Biowissenschaften zu analysieren, wurde nach Veröffentlichungen mit dem Wort Complexity in Titel oder Abstract in der Datenbank PubMed gesucht (www.ncbi.nlm.nih.gov/pubmed). Das Ergebnis ist in Abbildung 1 dargestellt. Der Gebrauch des Begriffs Komplexität nimmt momentan exponentiell zu. Allerdings beginnt die sehr häufige Benutzung erst ab ca. 1990, so dass Komplexität in den Biowissenschaften vor allem ein Begriff des 21. Jahrhunderts ist. Zu Ende des Kapitels werden mögliche Gründe für diese neue und rasante Entwicklung diskutiert.

Abb. 1. Verwendung des Wortes »Complexity« in der biowissenschaftlichen Literatur in den letzten Jahrzehnten.

Auch wenn der Begriff Komplexität in den Biowissenschaften lange Zeit nur selten verwendet wurde, dürfte kein Zweifel daran bestehen, dass das Leben ein sogar sehr komplexes Phänomen ist, unabhängig davon, ob Ökosysteme, Tiere, Pflanzen oder einzellige Mikroorganismen betrachtet werden. Im weiteren Verlauf wird sich dieses Kapitel vor allem mit Theorien zur Entstehung des Lebens beschäftigen. Dies erscheint im Rahmen der Fragestellung sehr relevant zu sein, da eine lebende Zelle fraglos als komplex angesehen werden kann, während zu Beginn einige anorganische Gase und Gesteine zu finden sind, die sicherlich nicht komplex sind. Bei der Entstehung des Lebens muss also die Grenze zwischen einer nicht-komplexen zu einer komplexen Entität überschritten worden sein, und das in einer selbstorganisierten evolutiven Entwicklung, es handelt sich also um ein herausragendes Beispiel für die Entwicklung von Komplexität aus nicht-komplexen Vorstufen. In weiteren Abschnitten dieses Kapitels werden verschiedene Beispiele für komplexe Phänomene in den Biowissenschaften dargestellt, die besonders geeignet sind, Prinzipien zu erken496 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

nen und Definitionen abzuleiten. Danach wird die Entstehung von Eukaryoten kurz besprochen, die einen weiteren Komplexitätssprung in der Evolution des Lebens darstellen. Zum Abschluss wird auf Gründe für die rasant steigende Verwendung des Wortes in den Biowissenschaften eingegangen, und es werden neuentdeckte Ebenen biologischer Komplexität beschrieben.

2.

Die Entstehung des Lebens

2.1 Nichtbehandelte kulturelle Konzepte Wie Leben in einer Welt neu entstanden ist, in der es zuvor kein Leben gab, hat die Menschen natürlich schon immer interessiert. Die christliche Religion und die anderen abrahamitischen Religionen geben als Erklärung den einen Schöpfergott an, der die verschiedenen Arten von Lebewesen so geschaffen habe, wie sie heute noch existieren. Es ist bemerkenswert, wie viele Menschen dies wörtlich nehmen und glauben, dass es vor einigen tausend Jahren genau so passiert ist. Noch 2019 glaubten 40 % der erwachsenen US-Amerikaner an den Kreationismus und weitere 30 % an Intelligent Design (Gallup-Umfrage). Biologen und allgemein Naturwissenschaftler müssen dieser wörtlichen Auslegung der Bibel natürlich entgegentreten, was der kulturellen Wirkung der Bibel keinen Abbruch tut. Es gibt natürlich nicht nur die auf die Bibel gestützten abrahamitischen Religionen, sondern unzählige weitere Religionen, die vollkommen andere Erklärungen für die Entstehung des Lebens geben. Meist gibt es nicht nur einen Gott, sondern viele Götter, die wie die Götter des griechischen Altertums mit recht menschlichen Zügen den Himmel bewohnen, oder wie in den Religionen von Naturvölkern aus Naturphänomenen abgeleitet sind. Diesen ubiquitären Wunsch, die Entstehung des Lebens wie auch die Entstehung des Menschen kulturell erklären zu können, hat der Kulturwissenschaftler Pascal Boyer in seinem Buch Und Mensch schuf Gott sehr schön diskutiert (Boyer 2009). In diesem Kapitel soll es jedoch um naturwissenschaftliche Erklärungen für die Entstehung des Lebens gehen. Die Untersuchung alter, ungestörter Gesteinsformationen hat gezeigt, dass das Leben schon vor mindestens 3.5 Milliarden Jahren auf der Erde entstanden ist. Die Indizien sind dabei ziemlich indirekt, wie das Vorkommen 497 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

bestimmter Verbindungen, die als Biomarker dienen können, oder die Verschiebung des Verhältnisses stabiler Isotope, wie sie im Stoffwechsel von Lebewesen noch heute zu beobachten ist, oder Abdrücke im Gestein, die von der Form Bakterien ähnlich sehen. In seinem Buch gen.e.sis diskutiert Robert M. Hazen ausführlich die mit den verschiedenen Ansätzen verbundenen Argumente und liefert dazu Berichte über damit verbundene Forscher (Hazen 2005). Die Lebensentstehung ist einmalig und einzigartig und entspricht damit nicht der ansonsten in der Naturwissenschaft geltenden Forderung, dass man ein Experiment mindestens dreimal durchführen muss, um Mittelwerte berechnen und Varianzen angeben zu können. Daher gibt es in der Origin of Life-Forschung mehr alternative Theorien als in anderen Gebieten der Biologie. Ausgewählte Theorien werden in späteren Abschnitten besprochen, doch zunächst soll nach einer Definition von Leben gesucht werden.

2.2 Naturwissenschaftliche Definition von Leben Zunächst erscheint der Versuch, Leben zu definieren, trivial zu sein, schließlich ist es für jeden offensichtlich, dass eine Maus oder ein Kaninchen lebt und ein Stein oder ein Wasserfall nicht. Jedoch führen einige frühere Versuche, Leben zu definieren, zu Widersprüchen, insbesondere wenn die Definition so allgemein sein soll, dass sie nicht auf irdisches Leben beschränkt ist, sondern auch mögliches Leben auf anderen Planeten einschließt. So klingt die Definition »ein System, das in der Lage ist, sich selbst zu reproduzieren«, die auf einem wissenschaftlichen Kongress vorgeschlagen wurde, zunächst recht einleuchtend, bis man entdeckt, dass danach nur ein Kaninchenpaar lebendig ist, während ein einziges Kaninchen nach dieser Definition gerade nicht lebt (Benner 2010). Die Definition »ein System, das wächst und aus der Umgebung Energie bezieht« würde dagegen ein Feuer als lebendig einstufen. Vielfach verwendet wird die folgende Definition, die die NASA im Rahmen ihres Exobiologieprogramms aufgestellt hat: »Life is a self-sustaining chemical system capable of undergoing Darwinian evolution« (Benner 2010; Hazen 2005). Auch diese sehr allgemein akzeptierte Theorie ist jedoch nicht ohne Widersprüche. So bleibt offen, ob Leben die Existenz von Zellen (membranumgrenzte Kompartimente) voraussetzt oder ob es auch andere Formen von Leben geben kann. Auch ist nicht ganz sicher, ob nach dieser 498 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

Definition die Menschen überhaupt leben, da die Menschheit strenggenommen die Darwin’sche Evolution schon lange hinter sich gelassen hat und der Erfolg auf Kultur und Technik bis hin zur künstlichen Intelligenz beruht. Kürzlich hat es einen Versuch gegeben, die Definition von Leben weiterzuentwickeln (Vitas/Dobovisek 2019). Dabei wurde stark betont, dass Leben weit vom thermodynamischen Gleichgewicht entfernt sein muss, dafür wurde darauf verzichtet, die Art der Evolution einzubeziehen. Die vorgeschlagene Definition »Life is a far from equilibrium self-maintaining chemical system capable of processing, transforming, and accumulating information acquired from the environment« ist jedoch ein wenig arg sperrig geraten. Für dieses Kapitel soll die weithin verwendete NASA-Definition ausreichend sein, die es nun nötig macht, Darwin’sche Evolution genauer zu betrachten.

2.3 Darwin’sche Evolution Das Konzept der Darwin’schen Evolution hat die Biologie immens beeinflusst, auch wenn es natürlich immer weiterentwickelt wurde und wird und die Wissenschaft heute anders denkt als Darwin vor 160 Jahren. Die Darwin’sche Evolution ist häufig angegriffen worden, z. B. mit dem Argument, dass so komplexe Gebilde wie ein menschliches Auge unmöglich durch Zufall entstanden sein könnten, sondern sie offensichtlich das Produkt eines planvollen Designs sein müssen. Dies ist natürlich ein großes Missverständnis, niemand hat jemals behauptet, die Evolution von den ersten Einzellern bis hin zum Menschen beruhe ausschließlich auf Zufällen. Das grundlegende Konzept der Darwin’schen Evolution beruht darauf, dass in einer großen Anzahl von Nachkommen, die teilweise zufällige Änderungen (Mutationen) in ihren Genen aufweisen, sich diejenigen besser vermehren können und ihre Gene mit den Veränderungen immer neuen Generationen weitergeben können, die besser angepasst sind. Wie immens dieser Unterschied zwischen »Zufall« und »Zufall mit anschließender Selektion der am besten Angepassten« ist, hat Richard Dawkins in seinem Klassiker Der blinde Uhrmacher an vielen eindrücklichen Beispielen beschrieben. Das Buch ist zwar schon recht alt und in deutscher Sprache momentan nur gebraucht zu erhalten (Dawkins 1996), aber die Lektüre ist immer noch eine sehr lohnende Einführung in die Darwin’sche Evolution und es gibt eine aktuelle 499 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

englische Ausgabe (Dawkins 2016). Für alle, die die extreme Effizienz der Kombination von »Zufall mit anschließender Selektion« selbst praktisch erfahren möchten, ist in der folgenden Fußnote erklärt, wie man das Wort Darwin auf evolutivem Weg in etwa 10 Minuten erwürfeln kann, während es mit reinem Zufallswürfeln ohne Selektion mehrere Wochen dauert. 1 Ein anderes anschauliches Beispiel für die Macht von »Zufall mit anschließender Selektion« ist die Zucht von verschiedenartigsten Hunden, vom Zwergpinscher bis zum Kampfhund, ausgehend vom Wolf, und das in einem Zeitraum, der für evolutive Prozesse verschwindend gering ist. Selbstverständlich erfolgt die »Selektion der am besten Angepassten« bei der natürlichen Evolution nicht durch den Menschen, wie bei den beiden letzten Beispielen. Sie geht aber auch weit über das besonders schnelle Laufen hinaus, um entweder besser Räubern zu entfliehen als die Artgenossen oder besser Beute zu erwischen als die Artgenossen. In beiden Fällen geht es um das reine Überleben, das natürlich Grundvoraussetzung ist, um Gene überhaupt in die nächste Generation zu bringen und möglichst im Genpool anzureichern. Darüber hinaus können aber auch viele Verhaltensweisen, an die man vielleicht nicht spontan denkt, die Evolution von Arten beeinflussen (z. B. Brutpflege, soziales Verhalten in der Gruppe, Attraktivität für 1 Der Name Darwin besteht aus sechs unterschiedlichen Buchstaben, die man den sechs Zahlen eines Würfels zuordnen kann. Die Chancen, mit sechs Würfen zufällig eine Zahlenfolge zu würfeln, die den Namen Darwin ergibt, liegt bei 1 : 66 (= 1 : 46656). Wenn man alle sechs Sekunden würfelt, braucht man für 46656 Würfe knapp 80 Stunden, also etwa zwei Arbeitswochen eines deutschen Arbeitnehmers. Im Gegensatz zu dem reinen Zufallswürfeln steht der evolutive Weg. Eine erste Generation wird durch zufälliges Würfeln erzeugt, das gewürfelte Wort wird Darwin nicht sehr ähnlich sehen (z. B. NNIRAI). Nun werden acht Nachkommen der ersten Generation erzeugt, indem jeweils mit einem Wurf die Position bestimmt wird, an dem eine Mutation auftreten soll, und mit einem zweiten Wurf der Buchstabe bestimmt wird, der anstelle des ursprünglichen Buchstaben treten soll. Die acht Nachkommen sind nun acht unterschiedliche Wörter. Von denen wird dasjenige Wort, das Darwin am nächsten kommt, ausgewählt und weitervermehrt, indem nach demselben Prinzip acht neue, an jeweils einer Stelle mutierte Nachkommen erzeugt werden. Es werden typischerweise ca. 12–17 Generationen benötigt, um Darwin zu erreichen. Bei jedem Versuch sind das Ausgangswort und der Weg natürlich vollkommen unterschiedlich, der evolutive Erfolg ist jedoch absolut sicher. Es werden etwa 100–140 Würfe benötigt, nur ein kleiner Bruchteil der durchschnittlich 46656 Würfe bei reinen Zufallsversuchen. Und es reichen 10–15 Minuten statt 80 Stunden. Soweit zu einem Selbstexperiment zum Unterschied zwischen Zufall und Zufall mit anschließender Selektion.

500 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

Partner usw.). Und natürlich kennt man heute viel mehr Mechanismen der Veränderung von Genomen als die reine zufällige Punktmutation. So können ganze Gene oder Gruppen von Genen über die Artgrenzen hinweg übertragen werden (was uns z. B. durch vielfachresistente Krankenhauskeime Probleme bereitet), durch die Erfindung der sexuellen Vermehrung in der Evolution kommt es in jeder Generation wieder zu einer Neukombination der vorhandenen Genvarianten, und allein die Expression eines Regulators zu einer anderen Zeit oder an einem anderen Ort kann zu massiven Änderungen führen. Ein drastisches Beispiel ist ein Experiment, bei dem ein Transkriptionsfaktor in Drosophila an falschen Stellen produziert wurde, was zur Ausbildung von Augen an beliebigen Stellen des Körpers führte (wenn sie auch nicht sehen konnten). Da nach der NASA-Definition die Darwin’sche Evolution essentiell für Leben ist, ist es wichtig, ob das zugrundeliegende Prinzip schon während der Entstehung des Lebens in der vorlebendigen Zeit gewirkt haben kann, also ob es Darwin’sche Evolution schon auf molekularer Ebene gegeben haben kann. Darauf werde ich später zurückkommen, doch zunächst soll geklärt werden, welche wichtigen Fragestellungen zu diskutieren sind, wenn man über die Entstehung des Lebens nachdenkt.

2.4 Wesentliche Fragestellungen bei der Entstehung des Lebens Theorien über die de novo Entstehung von Leben auf einer zuvor unbelebten Erde müssen Antworten auf eine ganze Reihe von sehr grundlegenden Fragen finden, von denen einige nachfolgend kurz diskutiert werden. – Die Erde bestand zunächst nur aus anorganischen Substanzen wie z. B. Gasen, Gesteinen, nach einer ersten Abkühlphase auch flüssigem Wasser, und gelösten Ionen. Alle Lebewesen bestehen jedoch aus organischen Substanzen. Dazu gehören kleine Moleküle des Stoffwechsels, aber auch sehr große Polymere wie das Erbmaterial DNA, RNA, Proteine (Eiweiße), Lipide, Polysaccharide. Diese Polymere sind jeweils aus einzelnen Monomeren aufgebaut wie Aminosäuren, Zuckern, Nukleobasen, Fettsäuren usw. Eine erste Fragestellung ist, wie man von den anorganischen Substanzen zu organischen Verbindungen gelangt, und zwar idealerweise zu genau den Monomeren, die heute die 501 https://doi.org/10.5771/9783495825464 .

Jörg Soppa



Grundbausteine von Lebewesen sind. So sind Proteine aus zwanzig Aminosäuren aufgebaut, die im genetischen Code aller Lebewesen festgelegt sind, es sind jedoch unzählige weitere Verbindungen möglich, die eine Aminogruppe und eine Säuregruppe tragen und daher Aminosäuren sind. Eine weitere Fragestellung ist, wie die Monomere zu Polymeren verbunden werden können. Da alle Lebewesen zu einem weit überwiegenden Teil aus Wasser bestehen, muss angenommen werden, dass auch die Entstehung des Lebens in einem wässrigen Milieu erfolgte. Die Kondensation von zwei Monomeren zu einem Dimer erfolgt nach folgender Formel: Monomer_1 + Monomer_2 Dimer + H2O Oder allgemeiner, für die Verlängerung einer Polymers aus n Monomeren: Polymern + Monomer Polymern+1 + H2O Bei einer hohen Konzentration von H2O, also in Wasser, ist daher die Hydrolyse von Polymeren in ihre Monomere begünstigt und keinesfalls die Synthese von Polymeren. Im heutigen Stoffwechsel geschieht die Polymersynthese, indem chemisch aktivierte Monomere verwendet werden, die eine so genannte Abgangsgruppe (AG) enthalten: Polymern + Monomer_AG Polymern+1 + AG





Da nicht zu erwarten ist, dass in der noch unbelebten Natur aktivierte Monomere entstehen, muss es im Prozess der Lebensentstehung eine andere Erklärung gegeben haben. So würden z. B. eine hohe Konzentration von Monomeren oder eine niedrige Konzentration von Wasser die Polymerisation gegenüber der Hydrolyse begünstigen. Ein weiteres Problem ist die Chiralität (Händigkeit) von Verbindungen in Lebewesen. Bei einer chemischen Synthese entstehen immer zwei Varianten, die eine umgekehrte räumliche Konfiguration haben (vergleichbar mit einem rechten und einem linken Handschuh), in Lebewesen wird in den Polymeren, die sie aufbauen, jedoch nur eine der beiden Formen gefunden. In heutigen Lebewesen wird die genetische Information in DNA gespeichert (Genotyp), die von Generation zu Generation weitergegeben wird. In dem jeweiligen Organismus (von Bakterien

502 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

bis zum Menschen) wird sie übersetzt in den so genannten Phänotyp, also z. B. Proteine, die Signale aufnehmen können, Nährstoffe aufnehmen und abbauen können, um damit Energie zu gewinnen, oder Biosynthesen katalysieren, damit der Organismus wachsen kann. Man ist sich weitgehend einig, dass in einer ersten Lebensphase das Erbmaterial nicht DNA war, wie heute, sondern RNA. Die grundlegende Frage bleibt aber dieselbe: Wie kann der Aufbau einer Koppelung eines Genotyps (RNA) an einen Phänotyp (Protein) erklärt werden? – Alle Lebewesen bestehen aus Zellen, die von einer Lipidmembran umgeben und damit von der Außenwelt abgegrenzt sind. Viren sind eine Ausnahme, sind nach der oben gegebenen Definition aber auch nicht lebendig, sondern für ihre Vermehrung darauf angewiesen, Lebewesen zu benutzen. Eine weitere Fragestellung ist daher, wie die erste Zelle, d. h. der erste membranumschlossene Raum, entstanden ist. Und da Lebewesen auf ständigen Stoffaustausch angewiesen sind, wie es sein kann, dass eine neu entstandene Lipidmembran schon bei ihrer Entstehung mit Transportern funktionalisiert war. Ansonsten wäre die erste von einer Membran umgebene Zelle sofort tot gewesen. – Leben ist dadurch charakterisiert, dass es weit vom thermodynamischen Gleichgewicht entfernt ist, und das wurde sogar in eine neue Definition des Lebens mit aufgenommen (s. o.). Daraus folgt die Fragestellung, an welchen Orten der Erde es Stellen gibt, die nicht im thermodynamischen Gleichgewicht sind, und welches die genauen Reaktionen sind, die die Entstehung des Lebens getrieben haben. Es sind noch viele weitere Fragestellungen wichtig, die hier nicht aufgeführt werden. Die oben diskutierten Fragestellungen geben aber sicherlich einen guten Eindruck, welche Art von Fragestellungen durch Theorien zu Lebensentstehung beantwortet werden müssen, und sie können zur Bewertung verschiedener Theorien zur Lebensentstehung dienen, von denen einige nachfolgend diskutiert werden.

2.5 Die Ursuppe – ein falsches Konzept mit großer Wirkung Schon Darwin hatte sich über die Entstehung des Lebens Gedanken gemacht. In einem Brief schrieb er 1871 an einen Freund: »If (and what a big if!) we could conceive in some warm little pond, with all 503 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

sorts of ammonia and phosphoric salts, light, heat, electricity etc. … present, that a protein compound was chemically formed ready to undergo still more complex changes …«. Das war natürlich weit von einer naturwissenschaftlichen Theorie entfernt und nur eine Phantasie, aber zumindest enthielt sie einige der Komponenten, die wir in vorangegangenen Abschnitten besprochen hatten (Lebensentstehung im Wasser aus anorganischen Verbindungen mit Energie gleich in drei verschiedenen Formen). Anfang des 20. Jahrhunderts formulierten dann unabhängig voneinander der Russe Alexander Oparin und der Brite J. B. S. Haldane die Theorie, dass unter Einwirkung von ultravioletter Strahlung sich organische Moleküle aus anorganischen Verbindungen in einem Urmeer der frühen Erde gebildet haben könnten und sich dort angereichert haben könnten. Auch der Begriff primordial soup (Ursuppe) wurde schon eingeführt. Allerdings dauerte es noch bis zum Jahr 1953, als Stanley Miller eine experimentelle Überprüfung der möglichen Entstehung von organischen Verbindungen unter den vermuteten Bedingungen der frühen Erde durchführte (Miller 1953). Der originale Versuchsaufbau sowie eine schematische Übersicht sind in Abbildung 2 gezeigt. Miller hat in einem Kolben einen Ur-Ozean simuliert, über dem sich eine Ur-Atmosphäre befand, die aus Wasserdampf, Ammoniak, Methan und Wasserstoff bestand. Elektrische Entladungen sollten Ur-Gewitter simulieren. In einem Kreislauf wurde der Wasserdampf der Atmosphäre kondensiert und aus dem Ur-Ozean wieder Wasser verdampft. Schon nach einigen Tagen hatten sich viele organische Verbindungen gebildet, wie aus der Ausbildung von Farbe unschwer zu erkennen war (s. Abbildung 2 links). Unter anderem wurden verschiedene Aminosäuren gebildet. Stanley Miller hat das Experiment als 23-jähriger Student in der Arbeitsgruppe von Harold Urey durchgeführt, und er erhielt die Erlaubnis, das Ergebnis als alleiniger Autor ohne seinen Mentor in einem zweiseitigen Artikel in Science zu veröffentlichen, was damals so ungewöhnlich war, wie es heute sein würde (eine genaue Beschreibung des Experiments und der Umstände finden sich in Hazen 2005). Spätere theoretische Darstellungen zur Synthese organischer Verbindungen auf der frühen Erde haben Miller und Urea dann gemeinsam publiziert (u. a. Miller/Urey 1959). Dieses Ursuppen-Experiment von Miller hat von Beginn an eine ungeheure Wirkung entfaltet, und der Begriff der Ursuppe hat es in den allgemeinen Sprachgebrauch geschafft (sogar ein sehr interessantes Gesellschaftsspiel zur Evolution trägt diesen Namen). Miller hat damit die Origin of Life-Forschung 504 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

(s. u.) begründet, und er hat auch seine Lebensaufgabe gefunden. Über mehr als 50 Jahre bis zu seinem Tod im Jahr 2007 hat er dieses Experiment, in ständigen Abwandlungen, die z. B. geänderten Auffassungen der Geologen über die Zusammensetzung der Ur-Atmosphäre geschuldet waren, wiederholt und die Theorie der Lebensentstehung in der Ursuppe gegenüber allen anderen Theorien verteidigt. Leider ist die Theorie mit Sicherheit falsch, auch wenn das dem Experiment selber nichts von seiner ungeheuren Wirkung nimmt. Es gibt eine ganze Reihe von Argumenten gegen die Theorie, dass sich aus den aus der Ur-Atmosphäre in den Ur-Ozean gewaschenen organischen Monomeren im Laufe der Zeit Polymere gebildet haben und immer komplexere Stoffgemische entstanden sind, bis hin zur Ausbildung der ersten Zelle. Erstens sind nie die richtigen Mischungen von organischen Verbindungen entstanden, die zentral für den heutigen Stoffwechsel von Lebewesen sind. Zweitens sind die Verbindungen in dem Ur-Ozean viel zu verdünnt, um Polymere zu bilden. Drittens werden Polymere in einer wässrigen Lösung schneller in Monomere hydrolysiert, als sie gebildet werden können. Ein viertes Argument aber schlägt alle anderen bei Weitem: der simulierte UrOzean war im thermodynamischen Gleichgewicht, was mit dem Leben unvereinbar ist (s. Definitionen).

Abb. 2. Die Apparatur, mit der Stanley Miller im Jahr 1953 sein berühmt gewordenes Ursuppenexperiment durchgeführt hat. Links: Originalapparatur, Rechts: Schematischer Aufbau.

505 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

2.6 Die Eisen-Schwefel-Welt Ab 1988 wurde von Günter Wächtershäuser eine grundsätzlich andere Theorie zur Entstehung des Lebens aufgestellt (z. B. Wächtershäuser 1988; 1990; 1992). Dies war aus mehreren Gründen bemerkenswert. Erstens beruhte die Theorie nicht auf experimentellen Grundlagen, sondern ausschließlich auf theoretischen Überlegungen zu Prinzipien der anorganischen und organischen Chemie und der Biochemie. Zweitens war sie ausgesprochen vollständig. Und drittens war Günter Wächtershäuser zwar als organischer Chemiker ausgebildet worden, hatte jedoch sein gesamtes Berufsleben als Patentanwalt verbracht. Seine jahrelange Anwaltserfahrung half ihm sehr offensichtlich, wenn er seine neuartige Theorie, die klar die weitverbreitete Ursuppentheorie als falsch benannte, in Vorträgen vorstellte und in Diskussionen verteidigte. Aufgrund seines Selbstbewusstseins hatte er kein Problem damit, sich gegen die herrschende Meinung zu stellen (von ihm ist das Zitat übermittelt »You don’t mind if I brag a little, but something like this has never been done in the entire field«). Die Theorie von Wächtershäuser stellt die Oberfläche von Gesteinen, insbesondere von Pyrit (FeS2), als Ort der Lebensentstehung in den Mittelpunkt. Der Gesteinsoberfläche kommt dabei eine Vielzahl von Funktionen zu. Erstens kann sie Substanzen adsorbieren und damit gegenüber einer wässrigen Lösung stark konzentrieren. Wie besprochen, verschiebt das die Reaktionsrichtung von der Hydrolyse zur Synthese von Polymeren. Zweitens kann das Metall (bei reinem Pyrit Eisen, aber auch Kobalt oder Nickel) Reaktionen katalysieren und damit stark beschleunigen. Drittens können die adsorbierten Substanzen auf der Oberfläche zueinander ausgerichtet werden, so dass nur bestimmte Reaktionen aus dem möglichen Reaktionsraum realisiert werden. Um auf der positiven Oberfläche von Pyrit adsorbiert zu werden, müssen die Verbindungen negativ geladen sein, was für viele zentrale Intermediate des heutigen Stoffwechsels von Lebewesen der Fall ist. So ist das negativ geladene Phosphat für sehr viele Strukturen und Reaktionen essentiell, es kommt in dem Gerüst von DNA und RNA vor, ist Bestandteil von Phospholipiden, Phosphoproteinen, Phosphozucker, ist als ATP und NADP Teil des Energie- und Redoxstoffwechsels. In dieser Theorie sind die ersten Lebewesen nur zweidimensional und bestünden aus Stoffwechselzyklen, die sich selbst reproduzieren können, sich auf Nachbarsteine fortpflanzen können, usw. Wächtershäuser entwirft eine in sich geschlossene eigene 506 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

»Eisen-Schwefel-Welt«, in der die Komplexität stetig zunimmt und nach und nach die Polymere entstehen, die wir von Lebewesen kennen. Nach der Entstehung von Lipiden und Lipidvesikeln kann der Stoffwechsel in dreidimensionale Kompartimente eingeschlossen werden, die sich letztendlich von der Gesteinsoberfläche ablösen können und die ersten freilebenden Zellen bilden. Wenn auch die späteren Schritte Theorie bleiben, hat die Theorie von Wächtershäuser einige experimentell arbeitende Wissenschaftler dazu gebracht, Pyrit und ähnliche Gesteine in Versuche unter präbiotischen Bedingungen einzubeziehen. Die Erfolge waren groß, es konnten tatsächlich bei erhöhten Temperaturen und erhöhtem Druck durch die Katalyse von Pyrit oder mit Nickel oder Kobalt dotierten Steinen aus sehr einfachen anorganischen Molekülen (wie CO, CO2, NH3, KCN, usw) zahlreiche organische Verbindungen synthetisiert werden. Dazu zählten eine ganze Reihe von Verbindungen, die an zentralen Stellen des heutigen Stoffwechsels zu finden sind (z. B. Azetat, Pyruvat, Aminosäuren, Hydroxysäuren usw.). Auch wurde die Kondensation von Aminosäuren zu Dipeptiden nachgewiesen. Die Theorie von Günther Wächtershäuser und die nachfolgenden, durch sie induzierten Experimente zur Metallkatalyse unter Bedingungen der frühen Erde waren enorm wichtig für die Weiterentwicklung der so genannten Origin of Life-Forschung.

2.7 Experimentelle »Origin-of-Life Forschung« In den letzten beiden Abschnitten wurden zwei sehr einflussreiche experimentelle Ansätze beschrieben. Auch wenn beide die Entstehung des Lebens nicht wirklich erklären können, konnte doch auf zwei sehr unterschiedlichen Wegen gezeigt werden, wie einfach es ist, innerhalb weniger Tage mit Laborsimulationen aus sehr einfachen anorganischen Verbindungen zu sehr komplexen Mischungen sehr vieler organischer Verbindungen zu gelangen. Es gibt seit vielen Jahren eine eigene Forschungsrichtung, die sich auf die Origin of LifeForschung konzentriert. Ergebnisse werden z. B. in der Fachzeitschrift Origins of Life and Evolution of Biospheres veröffentlicht. Seit 1973 gibt es eine eigene Fachgesellschaft, die International Society for the Study of the Origin of Life and Astrobiology, die sich dem Thema widmet und Konferenzen organisiert. Wer sich für das Thema interessiert, findet unzählige interessante experimentelle oder theoreti507 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

sche Veröffentlichungen in dem genannten und anderen Journals. Hier sollen nur einige wenige experimentelle Ergebnisse berichtet werden, die zentral für die oben genannten Fragestellungen sind. Robert Hazen und David Deamer haben Pyruvat, eine im Stoffwechsel zentrale kleine Verbindung aus drei Kohlenstoffatomen, in eine Goldkapsel eingeschlossen und unter hohem Druck auf 250 °C erhitzt (Hazen/Deamer 2007). Ziel war es, festzustellen, ob unter diesen, Hydrothermalquellen (die am Meeresboden vorkommen, s. u.) nachempfundenen Bedingungen Oxalacetat, eine nächstgrößere Stoffwechselverbindung mit vier Kohlenstoffatomen, entstehen würde. Das Erstaunen über das vollkommen unerwartete Ergebnis ist noch heute einem Bericht über den Versuch nicht zu überhören: »pyruvate had reacted in our capsules, to be sure. But instead of the simple 3 + 1 = 4 reaction, we had produced an explosion of molecules – tens of thousands of different kinds of molecules … It might take a lifetime to decipher the contents of just one such molecular suite« (Hazen 2005). Analysen zeigten, dass Produkte sehr unterschiedlicher Größen entstanden waren, und, besonders wichtig, auch Verbindungen, die so hydrophob waren, dass sie Vesikel bildeten. Wie bei Origin of Life-Experimenten mit anorganischen Verbindungen zeigte es sich also auch mit der kleinen organischen Verbindung Pyruvat, dass unter sehr einfachen präbiotischen Bedingungen eine komplexe Mischung von Produkten nicht nur entstehen kann, sondern zwangsläufig entsteht. Bei den bislang beschriebenen Experimenten waren diverse organische Verbindungen entstanden, jedoch nicht die vier Nukleobasen, die den Informationsgehalt von DNA und RNA ausmachen. Kürzlich ist beschrieben worden, dass alle Nucleobasen aus der extrem einfachen organischen Substanz Foramid durch Katalyse von Manganoxiden hergestellt werden können (Bhushan 2016), ein weiterer wichtiger Schritt hin zur präbiotischen Synthese der Monomere, die die Polymere von Lebewesen aufbauen. Auch zur Fragestellung, wie Polymere unter präbiotischen Bedingungen entstanden sein könnten, sind zahlreiche Versuche durchgeführt worden, von denen nur zwei kurz genannt werden. Austrocknung führt zur gleichzeitigen Reduktion des Wassergehaltes und Konzentrierung aller im Wasser gelösten Monomere, was die Polymerbildung begünstigt. In einem Experiment wurde eine Mischung aus Lipiden und des RNA-Monomers AMP (Adenosinmonophosphat) wiederholten Zyklen von Austrocknung und Rehydratisierung 508 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

ausgesetzt (Rajamani et al. 2008). Dabei entstanden RNA-Polymere aus mehr als 100 Monomeren. Besonders zu betonen ist, dass es sich bei AMP um ein nicht-aktiviertes Monomer (ohne Abgangsgruppe) handelt, das im heutigen Stoffwechsel für eine RNA-Synthese ungeeignet wäre, in dem das mit einer guten Abgangsgruppe versehene ATP (Adenosintriphosphat) als Substrat dient. Auch andere Versuche mit zyklischer Austrocknung und Rehydrierung, die hier nicht besprochen werden, haben gezeigt, dass solche Bedingungen wiederholter Wasserarmut zur Bildung unterschiedlicher Polymere geeignet sind. Inzwischen ist ein weiterer Effekt entdeckt worden, der zur starken Konzentrierung von in Wasser gelösten Substanzen führt, ohne dass es zur Austrocknung kommt. Es wurde gezeigt, dass es in porösen Gesteinen, in denen starke Temperaturgradienten herrschen, an bestimmten Stellen zu einer mehr als 1000-fachen Konzentration von gelösten Substanzen kommen kann. Dies gilt für DNA und RNA, aber auch für die kleine organische Verbindung Formamid (Niether et al. 2016), aus der in Versuchen zur Eisen-Schwefel-Welt so viele unterschiedliche organische Verbindungen produziert werden konnten. Solche porösen Gesteine werden an Hydrothermalquellen gefunden, die aktuell als ein möglicher Ort für die Entstehung des Lebens diskutiert werden (s. u.). Als letztes Origin of Life-Experiment sei die Isolierung von RNAs genannt, die als RNA-Polymerasen aufgrund einer Vorlage aus – in diesem Fall aktivierten – Monomeren die Bildung neuer RNAs mit festgelegter Sequenz katalysieren können (Zaher/Unrau 2007). Wie im nächsten Abschnitt dargelegt wird, spielen RNAs eine essentielle Rolle in der Entstehung des Lebens, da sie sowohl Information speichern können als auch als Ribozyme (RNA-Enzyme) sehr spezifisch Reaktionen katalysieren können. Die vielfältigen Potentiale von RNA sind wichtig für die RNA-Welt-Hypothese zur Entstehung des Lebens, die im nächsten Abschnitt dargestellt wird.

2.8 Die RNA-Welt und andere Welten Schon vor mehr als 30 Jahren wurde die Hypothese aufgestellt, dass das Leben in einer reinen RNA-Welt entstanden sein kann, ohne dass andere Molekülklassen wie DNA, Proteine oder Lipide dazu nötig waren. Die Idee wird oft Walter Gilbert zugeschrieben (Gilbert 1986), 509 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

aber es gibt sehr viele unterschiedliche Autoren, die sich mit der Entstehung des Lebens in einer RNA-Welt beschäftigt haben (einge Übersicht gibt z. B. Ma 2017). Die grundlegende Idee ist, dass RNA mehrere unterschiedliche Funktionen ausführen kann, sie kann in ihrer Sequenzabfolge Information kodieren und damit Erbmaterial sein. Noch heute gibt es viele Viren, die ein RNA-Genom haben. RNA kann allerdings auch – leichter als DNA – spezifische dreidimensionale Strukturen einnehmen, die hochspezifisch andere Moleküle binden können oder die enzymatisch aktiv sein können. Im Verlaufe der letzten 10–20 Jahre sind immer mehr Funktionen entdeckt worden, die RNAs noch heute ausführen und die weit über die klassische Mittlerfunktion (als messenger RNA, mRNA) zwischen dem DNA-Genom und den funktionstragenden Proteinen hinausgehen. Die Proteine sind also nicht die einzigen Biokatalysatoren, wie früher angenommen wurde, sondern auch gefaltete RNAs, so genannte Ribozyme, können katalytisch aktiv sein. Es war eine große Überraschung, als die Struktur des Ribosoms aufgeklärt wurde und festgestellt wurde, dass in der Nähe des katalytischen Zentrums, in dem die Aminosäuren zu Proteinen verknüpft werden, gar kein Protein zu finden ist. Das Ribosom ist also ein sehr großes Ribozym, das noch heute in allen Lebewesen die immens wichtige Rolle der Translation katalysiert. Weil diese Funktion so ubiquitär ist, gehen einige Autoren davon aus, dass dies eine Reminiszenz an eine frühe RNAWelt sein könnte, und dass die ribosomalen Proteine erst später in der Evolution als stabilisierende Strukturelemente hinzutraten. Neben katalytischen Funktionen können RNAs auch regulatorische Funktionen übernehmen, so wurden in allen Lebewesen von Bakterien bis zum Menschen sehr viele kleine, nicht-kodierende, regulatorische RNAs gefunden. In Laborevolutionsexperimenten wurden zahlreiche strukturierte künstliche RNAs entwickelt, die gewünschte Eigenschaften aufweisen wie die hochspezifische Bindung an beliebige vorgegebene Bindungspartner (von kleinen Molekülen bis zu Zellen), mit Affinitäten, die denen von Antikörpern gleichkommen. Inzwischen werden einige dieser so genannten RNA-Aptamere für Behandlungen in der Humanmedizin eingesetzt. In Laborevolutionsexperimenten wurden auch katalytische RNAs entwickelt, wie schon erwähnt, gehören sogar RNAs dazu, die als RNA-Polymerasen vorhandene RNAs als Vorlage benutzen können, um komplementäre RNAs zu synthetisieren.

510 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

Solche RNA-Replikatoren sind das Herzstück der RNA-WeltHypothese. Es wird angenommen, dass auf der frühen, präbiotischen Erde viele unterschiedliche RNAs entstanden sind, von denen einige wenige die Fähigkeit besaßen, andere RNAs zu replizieren. Solange sie das vollkommen unspezifisch mit allen anderen RNAs machen, kann keine molekulare Evolution in Gang kommen. Daher wird angenommen, dass in dieser RNA-Welt einige RNA-Replikatoren entstanden sind, die eine gewisse Sequenzspezifität entwickelt haben und aus der großen Mischung unterschiedlicher RNAs vor allem nur wenige spezifische RNAs repliziert haben, deren komplementäre RNAs sich gegenüber allen anderen RNAs stark angereichert haben. Als Letztes muss noch angenommen werden, dass von diesen angereicherten RNAs eine die Fähigkeit besessen hat, die ursprüngliche Replikator-RNA zu replizieren, so dass die beiden RNAs sich wechselseitig replizieren und gegenüber allen anderen durchsetzen können. Damit wäre die Darwin’sche Evolution schon lange vor der Entstehung der ersten Zelle auf der molekularen Ebene angekommen, da sich im Verlaufe der Zeit immer bessere und immer spezifischere Replikatoren entwickelt haben, die sich gegenüber ersten, schlechteren Replikatoren durchsetzen und anreichern können. Es wäre ein genetisches System entstanden (Genotyp, Sequenz der RNA-Replikatoren), das mit einem Replikationssystem (Phänotyp, katalytische Aktivität der Replikatoren) gekoppelt ist und sich durch molekulare Darwin’sche Evolution weiterentwickeln kann. Einige Punkte der NASA-Definition von Leben würde dieses einfache System gegenseitiger Replikatoren, die in einer RNA-Welt evolvieren, schon erfüllen, allerdings hapert es ein wenig mit dem self-sustainable. So schön die RNA-Welt-Hypothese einerseits die Herausbildung eines evolvierbaren genetischen Systems erklärt, weist sie andererseits mehrere große Probleme auf. Erstens nimmt sie die Existenz von RNAs sowie von aktivierten Monomeren zur RNA-Synthese als irgendwie gegeben an und gibt keinerlei Erklärung für ihre Entstehung. Und zweitens ist RNA die einzige Molekülklasse, die in dieser Welt vorkommt, während Origin of Life-Versuche regelmäßig zeigen, dass eine Vielfalt unterschiedlicher Moleküle entsteht. Die RNA-Welt kann also nur ein Puzzleteil in der Erklärung der Entstehung des Lebens sein, die insgesamt viel umfangreicher sein muss. Neben der RNA-Welt sind Hypothesen zur Lipid-Welt (Lancet et al. 2019) und zur Coenzym-Welt (Sharov 2016) entworfen worden, die hier jedoch nicht vorgestellt werden. Wie bei der RNA-Welt sind 511 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

auch diese alternativen Welten zu sehr auf nur einen Aspekt fokussiert, als dass sie eine umfassende Erklärung für die Entstehung des Lebens liefern könnten.

2.9 Lebensentstehung an marinen Hydrothermalquellen oder terrestrischen Hydrothermalfeldern Abschließend sollen noch kurz die beiden meiner Meinung nach momentan besten Theorien zur Entstehung des Lebens vorgestellt werden, nämlich die Entstehung des Lebens an marinen Hydrothermalquellen oder an terrestrischen Hydrothermalfeldern. Es gibt einige Stellen am Meeresboden, an denen Meerwasser in die Erdkruste einsickert, dort erwärmt wird und dabei auch Salze gelöst werden, und an so genannten Hydrothermalquellen wieder an die Oberfläche kommt. Wenn das Wasser dabei stark auf mehr als 400 °C erwärmt wird, entstehen Schwarze Raucher (black smoker). Dies liegt daran, dass das heiße Wasser beim Eintritt in das Meerwasser stark abkühlt und dabei die gelösten Verbindungen sofort ausfallen. Von solchen Schwarzen Rauchern sind Archaea isoliert worden, die bei über 120 °C wachsen können, was vor ihrer Entdeckung für unmöglich gehalten wurde. Es gibt weitere Stellen, bei denen das ausströmende Wasser eine geringere Temperatur von nur 60–90 °C aufweist, die oft als white smoker bezeichnet werden, da weniger Verbindungen aus der Erdkruste gelöst wurden und daher auch weniger ausfallen. Diese Hydrothermalquellen gibt es nicht nur heute, sondern hat es auf der Erde seit jeher gegeben, so dass sie auch auf der frühen Erde für eine mögliche Entstehung des Lebens zur Verfügung standen. Es gibt Gesteine wie Pyrit, die nicht massiv sind, sondern porös, so dass sie von Wasser durchströmte Kammern aufweisen. Die Stellen sind weit vom thermodynamischen Gleichgewicht und es liegen Gradienten an, wie sie noch heute in lebenden Zellen zu beobachten sind und die für den Energiestoffwechsel essentiell sind. So sind die Verbindungen in der Erdkruste reduzierter als die im Ozean gelösten Verbindungen, so dass ein Redoxgradient entsteht. Redoxgradienten treiben alle aeroben und anaeroben Atmungen, die wir von heutigen Lebewesen kennen. Außerdem gibt es Hydrothermalquellen, aus denen alkalisches Wasser strömt, so dass ein Protonengradient (pH-Gradient) entsteht. Protonengradienten in heutigen Lebewesen sind wichtig für die ATP-Synthese, viele Trans512 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

portvorgänge über die Cytoplasmamembran und für den Flagellenmotor von Bakterien. Wie in der Eisen-Schwefel-Welt können metallkatalysierte Reaktionen stattfinden, nur nicht auf der äußeren Oberfläche von Gesteinen, sondern an den inneren Oberflächen der Poren. Durch Adsorption an die inneren Oberflächen wie auch dadurch, dass die Kammern nur halbdurchlässig (semipermeabel) sind, kann es zur Akkumulation von Monomeren kommen und damit im weiteren Verlauf auch zur Polymerbildung. Abbildung 3 zeigt schmematisch, wie die Entwicklung von einfachen anorganischen Molekülen bis zu freilebenden Zellen prinzipiell denkbar ist. Ein wichtiger Punkt dieses Modells ist, dass die ersten Lebewesen nicht freilebende Zellen sind, die von einer Membran umgeben sind, sondern dass sich die Membran durch die Synthese von Lipiden erst im Laufe der Zeit entwickelt. Während dieser Entwicklung lagern sich hydrophobe Proteine, die gleichzeitig auch entstehen, in die Membran ein, so dass die Membran, wenn sie das erste Mal eine geschlossene Abgrenzung bildet (erste freilebende Zelle), schon mit Transportproteinen funktionalisiert ist. Die Theorie der Lebensentstehung an Hydrothermalquellen ist von William Martin, Michael Russel und Nick Lane in einigen Publikationen ausführlich beschrieben worden (z. B. Martin/ Russel 2003; Martin et al. 2008; Martin/Russel 2007; Russel et al. 2010). Nach einer anderen Theorie könnte das Leben an terrestrischen Hydrothermalfeldern entstanden sein. Auch dies sind Orte der Erde, die es heute noch gibt und die es auch auf der frühen Erde gab, sobald sie weit genug abgekühlt war, so dass sich flüssiges Wasser bilden konnte. Die grundlegende Idee dieser Theorie ist, dass durch Vulkanismus immer wieder Wasser aus der Erdkruste in die Luft geschleudert wird und auf Inseln regnet, so dass sich dort vorübergehend Tümpel und Seen bilden. Diese werden durch Verdunstung danach immer kleiner, bis sie ganz austrocknen, so dass es einen ständigen Wechsel von Auffüllen und Austrocknung gibt. Wie am Beispiel vieler Origin of Life-Experimente gezeigt wurde, entstehen durch diese Zyklen tatsächlich Polymere aus nichtaktivierten Monomeren, da es zu Phasen hoher Monomerkonzentration und Wasserarmut kommt. Beide Hydrothermaltheorien gehen davon aus, dass gleichzeitig eine Vielzahl unterschiedlicher Moleküle unterschiedlicher Verbindungsklassen entstanden ist und es reine RNA-/Lipid-/Coenzymwelten nie gegeben hat. In beiden Szenarien nimmt die Komplexität nach und nach zu, da die Konzentration von immer größeren Polymeren steigt 513 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

Abb. 3. Schematische Übersicht, wie sich an Hydrothermalquellen im Laufe der Zeit aus anorganischen Gasen und Salzen s immer komplexere Mischungen organischer Polymere entwickelt haben könnten, bis hin zur Entstehung der ersten freilebenden Zellen.

und durch die unterschiedlichen Verbindungsklassen gemischte Verbindungen (Lipid-Protein, RNA-Protein) entstehen, die neuartige Reaktionen zu noch neuartigeren Molekülen und erste Rückkoppelungen erlauben. Und in beiden beginnt die Darwin’sche Evolution schon auf der molekularen Ebene, noch vor der Bildung der ersten 514 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

Zelle. Die Stärken und Schwächen der beiden Hydrothermalszenarien für die Entstehung des Lebens werden von David Deamer in einem kürzlich erschienenen Buch ausführlich diskutiert (Deamer 2019).

2.10 Lebensentstehung – und wie war es wirklich? Die meisten Leserinnen und Leser werden überrascht sein, wie viele unterschiedliche Theorien zur Entstehung des Lebens es im 21 Jahrhundert aktuell gibt, knapp 70 Jahre nach dem bekannten UrsuppenVersuch von Stanley Miller und Jahrzehnten von Origin of Life-Forschung. Natürlich ist die Erklärung, dass die Entstehung des Lebens auf der Erde vor mehr als 3,5 Milliarden Jahren stattgefunden hat und keine direkten Spuren hinterlassen hat. Wie schon zu Beginn gesagt, kann es heute nicht mehrfach reproduziert werden und der Pfad der molekularen Entwicklung präbiotischer Reaktionen reproduzierbar bewiesen werden. Dennoch hat die Origin of Life-Forschung in den letzten Jahrzehnten viele und bedeutende Fortschritte gemacht. Viele Modellversuche wie auch der Fortschritt theoretischer Modelle erlauben es, den Erklärungscharakter der verschiedenen Modelle kritisch zu hinterfragen und zu vergleichen. So haben viele sehr unterschiedliche Versuche gezeigt, dass einige für die Entstehung des Lebens notwendigen Schritte keine sehr seltenen Zufälle waren, sozusagen Lottogewinne der irdischen Entwicklung, die ein sehr unwahrscheinliches Ereignis wie die Entstehung des Lebens entgegen allen Wahrscheinlichkeiten möglich gemacht haben. Die Erzeugung einer großen Zahl organischer Verbindungen aus sehr einfachen anorganischen Gasen und Salzen ist in Ursuppen-, Schwefel-EisenWelt- und Hydrothermal-Modellexperimenten in nur wenigen Tagen reproduzierbar gelungen. Dazu gehören ausdrücklich auch reduzierte hydrophobe Verbindungen, die Vesikel und damit so etwas wie Protozellen bilden können. Damit erscheinen alle Szenarien, die auf nur eine Verbindungsklasse setzen, als sehr unwahrscheinlich. Verschiedene Bedingungen sind gefunden worden, die zur Bildung von Polymeren führen, auch aus nicht-aktivierten Vorstufen. Die in den letzten Jahren in immer größerer Zahl entdeckten, vielfältigen Funktionen von RNA lassen es wahrscheinlich erscheinen, dass RNA bei der Evolution genetischer Information essentiell war, wenn auch nicht in einer reinen RNA-Welt. Und es gibt gleich mehrere unter515 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

schiedliche Orte auf der Erde, die fern vom thermodynamischen Gleichgewicht sind, schon auf der frühen Erde und für sehr lange Zeiträume existierten und an denen die Entstehung von Leben möglich erscheint. Die Darwin’sche Evolution, die zumindest in der am weitesten anerkannten Definition von Leben enthalten ist, wird schon auf molekularer Ebene vor Ausbildung der ersten Zellen eingesetzt haben. Auch wenn wir wohl nie erfahren werden, wo auf der Erde nach welchem Szenario (oder welcher Mischung von Mechanismen) das Leben historisch tatsächlich entstanden ist, so erscheint die Entstehung des Lebens nach Jahrzehnten der Origin of Life-Forschung bei geeigneten Rahmenbedingungen wie auf der Erde eher als naturgesetzliche Selbstverständlichkeit denn als ein im Weltall einmaliger, unwahrscheinlicher Zufall. Den Modellversuchen fehlen noch viele Aspekte der Komplexität, wie wir sie in heutigen Lebewesen finden und von denen einige in späteren Abschnitten kurz diskutiert werden. Allerdings wäre auch ein Origin of Life-Versuch, mit dem es gelänge, von einfachen anorganischen Verbindungen bis zu einer lebenden Zelle zu gelangen (und wir sind sehr weit davon entfernt), kein Beweis dafür, dass das Leben auf der frühen Erde tatsächlich so entstanden ist, sondern nur ein Beweis dafür, dass dies ein möglicher Pfad – von vielleicht sehr vielen – ist. Die Erfolge der irdischen Origin of Life–Forschung haben auch die Astrobiologie als eigenes Forschungsgebiet befeuert, das verschiedenen Fragen zu Leben und seiner Entstehung an anderen Orten als auf der Erde nachgeht.

3.

War die Lebensentstehung einmalig oder entsteht ständig überall neues Leben?

Alle heutigen Lebewesen, Archaea, Bakterien und Eukaryoten, benutzen denselben genetischen Code. Daher können alle Lebewesen auf einen einzigen gemeinsamen Vorfahren (universal common ancestor) zurückgeführt werden. Aus dieser Tatsache ist oft geschlossen worden, dass die Entstehung von Leben ein sehr unwahrscheinliches Ereignis sein muss, das in vier Milliarden Jahren Erdgeschichte eine Singularität erlebt hat und genauso gut auch nicht hätte stattfinden können, was zu einer bis heute unbelebten Erde geführt hätte. Und wenn die Lebensentstehung auf der Erde so unwahrscheinlich ist, ist es natürlich auch unwahrscheinlich, dass irgendwo im Weltall extra516 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

terrestrisches Leben existiert. Diese Schlussfolgerungen stehen in offensichtlichem Gegensatz zu den vorherigen Abschnitten zur Lebensentstehung, und natürlich sind sie falsch. Es gibt mindestens drei Erklärungen dafür, dass alle heutigen Lebewesen auf nur einen gemeinsamen Vorfahren zurückgeführt werden können, obwohl die Lebensentstehung gerade nicht unwahrscheinlich ist. Angenommen, es hätte tausende unabhängige Ereignisse der Lebensentstehung gegeben, die zu unterschiedlichen Lebensformen mit unterschiedlichen genetischen Codes geführt hätten. Wenn durch die weitere Darwin’sche Evolution darunter eine Form entstanden wäre, die den anderen weit überlegen ist, durch einen effektiveren Energiestoffwechsel, eine dichtere Membran, ein größeres und stabileres Genom oder alles zusammen, hätte diese neue Form zwangsläufig alle anderen Formen überwachsen. Wenn dies in den ersten Milliarden Jahren passiert wäre, würden wir von den ausgestorbenen Formen, die noch keine Fossilien bilden konnten, natürlich keinerlei Spuren mehr entdecken können. Dasselbe Bild würde sich ergeben, wenn es ein Bottleneck in der Entwicklung gegeben hätte, die nur eine Form überlebt hätte. Eine dritte Erklärung ist, dass zunächst tatsächlich nur eine Lebensform entstanden ist. Diese hat dann sehr schnell alle abiotisch entstandenen Monomere und Polymere aufgebraucht und damit eine zweite Lebensentstehung unmöglich gemacht, die ohne die Existenz der ersten Form sehr wahrscheinlich gewesen wäre. Das beantwortet auch gleich die Frage, ob noch heute auf der Erde an Orten, an denen es früher möglich war, neues Leben entsteht (z. B. Hydrothermalquellen oder -felder). Da es dort überall heutiges Leben schon gibt, kann es nicht mehr zur nötigen Akkumulation diverser Monomere und Polymere kommen, und rezente Lebensentstehung kann ausgeschlossen werden. Das gilt natürlich nicht für andere, noch nicht belebte Planeten, auf denen eine Lebensentstehung nicht unwahrscheinlich erscheint, sofern die Rahmenbedingungen es zulassen. Sowohl Weltraumforschung als auch Astrobiologie werden auch in Zukunft spannend bleiben.

517 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

4.

Komplexe Phänomene in der Biologie: Ausgewählte Beispiele

Die Lebensentstehung auf der frühen Erde hat zu ersten Zellen geführt. Diese sind mit Sicherheit noch viel einfacher gewesen als heutige Archaea und Bakterien, die weitere mehr als drei Milliarden Jahre Evolution erlebt haben. Nachfolgend werden sehr kurz einige wenige ausgewählte Beispiele für Komplexität geschildert, die in heute lebenden Prokaryoten zu finden sind.

4.1 Homöostasen intrazellulärer Stoffkonzentrationen Ein Kriterium für ein komplexes System ist die fehlende Linearität zwischen Änderungen der Umgebung und Änderungen des Systems. Dies ist für alle Lebewesen erfüllt, bei denen die meisten Prozesse einer präzisen Regulation unterliegen. Ein sehr offensichtliches Beispiel ist die Temperaturkonstanz beim Menschen: Der Körper wird unabhängig von der Außentemperatur bei einer Temperatur von 37 °C gehalten, und Abweichungen von nur 10 % nach oben oder unten sind lebensbedrohlich. Auch die Glukosekonzentration im Blut zeigt einen nicht-linearen Zusammenhang mit der Nahrungsaufnahme, und Fehler bei der Regulation werden als Krankheit bezeichnet (Diabetes). Die Nicht-Linearität zwischen Stoffkonzentrationen in der Umwelt und intrazellulären Stoffkonzentrationen findet man auch bei Prokaryoten. So wird z. B. die Konzentration von ATP, einem wichtigen Molekül für sehr viele Reaktionen des Energiestoffwechsels, stringent reguliert. Das gilt auch für die Konzentration von NADH, einem wichtigen Molekül für viele Reaktionen des Redoxstoffwechsels. Ebenso gilt dies für die Konzentrationen der Aminosäuren. Die Biosynthese von Aminosäuren wird durch negative Rückkoppelung gestoppt, wenn eine bestimmte intrazelluläre Aminosäurekonzentration entweder durch Biosynthese oder durch Import aus der Umwelt erreicht ist.

518 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

4.2 Regulationsnetzwerke Neben den negativen Rückkoppelungen (feedback) gibt es auch positive Rückkoppelungen (feedforward). Es gibt auch gegenseitige regulatorische Beeinflussungen. Man kennt so genannte bistabile Zustände, bei denen nur eine von zwei Funktionen aktiv sein kann, aber nicht beide gleichzeitig. Dies findet man z. B. bei Bakterien, die sowohl mit Flagellen in Wasser schwimmen können (motil) als auch auf festen Oberflächen Biofilme bilden können (sessil). Die Expression der Gene wird so reguliert, dass jede Zelle nur entweder motil oder sessil ist. Das wird dadurch erreicht, dass zwei Regulatoren sich gegenseitig negativ beeinflussen. Auch in diesem Beispiel gibt es keine lineare Antwort auf die Änderungen von Stoffkonzentrationen in der Umwelt, sondern das Verhalten schaltet bei einer Grenzkonzentration von einem Verhalten auf ein anderes um. Neben diesen einfachen Beispielen gibt es viele Regulationsnetzwerke, die sehr viele Komponenten enthalten, die in die Regulation involviert sind, bei Eukaryoten noch deutlich komplexer als bei Prokaryoten. So beeinflussen bei Eukaryoten häufig mehr als 10 Regulatoren die Expression eines einzigen Genes. So können Signale aus der Umwelt (oder anderen Stellen des Körpers) verrechnet werden, und eine bestimmte Stoffkonzentration kann zu einer starken, schwachen oder gar keiner Expression des betreffenden Gens führen, und die Antwort ist abhängig von sehr vielen anderen Parametern. Die Funktionen dieser Regulationsnetzwerke, die typisch für Lebewesen sind, werden natürlich zu Recht als komplex bezeichnet. Weitere Beispiele für nichtlineare Prozesse in der Biologie sind das zyklische Durchlaufen verschiedener Stadien im so genannten Zellzyklus oder der circadiane Rhythmus, dessen Länge zwar von der Tageslänge beeinflusst wird, der jedoch autonom durch die wechselseitige Beeinflussung einiger Proteine erzeugt wird.

4.3 Heterogenität in mikrobiellen Zellpopulationen Seit einiger Zeit weiß man, dass mikrobielle Zellpopulationen, die genetisch einheitlich sind, in einer einheitlichen Umwelt auch heterogen sein können und Zellen mit unterschiedlichen Eigenschaften enthalten können. Dies tritt dann auf, wenn wichtige Regulatoren in einer nur extrem niedrigen Konzentration in der Zelle auftreten, also 519 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

im Mittel nur ein bis wenige Moleküle in einer Zelle enthalten sind. Dann wird die regulatorische Wirkung durch den stochastischen Zufall bestimmt, und trotz konstanter Umwelt haben auch genetisch identische Zellen unterschiedliche Phänotypen.

5.

Die Entstehung von Eukaryoten

Nach der Entstehung des Lebens bildet die Entstehung der Eukaryoten einen weiteren Komplexitätssprung in der Evolution. Die Eukaryoten unterscheiden sich von den Prokaryoten nicht nur durch das Vorhandensein des namengebenden Zellkerns, in dem das Genom vom Stoffwechsel im Cytoplasma abgetrennt und geschützt wird. Eukaryoten enthalten viele weitere Kompartimente (Organellen), in denen bestimmte Funktionen konzentriert sind und getrennt vom Rest der Zelle ablaufen und reguliert werden können. Dazu zählen die Mitochondrien, die umgangssprachlich oft als die Kraftwerke der Zelle bezeichnet werden, da sie die Atmungskette enthalten, mit der die Oxidation von NADH an die Reduktion von Sauerstoff gekoppelt wird und letztlich ATP generiert wird. Die Mitochondrien waren früher einmal freilebende Bakterien und wurden von den Eukaryoten internalisiert und in den eigenen Stoffwechsel integriert (Stichwort: Endosymbiontentheorie). Fast das gesamte ursprüngliche Bakteriengenom ist allerdings im Laufe der Zeit verloren gegangen, und Mitochondrien enthalten nur noch winzige Überreste an DNA. Dasselbe gilt für die Chloroplasten der Pflanzen, die auch früher einmal freilebende Bakterien waren und in die Eukaryotenzelle integriert wurden. Eukaryoten enthalten als weitere Organellen z. B. noch das Endoplasmatische Retikulum, den Golgi-Apparat, Lysosomen, Peroxisomen usw. Die Organellen haben die Vorteile, dass in ihnen Bedingungen geschaffen werden können, die für die jeweilige Funktion optimal sind, und dass die Konzentration der beteiligten Enzyme sehr viel höher ist, als wenn sie im gesamten Cytoplasma verteilt wären. Im Gegensatz dazu enthalten Prokaryoten typischerweise keine spezifischen Kompartimente in ihrem Cytoplama, und nur wenige Arten enthalten jeweils ein Kompartiment wie Speichergranula, Gasvesikel oder Magnetosomen. Die Ansicht, wie sich die Eukaryoten aus den Prokaryoten entwickelt haben, hat sich in den letzten fünf Jahren drastisch geändert. In den letzten Jahren sind durch die Fortschritte der Sequenziertechnik (s. u.) in Umweltproben viele Genome von 520 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

neuartigen Gruppen von Archaea entdeckt worden. Sequenzvergleiche zeigen, dass Eukaryoten die größte Ähnlichkeit zu einer dieser neuen Gruppen aufweisen (Williams et al. 2020). Damit wird das Konzept, dass es mit Archaea, Bakterien und Eukaryoten drei große monophyletische Domänen des Lebens gibt, das seit Ende der Siebzigerjahre des letzten Jahrhunderts galt, umgestoßen. Nach diesen sehr neuen Phylogenieuntersuchungen gibt es nur zwei große monophyletische Gruppen von Lebewesen, und die Eukaryoten sind – provokant formuliert – nur besonders hoch entwickelte Archaea. Abbildung 4 macht diese prinzipiellen Unterschiede der Auffassung der Evolution der Eukaryoten deutlich. Keine der beiden Stammbaummöglichkeiten erklärt den oben beschriebenen prinzipiellen Unterschied in der Zellstruktur zwischen den Eukaryoten (sehr viele Organellen) und den Prokaryoten. Auch dazu gibt es eine Reihe von Theorien, die jedoch den Rahmen dieses Kapitels sprengen würden.

Abb. 4. Schematische Darstellung des klassischen Stammbaums aller Lebewesen aus drei Domänen (links) und des neuen Stammbaums, nach dem die Eukaryoten am nächsten mit einer Untergruppe der Archaea verwandt sind.

6.

Neu entdeckte Ebenen der biologischen Komplexität

Lebewesen sind zweifelsohne komplex, und das in jeder möglichen Definition dieses Begriffes. In den vorangegangenen Abschnitten wurden einige Aspekte der Komplexität von Lebewesen an nur sehr wenigen Beispielen beleuchtet, da der Fokus dieses Kapitels auf der Entstehung des Lebens liegt. Zu Beginn des Kapitels wurde gezeigt, dass Komplexität ein Begriff ist, dessen Gebrauch in den Biowissen521 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

schaften erst zu Ende des letzten Jahrhunderts begonnen hat und der in diesem Jahrhundert geradezu explosionsartig zunimmt. Da die Komplexität der Lebewesen in diesem Zeitraum – wie auch in den letzten tausenden von Jahren – nicht zugenommen hat, muss es einen anderen Grund für diesen plötzlichen Wandel geben. Meines Erachtens ist der Grund darin zu suchen, dass die Möglichkeiten, Lebewesen zu untersuchen, in den letzten Jahrzehnten und noch beschleunigt in den letzten Jahren sprunghaft angestiegen sind. Die Entwicklung ist auch für Insider atemberaubend. Dies bezieht sich auf die experimentelle Analyse des Genoms, des Epigenoms, des Transkriptoms und des Proteoms. Die Begriffe werden in den nächsten Abschnitten kurz erklärt und die Entwicklungen der letzten Jahre angedeutet.

6.1 Die Explosion von Genomdaten Das Genom bezeichnet die Gesamtheit der Erbsubstanz einer Art. Erst Anfang der Siebzigerjahre des letzten Jahrhunderts begann mit der Entdeckung der so genannten Restriktionsenzyme die Möglichkeit, beliebige DNA-Stücke zu verbinden, zu isolieren und zu analysieren. Anfangs gab es Bedenken über mögliche Gefahren dieser neuen Techniken der Molekulargenetik, und 1975 fand in Asilomar (Kalifornien, USA) eine berühmt gewordene Konferenz zu diesem Thema statt. Seitdem wachsen die Möglichkeiten und Anwendungen exponentiell, und keine der Befürchtungen hat sich als zutreffend erwiesen. Im Jahr 1995 wurde das erste – sehr kleine – Genom eines Bakteriums bestimmt. Zur Jahrtausendwende waren schon ca. 40 Genome von Prokaryoten und ein Genom eines Eukaryoten (Hefe) sequenziert worden. Heute sind mehr als 70.000 Genome von Prokaryoten in öffentlichen Datenbanken zugänglich. Anfang der Neunzigerjahre des letzten Jahrhunderts wurde der kühne Entschluss gefasst, das Genom des Menschen zu sequenzieren, und zu Beginn war klar, dass dies viele Jahre dauern würde und nur von einem Konsortium von Speziallabors geleistet werden könne. Doch immer wieder gab es methodische Sprünge auf ein neues Niveau (experimentelle Technik, Geräte, Computerspeicher wie -software). Zwei unabhängige Projekte gaben 2001 bekannt, dass das Genom des Menschen jetzt bekannt sei (was ein wenig übertrieben war). In den Nullerjahren wurde ein 1000-Genomprojekt begonnen, das die Vielfalt der 522 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

Gene der gesamten Menschheit abbilden sollte. Das Projekt ist abgeschlossen und die 1000 Genomsequenzen können von jedem Interessierten heruntergeladen und analysiert werden. Bis zum Jahr 2014 wurden schon insgesamt 18000 menschliche Genome sequenziert. Die Sequenzierung des Genoms eines Menschen wird mehr und mehr Routine und hat schon Eingang in den medizinischen Bereich gefunden. Selbst aus menschlichen Fossilien kann man inzwischen DNA gewinnen und sequenzieren, und David Reich beschreibt in seinem Buch Who we are and how we got here die Evolution des Menschen anhand von Sequenzvergleichen (Reich 2018; auch lesenswert: My European Family, Bojs 2018). Die rasante Entwicklung der Genomsequenzierung findet natürlich nicht nur bei Prokaryoten und beim Menschen vollkommen neue Anwendungsmöglichkeiten. So läuft momentan das Vertebrate Genome Project mit dem Ziel, die Genomsequenzen von 66000 Arten zu bestimmen (https://genome10k.soe.ucsc.edu/node/161). Außerdem hat das Earth BioGenome Project begonnen mit dem Ziel, innerhalb von 10 Jahren die Genome von 1.5 Millionen Arten zu bestimmen (https://phys.org/news/2018-04-earth-biogenome-aims-sequencedna.html). Dies alles sind Projekte, die vor wenigen Jahren noch vollkommen unmöglich gewesen wären. Die dabei generierten ungeheuren Datenmengen haben sicher auch mit der starken Zunahme des Begriffs Komplexität zu tun, obwohl die in diesem Buch verwendete Bedeutung sicher oft nicht zutrifft.

6.2 Epigenetik Die Epigenetik bezeichnet vererbbare Veränderungen, die nicht die Sequenz der DNA betreffen. Es handelt sich z. B. um Methylierungen von DNA-Bereichen, die die Expression von Genen beeinflussen. Die kann inzwischen auch genomweit untersucht werden. Die Methylierungsmuster können durch Faktoren wie Ernährung und Lebensstil beeinflusst werden. Damit ist vor einigen Jahren eine zusätzliche Ebene der Regulation der Genexpression in den Fokus geraten, die zuvor schlichtweg nicht bekannt war. Die Komplexität der Wechselwirkungen, die das Methylierungsmuster beeinflussen und von ihm beeinflusst werden, gab es natürlich immer schon. Da sie seit einiger Zeit aber der Untersuchung zugänglich geworden ist, hat dies sicherlich auch den Gebrauch des Begriffes erhöht. 523 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

6.3 Transkriptome und nichtkodierende RNAs Das Transkriptom bezeichnet die Summe aller RNAs, die in einer Zelle vorkommen. Die rasante Weiterentwicklung der Sequenziermethoden (s. Genome) hat natürlich auch auf die Analyse von RNAs Anwendung gefunden, so dass Transkriptome heute experimentell bestimmt werden können. In den letzten Jahren ist entdeckt worden, dass es in allen Lebewesen, Archaea, Bakterien wie Eukaryoten, eine große Anzahl von kleinen, nicht für Proteine kodierenden, regulatorischen RNAs (sRNAs) gibt. Diese sRNAs können diverse regulatorische Funktionen ausführen, etwa für Protein kodierende mRNAs stabilisieren oder destabilisieren, die Effizienz der Translation beeinflussen usw. Auch die Komplexität der Wechselwirkungen, die diese tausenden (bei vielen Prokaryoten) bis zehntausenden (beim Menschen) sRNAs eingehen können, gab es natürlich in Lebewesen schon immer. Da sie in den letzten Jahren in stark zunehmendem Tempo analysiert werden können, erhöht auch dies die Anwendung des Komplexitätsbegriffs in den Biowissenschaften.

6.4 Das Proteom und -Proteine Das Proteom bezeichnet die Gesamtheit aller Proteine einer Zelle. Auch die Methoden zur Analyse des Proteoms sind in den letzten Jahren enorm weiterentwickelt worden. Darüber hinaus sind erst vor kurzem sehr kleine Proteine von weit weniger als 100 Aminosäuren (-Proteine) in den Fokus geraten, die vorher nicht bekannt waren. Auch in diesem Fall gilt: nicht die Komplexität der Natur hat sich in den letzten Jahren gewandelt, aber die Möglichkeiten, sie zu untersuchen, sind enorm gestiegen und haben zur Entdeckung von zuvor unbekannten Aktivitäts- und Regulationsebenen geführt.

7.

Komplexität in der Biologie – im Vergleich zu anderen Wissenschaften

Dieses Kapitel hat sich mit der Komplexität in der Biologie beschäftigt und es ergänzt daher die Kapitel zur Komplexität in anderen Bereichen der Natur- und Geisteswissenschaften. Ein sehr starker Fokus des Kapitels liegt auf der Entstehung des Lebens, also eines selbst524 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

organisierten Prozesses, der auf der frühen Erde von nicht-komplexen Vorstufen (anorganische Gase und Salze) zu einem komplexen Ergebnis (lebende Zellen) geführt hat. Weitere Beispiele zur Komplexität in der Biologie wurden nur kurz angesprochen. Es ist hoffentlich offensichtlich geworden, dass verschiedene Aspekte der allgemeinen Definition von Komplexität, wie sie in der Einleitung dieses Bandes versucht wurde, für die Komplexität in der Biologie in vollem Umfang zutreffen. Die biologische Evolution ist irreversibel und nicht reproduzierbar. Man kennt zwar so genannte konvergente Evolution in der Biologie, aber die Ergebnisse zweier biologischer Linien, die eine konvergente Evolution durchlaufen haben, sind eben gerade nicht identisch, sondern nur phänotypisch ähnlich, im Aufbau aufgrund der unterschiedlichen historischen Ausgangslage und Entwicklung jedoch unterschiedlich. Die Evolution von anorganischen Verbindungen bis hin zur ersten Zelle und dann weiter bis zu den Eukaryoten und letztlich zum Menschen kann sicherlich als emergent bezeichnet werden, das Hirn des Menschen kann eben gerade nicht aufgrund der Kenntnisse der anorganischen Chemie erklärt werden. Auf die Nichtlinearität der Antwort von Lebewesen auf Änderungen äußerer Parameter wurde anhand einer Reihe von Beispielen hingewiesen. Auf der anderen Seite zeigen die Reaktionen und Regulationen von Lebewesen natürlich kein im physikalischen Sinne chaotisches Verhalten. Lebende Systeme sind nicht im (thermodynamischen) Gleichgewicht, sondern es findet ein ständiger Energieeintrag statt. Zusammenfassend lässt sich sagen, dass viele Aspekte der wissenschaftsübergreifenden Definition von Komplexität auch auf die Biologie zutreffen. Inwieweit der Gebrauch derselben Begriffe (Emergenz, Irreversibilität, Nicht-linearität, Energieeintrag usw.) in verschiedenen Geistes- und Naturwissenschaften tatsächlich vergleichbare Prozesse und Strukturen beschreibt, kann der Leser im Vergleich der einzelnen Kapitel dieses selten überdisziplinären Buches zu verstehen versuchen.

8.

Literaturverzeichnis

Benner, Stephen A. (2010): Defining life, in: Astrobiology 10, 1021–1030. Bhushan, Brij/Nayak Arunima/Kamaluddin (2016): Catalytic Role of Manganese Oxides in Prebiotic Nucleobases Synthesis from Formamide, in: Orig Life Evol Biosph 46, 203–213.

525 https://doi.org/10.5771/9783495825464 .

Jörg Soppa

Bojs, Karin (2018): My European Family: the first 54000 years. London. Boyer, Pascal (2009): Und Mensch schuf Gott. Stuttgart. Dawkins, Richard (1996): Der blinde Uhrmacher. Ein neues Plädoyer für den Darwinismus. München. Dawkins, Richard (2016): The blind watchmaker. London. Deamer, David (2019): Assembling Life: How can life begin on earth and other habitable planets. Oxford. Gilbert, Walter (1986): Origin of Life: The RNA World, in: Nature 319, 618– 618. Hazen, Robert M. (2005): gen.e.sis: The scientific quest for life’s origin. Washington, D.C. Hazen, Robert M./Deamer, David W. (2007): Hydrothermal reactions of pyruvic acid: Synthesis, selection, and self-assembly of amphiphilic molecules, in: Orig Life Evol Biosph 37, 143–152. Lancet, Doron/Segrè, Daniel/Kahana, Amit (2019): Twenty Years of »Lipid World«: A Fertile Partnership with David Deamer, in: Life (Basel) 9, 77. Ma, Wentao (2017): What Does »the RNA World« Mean to »the Origin of Life«?, in: Life (Basel) 7, 49. Martin, William/Baross, John/Kelley, Deborah/Russell, Michael J. (2008): Hydrothermal vents and the origin of life, in: Nat Rev Microbiol 6, 805–814. Martin, William/Russell, Michael J. (2003): On the origins of cells: A hypothesis for the evolutionary transitions from abiotic geochemistry to chemoautotrophic prokaryotes, and from prokaryotes to nucleated cells, in: Philos Trans R Soc Lond, B, Biol Sci 358, 59–83; discussion 83–5. Martin, William/Russell, Michael J. (2007): On the origin of biochemistry at an alkaline hydrothermal vent, in: Philos Trans R Soc Lond. 362, 1887– 1925. Miller, Stanley L. (1953): A production of amino acids under possible primitive earth conditions, in: Science 117, 528–529. Miller, Stanley L./Urey, Harold C. (1959): Organic compound synthesis on the primitive earth, in: Science 130, 245–251. Niether, Doreen/Afanasenkau, Dzmitry/Dhont, Jan K. G./Wiegand, Simone (2016): Accumulation of formamide in hydrothermal pores to form prebiotic nucleobases, in: Proc Natl Acad Sci U S A 113, 4272–4277. Rajamani, Sudha/Vlassov, Alexander/Benner, Seico/Coombs, Amy/Olasagasti, Felix/Deamer David (2008): Lipid-assisted Synthesis of RNA-like Polymers from Mononucleotides, in: Orig Life Evol Biosph 38, 57–74. Reich, David (2018): Who we are and how we got here: Ancient DNA and the new Science of the Human Past. New York. Russell, Michael J./Hall, Allen J./Martin, William (2010): Serpentinization as a source of energy at the origin of life, in: Geobiology 8, 355–371. Sharov, Alexei A. (2016): Coenzyme world model of the origin of life, in: Biosystems 144, 8–17.

526 https://doi.org/10.5771/9783495825464 .

Komplexität in der Biologie

Tjhung, Katrina F./Shokhirev, Maxim N./Horning, David P./Joyce, Gerald F. (2020): An RNA polymerase ribozyme that synthesizes its own ancestor, in: Proc Natl Acad Sci USA 117, 2906–2913. Vitas, Marko/Dobovišek, Andrej (2019): Towards a General Definition of Life, in: Orig Life Evol Biosph 49, 77–88 (https://doi.org/10.1007/s11084019-09578-5). Wächtershäuser, Günter (1988): Before enzymes and templates: Theory of surface metabolism, in: Microbiol Rev 52, 452–484. Wächtershäuser, Günter (1990): Evolution of the first metabolic cycles, in: Proc Natl Acad Sci U S A 87, 200–204. Wächtershäuser, Günter (1992): Groundworks for an evolutionary biochemistry: The iron-sulphur world, in: Prog Biophys Mol Biol 58, 85–201. Williams, Tom A./Cox, Cymon J./Foster, Peter G./Szöllősi, Gergely J./Embley, T. Martin (2020): Phylogenomics provides robust support for a two-domains tree of life, in: Nat Ecol Evol 4, 138–147. Zaher, Hani S., Unrau, Peter J. (2007): Selection of an improved RNA polymerase ribozyme with superior extension and fidelity, in: RNA 13, 1017–1026.

527 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons Reinhard Stock

1.

Prolog

In diesem Beitrag wollen wir nach komplexen Phänomenen in der Entwicklung des Universums suchen. Natürlich könnte man ganz rasch die gesamte Evolution des Kosmos als ein Musterbeispiel von Komplexität vorschlagen: das Paradebeispiel der Selbst-Organisation. Mit Evolution of the universe wird zumeist der Begriff Evolution nur in einem weiteren Sinn verwendet, lediglich als Abfolge in der Zeit, während wir hier den Begriff in Analogie zur Evolution der Biosphäre verwenden, als eine komplexe, selbststrukturierende Geschichte der Artikulation hinein in einen unvorhersagbaren Konfigurationsraum. In der Tat sehen wir die Geschichte des Universums nicht einfach als ein komplexes Thema im Sinn hoher Komplikation, sondern als eine Abfolge von Komplexitäts-Phänomenen, eine Emergenz von Innovation, die auf Selbstorganisation beruht, wie wir dies mit dem tree of life der Biosphäre gelernt haben. Im Blick auf das Universum werden wir uns allerdings zurückhalten vom allerwesentlichsten Anfangsproblem der Entstehung von Raum und Zeit, und der Entstehung der kosmologischen Expansion, ganz zu Anfang der kosmologischen Zeitskala. Es liegt nahe, hier ein Paradeexempel von Selbstorganisation zu vermuten, aber der Uranfang des Big Bang ist nach wie vor weitgehend terra incognita der Kosmologie. Mit den anschließenden Abschnitten der Big Bang-Expansion müssen wir uns aber dennoch etwas eingehender beschäftigen, sie bilden das Standardmodell der Kosmologie, dessen mikroskopische Physik zugleich der Inhalt des Standardmodells der elementaren Wechselwirkungen ist. Wir brauchen sie, um insbesondere die kosmologischen Phasenübergänge zu skizzieren, in denen wir Elemente evolutionärer Selbstorganisation vermuten: eine Folge von emergenten neuen Architekturen der Welt.

528 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

Unser engerer Gegenstand ist der Übergang von der QuarkGluon-Phase der starken Wechselwirkung zur Materie aus Hadronen, ungefähr bei 5 Mikrosekunden auf der Urknall-Zeitskala, dessen Endprodukte, Protonen und Neutronen, bis heute den ponderablen Inhalt des Universums bilden – zusammen mit Elektronen, Neutrinos und Photonen, über die auch noch zu reden sein wird, weil sie unmittelbar nach dem Phasenübergang entstanden sind, in dessen Nachspiel der weit überwiegende Teil der neugebildeten Hadronen entweder zerfiel oder sich gegenseitig vernichtete; er entkam so der starken Elementarkraft und landete im Strahlungsfeld, das wir heute wiederentdeckt haben als kosmische Hintergrundstrahlung, nun extrem abgekühlt auf 2.7 Kelvin von der anfangs um 1012 höheren Temperatur durch die Streckung des Raums um den gleichen Faktor. In der großen Vernichtung überlebte nur etwa der milliardste Teil der Protonen und Neutronen, aber eben dieser macht heute den gesamten Inhalt an Materie im leeren Raum des Universums aus, vom interstellaren Gas über Galaxien zur Biosphäre. Mit diesen sog. Nukleonen betritt eine völlig unerwartete, überwältigende Evolvierbarkeit die Bühne: das Thema dieses Artikels. Gewöhnlich begegnet man dem Ursprungsproblem der Zeit Null mit Kopfschütteln: Wie kann Etwas aus Nichts entstehen? Aber Vorsicht: Wir verstehen weder das hier angesprochene Etwas noch das entgegnende Nichts auch nur einigermaßen hinreichend, also die Verhältnisse zur Planck-Zeit, t = 5.4 � 10(–44), die wir mit dem Entstehensmoment des Universums identifizieren. In einer klassischen Kosmologie gäbe es vielleicht wenigstens eine formale (aber wenig befriedigende) Antwort: Die Gesamtenergie des Kosmos ist Null, weil sich positive kinetische Energie exakt mit negativer potentieller Gravitationsenergie aufhebt. Aber auch dies trifft in der Kosmologie der Allgemeinen Relativitätstheorie womöglich nicht zu. Aber mit dieser Theorie, die überall bestätigt wurde, wo wir sie testen können, betreten wenigstens einige ganz fundamentale Aussagen die Bühne: Dasein und Ereignisse erfordern einen Erscheinungsrahmen von Raum und Zeit, und offenbar entsteht dieser zur Planck-Zeit. Mit der Anforderung von Raum und Zeit für die Artikulation der Natur folgen wir offenbar dem Kantschen Dictum zu ihrer a priori-Natur, als Grundvoraussetzung jeglicher rationalen Anschauung der Welt. Aber, noch einmal Vorsicht: Die moderne Kosmologie deutet an, dass Raum und Zeit selbst nicht zeitlos sind, sondern emergente physikalische Dinge: ein selbstorganisiertes Netzwerk von realen physika529 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

lischen Dingen (ich vermeide es, Objekte zu sagen) auf der allertiefsten mikroskopischen Ebene (Kauffman/Smolin 1998; Rovelli 2017), dessen Expansion den vorwärts gerichteten Zeit-Pfeil hervorbringt (Ellis 2016). Deshalb die Bemerkung zu Beginn, dass womöglich das Universum selbst ein Kardinalfall von Komplexität ist. Aber nun genug von der Zeit Null. Die Bemerkung über eine tiefste mikroskopische Ebene soll auf keinen Fall mit dem reduktionistischen Diktum Nichts als elementare Physik (Weinberg 1993) in Einklang gedacht werden. Die Physik des Ursprungs dürfte übrigens außerhalb der gegenwärtig bekannten elementaren Theorie liegen, sodass die Ebene des heutigen Standardmodells der elementaren Wechselwirkung überhaupt nicht als grundlegend angenommen werden kann. Die gesamte theoretische Physik und Kosmologie bemüht sich seit 30 Jahren (vergeblich), eine tiefere Ebene des Gesamtverstehens zu erschließen. Und sollte dies eines Tages gelingen: fundamentales Verständnis der Physis wird fehlverstanden mit dem arroganten nothing but-Diktum. Im Gegenteil ist es ein Menschheitsprojekt zu unserer Erhellung! Für diese Sicht steht ganz besonders das Lebenswerk Alexander v. Humboldts (Humboldt 2004). Zu Beginn des 19. Jahrhunderts fand er die ersten Formulierungen der modernen Begriffe von Natur und Kosmos (Wulf 2016). Sein Ansatz, die Formen des Ganzen der Natur in ihren Erscheinungen in Geologie, Klima, Flora, Fauna, Ozeanographie usw. als das Wirken (noch) verborgener Mechanismen der Vereinheitlichung und Vernetzung durch Kopplungen und Rückkopplungen zu verstehen, waren der erste Hinweis auf eine Geschichte der Natur, als ein Daseins-Auftritt (so versuche ich coming into being zu übersetzen) durch Selbstorganisation. Diese Sicht war erklärtermaßen eine revolutionäre Gegenposition zur Idee der Schöpfung. Sie wurde dann von Darwin mit der Theorie der Evolution des Lebensbaums zum ersten Mal entfaltet, nicht zuletzt, weil Darwin vorsichtig oder bescheiden genug war, sich nicht an der unergründlichen Tiefe der Natur als eines Ganzen abzuarbeiten, sondern sich auf die Evolution der Biosphäre zu konzentrieren. So wurden die grundlegenden Phänomene der Evolution entdeckt: das Zusammenspiel von DNA-Mutation, Adaption an die umgebende Biosphäre, und Selektion durch maximale Fruchtbarkeit. Verborgen hinter diesen scheinbar schlichten Axiomen liegt aber eine viel tiefere Ebene: die Kreativität und Evolvierbarkeit der Natur, die für erfolgreiche Mutationsschritte einen vermutlich unendlichen Artikulationsraum bereithält. Der Gedanke 530 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

eines unendlichen Konfigurationsraums sieht dem Phasenraum der Thermodynamik ähnlich, wie der Pionier der Komplexitätsforschung, Stuart Kauffman, vorgeschlagen hat (Kauffman 2000): Die Zustandsänderungsrate eines Systems ist abhängig von der Konfigurationsdichte seiner Umgebung. Bei jedem Evolutionsschritt stehen die Aktoren der Biosphäre kollektiv vor einem vielleicht unendlichen Raum von »benachbarten Gestaltungsmöglichkeiten« (adjacent possibilities) für ihre nächste Konfiguration. Dies wäre eine Erklärung für die Evolvierbarkeit und Kreativität der Evolution in komplexen Phänomenen. Wir vermeiden, hier von komplexen Systemen zu sprechen, weil das Bedürfnis nach Analogie zur Thermodynamik und nach der Formulierung eines erweiterten Entropiebegriffs uns vielleicht zu vorschnellen Schlüssen hinreißen könnte, weil man in der Natur möglicherweise kein System unterstellen sollte, also wahrscheinlich (bislang?) keinen Phasenraum formulieren kann (Kauffman 2016). Suchen wir also einstweilen nach weiteren Artikulationen der Komplexität im Universum. Gibt es eine kosmologische Evolution/ Geschichte im oben beschriebenen Sinn? Es wäre eigentlich verwunderlich, wenn die Natur die evolutionäre Geschichte ausschließlich für die irdische Biosphäre reserviert hätte, zu der als Voraussetzung auch schon die Astrophysik des Sonnensystems gehört. In der Tat könnte das Bild einer Evolution in einen unendlichen Artikulationsraum mutatis mutandis auch für die Kosmologie gelten. Was das Auge in Darwins Evolution war, mag die Erde im Kosmos sein. Charakteristisch für jede komplexe Evolution ist es, dass im Rückblick alles mit rechten Dingen zugeht, ohne Verletzung von Gesetzen der Physik oder Logik; denken Sie an die Geschichte. Aber in Vorwärtsrichtung, entlang dem Pfeil der Zeit, ist fast alles unvorhersagbar, und das könnte an der oben besprochenen Unendlichkeit des Möglichkeitsraums für den Übergang in das adjacent possible liegen. Als Beispiel werden wir hier die Entstehung der Protonen in einem Phasenübergang des Gesamt-Universums zur Zeit 5 Mikrosekunden betrachten, weil hier die Emergenz von etwas ganz Neuem, mit ungeheurem Evolutionspotenzial, sehr gut zu beobachten ist. An die oben angesprochene Periode der noch rätselhaften Initialisierung der kosmischen Expansion schließt sich ab etwa 10(–39) Sekunden die Evolution von zunächst masselosen Elementarteilchen in einem unvorstellbar heißen Feuerball an. Dies sind wahrscheinlich noch nicht die Teilchen des Standardmodells der elementaren Wech531 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

selwirkung, sondern ihre Vorläufer. Zu dieser Zeit hat sich im mikroskopischen Geschehen die Wirkung der Gravitation schon verabschiedet durch eine Entkopplung, und nur noch die drei Wechselwirkungen des Standardmodells gestalten das lokale Geschehen (die Gravitation dagegen beherrscht die großen Skalen des Feuerballs), die schwachen, elektromagnetischen und starken Elementarkräfte. Es könnte zwischen diesen eine primordiale Vereinigung geherrscht haben, die sogenannte »Grand Unification« (Ellis 2017), mit ihren eigenen Elementarteilchen. Nach ihnen wird seit einem Jahrzehnt am LHC-Kollider des CERN in Genf gesucht, bisher vergeblich, aber seine Maximalenergie reicht auch nicht tief genug in das Stadium extremer Energiedichte hinein (es fehlen noch etwa 10 Größenordnungen – also dieses Territorium werden wir mit Beschleunigern nicht betreten!). Anfangend bei etwa 10(–13) Sekunden beschreibt das heutige Standardmodell die Entwicklung auf der mikroskopischen Ebene, während die Gravitation die Dynamik im Großen beherrscht. Aber so einfach ist es doch nicht: Eingeprägt in den Feuerball haben frühere Vorgänge eine tiefere Spur hinterlassen, von denen eine für uns besonders wichtig ist: Die Teilchenverteilung besteht nicht mehr zu gleichen Anteilen aus Teilchen und Antiteilchen (wie es intuitiv einer creatio ex nihilo angemessen wäre), sondern die Teilchendichte überwiegt um einen winzigen Bruchteil (um ein Milliardstel) die Antiteilchendichte! Der Ursprung dieses Phänomens ist noch ungeklärt. Die Konsequenz: Bei anhaltender expansiver Abkühlung vernichten sich Teilchen und Antiteilchen nur nahezu vollständig, ein Milliardstel der Urbesetzung bleibt übrig, der Überschuss von Materie über Antimaterie, und das ist dann die gesamte Materie des späteren Universums. Hier ist etwas völlig nicht-trivial, wie wir später sehen werden. Den Verlauf der Entkopplungen der vier Elementarkräfte illustrieren wir (Perlov/Vilentkin 2017) in der Abbildung 1, die auch den Zusammenhang zwischen der Zeit nach Null, der mittleren Temperatur und der mittleren Teilchenenergie aufzeigt. Bei 10(–12) Sekunden ist das Universum etwa 108 km groß, und die Physik auf der mikroskopischen Skala ist relativ gut verstanden, wir finden Quarks und Gluonen (starke Wechselwirkung), Elektronen und Photonen (elektromagnetische Wechselwirkung) und Neutrinos (schwache Wechselwirkung) sowie ihre Antiteilchen. Aber die makroskopischen Parameter übersteigen weit jede vertraute Vorstellung, mit Dichten in der Dimension einer Sonnenmasse pro Kubikmeter. Natürlich kann es hier keine Struktur oder Architektur geben. 532 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

Abb. 1. Die vier Elementarkräfte der fundamentalen Wechselwirkung, eingebettet in die Evolution von Zeit, Temperatur und Teilchenenergie des Big Bang (aus Perlov/Vilentkin 2017).

Aber dann, etwa bei 5 Mikrosekunden, geschieht etwas ganz Neues: Die stark wechselwirkenden Quarks und Gluonen des gesamten Universums durchlaufen den wohl faszinierendsten Phasenübergang seit der Zeit Null, sie kondensieren und neutralisieren in Hadronen (so nennt man generell die aus Quarks gebundenen, massiven Teilchen: Protonen, Neutronen, Pionen, Kaonen usw.). Zum Schluss werden nur Protonen und Neutronen überleben, daraus besteht der materielle Sektor des Universums (zusammen mit Elektronen, um genau zu sein). Dieser Übergang ergibt eine einmalige, dramatische Steigerung der Evolvierbarkeit, eine Fülle von auf der Ebene der Quantenchromodynamik unvorhersehbaren Gestaltungen, die schließlich bis zur Biosphäre reichen. Wir sehen in ihm ein Beispiel für kosmologische Komplexität. Wir beobachten das Entstehen von Struktur, ein Inneres und eine Oberfläche, Neutralisierung der zerstörerisch starken Wechselwirkungskräfte, so dass schwach gebundene, schließlich sogar biologisch metabolisierbare ausgedehnte Großmoleküle entstehen können, in allem die Entstehung der Masse, sowie des sogenannten physikalischen Vakuums, das frei ist von den zuvor omnipräsenten starken Kraftfeldern. Das Rezept, eine komplexe Welt zu bauen. Wei533 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

tere Glücksfälle dieser Evolution: Der kleine Überschuss der Neutronenmasse über die des Protons ist grade von der Größe, die zum Aufbau komplexer Atomkerne erforderlich ist; die Protonen werden die noch überlebenden Elektronen binden, es entsteht ein Weltall ohne freie elektrische Ladungen und Kraftfelder, und diese beiden Teilchen sind stabil (wenigstens leben sie unerhört viel länger als das Universum bis heute), es gibt etwa 1080 von ihnen, genug, um das materielle Universum von etwa 1011 Galaxien aufzuspannen. Wir werden im vorletzten Kapitel diese Zahl begründen. Wie oben gesagt, entspricht sie dem Überschuss von Teilchen über Antiteilchen im Ur-Universum. Die gesamte Größe der in ihnen steckenden Masse/Energie schließlich ist verantwortlich für die Langzeit-Geschichte des Universums, wie wir später sehen werden. Dieser Beitrag wird sich also in einigem Detail mit dem kosmischen Phasenübergang von Partonen zu Hadronen beschäftigen (Abschnitt 2) und mit den emergenten Eigenschaften der Protonen und Neutronen (Abschnitt 4). Auch wollen wir einen Blick werfen auf die Experimente mit kollidierenden Atomkernen bei relativistischen Energien, die den Phasenübergang in mikroskopischem Feuerball rekonstruieren (Abschnitt 3). Hier müssen wir dem Leser einige vielleicht unvertraute Physik zumuten. In Abschnitt 5 werden wir dann schließlich die kosmologische Entwicklung des Weltalls und der im Phasenübergang gebildeten Teilchen schildern, die »Ersten drei Minuten« – mit dem Titel des berühmten Buches von Steven Weinberg (Weinberg 1977) überschrieben. Im Schlusskapitel kommen wir zurück zur Behauptung einer kosmologischen Komplexität. Im Blick auf die Passage (Evolution?) von Nichts zu Etwas: Können wir das tiefer verstehen als die Kreationisten oder die Reduktionisten mit ihrem nothing but a pointless accident-Diktum?

2.

Vorgeschichte: die kosmologische Expansion

Die sogenannte Strahlungs-Phase des Big Bang war in vollem Gang zur Zeit 10(–15) Sekunden. Teilchen des Standard-Modells der elementaren Wechselwirkungen konstituieren den kosmischen Feuerball. Thermodynamik in einem expandierenden System ist nichttrivial, aber eine kurze Bemerkung zu den unvertrauten winzigen Zeiteinheiten, die hier gebraucht werden, sollte nützlich sein. Auf der mikroskopischen Ebene dauert eine typische Reaktion zwischen Ele534 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

mentarteilchen des Standard-Modells nur etwa 10(–23) Sekunden. Dies ist die Zeitspanne, in der bei Lichtgeschwindigkeit die typische interPartikel-Dimension von etwa einem fm(10–15 m) für eine Kollision/ Reaktion zurückgelegt wird. Im Vergleich mit der Zeitskala der kosmischen Expansion ist diese Zeitspanne winzig, so dass wir durchaus von einer Abfolge von Zuständen des kosmischen Mediums reden können. Dessen Zeitskala kennen wir aus den Lemaitre-FriedmanGleichungen von 1922 (Liddle 2015; Krauss 2012), die als eine erste approximative Lösung für die Gleichungen der Allgemeinen Relativitätstheorie gefunden wurden; sie beschrieben zum ersten Mal ein expandierendes Universum. Von der hier angesprochenen Zeit bis zur Zeit des Phasenüberganges zu Hadronen, bei 5 Mikrosekunden, besteht der Feuerball aus stark wechselwirkenden Quarks und Gluonen in einem ultra-dichten Gas, das möglicherweise eher einer Flüssigkeit glich (siehe unten), dem Quark-Gluon Plasma (QGP); es war durchsetzt mit Elektronen, Photonen und Neutrinos. Um den Phasenübergang verstehen zu können, müssen wir kurz die Physik der starken Wechselwirkung erklären: die Quanten-Chromodynamik (QCD), eine Quantenfeldtheorie der starken Kraftfelder, die von den entsprechenden »starken Ladungen« ausgehen (Halzen/Martin 1984). Die Ladungen der elektromagnetischen Kräfte sind uns vertraut, das Elektron trägt eine negative Einheitsladung. Bei den Quarks der QCD treten an diese Stelle drei verschiedene Einheits-Ladungen, die mit den physiologischen Farben des Farbkreises etikettiert werden (wir werden noch sehen, warum), man nennt sie blau, grün und rot, die Antiquarks tragen dann die entsprechenden Antifarben. Beachten Sie bitte, dass damit keine qualitative Eigenschaft beschrieben wird, ein Quark ist nicht rot, sondern es trägt eine Rot genannte Ladungseinheit, die ein Kraftfeld der QCD entfaltet. Die Quarks treten miteinander in Wechselwirkung durch den Austausch der Gluon genannten Feldquanten der QCD. Soweit sieht alles zwar komplizierter, aber doch ähnlich aus wie die Quanten-Elektrodynamik (QED), die Theorie der elektromagnetischen Wechselwirkung, in der das ungeladene Photon das Feldquant ist. Dennoch wirken die Farbladungen ganz anders: Ihre Feldquanten, die Gluonen, tragen ebenfalls eine Einheits-Farbladung, und dazu noch eine Einheits-Antifarbladung. Eine Reaktion zwischen Quarks besteht dann im Austausch der Ladungen. Zum Beispiel: Ein blau-geladenes Quark absorbiert ein vom Nachbar-Quark gesendetes antiblau-rot geladenes Gluon, dadurch wird es rot geladen, weil die 535 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

blaue sich mit der antiblauen Ladung annihiliert. Es klingt in der Tat wie bei der Mischung von Einheitsmengen der Farbkreis-Ladungen. Beim Ladungstausch wird außerdem Impuls übertragen, wie in der klassischen Mechanik (die Quarks stoßen sich). Nun aber kommt der wesentliche Unterschied zu allen einfacheren Kraftfeldern: Wegen ihrer Ladungen wechselwirken die Gluon-Feldquanten auch miteinander! Sie sind also selbst von Kraftfeldern umgeben. Dies hat eine fundamental wichtige Folge für die Physik der QCD: Eine Farbladung kann nicht im Raum isoliert werden, weil ihre Energie im freien Raum unendlich ist. Sie emittiert Gluonen, die wiederum miteinander wechselwirken durch Emission weiterer Gluonen, die wiederum neue Quark-Antiquark-Paare erzeugen usw., so dass der Raum sich mit Teilchen füllt (dies ist nur eine qualitative Erklärung, exakt würde es hier zu weit führen). In der QCD erfordert also jede Farbladung eine benachbarte Antifarbladung, die das Gluon absorbiert, bevor es beginnt, den Raum mit Feldenergie zu füllen. Dieses eigentümliche QCD-Phänomen wird Farb-Confinement genannt. Mit dem Confinement hat der Feuerball des Urknalls zunächst kein Problem, weil bei seiner extremen Energiedichte die Nachbarquarks (mehr als) nahe genug gedrängt sind. Man sieht aber sofort, dass das nicht ad infinitum zutrifft. Der mit Quark-Gluon-Plasma gefüllte Feuerball darf sich nicht beliebig verdünnen. In der Tat fällt die Energiedichte zu Beginn der Mikrosekunden-Ära auf den kritischen Wert von etwa 1 GeV per Kubikfermi (immerhin noch immer ca. 2 � 1018 kg pro Kubikmeter!), verbunden mit einer Temperatur von etwa 2 � 1012 Kelvin. Hier nähert sich der mittlere QuarkQuark-Abstand im Plasma dem kritischen Wert von einem Fermi (10(–15) m), bei dem der horror vacui der Farbladung beginnt, sich bemerkbar zu machen. Ein QGP kann nicht weiter expandieren, weil die Energiedichte zu- anstatt abnehmen würde! Also muss jetzt ein Phasenwechsel einsetzen, in dem die starke Ladung neutralisiert wird. Neutralisierung wird im Universum hier zum ersten Mal verwirklicht, zuvor konnten sich Komplementärfarben der Ladungen nur vernichten (auslöschen), jetzt werden sich die starken Kraftfelder nur verstecken, im Inneren von zusammengesetzten, neuen Teilchen: den Hadronen. Damit verschwinden die starken Kraftfelder aus dem Vakuum. Eine zweite globale Neutralisierung wird sich viel später ereignen, ungefähr im Jahr 300.000 der kosmischen Expansionsgeschichte, wenn die positiv geladenen Protonen des zu dieser Zeit noch immer gasförmigen Universums mit den negativen Elektronen 536 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

zu Wasserstoffatomen binden. Damit ist das Vakuum dann auch frei von elektromagnetischen Kraftfeldern, was eine weitere Welle der Gestaltung stimuliert: die Entstehung zusammengesetzter, ausgedehnter Materie, weil nun die Chemie im Kleinen und die Gravitation im Großen die Regie übernehmen. Zurück zur fünften Mikrosekunde. In der QCD gibt es zwei Neutralisierungsvorgänge (Halzen/Martin 1984), so wie wir sie im Farbkreis kennen (daher der Name Chromodynamik): Farb-Antifarb-Kombination oder Aggregation von 3 fundamentalen Farbladungen, wie z. B. ein Rot plus ein Grün plus ein Blau (der Mercedesstern im Farbkreis), dies ergibt drei Neutral. Also es binden sich zwei oder drei Quarks mit entsprechenden Farben zu neutralen Objekten. Das Universum muss und kann sich also neutralisieren durch Bildung von gebundenen Zuständen aus Quarks. Der Phasenübergang geschieht bei einer Temperatur von ungefähr 160 MeV (2 � 1012 K). Damit verschwindet die starke Kraft von der Bühne, aber im Inneren der nun auftretenden Hadronen rast sie mit unverminderter Heftigkeit weiter, ein winziges Kügelchen voll Urknallmaterie bei 5 Mikrosekunden, das offenbar daher seine Masse bezieht (dazu später). Dies ist der Schritt der kosmischen Evolution, den wir hier die Emergenz des Protons nennen, ein komplexer Prozess. Und dieser Prozess der Hadronisierung via Confinement kann auch theoretisch, also in der QCD, lediglich plausibel gemacht werden (Amati/Veneziano 1979), jedoch nicht analytisch als eine Lösung der QCD-Gleichungen analysiert werden. Hier ist nun noch einmal etwas Physik unentbehrlich. Der detaillierte Mechanismus des Confinement entzieht sich der QCD, weil bei der Temperatur des Phasenübergangs (160 MeV) das kosmische QGP-Medium nicht wirklich als ein Gas sich streuender Elementarteilchen beschrieben werden kann, wie das bei höherer Temperatur/Energie möglich ist. In Fachterminologie: Bei hohen Stoßenergien ist die QCD-Einteilchengleichung (die Lagrange-Funktion) in Störungstheorie beliebig exakt lösbar, aber mit der bei niedriger werdenden Energien wachsenden Stärke der Q-Q-Wechselwirkung ist das nicht möglich, es gibt höchstens numerische Lösungen (Aitchison/Hey 1982; Fodor/Katz 2010). Der tiefere Grund für dieses QCD-Problem liegt womöglich darin, dass in der Nähe des Phasenübergangs das QCD-Plasma zu einer Flüssigkeit wird, in der sich die Quarks und Gluonen schon in kollektiven Vielteilchenkorrelationen bewegen, nicht quasi-frei wie in einem Gas (Stock 2008). Streng genommen sind die Dynamik des Phasenüber537 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

gangs und die Struktur der entstehenden Hadronen also ungelöste oder sogar unlösbare Probleme in der QCD. Das Proton (pars pro toto für die Hadronen) erscheint als ein emergentes Objekt, im Nachhinein gesehen typischerweise aber plausibel. Also folgt hier ein plausibles Modell für den Phasenübergang, das aber detaillierte und nachprüfbare Konsequenzen hat. Erster Schritt: Als Folge des horror vacui der Farbladung presst das Vakuum die passenden Farbkombinationen in einen farbneutralen Cluster. Dieser kann wohl kaum stabil sein, weil er ein kontinuierliches Masse/Energie-Spektrum hat, als Folge der kontinuierlichen, thermischen Energieverteilung der Quarks und Gluonen aus dem vorhergehenden Quark-Gluon Plasma. Infolgedessen zerfallen die Cluster, im zweiten Schritt, quantenmechanisch in diskrete, reale Teilchen, die Hadronen (Webber 1984). Es gibt davon zwei Sorten, den zwei Neutralisierungsmöglichkeiten der QCD entsprechend: Mesonen entstehen aus Farb-Antifarb-Bindung zweier Quarks, Baryonen (und Antibaryonen) im Confinement von Quark-Triplets passender Farben. Die Zahl der Hadronen-Zustände und ihrer angeregten Formen ist unendlich und divergiert exponentiell – dies ist die Materie der QCD unterhalb der kritischen Temperatur von etwa 160 MeV. Diese Differenzierung mag bereits andeuten, dass die Hadronen total nichttriviale, hochkomplizierte Objekte sind. Im 4. Abschnitt werden wir diese Eigenschaften für das Proton besprechen, in ihnen beruht die kosmische Neuigkeit: Die Evolvierbarkeit des Universums macht einen gewaltigen Sprung. Im 5. Kapitel werden wir sehen, wie die Entwicklung in den »Ersten Drei Minuten« (Weinberg 1977) weitergeht. Kurz gesagt ist alle Materie baryonisch, sie besteht aus Protonen und Neutronen. Alle höheren Zustände des hadronischen Massenspektrums zerfallen sofort nach dem Phasenübergang, und die Teilchen vernichten sich mit den Antiteilchen, nur der rätselhafte, aber konsequenzenreiche winzige Überschuss der Baryonen über die Antibaryonen überlebt, es sind und bleiben etwa 1080 Nukleonen, die unsere materielle Welt bilden (dazu kommen Elektronen, Photonen und Neutrinos, dies ist noch zu besprechen). Protonen und Neutronen sind zusammengesetzt aus Quarks, Gluonen und komplizierten Vielteilchen-Kondensaten dieser elementaren Teilchen. Sie sind grundlegend verschieden von jeglicher anderen uns bekannten gebundenen Materie, bei der die Masse immer etwas niedriger ist als die summierte Masse der Bestandteile, aufgrund der Bindungsenergie. Im Gegenteil, die Nukleonenmasse hat überhaupt nichts mit der Quarkmasse zu tun, und 538 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

eigentlich sind Protonen/Neutronen überhaupt keine gebundenen Zustände der QCD, sondern ein vom Vakuum eingesperrtes Päckchen (engl. bag) angefüllt mit dem Material des Feuerballs vor der Hadronisierung (Hecht 2000).

3.

Experimentelle Befunde zur Hadronen-Entstehung

Der Grundgedanke der zu unserem Thema gehörenden Experimente ist es, die Atomkerne schwerer Elemente, wie Gold oder Blei, mit höchstmöglicher Energie ineinanderzuschießen. Dabei entsteht ein – allerdings mikroskopischer – Feuerball extremer Energiedichte, in dem das QCD-Confinement wieder aufgebrochen wird, so dass sich ein kleines Volumen von Quark-Gluon-Plasma bildet. So kommen wir zurück vor die Zeit 5 Mikrosekunden im Urknall, und die schweren Kernprojektile enthalten genug Kernmaterie, um einen Feuerball zwar mikroskopischer, aber auf dieser Skala beachtlich ausgedehnter QCD-Materie zu bilden, etwa zehnmal größer als die elementare Wechselwirkungslänge der starken Kräfte. Dieses Plasma sendet vielerlei experimentell beobachtbare Signale mit Information über das QGP aus, bevor der ebenfalls expandierend kühlende Feuerball den Hadronisierungs-Phasenübergang durchläuft, dessen Produkte instantan (also vor den ersten 3 Minuten) registriert werden. Aus der Intensitätsverteilung der verschiedenen Hadronenspezies lässt sich die berühmte Temperatur von ca. 160 MeV ablesen, und die anderen beobachtbaren Größen verraten, dass das QGP vor dem Phasenübergang eine Flüssigkeit ist – beides nicht von der QCD hergeleitete, aber nachträglich plausible Ergebnisse. Wieso haben wir die besagte Temperatur als berühmt apostrophiert? Dazu etwas Vorgeschichte. Am CERN-Beschleunigerlaboratorium in Genf hatte Rolf Hagedorn in den späten 1960er Jahren eine rätselhafte Entdeckung gemacht: Die (wie auch immer bestimmte) »Temperatur« aller hochenergetischen Kollisionen von Protonen zeigte als Grenzwert die besagten 160 MeV an. Hagedorn nannte sie die »Grenztemperatur hadronischer Materie« und entwickelte ein thermodynamisches Modell eines Hadronen-Gas-Gemischs mit dieser Grenztemperatur (Hagedron 1965). Die QCD mit ihrer Ebene von Quark-Gluon-Materie bei hohen Temperaturen, oberhalb der Welt der Hadronen, war noch unbekannt. Aber 1975 machten Cabibbo und Parisi (Cabibbo/Parisi 1975) in einem zunächst kaum beachteten 539 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

Abb. 2. Die Spuren geladener Teilchen aus einer Kollision von zwei Bleikernen im Experiment STAR (Ackermann 2003) am RHIC-Collider in Brookhaven (Image courtesy of Brookhaven National Laboratory)

Artikel die sensationelle Vermutung bekannt, dass diese Grenze in Wirklichkeit den Übergang von der hadronischen in die partonische Phase signalisierte. Hagedorns berühmte Temperatur wurde als die kritische Temperatur eines Phasenübergangs erklärt, der in der Tat das Ende der hadronischen Materie anzeigte. Dem folgte alsbald eine Idee für entsprechende Experimente (Lee, in: Baym 2002): Hadronische Materie schmilzt zu Quark-Gluon-Materie ohne Confinement, sobald die Feuerballtemperatur und die Energiedichte in Hochenergie-Kollisionen die Phasengrenze durchbrechen. Dies ist möglich, weil die anfänglich kinetische Energie der Projektile des Synchrotron-Strahls durch mikroskopische Abstoppungsreaktionen im entstehenden Reaktionsvolumen in interne, gegebenenfalls thermische Energie des schließlich erzeugten Feuerballs umgewandelt wird, anschaulich gesagt wie bei einem frontalen Auffahrunfall. Intuitiv sollten ausgedehnte Projektile, also schwere Atomkerne, sich wirksamer abstoppen und thermalisieren (die Thermodynamik ist immer eines möglichst großen Satzes von Freiheitsgraden bedürftig!): Das war die Idee der Experimente mit Kollisionen von Atomkernen, durch gewisse Adaptationen der Synchrotrons in Berkeley, 540 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

Dubna, Brookhaven und Genf ermöglicht (Chapline et al. 1973; Scheid/Muller/Greiner 1974; Stock 1986). Ein Bild illustriert diese Idee eindrucksvoll: In Abbildung 2 zeigen wir das Bild der Teilchenspuren in einem Spurdetektor, der ein einzelnes Kollisionsereignis von zwei ineinandergeschossenen GoldKernen mit je 197 Nukleonen wiedergibt (Ackermann et al. 2003); Die extrem hohe Kollisionsenergie sorgt für weit über tausend Reaktionsprodukte. Lange Jahre der Entwicklung und des Fortschreitens zu immer höheren Synchrotron-Enenergien haben den Experimentatoren und Theoretikern schließlich die Gewissheit geschenkt, hiermit einerseits in der Tat die Phänomenologie des Deconfinement und der QCD-Materie entfaltet zu haben (Stock 2008; Busza/Rajagopal/van der Schee 2018). Eine historische Bemerkung sei erlaubt: Die kanonische Hochenergiephysik interessiert(e) sich nicht für das Thema QCD-Materie, als Konsequenz ihres Ansatzes, die elementaren Artikulationen der fundamentalen Wechselwirkungen in den zum Zweck einfachst-möglichen Reaktionssystem zu untersuchen. Das Ideal schlechthin ist hier eine Elektron-Positron-Kollision, hier gibt es überhaupt keine Netto-Quantenzahlen, eigentlich nur einen supermikroskopischen Energie-Feuerball, in dem vermutlich nur die allerelementarsten Artikulationen der fundamentalen Wechselwirkung zum Zuge kommen. Eine Kollision zweier Gold-Kerne ist das größtmögliche Gegenbild, hier wird eine fundamentale QCD-Thermodynamik und -Hydrodynamik untersucht – eine Physik, die offenbar umso besser gelingt, je größer und schon anfänglich komplexer die kollidierenden Objekte sind. Diese Experimente haben in der Tat eine mikroskopische Variante der Big Bang-Expansion geliefert: Wenn der Feuerball seine höchste Energiedichte erreicht, setzt eine Expansion des erzeugten QCD-Plasmas ein, während derer verschiedene messbare Signale die Eigenschaften des QGP zugänglich machen, bis hin zur Erzeugung der Hadronen. Dieses letztere Ergebnis der Experimente wollen wir kurz besprechen, um wenigstens etwas konkrete Physik in unser Narrativ zu bringen. Am CERN in Genf erzeugt der Large Hadron Collider (LHC) mit der weltweit höchsten Energie die von 4 Experimenten untersuchten Kollisionen zweier Blei-Kerne (Pb208). Die Stoßenergie eines solchen Bleikern-Paares führt zur Erzeugung des energiedichtesten Materiekügelchens, das je auf Erden existiert hat; der Feuerball enthält in einem mikroskopischen, von der Quantenmechanik beherrschten Volumen eine durchaus makroskopische Energiemenge, 541 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

fast ein Tausendstel Wattsekunden. Er expandiert natürlich unerhört viel schneller als das Universum, das zur Zeit der Hadronenbildung schon 10 Milliarden Kilometer Radius hat. Aber der Feuerball ist ausgedehnt genug, um abertausende von Freiheitsgraden zu enthalten, und damit die Physik (Thermodynamik) der Expansion des Universums nachzuzeichnen. Übrigens hat die fast instantane Expansion den großen Vorteil, dass die Experimente die neu gebildeten Hadronen nahezu sofort nach der Erzeugung registrieren und zählen können, während wir dem Universum einige Milliarden Jahre später begegnen, wo dann nur noch die Protonen und Neutronen erhalten sind. Immerhin können wir diese auch zählen, wie wir im 5. Abschnitt sehen werden. Also, das Experiment ALICE am LHC registriert und analysiert die Produkte der Hadronisierung etwa eine Nanosekunde nach ihrer Entstehung (ALICE Collaboration 2013). Doch Vorsicht: Auch nach so kurzer Zeit ist der eigentliche Zauber des Phasenüberganges schon vorbei. Dieser erzeugt nämlich aus dem relativ unkomplizierten QCD-Plasma alle die unendlich vielen Spezies von Hadronen, die das Massenspektrum bereithält, und zwar simultan und mit gleicher Wahrscheinlichkeit. Dies ist das Wesen einer kritischen Selbst-Organisation, wie sie mit dem Begriff komplex beschrieben wird! Rasch müssen wir dazufügen, dass diese demokratische Mode der Erzeugung etwas in Fesseln verbleibt, weil erstens die Gesamtenergie des Feuerballs erhalten bleiben muss, und zweitens ein Grundgesetz aller Teilchenerzeugung, genannt »Fermis goldene Regel« (Halzen/Martin 1984), dafür sorgt, dass schwere Hadronen seltener vorkommen als leichte; ein Pion ist billig, ein zehnfach schwereres Omega-Meson teuer zu erzeugen, selbst bei Chancengleichheit im Prinzip. Ein Feuerball mit hoher Energiedichte bzw. Temperatur kann leichter schwere Hadronen produzieren als ein kälterer, also erwarten wir, ein Gesetz von der Art exp(- m/T) zu finden, d. h. die Produktionsrate fällt exponentiell mit der Masse des betrachteten Hadrons, aber umso langsamer, je höher die Temperatur bei der Erzeugung (also beim Phasenübergang) ist: das ersehnte Thermometer für den Phasenübergang der QCD-Materie! Diese qualitativen Erörterungen werden im sogenannten Statistischen Modell der Hadronenerzeugung (Stock 1999; Becattini 1996; Andronic/Braun-Munziger/Redlich/Stachel 2018) präzisiert, das auf Hagedorn zurückgeht (Hecht 2000). Es formuliert die oben gemachte Behauptung, dass alle existierenden Hadronsorten sich gleichberechtigt, aber von der Golden Rule gewichtet, 542 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

Abb. 3. Illustration des »Hadron-Thermometers«: Die Zahl der im Experiment ALICE am CERN (ALICE Collaboration 2013) in einer einzigen Kollision zweier Gold-Kerne erzeugten Hadronen, vom leichten Pion bis zum schweren Omega-Meson (Ordinate) gegen die entsprechenden, vom statistischen Modell der Hadronisierung vohergesagten (Stock/Becattini/Bleicher/ Steinheimer 2019) Multiplizitäten auf der Abszisse. Man erkennt einen hohen Grad der Übereinstimmung, wobei im Modell eine Hadronisierungstemperatur von 163.4 MeV angenommen wurde.

in die Energie der farbneutralen Primär-Cluster teilen, die wir im vorigen Abschnitt als den ersten Schritt des Parton-Hadron-Phasenübergangs besprochen haben. Die hier herrschende Gleichberechtigung, hinweg über ein unendliches Ensemble, ist die fundamentale, nichttriviale Annahme dieses Modells, u. E. noch nirgendwo streng bewiesen, aber experimentell jenseits allen Zweifels bestätigt (Stock 1999; Becattini 1996; Andronic/Braun-Munzinger/Redlich/Stachel 2018). Sie dürfte ein Hinweis auf die komplexe selbstorganisierende Kritikalität dieses Vorgangs sein. Noch ein Detail: Der ALICE Detektor braucht einige Nanosekunden, um die Hadronen zu registrieren, bis dahin ist die 543 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

Mehrzahl der höheren Hadronenzustände schon zerfallen, und man registriert also ihre Zerfallsprodukte. Deren bekannte Zerfallsmechanismen (z. B. ein Delta zerfällt in ein Pion und ein Proton usw.) werden in der Modellrechnung rückwärts aufgerollt, und dadurch das Intensitätsspektrum der verschiedenen Primärteilchen ermittelt, das dann als wesentlichsten Parameter die mittlere Phasenübergangstemperatur enthält, die das Ergebnis der Anpassung der Modellvorhersagen an die gemessene Häufigkeitsverteilung darstellt. In Abbildung 3 zeigen wir ein Beispiel dieser Modellrechnung (Stock/ Becattini/Bleicher/Steinheimer 2019). Die Datenpunkte zeigen die jeweilige Anzahl der in einer einzelnen Kollision zweier Bleikerne am LHC erzeugten verschiedenen Hadronen einer bestimmten Sorte an (die Multiplizität). Dieses Experiment registriert diese vom Pion bis hinauf zum Omega-Meson, ebenso übrigens die dazugehörigen Anti-Hadronen, die bei der extremen LHC-Energie praktisch gleichhäufig sind. Man sieht den nahezu perfekten exponentiellen Anstieg vom Omega zum Pion, dessen Steigung die Temperatur misst. Wir erhalten die berühmte Temperatur von ca. 160 MeV als Ergebnis: Die erwartete QCD Hadronisations-Temperatur, wie sie auch von numerischen Modellen zur Lösung der QCD-Gleichungen, der QCD-Gittertheorie (Aitchison/Hey 1982), ermittelt wird. Wir sehen: Im Rückblick ist alles plausibel, wie es die Evolution der Biosphäre uns gelehrt hat, der Paradefall von Komplexität.

4.

Das Proton

Protonen und Neutronen sind die einzigen vom Phasenübergang übrigbleibenden Hadronen (siehe nächstes Kapitel). Wir sprechen hier oft pars pro toto insbesondere über das Proton, weil es sich mit dem Elektron später neutralisieren wird, um dem Weltall eine weitere Welle der Evolvierbarkeit zu bescheren. Auch heute bestehen etwa 90 % der Hadronischen Materie aus Wasserstoff-Gas (z. T. auch ionisiert), das den gesamten interstellaren und intergalaktischen Raum besetzt (mit etwa 0.25 Wasserstoff-Atomen pro Kubikmeter). Außerdem besetzt der Wasserstoff auch in den Sternen noch die äußere Hülle, aus der er in die langsam verlaufenden Fusionsprozesse zur Energiegewinnung eingesogen wird. Das Neutron hat im Weltall eine kompliziertere Geschichte. Als freies Teilchen ist es unstabil, es zerfällt nach im Mittel 15 Minuten durch die schwache Wechselwirkung 544 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

in je ein Proton, Elektron und Neutrino. Es wäre also nach der Hadronisierung des Universums im Lauf dieser Zeitspanne zunächst einmal verschwunden, wenn nicht eine Zufalls-Koinzidenz der Zeitskalen der Expansion dazu geführt hätte, dass gegen Ende der Minuten-Ära sich die noch nicht zerfallenen Neutronen mit Protonen in einer Reaktionskette, beginnend mit Deuterium, schließlich zu Heliumkernen binden konnten. Dies wurde dadurch ermöglicht, dass die kosmische Expansion gleichzeitig die Energie der primordialen Photonen soweit gekühlt hatte, dass sie die sich bildenden leichten Atomkerne nicht mehr schnell genug aufbrechen konnten (Weinberg 1977). Infolgedessen besteht heute das interstellare Gas zu ca. 25 % aus Helium (das besonders stark gebundene Alpha-Teilchen). Hier herrscht ein P:N-Verhältnis von 7 zu 1. Später aber, seit nach etwa einer Milliarde Jahren die nuklearen Fusionsreaktionen in den Sternen zünden, entsteht zunächst Deuterium aus einer außerordentlich langsam verlaufenden Reaktion von zwei Protonen (daher die lange Lebensdauer der Sterne), ein Prozess der schwachen Elementarwechselwirkung. In den anschließenden Fusionszyklen entstehen dann schwerere Atomkerne, dabei spielt auch das primordiale Helium im He-burning eine Rolle in der Sterngeschichte. Und wirklich schwere Atomkerne, bis hinauf zur Masse 238 des Urans, entstehen schließlich in Supernova-Implosions-Explosionsprozessen. In diesen Atomkernen, die letztendlich in den Planeten wieder gravitativ kondensieren, haben die Neutronen im Mittel einen leichten Überschuss über die Protonen. Dies ist die Materie z. B. der Erde. Also: Ohne die Protonen gäbe es überhaupt kein materielles Universum. Und ohne die in der Evolution der Sterne regenerierten Neutronen gäbe es keine schwereren Atomkerne: das Material unserer Welt. Ein denkwürdiges Detail: Die Planeten sind eine späte Geburt der kosmologischen Geschichte. Unsere Erdmaterie ist im Mittel schon durch etwa 2.7 sukzessive Supernova-Prozesse hindurchgegangen, mit Explosion und Rekondensation, in deren Verlauf die schweren Elemente immer weiter angereichert wurden. Dies als Detail zum Blick auf unsere goldene Armbanduhr. Es folgen einige Beispiele, um die Nichttrivialität des Protons zu illustrieren; sie ist ein Beispiel für die gesamte Nichttrivialität und Evolvierbarkeit des Universums. Wir stellen diese Beschreibung zusammen, um dem reduktionistischen »nothing but«-Diktum zu begegnen. Der schon zitierte Nobelpreisträger Steven Weinberg 545 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

schreibt: »the Universe becomes more pointless the more we know about it« (Weinberg 1993), ein Irrtum, wie wir sehen werden.

a.

Masse ohne Masse

»Mass without Mass« – dies ist das Thema eines Buches (Wilczek 2010) des QCD-Nobelpreisträgers Frank Wilczek: Die Masse des Protons hat überhaupt nichts zu tun mit der Masse der drei enthaltenen »Valenzquarks« (Halzen/Martin 1984), die zusammen nur ungefähr 1 bis 2 % Prozent der 938 MeV Protonenmasse ausmachen. Wir hatten schon behauptet, die Masse stamme im Wesentlichen aus der im Phasenübergang eingeschlossenen Energiedichte des kosmischen Feuerballs zur Zeit 5 Mikrosekunden. Das wäre also die Energie der inneren Gluonkraftfelder, der gefangenen ursprünglich thermischen Bewegung, und es kommen virtuelle Teilchen und Vielteilchenkondensate dazu, die wir noch beschreiben werden. Man würde die Hadronbildung so als eine Art Kondensation durch den Zwang zum Confinement ansehen, und in der Tat beträgt die mittlere innere Energiedichte der Nukleonen ungefähr 0.4 GeV pro Kubikfermi, in Einklang mit der Energiedichte bei der berühmten Temperatur von 160 MeV, die wir durch die Analyse der Hadronenmultiplizitäten aus der Pb + Pb Kollision am LHC festgestellt haben (Abb. 3). Dies lässt sich nicht aus der QCD-Theorie ableiten! Da die Quarks im Inneren fast masselos sind, bewegen sie sich mit relativistischer Geschwindigkeit, also gilt hier keine nicht-relativistische Schrödingergleichung, die uns eine Wellenfunktion mit allen gesuchten Eigenschaften bescheren würde. Das werden wir gleich auch noch beim Proton (Neutron) Spin sehen: Das Innenleben der Nukleonen haben wir durch Jahrzehnte von Experimenten einigermaßen kennengelernt (Caldwell 2013; Caldwell/Grindhammer 2007), in den sogenannten »tief inelastischen Streuprozessen« mit an Protonen gestreuten relativistischen Elektronen (siehe unten). Die Absolutwerte der Nukleonmassen sind von vielfältiger Bedeutung für die kosmische Evolution. Sie sorgen für die extrem niedrige Rate der schon erwähnten Startreaktion bei der stellaren Fusion, in der zwei Protonen ein Deuteron (P + N) bilden (plus Positron und Anti-Neutrino), den ersten wenn auch kleinen Atom-Kern. Vom bottle neck Deuteron gehen die Fusionsketten zu schwereren Kernen aus. Zweitens sind die Nukleonenmassen nahezu gleich, sonst könnten sich keine 546 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

Kerne daraus binden; und dabei ist es wichtig, dass das Neutron wirklich nur geringfügig schwerer ist, dabei im Kern aber als neutrales Teilchen etwas fester gebunden wird als das Proton. So verschwindet hier die Massendifferenz und das Neutron kann nicht mehr durch die schwache Wechselwirkung in ein Proton zerfallen: Im Kern lebt es genausolang wie das Proton. Schließlich ist der Absolutwert der Protonenmasse von Bedeutung für die mittlere Energiedichte des Universums, und damit für seine »flache« Euklidische Raum-Zeit-Geometrie (Liddle 2012). Darauf kommen wir am Ende von Kapitel 5 zurück.

b.

Oberfläche und Innenraum

Mit den Hadronen betritt der Begriff der Ausdehnung von Strukturen die Bühne der Evolution, die vorhergehenden Elementarteilchen des Standardmodells werden als punktförmig angesehen – was immer das bedeuten mag. Auch ohne eine räumliche Wellenfunktion des Protons zu haben, können wir es uns als Kügelchen vorstellen, mit einem Radius von etwa 0.8 Fermi. Es hat also, grob gesagt, die typische Dimension von einem Fermi, welche die Phänomene der starken Wechselwirkung beherrscht. Aus der Elektron-Proton-Streuung wissen wir, dass die Dichte vom Zentrum zur Oberfläche steil abnimmt, die Letztere ist also weniger gut zu definieren, als das bei den kissenförmigen Dichteverteilungen der Atomkerne der Fall ist. Die stark nichtuniforme Dichteverteilung ist ein Hinweis auf die schon erwähnte Tatsache, dass die Protonen keine im vertrauten Sinne gebundenen Zustände der QCD sind, sondern Produkte des Confinement. Die Oberfläche hat eine ganz besondere Rolle: die Quarks und Gluonen im Inneren vom gefürchteten Vakuum abzuschirmen. Also sollte die Oberflächenzone möglicherweise selbst aus farbneutralen, im Vakuum erlaubten Objekten bestehen, z. B. aus einer Wolke virtueller Pionen und schwererer Mesonen. Diese Struktur bestimmt dann die gesamte Kernphysik, deren Details auf Oberflächen-Wechselwirkung der dicht an dicht liegenden Nukleonen beruhen. Die Kernkraft ist also keine elementare Wechselwirkung von Farbladungen, sondern eher eine Meson-Austauschkraft, wie die traditionellen Lehrbücher der Kernphysik (Mayer-Kuckuk 1984) sie schon lange gesehen haben. So erscheint ein doppeltes Wesen des Protons. Im Inneren rast immer noch die QCD-Quark-Gluon-Materie des kosmischen Mikrosekun547 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

den-Zeitalters, die auch die Nukleonmasse bestimmt. Die Oberfläche ist eine ganz andere Substanz, sie vermittelt Effektivkräfte, die nur ein schwacher Abglanz der elementaren Farbkräfte sind. Dies ermöglicht die Entstehung gleichmäßig dichter Kernmaterie, im Atomkern und im Neutronenstern (sonst würde alles kollabieren). Wir konstatieren das Anwachsen der Evolvierbarkeit.

c.

Der Spin des Nukleons

Proton und Neutron sind Fermionen, sie haben Spin 1/2 (in Einheiten von h/2pi, der Planck-Konstante). Sie enthalten je drei Quarks der Sorten up und down, die ebenfalls Spin 1/2 haben. Auf den ersten Blick also kein Problem, drei Spins 1/2 können nach den Regeln der Vektoraddition zu 1/2 oder 3/2 koppeln. In der Tat hielt man zu Beginn der QCD dies für die Erklärung, und deshalb kam der Begriff Valenzquarks auf: Die drei Quarks scheinen den Spin des gebundenen Nukleons zu erklären. Umso größer war die Überraschung, als die ersten Experimente mit tief inelastischer Streuung von Elektronen an Protonen, die am DESY Hamburg, SLAC Stanford und CERN in Genf (Caldwell 2013; Caldwell/Grindhammer 2007) ausgeführt wurden, ein vollständig entgegengesetztes Ergebnis brachten, das man deshalb die »Spin-Krise« nannte: Der Spin ist durch einfache Kopplung überhaupt auch nicht annähernd zu verstehen, es gibt keine Valenzquarks in der QCD, ebenso wenig wie die Nukleonen gebundene Zustände im vertrauten Sinn sind. In diesen Experimenten streut man Spin-polarisierte relativistische Elektronen oder Myonen an ebenfalls (parallel oder entgegengesetzt) polarisierten Protonen. Die elektromagnetischen Felder aller Spin-tragenden Objekte im Proton wechselwirken mit dem Feld des Elektrons, auf diese Weise können alle Quellen von Spin im Proton identifiziert werden. Das Ergebnis: Der Protonspin setzt sich aus vielerlei hochkomplizierten Strukturen zusammen, nur etwa 20 bis 30 % stammen überhaupt von den drei Quarks, und der Nettobeitrag der virtuellen Quark-Antiquark-Paare ist sogar negativ! Mit wachsender Auflösungskraft der Experimente, die schon über 3 Jahrzehnte laufen, wurde das Bild immer komplizierter (Caldwell et al. 2018), eine Vielzahl von kleinen Einzelbeiträgen setzt sich »fast« zu 1/2 zusammen. Natürlich (?) kann der Spin nur exakt 1/2 betragen, darauf ist die gesamte Dirac-Theorie jedenfalls des Elektrons aufgebaut, und mit einem auch nur geringfügig von 548 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

1/2 verschiedenen Protonspin gäbe es dann kein Wasserstoffatom, ja eigentlich überhaupt keine Atomphysik. Auf Elementarteilchen gibt es nur exakt halb- oder ganzzahlige Spins, die vielen kleinen Beiträge im Proton müssen also von komplexen Mehrteilchengebilden, Kondensaten o. ä. stammen. Die innere Struktur des Protons folgt nicht aus der QCD, und sie entzieht sich (bisher?) unserem Verständnis. Dies gilt übrigens auch für die Stärke des zum Spin gehörigen magnetischen Dipolfeldes, das deshalb anomales magnetisches Moment genannt wird. Natürlich ist hier Vorsicht geboten: nicht-verstanden heißt nicht notwendig komplex, sondern, zunächst einmal, für uns zu kompliziert. In Anbetracht aller bisherigen Erörterungen scheint es uns jedoch außerordentlich naheliegend, das Proton als Endergebnis eines selbstorganisierenden evolutionären Prozesses zu betrachten, mit dem die Evolvierbarkeit des Universums sprunghaft zugenommen hat. Zusammen mit dem sehr viel weniger spektakulären Elektron, das das Proton höchst wirksam aufgreift, liegt hier durchaus die Tür zu allem, was es gibt, under heaven and earth.

5.

Nachspiel: Die ersten Drei Minuten

Wir hatten erklärt, dass die Hadronen im Phasenübergang gleichmäßig über ihr gesamtes Spektrum erzeugt werden, allerdings mit den Wichtungen durch Fermis Goldene Regel. In ihnen steckte also nahezu der gesamte Energieinhalt des Universums zur Zeit 5 Mikrosekunden, bei der berühmten Temperatur von 160 MeV. Aber während der ersten Sekunden – damit wollen wir die Schilderung der ersten 3 Minuten beginnen – verwandelt sich in zwei Wellen das Inventar ganz dramatisch. Zunächst verschwinden alle Mesonen, sie zerfallen letztlich in Leptonen (so nennt man summarisch die leichten Elektronen, Neutrinos oder Photonen). Von den Baryonen zerfallen alle angeregten Zustände (Resonanzen) in Protonen oder Neutronen plus Leptonen, die Antibaryonen entsprechend in Antiprotonen und Antineutronen. Im zweiten Akt vernichten sich anschließend in einem kosmischen Feuerwerk die Leptonen und Nukleonen mit ihren nahezu gleich häufigen Antiteilchen. Der rätselhafte winzige Überschuss von Teilchen über Antiteilchen, entstanden in der unbekannten Anfangsphase der kosmischen Geschichte, überlebt: nur etwa ein Milliardstel aller Teilchen, darunter, prominent, die verbleibenden 549 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

Protonen und Neutronen. Alles Übrige, und damit auch nahezu die gesamte Energie des Universums, landet im Strahlungsfeld der Photonen und Neutrinos, die anfangs hohe Energien, im Bereich von 100 MeV haben. Das Universum ist also noch einmal zu einem Strahlungsfeld geworden, lediglich die Nukleonen können selbst von den harten Photonen nicht aufgebrochen werden (diese wichtige Tatsache hätten wir im vorigen Kapitel auch noch unter die evolutionär bedeutenden Eigenschaften aufnehmen können), aber weitere zusammengesetzte Strukturen sind verschwunden. Also: Von hier an sind alle Teilchenzahlen erhalten, bis heute (so auch die Baryonzahl, die Summe von P und N; das Verhältnis von P zu N aber variiert in den ersten 3 Minuten und später durch die Fusion in den Sternen). Dann ist es interessant, diese Zahlen zu kennen, und dazu die Gesamtenergie des Universums abzuschätzen. Dieses Vorhaben ist ausführbar, und zwar in einer Reihe von interessanten Schritten (Ryden 2017). Erstens kann man das Verhältnis der Dichten von Photonen zu Protonen bestimmen, sodann die noch bis heute existierenden Photonen zählen, das ergibt dann die Protonenzahl und Dichte des Universums. Dessen Gesamtenergie schließlich erweist sich als ein interessantes, aber womöglich unlösbares Problem. Dies sind die Themen dieses letzten Teils unserer Geschichte des Protons im Universum, die Zeitspanne endet mit den ersten 3 Minuten, während der Abkühlung des Weltalls. Die Abkühlung des Weltalls ist entscheidend für seine ganze Geschichte, insbesondere auch für das Geschehen während der ersten 3 Minuten. Der Mechanismus dieser Abkühlung ist keineswegs so trivial, wie es die Lehrbücher der Kosmologie suggerieren. Man liest (Perlov/Vilentkin 2017; Liddle 2015; Ryden 2017) dort, diese Expansion sei ja klarerweise adiabatisch (ohne Wärmeaustausch mit der Außenwelt), und dann ist die Temperatur zunächst einmal invers proportional zum Gesamtvolumen des Universums. Dies entspricht der Beobachtung (mit einer Einschränkung, auf die wir gleich eingehen), aber die Argumentation könnte ungeeignet sein, weil es im Universum keine zurückweichende Wand als Oberfläche gibt, an der das Strahlenfeld Arbeit abgibt, und ganz allgemein kann man nicht sagen, das Universum dehne sich in das umgebende Medium aus – das gibt es nämlich nicht. Im Strahlungsfeld der Photonen, das nach Zerfall und Annihilation der Hadronen gleich nach dem Phasenübergang nahezu die gesamte Energie des Universums enthält, gibt es nun noch einen weiteren, noch eigentümlicheren Abkühlungsvorgang, 550 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

der gewöhnlich so beschrieben wird, dass mit der Expansion die Längenskalen ebenso anwachsen wie der Radius. Der Raum streckt sich und zieht die elektromagnetischen Felder der Photonen im Vakuum entsprechend mit sich in die Länge. Also steigt die Wellenlänge, damit fällt entsprechend die Photonenenergie und Temperatur. Es ist sehr schwer, zu entscheiden, was mit dieser Beschreibung eigentlich wirklich gemeint ist, weil uns ein physikalisches Konzept für den Raum hier angebracht erscheint, das keineswegs Allgemeingut ist (Kauffman 1998; Rovelli 2017). Was geschieht mit der fast die gesamte Energie des Weltraums enthaltenden Energie des Strahlungsfeldes bei dieser Streckung der Wellenlängen? Das Universum hat sich seit der Millisekunden-Ära um etwa das 1012-fache ausgedehnt, und, in der Tat, die Temperatur des Strahlungsfeldes ist von 100 MeV auf 2.4 � 10(–4) eV gefallen, dies sind die bekannten 2.7 Grad Kelvin der heutigen kosmischen Hintergrundstrahlung (cosmic background radiation [CBR]). Die kinetische Energie des Big Bang ist praktisch verschwunden und sie steckt nun auch nicht in der Hubble-Rezessionsgeschwindigkeit der Galaxien, die ebenfalls eine Folge der Expansion des Raumes ist und keine kinetische Energie. Aber hier könnte das Stichwort bereitliegen: Die räumliche Expansion leistet Arbeit gegen die gravitative Anziehung, das heißt, die (negative) potentielle Energie nimmt eventuell ebenso ab wie die kinetische Energie. Oder die Erzeugung von Raum (was auch immer dies heißen soll) kostet ihrerseits Energie (Kauffman 1998; Rovelli 2017). Man sieht: Relativistische Kosmologie ist nicht Allgemeinwissen – und das gilt auch für den Verfasser. Zurück zur Abkühlungs-Dynamik der Big Bang-Expansion. Während der ersten drei Minuten stand das Strahlungsfeld der Photonen und Neutrinos im thermischen Gleichgewicht mit den Protonen und Neutronen, welche die große Annihilation überlebt hatten. Zunächst ist die Photonenenergie im MeV-Bereich, viel zu hoch für etwa aus Protonen und Neutronen zu bildende Deuteronen. Das Deuteron ist schwach gebunden, mit 2.3 MeV Bindungsenergie, und die harten Photonen im Hochenergie-Ende einer thermischen Energieverteilung sind noch fast bis zur Zeit 3 Minuten imstande, alle möglichen p-n-Bindungen zu dissoziieren. Etwa 20 % der freien Neutronen sind schon zerfallen, aber infolge einer Zufalls-Koinzidenz zwischen der Lebensdauer des freien Neutrons und der Expansions-/Kühlungsrate des Universums kommt es nun doch bei T = 0.1 MeV zur Bildung von Deuteronen, die gerade lange genug die 551 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

Photodissoziation überleben, um dann mit der fortschreitenden Erzeugung von Masse-3-Kernen, Tritium und Helium-3, die wesentlich stärker gebunden sind, aus dem bottleneck der kosmischen Kernerzeugung zu entkommen. Daraus ergibt sich anschließend insbesondere der Helium-4-Kern, das stark gebundene und stabile Alpha-Teilchen. Alle diese Kernprozesse enden wegen der fortschreitenden Verdünnung und Abkühlung, bevor die für die spätere Entwicklung der Natur ausschlaggebenden Elemente Kohlenstoff und Sauerstoff gebildet werden können (dies wird in der stellaren Fusion geschehen). Aber der primordiale Prozess der Erzeugung der allerleichtesten Kerne ist für uns hier von Interesse, weil die Big Bang-Kernerzeugung, die durch Experimente am interstellaren Gas im Resultat genau bekannt ist (25 % des interstellaren Mediums ist zu Helium-4 geworden), ganz offensichtlich auf einer Konkurrenz zwischen NukleonenBindung und photonischem Wiederaufbruch beruht. Genauere theoretische Analyse (Ryden 2017; Kolb/Turner 1990) zeigt, dass aus dem schließlich eingestellten Wert des Proton-zu-Helium-Verhältnisses der uns hier interessierende Wert des Verhältnisses von Nukleondichte zu Photondichte ermittelt werden kann: es beträgt etwa 6 � 10(–10)! Dies ist die Erinnerung an die große Annihilation von Hadronen und Anti-Hadronen direkt nach dem kosmischen Phasenübergang: Fast alles geht ins Strahlungsfeld. Es ist nicht eigentlich unser Thema, aber der Leser wird bemerken, dass diese Argumentationsreihe von Experiment und Theorie einerseits den stärksten Beleg für das ganze Hypothesengerüst bezüglich der Dynamik des Ur-Universums und seines Phasenüberganges zu Hadronen liefert, aber andererseits auch das noch vollkommen rätselhafte Phänomen eines leichten Überschusses von Materie über Antimaterie im Universum quantifiziert: Der Überschuss beträgt etwa ein Milliardstel, nur dieser kleine Anteil der Anfangs-Energiedichte hat sich nach der berühmten Temperatur des Weltalls bei 5 Mikrosekunden schließlich in Protonen und Neutronen erhalten. Der Kühlung des Strahlenfelds, die wir oben besprochen haben, welche die Anfangsenergie des Big Bang fast vollständig unserer Beobachtung entrückt hat, entkommen die Nukleonen wegen ihrer unkühlbaren, hohen, mysteriösen Ruhemasse von ca. 1 GeV. Dies ist unsere ponderable Welt. Nun noch ein letztes Argument: Wie viele Photonen enthält das Strahlungsfeld des Universums? Dazu muss man wissen, dass das Frequenzspektrum der heutigen kosmischen Hintergrundstrahlung (CRB), bei einer Temperatur von 2.7 Kelvin, ein nahezu perfektes 552 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

Beispiel für ein sogenanntes »Schwarzkörper-Strahlungsfeld« darstellt, für das Max Planck die korrekte analytische Beschreibung (Planck 1900) fand (durch Einführung der »Quantenhypothese«). Also: Integriert man das experimentell ermittelte Spektrum des Strahlenfeldes, so erhält man schließlich die Zahl-Dichte der enthaltenen Photonen: Sie beträgt unfassbare 400 Millionen Lichtquanten pro Kubikmeter im interstellaren Raum – die erkalteten Zeugen des einstigen Feuerballs. In einem geschätzten heutigen Volumen des Universums sind das schließlich 1089 Photonen. In ihrer vergangenen, heißen Vorgeschichte bestimmten sie das oben behandelte primordiale Dichteverhältnis von Nukleonen zu Helium-4, und aus der Analyse dieser primordialen Erzeugung leichter Atomkerne hatten wir ein Proton-zu-Photon-Verhältnis von 6 � 10(–10) erhalten. Also: Unsere Frage nach der Gesamtzahl der Nukleonen im Universum lässt sich schließlich beantworten: Es sind etwa 1080: die kosmische Materie. Etwa 0.25 Nukleonen in einem Kubikmeter – dies ist der globale Mittelwert. Dieses baryonische Universum wiegt etwa 1.5 � 1053 kg. Die so erhaltene mittlere Nukleonendichte bzw. die entsprechende Energiedichte spielt gemäß der Friedmann-Lemaitre-Gleichungen (Perlov/Vilentkin 2017) eine eigenartige Rolle: Sie macht etwa 5 % der sogenannten kritischen Energiedichte des Universums aus, die für eine flache, euklidische Metrik der Raumzeit erforderlich ist, und für ein ewig lebendes Universum sorgt, zwischen den Moden einer Rekontraktion oder einer unendlichen Expansion. Die übrigen 95 % bestehen aus der dunklen Materie, die zum Standardmodell gehören könnte, aber noch nicht nachgewiesen wurde, sowie der noch rätselhafteren dunklen Energie, vermutlich eine noch ungeklärte Eigenschaft des Raumes. Diese drei Beiträge scheinen sich exakt zur kritischen Energiedichte zu addieren. Wir erinnern daran, dass die Dichte der die Annihilation überlebenden Nukleonen ihrerseits von dem nicht weniger rätselhaften Überschuss von Materie über Antimaterie im frühen Universum herrührt. Hier findet also offenbar ein fine tuning in der Geschichte des Universums statt. Das Strahlungsfeld der kosmischen Hintergrundstrahlung hat bei seiner Entstehung kurz nach der Hadronisierung eine Gesamtenergie von unvorstellbaren 1088 GeV. Diesen einen Zustand des Universums kennen wir also einigermaßen genau. Er unterstützt und provoziert möglicherweise noch gegenwärtig eine immerwährende Zunahme der Vielfalt von Organisationsformen der Natur. Diese hat – wir sagen vorsichtig: vermutlich – wohl zwar im Anfang, aber 553 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

nicht mehr in ihrer phänomenalen Entfaltung etwas mit den elementaren QCD-Wechselwirkungen von primordialen Quarks und Gluonen zu tun. Vorsicht: Nichts bisher Verstandenes widerspricht etwa den Gesetzen der Physik, aber die Natur entfaltet eine viel ideenreichere Realität, als es die gekoppelten Differenzialgleichungen über »den Tanz der Elementarteilchen« der reduktionistischen angelsächsischen Physik-Genies (Greene 2020) erahnen lassen. Ein Lächeln besteht nicht aus Quarks.

6.

Resümee

Wir haben in diesem Artikel die Idee verfolgt, dass das Universum selbst eine evolutionäre Geschichte hat, in welche weitere komplexe Einzelphänomene wie die Evolution des Protons eingebettet sind. Über die Geschichte des gesamten Universums können wir nur mit Vorsicht reden, weil wir die Entstehungsvorgänge zur Planck-Zeit nicht wirklich verstehen. Diesen Aspekt finden wir übrigens in der Geschichte des Lebens und der Biosphäre wieder, auch hier kennen wir den Anfang noch nicht genau. Dieser Letztere ist übrigens mit der kosmologischen Geschichte verknüpft, die eine für Leben taugliche planetarische Umgebung entwickelt. Sich insbesondere auf die Protonen zu konzentrieren, hat den Vorteil, dass gerade hier der Anfang der Geschichte, also das Universum zur Zeit der berühmten Temperatur, zugänglich ist für Experiment und Theorie, wie wir gezeigt zu haben hoffen. Dass wir von einer Geschichte des Universums bzw. des Protons sprechen, bringt uns schließlich zurück zum Thema Komplexität. Ganz eindeutig hat die Biosphäre eine komplexe Natur; wir wiederholen Kauffmans These, dass dies am unendlich-dimensionalen Artikulationsraum möglicher Realitäten (Kaufmann 2000) liegen könnte, in dem die Natur (wenn es dieses Abstraktum wirklich gibt) einen von beliebig vielen möglichen engen Pfaden der Realität besetzt—so wie die Geschichte. Alle diese Einsichten und Ansichten stammen aus der Betrachtung der Darwinschen Evolution des tree of life. Dem Autor möge gestattet sein, eine eigene frühe Idee zur Geschichte der Natur zu erwähnen: Insbesondere die Biosphäre mag vielleicht einem abstrakten Billionen-Füssler gleichen, der im unendlichen Raum der Artikulationsmöglichkeiten sich vorwärts bewegt, wahrscheinlich in Analogie zur Thermodynamik einem Sog maximaler lokaler Zustandsdichten für seine Artikulation in Kauffmans »ad554 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

jacent possible« folgend. Aber in einem potenziell unendlichen Raum der Artikulationsmöglichkeiten, dessen gesamte Ausdehnung niemals von dem linear und lokal evolvierenden System aufgesucht werden kann (dafür bietet die bisherige Lebensdauer des Universums bei Weitem nicht genug Zeit an: Das Universum ist nicht »ergodisch« (Kauffman 2016), dessen Fortschreiten aber vom Prinzip der lokalen maximalen Evolvierbarkeit gelenkt sein könnte. Es ist eine ungeheure Versuchung, hier neue Naturgesetze zu suchen, etwa eine verallgemeinerte Thermodynamik. Um die Emergenz neuer Artikulationsformen der Natur nachzuvollziehen, können wir die bekannten Axiome aus der Evolution der Biosphäre nicht unmittelbar verallgemeinern, zum Beispiel die Fluktuation oder Mutation des Genoms als eine Quelle der Vorwärts-Entwicklung in einen unendlichen Artikulationsraum. Die fundamentale Physik, von der wir schlussendlich die Beschreibung der Naturvorgänge erwarten, hat aber bisher selbst noch nicht den Ursprung der Naturgesetze gefunden, sozusagen die DNA der Biosphäre zu verallgemeinern nicht verstanden. Was ist das kosmologische Äquivalent zum »selfish gene«, um das Buch von Richard Dawkins zu zitieren (Dawkins 1976), das auf Artikulation drängt? Bitte nicht missverstehen: Hier wird keineswegs einem neuen Vitalismus das Wort geredet, sondern im Gegenteil, wir bestehen darauf, dass die Physis, oder sagen wir die Natur, offenbar noch viel unbetretenes Territorium aufweist für die Lehre von der Physis, also für die Physik, und für die Wissenschaft von der Natur. Könnte es auch in der Kosmologie Prozesse geben, die an Darwins survival of the fittest erinnern? Mit etwas Zögern müssen wir hier doch an die 10500 möglichen Kosmos-Konstellationen erinnern, die vermutlich von der fundamentalen Stringtheorie gefunden werden (Susskind 2006), in denen die fundamentalen Gesetze und die berühmten Naturkonstanten (von deren Feinstabstimmung die ganze Konstruktion unserer kosmischen Geschichte abhängt) in fast unendlicher Variation vorgegeben werden von dieser letzten, uns noch nicht bekannten Instanz der Natur, die das Entstehen von Universen lenkt. Andererseits mag diese ganze Sicht aber auch vorschnell sein, falls die Stringtheorie als ein erster Versuch einer »Theorie von Allem« noch von einem zu eng an die Elementarteilchenphysik und das streng reduktionistische Diktum ihrer Schöpfer (Weinberg 1993; Greene 2020) gebundenen Erkenntnis-Horizont ausgehen sollte. Ein interessanter Alternativvorschlag, der ebenfalls die Kompetition unzähliger Paralleluniversen 555 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

vorstellt, wurde von Lee Smolin in seinem Buch The Life of the Cosmos (Smolin 1997) gemacht: Er versucht es mit der Idee, dass neue Universen entstehen aus den unverstandenen Singularitäten von Raum und Zeit in Schwarzen Löchern, deren Physik in der Tat der Physik des Urknalls verwandt sein dürfte. Dann haben Universen wie das unsere die größte Nachkommenschaft, weil ihre Materie-Dynamik eventuell ein Maximum an Sternbildung aufweist (infolge einer speziellen Feineinstellung ihrer Grundgesetze und Konstanten). Diese Idee würde auch das sogenannte anthropische Prinzip überflüssig machen, das sagt, unser Universum könne gar nicht anders gestartet sein als mit Gesetzen und Naturkonstanten, die unsere Existenz ermöglichen (aber erklärt dieses Prinzip eigentlich etwas, oder drückt es eine Tautologie aus?). In Smolins Bild ist unser Universum das Wahrscheinlichste – eine ganz andere Sicht. Als ein letztes Beispiel bei unserer Suche nach Elementen in der fundamentalen Physik, die den Gesetzen der Evolution der Biosphäre ähneln, kommt einem das Phänomen der sogenannten »spontanen Symmetriebrechung« (Halzen/Martin 1984) in den Sinn, welches das Auftreten aufeinander folgender Hierarchieebenen in einer fundamentalen Wechselwirkung betrifft, wobei Zustände sich einstellen, die nicht von der »Mutter-Theorie« vorhergesehen sind. Gerade das Thema dieses Artikels, die Bildung der Hadronen, ist ein Musterbeispiel für diese Symmetriebrechung: Die in der »reinen« QCD masselosen Quarks erwerben »mass without mass« (Wilczek 2010) in der Hadronisierung und brechen dadurch »spontan« die sogenannte »chirale Symmetrie«. Dieser ungriffige Begriff aus der Physikgeschichte betrifft eine Eigenschaft masseloser Fermionen, die wesensgemäß immer Lichtgeschwindigkeit haben. Dadurch zerfällt der Zustandsraum in zwei symmetrische Anteile, jeweils für rechts- und linksdrehende Teilchen, deren Händigkeit für immer definiert ist: Hätten sie endliche Masse, so könnte man sie überholen und von vorne gesehen wäre ihre Händigkeit dann umgekehrt, die zwei parallelen Zustandsräume vermischen sich also, ihre Symmetrie verschwindet. Die Masse der Hadronen kann man also als Ausdruck der Brechung ihrer chiralen Symmetrie verstehen. Hier wird also durchaus schon das Entstehen einer neuen Phänomen-Welt (wir sagen: einer höheren Ebene) angedacht, das die Artikulations-Geschichte des Universums ausmacht. Wie es scheint, gibt es also zwischen der Sicht einer »Schöpfung« und der eines »increasingly pointless universe« (Weinberg 556 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

1993), mit »nothing but physics in it«, eine bedeutsame Mittelebene, die eigentlich das Wesentliche in der Evolution der Natur darbietet. Selbst-Organisation ist dabei eines der fundamentalen Phänomene: das Auftreten des Neuen. Unzweifelhaft sehnen wir uns nach »einer Theorie, die erklärt, warum das Universum immer differenzierter und komplexer wird« (Kauffman 2004). Es geht um das coming into existence der Natur, das Mehr zwischen Himmel und Erde. Vielleicht kann eine zukünftige Naturwissenschaft uns darüber Erleuchtung bringen.

Literatur Ackermann, Karlheinz et al. (2003): STAR Collaboration, STAR Detector Overview, in: Nucl.Instr.Meth. A499, 624. Aitchison, Ian J. R./Hey, Anthony G. J. (1982): Gauge Theories in Particle Physics. Bristol, 281–287. ALICE Collaboration, Centrality Dependence of Pi, K, p Production in Pb-Pb Collisions at 2.76 TeV, Phys.Rev.C88(2013)044910 and Phys.Rev. Lett.111(2013)222301 Amati, Daniele/Veneziano, Gabriele (1979): Preconfinement as a Property of Perturbative QCD, in: Phys.Letters B 83, 87–92. Andronic, Anton/Braun-Munzinger, Peter/Redlich, Krzystof/Stachel, Johanna (2018): Decoding the Phase Structure of QCD via particle production at high energy, in: Nature 561, 321–330. Barrow, C. W. Davies/Ch. L. Harper, p. 654, Cambridge University Press 2004 Becattini, Francesco (1996): A thermodynamic approach to hadron production, in: Z.Phys. C 69, 485–492. Busza, Wit/Rajagopal, Krishna/Van der Schee, Wilke (2018): Heavy Ion Collisions: The Big Picture, and the big Questions, in: Ann.Rev.Nucl.Part. Sci. 68, 339–376. Cabibbo, Nicola/Parisi, Giorgio (1975): Exponential Hadronic Spectrum and Quark Liberation, in: Phys.Lett.B 59, 67–69. Caldwell, Allen et al. (2018): The »DIS and Related Subjects« Strategy Document, arXiv:1812.08110. Caldwell, Allen (2013): Kapitel 9 – The Proton, in: Reinhard Stock (Hg.): Encyclopedia of Nuclear Physics and its Applications, Wiley VCH. Caldwell, Allen/Grindhammer, Günter (2007): Im Herzen der Materie, in: Physik Journal 6 (11), 39–45. Chapline, George F. et al. (1973): Highly excited nuclear matter, in: Phys.Rev. D 8(12), 4302. Dawkins, Richard (1976): The Selfish Gene. Oxford u. a. Ellis, George (2016): How can Physics underlie the mind? Berlin u. a.

557 https://doi.org/10.5771/9783495825464 .

Reinhard Stock

Ellis, John (2017): Where is Particle Physics going?, in: Int.J.Mod.Phys. A 32 (13), 176001. Fodor, Zoltan/Katz, Sandor D. (2010): Lattice QCD and the Phase Diagram of QCD, in: R. Stock (Hg.): Landolt-Börnstein – Group I Elementary Particles, Nuclei and Atoms Vol. 23, Berlin u. a., arXiv.0908.3341. Greene, Brian (2020): Bis zum Ende der Zeit. Muenchen. Hagedorn, Rolf (1965): Statistical Thermodynamics of Strong Interactions at High Energies, in: Nuovo Cimento, Suppl. 3, 147–186. Halzen, Francis/Martin, Alan D. (1984): Quarks and Leptons. New York u. a. Hecht, Karl T. (2000): The MIT Bag Model, in: Quantum Mechanics. Graduate Texts in Contemporary Physics. New York. Humboldt, Alexander v. (2004): Die Kosmos-Vortraege Berlin 1827/28, hg. von J. Hamel und K. H. Tiemann, Frankfurt. Kauffman, Stuart (2016): Humanity in a Creative Universe. Oxford, 39–82. Kauffman, Stuart (2004): Autonomous Agents, in: Barrow, John D./Davies, Paul C. W./Harper, Charles L. Jr. (Hg.): Science and Ultimate Reality: Quantum Theory, Cosmology, and Complexity. Cambridge. Kauffman, Stuart (2000): Investigations. Oxford. Kauffman, Stuart/Smolin, Lee (1997): A Possible Solution to the Problem of Time in Quantum Cosmology, arXiv:gr-qc/9703026. Kolb, Edward W./Turner, Michael S. (1994): The Early Universe, Kapitel 4. Boulder, Colorado. Krauss, Lawrence M. (2012): A Universe from Nothing, Simon & Schuster. London. Lee, Tsung-Dao, zitiert in G. Baym, Nucl.Phys. A689(2002)23 Liddle, Andrew (2015): An Introduction to Modern Cosmology, 3. Ed. Chichester. Mayer-Kuckuk, Theo (1984): Kernphysik, 4. Aufl., Teubner Studienbuecher. Stuttgart. Perlov, Delia/Vilentkin, Alex (2017): Cosmology for the Curious. Cham, 215. Planck, Max (1900): Zur Theorie der Energieverteilung im Normalspectrum, Verhandl. der Deutschen Physikalischen Gesellschaft 2, 237. Rovelli, Carlo (2017): Die Wirklichkeit die nicht so ist wie sie scheint. Reinbek bei Hamburg. Ryden, Barbara (2016): Introduction to Cosmology. 2. Ed. Cambridge. Scheid, Werner/Muller, Hans/Greiner, Walter (1974): Nuclear Shock Waves in Heavy Ion Collisions, in: Phys.Rev.Lett. 32, 741–745. Smolin, Lee (1997): The Life of the Cosmos. Oxford. Stock, Reinhard (1986): Particle Production in High-Energy Nucleus-Nucleus Collisions, in: Phys.Rept. 135, 259–315. Stock, Reinhard (2008): Relativistic Nucleus-Nucleus Collisions and the QCD Matter Phase Diagram, in: H. Schopper (Hg.): Landolt-Börnstein – Group I Elementary Particles, Nuclei and Atoms Vol. 21A. Berlin u. a., arXiv:0807.1610. Stock, Reinhard (1999): The QCD Phase Transition Located, in: Phys.Letters B 456, 277–282.

558 https://doi.org/10.5771/9783495825464 .

Kosmologische Evolution: die Emergenz des Protons

Stock, Reinhard/Becattini, Francesco/Bleicher, Marcus/Steinheimer, Jan (2019): The QCD Phase Diagram from Statistical Model Analysis, in: Nucl.Phys.A 982, 827–830. Susskind, Leonard (2006): The Cosmic Landscape. New York. Webber, Bryan (1984): A QCD Model for Jet Fragmentation, in: Nucl.Phys. B 238, 492–528. Weinberg, Steven (1993): Dreams of a Final Theory. New York. Weinberg, Steven (1977): The First Three Minutes. New York. Wilczek, Frank (2010): The Lightness of Being: Mass, Ether, and the Unification of Forces. New York. Wulf, Andrea (2016): The Invention of Nature. London.

559 https://doi.org/10.5771/9783495825464 .