Explodierende Vielfalt: Wie Komplexität entsteht [1. Aufl. 2019] 978-3-662-58333-3, 978-3-662-58334-0

Verstehen wir die Welt? Wie ist unsere Welt entstanden? Warum gibt es so viel Materie und so wenig Antimaterie? Wie bil

420 45 6MB

German Pages XXIV, 255 [266] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Explodierende Vielfalt: Wie Komplexität entsteht [1. Aufl. 2019]
 978-3-662-58333-3, 978-3-662-58334-0

Table of contents :
Front Matter ....Pages I-XXIV
Einleitung (Eberhard Klempt)....Pages 1-6
Die Einheit der Physik (Hermann Nicolai)....Pages 7-15
Was ist Raum, Zeit – und was Bewegung? (Dennis Lehmkuhl)....Pages 17-23
Würfelt Gott doch? (Günter Werth)....Pages 25-30
Strukturen im Kosmos (Matthias Bartelmann)....Pages 31-42
Eine neue Sicht auf das alte Universum (Christof Wetterich)....Pages 43-52
Ein Rätsel der Kosmologie (Konrad Kleinknecht)....Pages 53-63
Supernovae (Friedrich Röpke)....Pages 65-75
Die Entstehung der Elemente (Achim Richter)....Pages 77-88
Lebendige Sonne, Ursprung des Lebens (Eberhard Klempt)....Pages 89-96
Unsere Erde (Peter Rothe)....Pages 97-107
Der Anfang des Lebens (Klaus V. Kowallik)....Pages 109-116
Jede Zelle entsteht durch Teilung einer Zelle (Joseph W. Lengeler)....Pages 117-126
Mechanismen der Evolution (Günter Theißen)....Pages 127-134
Wie Tiere sich auseinanderleben (Matthias Glaubrecht)....Pages 135-145
Vom Menschenaffen zum modernen Menschen (Friedemann Schrenk)....Pages 147-157
Der moderne Homo sapiens (Winfried Henke)....Pages 159-169
Macht Kunst den Menschen? (Harald Floss)....Pages 171-178
Vom Jäger und Sammler zum Bewohner von Städten (Joachim Bretschneider)....Pages 179-188
Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum Monotheismus (Ina Wunn)....Pages 189-200
Wie aus Zorn Liebe wird: die Evolution Gottes (Carel van Schaik, Kai Michel)....Pages 201-211
Wachsende Vielfalt durch Konkurrenz und Effizienz (Stefan Hradil)....Pages 213-224
Komplexität und Bewusstsein (Wolf Singer)....Pages 225-235
Back Matter ....Pages 237-255

Citation preview

Eberhard Klempt Hrsg.

Explodierende Vielfalt Wie Komplexität entsteht

Explodierende Vielfalt

Eberhard Klempt Hrsg.

Explodierende Vielfalt Wie Komplexität entsteht Wissenschaftler führen ein in ihr Wissen: Von Quarks zu Protonen, von Atomen zur Zelle, vom frühen Hominiden zum Menschen der heutigen Gesellschaft

Hrsg. Eberhard Klempt Institut für Strahlen- und Kernphysik Universität Bonn Bonn, Deutschland

ISBN 978-3-662-58333-3    ISBN 978-3-662-58334-0  (eBook) https://doi.org/10.1007/978-3-662-58334-0 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Einbandabbildung: © Ron Dale / stock.adobe.com Grafikbearbeitung: Dr. Martin Lay, Breisach a. Rh. Planung: Frank Wigger, Margit Maly Springer ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Danksagung

Danksagung: Herr Frank Wigger hat als Verlagsleiter für den Bereich Wissenschaftssachbuch dieses Buch von Beginn an bis zum Eintritt in seinen Ruhestand betreut. Frau Margit Maly hat dann diese Aufgabe als Pro­ grammplanerin für Physik und Astronomie übernommen. Ihnen, Frau Michele Beer, Frau Martina Mechler und Frau Eva Schoeler vom Springer Verlag sei für Ihre fortwährende Unterstützung gedankt. Die Lektorin Frau Cornelia Reichert hat durch umfangreiche Korrekturvorschläge das Buch „lesbarer“ gemacht. Meiner Schwester, Frau Almut Klempt, danke ich als Herausgeber für zahlreiche Anregungen und die kritische Durchsicht aller Manuskripte. Die Autoren der Einzelbeiträge haben vielfältige Unterstützung erfahren, für die sie hier allen Beteiligten danken. Insbesondere danken Friedrich Röpke Herrn Markus Kromer und seinen Söhnen Ludwig und Karl für ihren Rat und Klaus Kowallik Herrn William F. Martin für zahlreiche Gespräche und Diskussionen. Achim Richter dankt für Diskussionen und Hinweise von Almudena Arcones, Gabriel Martinez-Pinedo, Peter von Neumann-Cosel und Kerstin Sonnabend.

V

Inhaltsverzeichnis

Einleitung  1 Eberhard Klempt Die Einheit der Physik  7 Hermann Nicolai Was ist Raum, Zeit – und was Bewegung? 17 Dennis Lehmkuhl Würfelt Gott doch? 25 Günter Werth Strukturen im Kosmos 31 Matthias Bartelmann Eine neue Sicht auf das alte Universum 43 Christof Wetterich Ein Rätsel der Kosmologie 53 Konrad Kleinknecht Supernovae 65 Friedrich Röpke VII

VIII Inhaltsverzeichnis

Die Entstehung der Elemente 77 Achim Richter Lebendige Sonne, Ursprung des Lebens 89 Eberhard Klempt Unsere Erde 97 Peter Rothe Der Anfang des Lebens109 Klaus V. Kowallik Jede Zelle entsteht durch Teilung einer Zelle117 Joseph W. Lengeler Mechanismen der Evolution127 Günter Theißen Wie Tiere sich auseinanderleben135 Matthias Glaubrecht Vom Menschenaffen zum modernen Menschen147 Friedemann Schrenk Der moderne Homo sapiens159 Winfried Henke Macht Kunst den Menschen?171 Harald Floss Vom Jäger und Sammler zum Bewohner von Städten179 Joachim Bretschneider Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum Monotheismus189 Ina Wunn

 Inhaltsverzeichnis 

IX

Wie aus Zorn Liebe wird: die Evolution Gottes201 Carel van Schaik und Kai Michel Wachsende Vielfalt durch Konkurrenz und Effizienz213 Stefan Hradil Komplexität und Bewusstsein225 Wolf Singer Literatur237 Stichwortverzeichnis251

Autorenverzeichnis

Prof. Dr. Matthias Bartelmann  Zentrum für Astronomie, Institut für Theoretische Astrophysik, Universität Heidelberg Heidelberg, Deutschland Matthias Bartelmann ist Professor für theoretische Astrophysik an der Universität Heidelberg. Seine Arbeitsgebiete sind die Kosmologie und die statistische Physik, insbesondere die Entstehung und Entwicklung von Strukturen aus dunkler Materie und Gas im Universum. Er studierte an der Ludwig-Maximilians-Universität München, wo er auch promoviert wurde und sich habilitierte. Er arbeitete am Max-Planck-Institut für Astrophysik in Garching und als Post-Doc am Harvard-Smithsonian Center for Astrophysics, bevor er 2003 nach Heidelberg berufen wurde. Er wurde mit der Otto-Hahn-­ Medaille der Max-Planck-Gesellschaft und mit dem Ludwig-Biermann-Preis der Astronomischen Gesellschaft ausgezeichnet und erhielt mehrfach den Lehrpreis seiner Fakultät. Er war Dekan seiner Fakultät, Vorstandsmitglied der Deutschen Physikalischen Gesellschaft und ist Vorsitzender der Forschungs- und Strategiekommission der Universität Heidelberg.  XI

XII Autorenverzeichnis

Prof. Dr. Joachim Bretschneider  Ancient Near East Department of Archaeology Ghent University Belgium Joachim Bretschneider studierte an der Westfälischen Wilhelms-Universität in Münster und ist Professor für Vorderasiatische Archäologie an der Universität Gent in Belgien. Seine Forschungs­ schwerpunkte liegen im Bereich der bronzezeitlichen Siedlungsentwicklung in Mesopotamien und der Levante. Zwischen 1993 und 2014 leitete er als Co-Direktor die Ausgrabungen von Tell Beydar (1993–1999) und Tell Tweini (1999–2010) in Syrien und Al-Ghat in Saudi-Arabien (2012–2014). Seit 2014 erforscht er die spätbronzezeitliche Stadtanlage in Pyla Kokkinokremos auf Zypern.  Prof. Dr. Matthias Glaubrecht  Wissenschaftlicher Direktor Centrum für Naturkunde (CeNak) – Center of Natural History Universität Hamburg – Zoologisches Museum Hamburg, Deutschland Matthias ­Glaubrecht ist seit 2014 Professor für Biodiversität der Tiere und wissenschaftlicher Direktor des neu gegründeten Centrums für Naturkunde (CeNak). Schwerpunkte seiner Forschung sind Evolutionsbiologie, Biosystematik und Wissenschaftsgeschichte. Er studierte an der Universität Hamburg Biologie und Geologie-Paläontologie, wo er 1994 mit einer Arbeit zur Evolutionsökologie tropischer Süßwasserschnecken auch promoviert wurde. Nach Forschungsprojekten u.a. am Australian Museum in Sydney wurde er 1997 Kurator für Malakozoologie (Weichtierkunde) am Museum für Naturkunde in Berlin. Von 2006 bis 2009 war er dort als Leiter der neu gegründeten Abteilung Forschung auch Mitglied des Direktoriums. Er habilitierte sich 2010 an

 Autorenverzeichnis 

XIII

der Humboldt-Universität zu Berlin. Von 2008 bis 2016 war er gewähltes Mitglied im Fachkollegium Zoologie der Deutschen Forschungsgemeinschaft (DFG). Mehrfach wurde er für seine wissenschaftspublizistischen Arbeiten a­usgezeichnet, u.  a. mit dem Werner-und-Inge-­Grüter-Preis des Stifterverbandes für die Deutsche Wissenschaft.  Prof. Dr. Dr. h.c. Winfried Henke  Institut für Anthropologie der Johannes-Gutenberg-Universität Mainz Mainz, Deutschland Winfried Henke ist apl. Professor für Anthropologie und war bis 2010 Akademischer Direktor am Institut für Anthropologie der Universität Mainz. Seine Arbeitsschwerpunkte sind Paläoanthropologie, Primatologie, Prähistorische Anthropologie und Wissenschaftsgeschichte. Er studierte Biologie, Anthro­ pologie, Geowissenschaften sowie Pädagogik und Philosophie in Braunschweig und Kiel, wo er 1971 zum Dr. rer. nat. promoviert wurde. Anschließend wechselte an die Universität Mainz, wo er sich mit einer Monographie über Jungpaläo- und Mesolithiker 1990 habilitierte. Henke ist Co-Autor mehrerer Standard-Lehrbücher zur Paläoanthropologie (mit Hartmut Rothe) und Co-Herausgeber des dreibändigen „Handbook of Paleoanthropology“ (zus. mit Ian Tattersall). Er war von 1996–2004 gewählter DFG-Fachgutachter für Anthropologie, führte zahlreiche Auslandsforschun­ gsaufenthalte und Erasmus-Dozenturen durch, ist Ehrendoktor der National and Kapodistrian University of Athens, Mitglied der Nationalen Akademie der Wissenschaften – Leopoldina sowie der Leibniz-­Sozietät der Wissenschaften zu Berlin. 

XIV Autorenverzeichnis

Prof. Dr. Dr. h.c. Stefan Hradil  Institut für Soziologie der, JohannesGutenberg-Universität Mainz, Mainz, Deutschland Stefan Hradil ist emeritierter Professor für Soziologie an der Universität Mainz. Er befasst sich mit Makrosoziologie und der Entwicklung moderner Gesellschaften, insbesondere auf den Gebieten der Sozialstruktur, der Demografie, der Familienformen, der sozialen Sicherung, der Milieus und der Lebensstile. Er hat studiert, promoviert und habilitiert an der Ludwigs-­Maximilians-­Universität München. Stefan Hradil verfasste unter anderem soziologische Standardleh­ rbücher sowie zahlreiche Schriften zur politischen Bildung und zur Politikberatung. Er war Vorsitzender der Deutschen Gesellschaft für Soziologie und Vorsitzender der Schader-Stiftung „Sozialwissenschaften und Praxis“, er nahm viele Bera­ tungsfunktionen in Forschungseinrichtungen und Stiftungen wahr und ist Vizepräsident der Akademie der Wissenschaften und der Literatur Mainz.  Prof. Dr. J. Harald Floss  Institut für Ur- und Frühgeschichte und Archäologie des Mittelalters Eberhard-Karls-Universität Tübingen Tübingen, Deutschland Harald Floss ist apl. Professor für Ur- und Frühgeschichte im Fachbereich Geowissenschaften der Universität Tübingen und ist Spezialist für die Archäologie des Eiszeitalters, für die Technologie des Neandertalers und den frühen anatomisch modernen Menschen in Europa sowie für paläolithische Kunst. Harald Floss war einer der treibenden Kräfte zur Eintragung der Höhlen der Schwäbischen Alb in das UNESCO-­ Weltkulturerbe. Nach dem Studium der Ur- und Frühgeschichte, der Geologie und Völkerkunde wurden seine Arbeiten durch verschiedene Stipendien

 Autorenverzeichnis 

XV

(DAI, DAAD, DFG) gefördert, bis er an die Universität Tübingen berufen wurde. Er ist Mitglied des wissenschaftlichen Beirats des französischen Nationalmuseums für Urgeschichte Les Eyzies de Tayac, Mitglied des Wissenschaftlichen Beirats der Grotte Chauvet-Pont d’Arc (Antragsstellung UNESCO-Weltkulturerbe) und war einer der wissenschaftlichen Ausrichter der Großen Landesausstellung Baden-Württemberg „Eiszeit – Kunst und Kultur“. Er ist 2. Vorsitzender der Hugo Obermaier-Gesellschaft.  Prof. Dr. Konrad Kleinknecht  Institut für Physik Johannes-Gutenberg-Universität Mainz Mainz, Deutschland z. Zt. Fakultät für Physik Ludwig-Maximilians-Universität München Garching, Deutschland Konrad Kleinknecht ist em. Professor der Experimentalphysik. Er studierte in München und Heidelberg und promovierte in Heidelberg mit einer Arbeit am Europäischen Zentrum für Elementarteilchenphysik CERN in Genf. Er forschte an der Universität Dortmund, am California Institute of Technology, an der Harvard University, an den Universitäten in Mainz und München (LMU). Seine Arbeitsgebiete sind die Physik der elementaren Bausteine der Materie und die Energieversorgung. Für seine Arbeiten erhielt er viele Preise, u.  a. den G.W.  Leibniz-Preis der Deutschen Forschungsgemeinschaft DFG, die Gentner-Kastler-Medaille der französischen und der Deutschen Physikalischen Gesellschaften (SFP und DPG), den Hochenergiepreis der Europäischen Physikalischen Gesellschaft und die Stern-Gerlach-Medaille der DPG.  Neben Forschungsarbeiten veröffentlichte er Bücher über Teilchendetektoren, die Materie-Antimaterie-Asymmetrie, die deutsche Energiewende sowie die Doppelbiographie „Einstein und Heisenberg“. 

XVI Autorenverzeichnis

Prof. Dr. Eberhard Klempt  Helmholtz-Institut für Strahlen und Kernphysik Friedrich-Wilhelms-­Universität Bonn Bonn, Deutschland Eberhard Klempt ist emeritierter Professor für Physik der Friedrich-Wilhelms-­ Universität Bonn. Er studierte an der Universität Bonn und promovierte dort bei dem späteren Nobelpreisträger Wolfgang Paul. Die Schwerpunkte seines Interesses wechselten von der Atom- und Molekülphysik zur Kern- und Teilchenphysik. Nach Stationen in Mainz und dem Europäischen Kernforschungszentrum CERN/Genf folgte er 1994 einem Ruf an die Universität Bonn. In den Jahren 1980 bis 1990 war er Sprecher einer internationalen Kollaboration Im CERN.  Er ist Chair der Baryon Gruppe der Particle Data Group.  Prof. Dr. phil. Klaus Viktor Kowallik  Botanisches Institut Heinrich-Heine-Universität Düsseldorf Düsseldorf, Deutschland Viktor Kowallik absolvierte sein Studium Biologie, Chemie und Geographie an den Universitäten Erlangen und Würzburg, sein Promotionsstudium in Biologie, Chemie, Philosophie und Psychologie an der Universität Wien. Dort promovierte er 1965 im Fach Botanik. Anschließend arbeitete er als Wissenschaftlicher Assistent am Botanischen Institut der Universität Marburg (1965 bis 1972). Nach seiner Habilitation (1971) wurde er 1972 als Professor für Botanik an die Universität Düsseldorf berufen. Forschungsaufenthalte führten ihn u. a. nach Leeds (UK), Harvard (Boston) und Penn State. Seine Forschungsinteressen liegen in Untersuchungen der Ultrastruktur der Algen und höheren Pflanzen, der Entwicklungsgeschichte der Algen, sowie der Molekularbiologie von Chloroplasten und der Entstehung komplexer photosynthetischer Organismen durch sekundäre Endosymbiosen. Er übersetzte und bearbeitete das Lehrbuch „Ultrastruktur der Pflanzen“, Thieme Verlag. 

 Autorenverzeichnis 

XVII

Prof. Dr. Dennis Lehmkuhl  Institut für Philosophie Friedrich-Wilhelms-Universität Bonn Bonn, Deutschland Dennis Lehmkuhl studierte in Hamburg, London und Oxford. Nach einer Tätigkeit als Lecturer an der Universität Oxford nahm er eine Stelle als Junior Professor in Wuppertal und als Visiting Professor am Center of Philosophy of Science in Pittsburgh an. Seine Forschungsinteressen liegen im Bereich der Geschichte und Philosophie der Naturwissenschaften, insbesondere bei der Gravitationstheorie, der Raumzeit, der Physik schwarzer Löcher und der Gravitationswellen. Dennis Lehmkuhl ist wissenschaftlicher Leiter des Einstein Paper Projects am Caltec. Zum 1. Oktober 2018 nahm er einen Ruf an die Friedrich-Wilhelms-Universität Bonn an.  Prof. Dr. Joseph W. Lengeler  Institut für Genetik FB Biologie/Chemie der Universität Osnabrück Osnabrück, Deutschland Joseph W. Lengeler Prof. (i. R.) für Genetik der Uni Osnabrück. Studium und Promotion am Institut für Genetik der Uni Köln; Research Associate an der Harvard Medical School Boston; Habilitation und Professur im Fachgebiet Genetik an der Uni Regensburg, dann Osnabrück. Arbeitsgebiet: Regulation und Evolution bakterieller Stoffwechselwege. Gastprofessur am MPI für Dynamik Komplexer Technischer Systeme in Magdeburg: Computermodellierung komplexer biologischer Systeme und künstlicher Intelligenzsysteme. Mitherausgeber der Zeitschrift Molecular and General Genetics (MGG) und des Lehrbuchs Biology of the Prokaryotes (Thieme Verlag). 

XVIII Autorenverzeichnis

Kai Michel  Anthropologisches Institut & Museum Universität Zürich Zürich, Schweiz Kai Michel ist Historiker und Literaturwissenschaftler. Er war Wissenschaftsredakteur bei Zeitungen wie „Die Zeit“ oder „Die Weltwoche“ und schreibt heute noch für „GEO“. Mit dem Anthropologen Carel van Schaik hat er das Buch „Das Tagebuch der Menschheit. Was die Bibel über unsere Evolution verrät“ (Rowohlt 2016) geschrieben. Gemeinsam mit dem Landesarchäologen von Sachsen-Anhalt Harald Meller verfasste er zuletzt: „Die Himmelsscheibe von Nebra. Der Schlüssel zu einer untergegangenen Kultur im Herzen Europas“ (Propyläen 2018). Kai Michel lebt in Zürich und im Schwarzwald.  Prof. Dr. Dr. h.c. Hermann Nicolai  Max-Planck-Institut für Gravitationsphysik Albert-Einstein-Institut Potsdam, Deutschland Hermann Nicolai studierte Physik an der Universität Karlsruhe, wo er 1978 promovierte. Nach einem mehrjährigen Forschungsaufenthalt am CERN und der Habilitation an der Universität Heidelberg wurde er 1986 auf eine Professur an der Universität Karlsruhe berufen. 1988 folgte er einem Ruf an die Universität Hamburg. Seit 1997 ist er wissenschaftliches Mitglied der Max-Planck-Gesellschaft und Direktor am Max-Planck-Institut für Gravitationsphysik in Potsdam. Seine Arbeitsgebiete sind die Quantenfeldtheorie der Elementarteilchen, Supergravitation und die Suche nach einer Theorie der Quantengravitation. 2010 wurde er mit der Einstein-Medaille ausgezeichnet und erhielt 2012 den Gay-Lussac-Humboldt Preis. 

 Autorenverzeichnis 

XIX

Prof. Dr. Dr. h.c. mult. Achim Richter  Institut für Kernphysik (IKP) Technische Universität Darmstadt Darmstadt, Deutschland Achim Richter ist emeritierter Professor für Physik an der Technischen Universität Darmstadt. Sein Hauptarbeitsgebiet ist die Untersuchung der Struktur von Atomkernen mit Hilfe von Teilchenstrahlen aus Beschleunigern. Er hat an der Universität Heidelberg studiert, promoviert und nach drei Jahren als Postdoctoral Fellow in den U.S.A. auch habilitiert. Nach einer Professur an der Ruhr-Universität Bochum folgte er 1974 einem Ruf an die TH (jetzt TU) Darmstadt als Direktor am Institut für Kernphysik. Er ist vielfach ausgezeichnet worden, u. a. mit einem A ­ lexander-von-Humboldt-Preis, einem Max-Planck-Forschungspreis, der Stern-Gerlach-Medaille der Deutschen Physikalischen Gesellschaft, dem Hessischen Verdienstorden und vier Ehrendoktorwürden. Er ist Fellow der Amerikanischen Physikalischen Gesellschaft sowie Mitglied der Heidelberger Akademie der Wissenschaften und der Deutschen Akademie der Naturforscher Leopoldina.  Prof. Dr. Friedrich Röpke  Heidelberg Institute for Theoretical Studies Universität Heidelberg Heidelberg, Deutschland Friedrich Röpke ist Professor für Theoretische Astrophysik an der Universität Heidelberg und leitet eine Arbeitsgruppe am Heidelberger Institut für Theoretische Studien. Seine Arbeitsschwerpunkte liegen in der theoretischen Modellierung und numerischen Simulation von Prozessen in Sternen. Er studierte Physik an der Friedrich-Schiller-Universität Jena und der University of Virginia. Im Jahr 2003 promovierte er an der Technischen Universität München

XX Autorenverzeichnis

mit einer Arbeit, für die er am Max-Planck-Institut für Astrophysik (MPA) in Garching forschte. Nach einem Aufenthalt an der University of California, Santa Cruz, kehrte er als Leiter einer Emmy-Noether-­ Forschungsgruppe der Deutschen Forschungsgemeinschaft an das MPA zurück und habilitierte sich an der TU München. 2010 erhielt er einen Ruf an die Universität Würzburg und wechselte 2015 nach Heidelberg. Zusammen mit Avishay Gal-Yam wurde er mit dem ARCHES-Preis für ein deutsch-israelis­ ches Forschungsprojekt ausgezeichnet.  Prof. Dr. Peter Rothe  Reiss-Engelhorn-Museen Mannheim, Deutschland Peter Rothe ist emeritierter Professor für Geologie der Universität Mannheim und arbeitet ehrenamtlich an den Reiss-Engelhorn-Museen. Er studierte in Frankfurt und München. Nach seiner Habilitation in Heidelberg nahm er viele Jahre am Deep Sea Drilling Projekt teil. 15 Jahre lang war er Schriftleiter des Oberrheinischen geologischen Vereins und ist dort Ehrenmitglied. Seit 2002 ist er Herausgeber der Sammlung geologischer Führer. Von seinen Büchern wurde das Buch „Erdgeschichte“ 2001 als Wissenschaftsbuch des Jahres ausgezeichnet.  Prof. Dr. Dr. h.c. mult. Wolf Singer  Max-Planck-Institut für Hirnforschung und Ernst-Strüngmann Institute for Neuroscience Frankfurt/Main, Deutschland Wolf Singer studierte Medizin in München und Paris. Er ist Direktor em. am Max-Planck-Institut für Hirnforschung (MPI) in Frankfurt, Gründungsdirektor des Frankfurt Institute for Advanced Studies (FIAS) und des Ernst Strüngmann Institute for Neuroscience in Cooperation with Max Planck Society (ESI) sowie wissenschaftlicher Leiter des Ernst Strüngmann Forums. Forschungsschwerpunkt seiner Arbeiten sind neuronale Grundlagen höherer kognitiver Funktionen. 

 Autorenverzeichnis 

XXI

Prof. Dr. Günter Theißen  Matthias-Schleiden-Institut – Genetik Friedrich-Schiller-Universität Jena Jena, Deutschland Günter Theißen ist Professor für Genetik an der Friedrich-Schiller-Universität Jena. Zu seinen wissenschaftlichen Interessen gehören die Evolutionäre Entwicklungsbiologie der Pflanzen, Molekulare Evolution und die Beantwortung der Frage, wie evolutionäre Neuheiten entstehen. Er studierte Biologie an der Heinrich-Heine-Universität Düsseldorf und promovierte dort 1991  in Molekularbiologie. Von 1992 bis 2001 arbeitete er als Postdoktorand und Arbeitsgruppenleiter am Max-Planck-Institut für Pflanzenzüchtungsforschung in Köln in der Abteilung von Heinz Saedler. Im Jahr 2001 folgte er zunächst einem Ruf als Professor für Botanik an die Westfälische-Wilhelms-Universität Münster und kurz darauf einem Ruf auf die Professur für Genetik an der Universität Jena.  Prof. Dr. Günter Werth  Institut für Physik Johannes-Gutenberg-Universität Mainz Mainz, Deutschland Günter Werth ist Professor für Physik (i. R.) an der Johannes-Gutenberg-­Universität Mainz. Sei­ ne Arbeitsschwerpunkte liegen in der atomaren Laser- und Mikrowellen-Spektroskopie; er führte Experimente an gespeicherten Ionen und zur Präzisionsmassenspektroskopie durch, für die er 1985 mit dem Helmholtz-Preis ausgezeichnet wurde. Er verfasste die Fachbücher: „Charged Particle Traps I und II“ (Springer) und hatte Gastprofessuren in Peking, Tokio, Stockholm und Vancouver inne. 

XXII Autorenverzeichnis

Prof. Dr. Christof Wetterich  Institut für Theoretische Physik Universität Heidelberg Heidelberg, Deutschland Christof Wetterich ist Professor für theoretische Physik an der Universität Heidelberg. Seine Arbeitsgebiete liegen auf dem der Kosmologie und Teilchenphysik, aber auch in der Quantenphysik und der Physik kalter Atome. Er studierte an der Université Paris VII, in Köln und in Freiburg, wo er promovierte und sich habilitierte. Nach Stationen an der Universität Bern, am Europäischen Kernforschungszentrum CERN in Genf als Heisenberg Stipendiat und am Deutschen Elektronensynchroton DESY folgte er 1992 einem Ruf an die Universität Heidelberg. 2005 wurde er mit dem Planck Forschungspreis ausgezeichnet; 2014 war er Inhaber der Johannes Gutenberg- Stiftungsprofessur in Mainz.  Prof. Dr. Carel van Schaik  Anthropologisches Institut & Museum Universität Zürich Zürich, Schweiz Carel van Schaik ist Anthropologe und Evolutionsbiologe. Von 1989 bis 2004 war er Professor an der Duke University, USA.  Anschließend war er bis 2018 Direktor des Instituts und Museums für Anthropologie an der Universität Zürich. Er er­forscht die Wurzeln der menschlichen Kultur und Intelligenz bei Menschenaffen und hat lange Jahre Orang-Utans im Dschungel Indonesiens beobachtet. „Among Orangutans. Red Apes and the Rise of Human Culture“ erschien 2004 bei Harvard University Press. Mit Kai Michel veröffentlichte er 2016 „Das Tagebuch der Menschheit. Was die Bibel über unsere Evolution verrät“ (Rowohlt). Im selben Jahr erschien von Carel van Schaik „The Primate Origins of Human Nature“ (Wiley). 

 Autorenverzeichnis 

XXIII

Prof. Dr. Friedemann Schrenk  Sektion Paläoanthropologie Senckenberg Gesellschaft für Naturforschung Frankfurt, Deutschland Abteilung Paläobiologie und Umwelt Goethe Universität Frankfurt Frankfurt, Deutschland Friedemann Schrenk studierte Geologie, Zoologie, Anatomie und Anthropologie an den Universitäten Darmstadt, Johannesburg und Frankfurt. Nach Tätigkeiten an den Universitäten Frankfurt und Tübingen wechselte er zum Hessischen Landesmuseum. Seit 2000 leitet er die Sektion Paläoanthropologie und Quartärpaläontologie am Forschungs­ institut Senkenberg und hat eine Professur für Paläobiologie an der Universität Frankfurt inne. Im Mittelpunkt seines Forschungsinteresses steht die Frage nach der Entstehung des Homo sapiens. Seit vielen Jahren führt er Grabungen durch in Malawi und Tansania. Besonders setzt er sich dafür ein, das Verständnis der afrikanischen Bevölkerung für die menschliche Frühgeschichte zu entwickeln. Friedeman Schenk wurde durch zahlreiche Preise geehrt, u. a. durch den Grüter-Preis für Wissenschaftspublizistik und den Communicator-Preis. Er war Inhaber der Johannes-Gutenberg Stiftungsprofessur in Mainz und erhielt das Bundesverdienstkreuz. 

XXIV Autorenverzeichnis

Prof. Dr. Dr. Ina Wunn  Institut für Theologie und Religionswissenschaft Leibniz Universität Hannover, Deutschland Ina Wunn studierte zunächst in Marburg Paläontologie, anschließend in Hannover Religionswissenschaft und wurde in beiden Fächern promoviert. Die Habilitation im Fach Religionswissenschaft erfolgte im Jahre 2002. Seitdem lehrte sie, unterbrochen von längeren Aufenthalten in Afrika und im Nahen Osten, an den Universitäten Bielefeld und – bis heute – Hannover. Ina Wunn forscht zu den Themen Islam in Deutschland und Evolution und Ursprung von Religion. Zu beiden Themenkomplexen schrieb sie zahlreiche Buchveröffentlichungen. 

Einleitung Eberhard Klempt

Unsere Welt erscheint ungeheuer komplex. Um die Fülle der Erscheinungen zu ordnen und zu verstehen, suchen wir in ihr seit Beginn des menschlichen Denkens einfache Gesetzmäßigkeiten, anschauliche Deutungen. Sehr frühe Erkenntnisse beziehen sich vermutlich auf den Kreislauf des Jahres, die Wanderungen der Tiere und auf die Einsicht, dass Sommer und Herbst Samen und Früchte hervorbringen. Die regelmäßige Abfolge von Tag und Nacht, von Sommer und Winter wurde vermutlich zum ersten Mal mit der Himmelsscheibe von Nebra vor etwa 4000 Jahren bildlich festgehalten. Die klassische Physik entdeckte die Gesetze der Mechanik und Elektrodynamik, die moderne Physik reduziert die Vielfalt aller Erscheinungen auf die Wechselwirkung zwischen Quarks und Leptonen. Die Welt begann aber nicht in der vollen Komplexität, wie wir sie heute beobachten, sondern aus einfachsten Anfängen: Aus einem mathematischen Punkt entstand die Fülle der Sterne, aus einer Zelle entwickelte sich der Formenreichtum des Lebens, aus unbewusstem Sein wurde der die Außen- und Innenwelt reflektierende Mensch. Die modernen Wissenschaften bemühen sich zu verstehen, wie sich aus archaischen Anfängen und einfachen Regeln immer kompliziertere Strukturen entwickelt haben. Dieses Buch zeigt an vielen Beispielen aus den verschiedensten Disziplinen, wo die Wissenschaft heute steht und welche Antworten sie zu geben hat. E. Klempt (*) Helmholtz-Institut für Strahlen und Kernphysik, Friedrich-Wilhelms-Universität Bonn, Bonn, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_1

1

2 

E. Klempt

Die Geschichte des modernen Menschen, des modernen Homo sapiens, überstreicht einen Zeitraum von etwa 200.000 bis 300.000 Jahren oder von etwa acht- bis zwölftausend Generationen.1 Im Laufe der Jahrtausende beschleunigte sich die Folge von Erfindungen, Entdeckungen und die Veränderung der Lebensbedingungen von Generation zu Generation, und jede stand vor ihren eigenen Herausforderungen. Vor rund 100.000 Jahren oder etwa 4000 Generationen begann der moderne Mensch, die Welt außerhalb Afrikas zu besiedeln. Funde in Höhlen der Schwäbischen Alb wie die Venus vom Hohle Fels und der Löwenmensch vom Hohlenstein-Stadel, beide aus Mammut-Elfenbein, sowie die ersten Musikinstrumente aus Knochenflöten belegen eine hochstehende menschliche Kultur in der Zeit vor etwa 1500 Generationen (35.000–40.000 v. Chr.). Die Höhlenbilder von Lascaux mit Darstellungen von Stieren, Pferden, Auerochsen und anderen Tieren (und Menschen) entstanden vor etwa 16.000 Jahren oder vor sechshundert Generationen. Vor nur etwa vierhundert Generationen, um 9600 v. Chr., richteten nomadische Jäger und Sammler im südostanatolischen Göbekli Tepe monolithische, T-förmige Pfeiler auf: diese Steinkreisanlagen scheinen dem Ahnenkult oder der Verehrung von Wesen aus einer anderen Welt gedient zu haben und bezeugen die Sehnsucht der Erbauer nach einem über ihre eigene Existenz hinausweisenden Sinn ihres Lebens. Die ersten Stadtkulturen und die arbeitsteilige Gesellschaft entstanden wenige Generationen später; ihre komplexe Verwaltung erzwang vor etwa einhundertfünfzig Generationen (3000 v. Chr.) die Entwicklung der Hieroglyphen und der Keilschrift, um Informationen festzuhalten, über die Zeit zu bewahren und über Entfernungen hinweg mitzuteilen. Die ersten wissenschaftsbasierten Weltbilder wurden vor siebzig bis achtzig Generationen in Griechenland beziehungsweise Süditalien entwickelt: von Thales von Milet (um 625–545), Pythagoras (um 570–510), Hippokrates (um 459–350), Thukydides (vor 454–ca. 398), Platon (428–347), Aristoteles (384–322), Aristarch von Samos (etwa 310–230), Archimedes (287–212) und vielen weiteren Gelehrten. Die Geburt Christi vor sechzig Generationen definiert eine Zeitenwende, die die gesamte Kultur des Abendlandes bis heute nachhaltig geprägt hat. Vierundzwanzig Generationen später, um 800 n. Chr., schuf Karl der Große ein Reich, das wir heute noch als kulturelle Einheit empfinden und als Kerneuropa bezeichnen. Gleichzeitig blühte die islamische Kultur auf, die die wissenschaftlichen Erkenntnisse aus Babylon und Griechenland aufnahm und weiterentwickelte. Vor fünfzehn Generationen entdeckte Columbus Amerika. 1  Ein Nachfahre in der 77. Generation nach Konfuzius (Kǒng Fūzǐ), geb. 551 vor Christi Geburt, ist derzeit der Sprecher des Kǒng’schen Familienverbandes. Daraus errechnen sich drei Generationswechsel in 100 Jahren. Für die Zeit vor 3000 vor Christi Geburt nehme ich vier Generationen pro Jahrhundert an.

 Einleitung 

3

Diese Zeit, die Renaissance, steht für den Aufbruch in eine neue Welt und in eine neue Zeit. Sie steht aber auch für den Glauben an den Wert humanistischer Bildung und den Wert der eigenen Persönlichkeit. Vor sieben Generationen (etwa um 1800) schließlich entwickelte James Watt die erste einsatzfähige Dampfmaschine; durch den schnelleren Austausch von Gütern und Ideen forcierte die Dampfschifffahrt die Dynamik der technischen Revolution. Vor vier Generationen erhielt Thomas Edison sein Patent für die elektrische Glühlampe, und vor etwas über zwei Generationen baute Konrad Zuse den ersten Computer. Jeder dieser und vieler ähnlicher Schritte markiert bedeutende Innovationen und resultiert in signifikanten Änderungen der menschlichen Gesellschaft. Wohin uns unser eigenes Zeitalter führen wird, können wir erst in Ansätzen erkennen. Auch der Menschheit ging ein langer Entwicklungsprozess voraus. Das plötzliche Auftauchen von ersten Systemen, denen wir Leben zusprechen, ist bis heute nicht eindeutig geklärt. Erstes primitives Leben auf unserer damals noch jungen Erde entstand vor drei bis vier Milliarden Jahren aus komplexen organischen Molekülen, vermutlich durch spontane Strukturbildung im thermodynamischen Ungleichgewicht von heißen Quellen im Meeresboden. Auch wenn lebendige Organismen aus organischer Materie entstehen (und wieder in sie zerfallen), so ist Leben doch etwas grundsätzlich Neues. Man spricht von Emergenz: Obwohl Lebewesen aus toter Materie bestehen, tragen sie doch Merkmale in sich, die über ihre materiellen Bestandteile weit hinausweisen. Das Ausdifferenzieren des genetischen Codes in immer komplexere Lebensformen folgt dann einer eigenen Gesetzmäßigkeit, deren Mechanismus Charles Darwin (und Alfred R.  Wallace) aufspürten. Im Wechselspiel aus zufälliger Variation, evolutionärer Innovation und Natürlicher Selektion entstanden neue Lebensformen, die erfolgreich ökologische Nischen besetzten oder abstarben. Durch die zunehmende Differenzierung entwickelten sich immer komplexere Arten, bis vor etwa 200.000 Jahren eine „Eva“ zur Urmutter aller heutigen Menschen wurde. Die Universalität des genetischen Codes aller Lebewesen weist auf einen gemeinsamen Ursprung allen Lebens. Heute wissen wir, wie groß das genetische Erbe ist, das wir aus der Entwicklungsgeschichte des Lebens übernommen haben. Trotz dieser Kontinuität: Im modernen Homo sapiens vollzog sich ein weiterer qualitativer Sprung, die Entwicklung eines Bewusstseins des eigenen Ichs, die Fähigkeit, über sich selbst und über die Entstehung der Welt nachzudenken, aber auch die Fähigkeit, sich die Zukunft vorzustellen, längerfristige Ziele anzustreben und zu verwirklichen. Haben wir als Individuen die Kraft, unser Leben zu gestalten, haben wir einen freien Willen? Können wir hier von Emergenz sprechen? Sind diese Eigenschaften etwas qualitativ Neues,

4 

E. Klempt

die vielleicht sogar über das Kreatürliche hinausweisen und den Keim für weitere Schritte der Evolution in sich tragen? Auch die Menschheit als Gesamtheit hat einen langen Entwicklungsprozess durchgemacht. Der Übergang vom mobilen Leben als Jäger, Sammler und Fischer zum sesshaften Bauern in der neolithischen Revolution vor etwa 10.000 Jahren markiert einen der wichtigsten Umbrüche in unserer Geschichte. Im Laufe der Jahrtausende hat der Mensch den Nutzen der Kulturpflanzen und der Haustiere durch kontinuierliche Züchtung erheblich gesteigert. So wuchs die Bevölkerung und veränderte die Welt. Schon in der Antike wurden Wälder rücksichtslos gerodet: für neue Siedlungen, für den Schiffsbau und als Brennstoff, zum Beispiel für die zahlreichen Warmwasserthermen. Dort, wo die Wälder abgeholzt wurden, erodierte der Boden, und eine verkarstete Steinwüste blieb zurück. Heute sind unsere Eingriffe in die Natur viel schwerwiegender, und die Folgen sind weniger überschaubar. Die in Jahrmillionen entstandenen Vorräte an Öl, Erdgas und Kohle werden heute in wenigen Jahrzehnten verbraucht und als CO2 in die Atmosphäre entlassen  – mit unabsehbaren Folgen für das Klima der Erde. Die hohe Besiedlungsdichte, das dichte Straßennetz und die intensive Landwirtschaft nehmen zahlreichen Pflanzen und Tieren ihren Lebensraum, die Biodiversität nimmt beschleunigt ab. Genetisch veränderte Pflanzen sind weniger anfällig für Krankheiten, führen trotz höherer Erträge zu geringeren Umweltbelastungen und bieten dadurch die Chance, die noch immer schnell wachsende Erdbevölkerung ausreichend zu ernähren. Trotzdem ist der Einsatz der grünen (pflanzlichen) Gentechnik umstritten: Sie beschleunigt den Wandel von vielen verschiedenen Kulturpflanzen hin zu wenigen Hochleistungspflanzen. Die rote (medizinisch-pharmazeutische) Gentechnik ist in manchen Bereichen der Medizin akzeptiert, in anderen hoch umstritten: Schon seit 1982 wird ohne jede Diskussion Humaninsulin zur Bekämpfung der Zuckerkrankheit gentechnisch produziert; dagegen stehen die Präimplantationsdiagnostik und die Gen- und Stammzelltherapie häufig im Fokus der Kritik. Auch die menschliche Gesellschaft und ihre Werte haben sich im Laufe der Zeit erheblich verändert. Lupus est homo homini (der Mensch ist dem Menschen ein Wolf ) schrieb der römische Komödiendichter Titus Maccius Plautus. Die damit angesprochene Gewaltbereitschaft des Menschen einzudämmen, ist ein wichtiges Ziel jeder staatlichen Ordnung. Welche Wege die Stammesgesellschaft der Steinzeit gefunden hat, Konflikte innerhalb der Gemeinschaft zu entschärfen beziehungsweise mit anderen Gruppen auszutragen, wissen wir nicht. Die ältesten überlieferten Gesetzestexte stammen aus dem sumerischen Ur und entstanden um 2100 v. Chr. Prägend für Europa wurden die Gesetzestafeln, die Moses seinem Volk Israel offenbarte.

 Einleitung 

5

Das römische Reich war berühmt für sein Gesetzgebungswerk, das bis heute das moderne bürgerliche Recht prägt. Aber erst der moderne Verfassungsstaat ist verpflichtet, die Menschenrechte jedes seiner Bürger zu schützen und – notfalls mit Gewalt – durchzusetzen. Lange Zeit galt das Recht nur innerstaatlich: Kriege zu führen war das souveräne Recht jeden Staates. Heute unterliegen die Beziehungen zwischen den Staaten zwar dem Völkerrecht, die Fähigkeit der Staatengemeinschaft, Rechtsbrüche zu verhindern oder zu ahnden, ist aber gering. Noch eingeschränkter ist die Möglichkeit der Staatengemeinschaft, die Menschenrechte des Einzelnen innerhalb autoritär regierter Staaten gegen deren Führung durchzusetzen. Die Vereinten Nationen als Garant der Freiheitsrechte jeden Weltbürgers – das ist heute (noch?) eine Utopie. Auch in der Entwicklungsgeschichte des Universums gibt es neben einer kontinuierlichen Entwicklung immer wieder qualitative Sprünge hin zu größerer Komplexität, aus denen sich völlig neue Strukturen entwickeln. Die inflationäre Phase des Universums unmittelbar nach dem Urknall formte durch Fluktuationen des die Expansion treibenden Feldes die großräumigen Strukturen des Universums. Aus dem bei dem Zerfall dieses Feldes entstandenen sogenannten Quark-Gluon Plasma bildeten sich Wasserstoffkerne (Protonen) und Heliumkerne (alpha-Teilchen), die sich später mit Elektronen zu Atomen verbanden. Ohne das Zusammenballen von Materie zu Sternen und Sonnensystemen und ohne die Entstehung von Planeten wie der Erde könnte es kein Leben geben – aber Leben gäbe es auch nicht ohne die explosiven Verbrennungsprozesse in Supernovae. Hierbei entstehen die Atomkerne, die schwerer als Eisen und ebenfalls Voraussetzung komplexerer Lebensformen sind. Teile von uns allen waren mindestens einmal Teil einer Explosion am Ende eines Sternenlebens! In jedem Bereich des Lebens erkennen wir, wie sich aus einfachen Strukturen und einfachen Regeln oder Gesetzen neue und immer komplexere Strukturen entwickeln. Das gilt für das Universum, auf der Ebene der Quarks und der Atome, bei der Entstehung des Lebens und bei seiner Ausdifferenzierung in die Vielzahl der Lebensformen bis hin zum menschlichen Leben in kulturell und wissenschaftlich immer höher entwickelten Gesellschaften. Doch wir mussten erleben, dass der zivilisatorische Fortschritt nicht notwendigerweise auch zu einem ethischen führt. Anfang des 20. Jahrhunderts machte die Fortschrittsgläubigkeit blind gegen die Gefahren eines industrialisierten Krieges; der Rassenwahn des Nationalsozialismus wurde als Aufbruch in eine neue, bessere Welt proklamiert! In den vergangenen hundert Jahren hat die Fähigkeit des Menschen, seine Umwelt und sich selbst zu ändern, ein Niveau erreicht, auf dem sprunghafte Durchbrüche und Neuerungen in eine

6 

E. Klempt

e­xistenzielle Bedrohung umschlagen können. Heute ist es dem Menschen möglich, seine eigene Zukunft auf dem Raumschiff Erde zu vernichten oder zumindest die Lebensgrundlagen so zu zerstören, dass jede Zivilisation in der heutigen Form unmöglich wird. Unsere Gesellschaft hat sicher die Fähigkeit, sich die Zukunft vorzustellen; vermag sie aber auch, sich auf längerfristige Ziele zu einigen und ihre Entwürfe gemeinsam zu verwirklichen?

Die Einheit der Physik Von der Komplexität der Vorgänge zur Einheit der Wirklichkeit Hermann Nicolai

Nach allem, was wir wissen, ist das Universum vor ungefähr 13,7 Milliarden Jahren in einer ungeheuren Explosion – dem Urknall (Big Bang) – entstanden. Dabei hat sich nicht nur die Materie geformt, sondern diese Explosion bildet den Ursprung von Raum und Zeit selbst. In der ersten Phase danach, der sogenannten Planck-Ära, die nur 10−43 Sekunden währte, waren, so wird vermutet, die bekannten Kräfte (Gravitation und Elektromagnetismus, sowie die starken und schwachen Kernkräfte) und möglicherweise weitere noch unbekannte Kräfte zu einer einzigen Urkraft vereint und nicht voneinander unterscheidbar. Nach einer extrem kurzen Phase der exponentiellen („inflationären“) Expansion, in der sich das Universum gigantisch aufblähte  – auf eine Größe von etwa zehn Zentimetern  – und sich dabei extrem aufheizte („reheating“), entstanden die Grundbausteine der Materie, die wir heute im Universum vorfinden: Quarks, Leptonen, Eichbosonen und möglicherweise weitere noch unentdeckte Elementarteilchen. Seither expandiert das Uni­ versum und kühlt sich immer weiter ab bis zur heute im Weltall herrschenden Temperatur von 2,7 Grad über dem absoluten Nullpunkt. Hierbei spaltete sich die Urkraft in die bekannten Kräfte auf, in einem kaskadenhaften Prozess der Symmetriebrechung, aus der die Welt hervorging, so wie wir sie jetzt um uns wahrnehmen. Es ist ein einzigartiger Triumph menschlichen Erkenntnisstrebens, dass sich diese Vorgänge mit den heute bekannten H. Nicolai (*) Max-Planck-Institut für Gravitationsphysik Albert-Einstein-Institut, Potsdam, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_2

7

8 

H. Nicolai

Gesetzen der Physik, die auf Einsteins Allgemeiner Relativitätstheorie und der Quantenfeldtheorie in Form des Standardmodells der Elementarteilchenphysik beruhen, bis auf Bruchteile von Sekunden zum Anfang zurückverfolgen und quantitativ korrekt beschreiben lassen. So verstehen wir zum Beispiel, wie in dem extrem heißen Universum des Anfangs Quark-Antiquark-Paare in einem Quark-Gluon Plasma fortlaufend erzeugt und vernichtet wurden und wie sich aus dieser Ursuppe Nukleonen und Mesonen bildeten, teilweise in zunächst hochangeregten Zuständen, die sofort wieder zerfielen. Schließlich blieben Protonen, Neutronen, Elektronen, Positronen, Neutrinos und Photonen. Aus den Protonen und Neutronen bildeten sich die ersten Atomkerne, die Atomkerne und die freien Elektronen verbanden sich zu Atomen und weiter zu den chemischen Elementen, deren Vorkommen und Häufigkeit im Weltall wir ebenfalls quantitativ erklären können  – etwa, warum die sichtbare Materie zu 74 Prozent aus Wasserstoff und zu 24 Prozent aus Helium besteht. Nach weiterer Abkühlung konnten Photonen entweichen, die seither frei durchs Universum strömen und sich heute in der Hintergrundstrahlung nachweisen lassen. Dieser Beitrag soll sich jedoch weniger um die frühe Geschichte des Universums (siehe die Beiträge von Christof Wetterich und Matthias Bartelmann) oder andere Detailfragen der modernen Physik drehen. Vielmehr geht es um die grundsätzliche Frage, warum Physiker überhaupt an eine über die bekannte Physik hinausgehende letztgültige Vereinheitlichung der Naturgesetze glauben. Wie könnte sich die vermutetete Einheit der Physik am Ursprung des Universums manifestieren, und auf welchen Wegen können wir zu einer Theorie gelangen, welche diese Vereinheitlichung bewerkstelligt? Und wie müsste eine Formel aussehen, welche die gesamte Physik subsumiert? Im weiteren Sinne geht es damit auch um die „Einheit der Wirklichkeit“, die wir hier gleichsetzen mit der möglichen noch zu findenden Einheit der naturgesetzlichen Weltbeschreibung. Unter „Wirklichkeit“ wollen wir hier stets die „objektive Wirklichkeit“ verstehen, das heißt diejenige, die empirisch, messbar ist. Um diese zu erfassen, bedient sich der Physiker der reduktionistischen Methode, auf der nahezu sämtliche Fortschritte der Naturwissenschaft beruhen. Dafür sucht er nach den einfachen Gesetzmäßigkeiten durch Zerlegen (Reduktion) von komplizierten Vorgängen auf wenige möglichst einfache Sachverhalte. Wichtigstes Kriterium für die Richtigkeit einer Aussage ist, dass sie durch Experiment und Beobachtung reproduzierbar oder aber falsifizierbar ist. Das heißt, einmal ­festgestellte Gesetzmäßigkeiten müssen sich durch wiederholte Beobachtungen beziehungsweise Messungen immer wieder nachprüfen und bestätigen lassen. Ziel ist es dann, allgemein gültige Naturgesetze aufzustellen, die selbst wieder Vorhersagen für zukünftige Abläufe erlauben.

  Die Einheit der Physik 

9

Eines der ersten Beispiele für diese reduktionistische Methode war Galileis Fallexperiment am schiefen Turm zu Pisa. Dass Gegenstände herunterfallen, ist eine alltägliche Erfahrung. Aber warum tun sie das, und nach welcher Gesetzmäßigkeit? Galilei wollte zunächst nachweisen, dass alle Körper gleich schnell fallen. Auf den ersten Blick scheint dies aller Anschauung zu widersprechen: Eine Feder fällt in der Luft langsamer als ein Stein. So war es bei diesem vermutlich ziemlich ungenauen Experiment wohl mehr die geniale Intuition von Galileo Galilei, die bei der Findung des Fallgesetzes nachgeholfen hat. Heute können wir indes sehr genau prüfen, dass diese Aussage richtig ist: In Fallrohren, in deren Innerem sich nicht Luft, sondern Vakuum befindet, fällt eine Feder genauso schnell wie eine Stahlkugel. Von so einfachen Beispielen bis zur Einheit der Naturgesetze ist der Weg jedoch weit. Angesichts der Vielfalt und Komplexität der Vorgänge um uns herum scheint vielmehr eine „Einheit der physikalischen Wirklichkeit“ zunächst völlig abwegig. Das zeigt schon ein kurzer Blick in jedes Schulphysikbuch: Dort sind die beobachteten Phänomene auf viele Unterkapitel verteilt (Mechanik, Hydrodynamik, Wärmelehre, Elektrizität und Magnetismus, Atomphysik, Kernphysik, etc.), die auf den ersten Blick wenig miteinander zu tun haben. Betrachten wir jedoch als ein einfaches Beispiel einmal die Bewegung der Himmelskörper. Im Weltsystem nach dem griechischen Geografen, Astronomen und Mathematiker Claudius Ptolemäus war die Erde der Mittelpunkt, um den sich alle Körper einschließlich der Sonne herum bewegen. Um dies zu beschreiben, versuchte man, sich der Elementargeometrie zu bedienen – in Form der geometrisch vollkommensten Figur, des Kreises. Aber die Unzulänglichkeit dieser Beschreibung war unmittelbar klar: Von der Erde aus gesehen bewegen sich die Planeten keineswegs auf Kreisbahnen, sondern vollführen viel kompliziertere Bewegungen, was sich zum Beispiel an den scheinbaren Schleifenbahnen des Jupiter feststellen lässt. Eine näherungsweise Beschreibung gelang schließlich nur durch eine erhebliche Verkomplizierung des Modells: Einfachen Kreisen wurden immer neue Kreise überlagert – zum Schluss benötigte man für die bekannten Planeten 80 Zyklen und Epizyklen. Das Erklärungsschema wurde so umständlich, dass es am Ende gar nichts mehr erklärte – heutzutage gilt das Ptolemäische System geradezu als Paradebeispiel dafür, wie eine gute Theorie nicht beschaffen sein sollte! Dennoch hielt sich das Ptolemäische Weltbild über mehr als 1000 Jahre, bis endlich der Astronom und Mathematiker Nikolaus Kopernikus die Sonne in den Mittelpunkt stellte. Der entscheidende Fortschritt gelang dem Gelehrten Johannes Kepler, der die nach ihm benannten Gesetze formulierte, denen zufolge sich die Planeten auf elliptischen

10 

H. Nicolai

Bahnen bewegen, wobei die Umlaufzeit T und der Bahnparameter a durch die einfache Relation T2/a3 = const verknüpft sind. Hinzu kam Isaac Newtons ebenso geniale wie einfache Einsicht: Dass der Apfel vom Baum fällt und der Mond um die Erde kreist und die Erde um die Sonne, hat ein und dieselbe Ursache, nämlich das universelle Gesetz der Gravitation. Dem zufolge ist die Kraft, welche zwischen zwei Massen wirkt, proportional zu deren Produkt, radial gerichtet und umgekehrt proportional zum Quadrat des Abstands. Schnell wurde klar, dass sich mit dieser neuen Theorie nicht nur die einfachen (elliptischen) Bewegungen der Planeten, sondern nahezu alle Phänomene der Himmelsmechanik höchst genau beschreiben lassen: So wurde die Existenz des Planeten Neptun aufgrund von Unregelmässigkeiten der Uranus-Bewegung zuerst rechnerisch vorhergesagt, noch bevor Neptun tatsächlich entdeckt wurde. Heute noch erlaubt die Newton’sche Mechanik ex­ trem genaue Vorhersagen wie die von Sonnen- und Mondfinsternissen über Jahrhunderte im Voraus. Ebenso zuverlässig lassen sich damit Bahnen von Sonden zu entfernten Planeten in ihrem gesamten Zeitverlauf bestimmen. Solche Fortschritte haben uns jüngst unter anderem fabelhafte Ausblicke auf die Eisgebirge der Pluto-Oberfläche ermöglicht. Ein zweites Bespiel für die Einheit der Naturgesetze ist der Elek­ tromagnetismus. Elektrizität und Magnetismus waren schon im Altertum bekannt: Blitze, Elektroschocks durch Fische, magnetisches Gestein. Lange Zeit wurden sie aber als voneinander völlig unabhängige Phänomene angesehen. Erst Anfang des 19. Jahrhunderts gelang dem englischen Naturforscher und Experimentalphysiker Michael Faraday der Nachweis, dass Elektrizität und Magnetismus eng miteinander verknüpft sind, wie er durch zahlreiche raffinierte Versuche belegen konnte („convert magnetism into electricity“). Dennoch dauerte es weitere Jahrzehnte, bis der Schotte James Clerk Maxwell dies mathematisch ausformulierte und so eine völlige „Vereinigung“ von Elektrizität und Magnetismus erreichte. Speziell konnte Maxwell durch mathematische Analyse die Existenz elektromagnetischer Wellen beweisen – und damit die vielleicht wichtigste Schlussfolgerung der neuen Theorie ableiten, nämlich dass Licht nichts anderes ist als eine elektromagnetische Welle! Die Maxwell’sche Theorie gilt als Krönung der Physik des 19. Jahrhunderts. Heute wissen wir, dass die Maxwell’schen Gleichungen einen riesigen Bereich von Phänomenen beschreiben: Das Spektrum elektromagnetischer Wellen reicht von den Röntgenstrahlen über das sichtbare Licht bis zu Radio- und Mikrowellen. Wie bei der Himmelsmechanik gelingt es so, völlig verschiedenartige physikalische Phänomene einheitlich und auch einfach zu beschreiben. Diese Erkenntnisse ermöglichten beispiellose technische Fort­schritte, von denen wir bis heute profitieren.

  Die Einheit der Physik 

11

Basierend auf dem großen Erfolg der Newton’schen Mechanik gab es bereits Anfang des 19. Jahrhunderts Ansätze, die Wirklichkeit einheitlich zu verstehen: Nach Pierre Simon Laplace ist die Welt nichts als ein Uhrwerk, das – einmal von einem Schöpfer in Gang gesetzt – vollständig vorhersagbar nach den Regeln der Newton’schen Mechanik abläuft. Mit dem durchschlagenden Erfolg der Maxwell’schen Theorie verbreitete sich dann am Ende des 19. Jahrhunderts die Auffassung, dass mit diesen beiden Theorien alle Phänomene mehr oder weniger verstanden seien. So wird über Max Planck berichtet, er habe vor Beginn seines Studiums in München den Physikprofessor Philipp von Jolly um Rat gefragt. Dieser beschied ihn, es lohne sich nicht mehr, Physik zu studieren, denn im Wesentlichen sei alles schon verstanden! Planck indes ließ sich nicht entmutigen – und behielt recht. Denn mit den Erkenntnissen von Newton und Maxwell ließ sich eben nicht alles erklären: Es blieben ominöse Risse im Gebäude der Physik. Darauf deuteten Unstimmigkeiten in den Erklärungsversuchen für die Schwarzkörperstrahlung hin, ebenso wie das gerade erst entdeckte Phänomen der Radioaktivität, das sich allen Erklärungsversuchen durch die klassische Physik hartnäckig widersetzte. Das Nachbohren bei all diesen ungelösten Fragen war schließlich der Anlass für die völlige Umwälzung der Physik. Den Anfang machten die Entdeckung der Quantentheorie durch Max Planck im Jahre 1900 sowie die kurz darauf von Albert Einstein aufgestellte Lichtquantenhypothese, der zufolge Licht nicht nur Welle, sondern gleichzeitig Teilchen ist. Die schon vorher vermutete Körnigkeit von Materie und Strahlung, welche sich unter anderem in der Existenz von Atomen und Atomkernen manifestiert, wurde damit Gewissheit. Die Entdeckung der Quantentheorie und deren Ausformulierung durch Werner Heisenberg, Erwin Schrödinger und Paul Dirac in den 1920er-Jahren lieferte eine völlig neue Sicht auf die physikalische Wirklichkeit, jedoch um den Preis immer größerer Unanschaulichkeit. Nicht nur erforderte die Quantenmechanik eine neue Mathematik (Funktionalanalysis), sondern sie beruht auf viel abstrakteren Begrifflichkeiten als die klassische Physik. So wird die „Wirklichkeit“ im Atom nicht mehr durch im klassischen Sinne anschauliche Bewegungen von Objekten im Raum erfasst. Ein Elektron bewegt sich nicht auf einer quasiklassischen Bahn um den Atomkern, sondern es bildet eine „Wahrscheinlichkeitswolke“. Alle Information über das System steckt in der Wellenfunktion, die durch die Schrödinger-Gleichung bestimmt wird. Anders als im Laplace’schen Weltbild ist es in der Quantenwelt prinzipiell nicht mehr möglich, Einzelereignisse vorherzusagen, sondern nur noch Wahrscheinlichkeiten von Ereignissen. Beim Zerfall eines Atoms lassen sich zum Beispiel genaue Vorhersagen nur für das statistische Mittel einer Vielzahl

12 

H. Nicolai

von Ereignissen mittels der sogenannten Halbwertszeit machen. Die Wirklichkeit der Quantenwelt ist somit eine völlig andere als die Wirklichkeit unserer Anschauung. Dafür stehen Begriffe wie „Verschränkung“ und „Superposition“, und die Überlagerung von scheinbar unvereinbaren Zuständen – veranschaulicht durch „Schrõdingers Katze“, die gleichzeitig tot und lebendig ist. Dank zahlreicher Experimente, die die Quantenmechanik immer wieder bestätigen, bezweifelt heute kein Physiker mehr, dass die quantenmechanische Beschreibung die „wirkliche Wirklichkeit“ besser abbildet als unsere Anschauung. Der entscheidende Umstand ist für uns heute nicht mehr die Unverständlichkeit der Quantenwelt, sondern die Frage, wie sich aus dieser „wirklichen Wirklichkeit“ die Wirklichkeit unserer Makrowelt ergibt  – dieser Übergang ist eines der großen ungelösten Rätsel der modernen Physik! Der Erfolg der Quantentheorie setzt sich bis heute fort. An erster Stelle muss hier die Entwicklung des Standardmodells der Teilchenphysik genannt werden, welches die für die Radioaktivität verantwortliche schwache Kernkraft mit dem Elektromagnetismus vereinigt, und welches in allen Experimenten bisher immer wieder und immer genauer bestätigt wird. Aber auch im Alltag hat sich die Quantentheorie ihren festen Platz erobert, denn ohne sie gäbe es zahlreiche „High-Tech“ Anwendungen gar nicht (wie z. B. Laser-Scanner an der Supermarkt-Kasse). Schliesslich bietet sie faszinierende Ausblicke auf künftig mögliche technische Anwendungen, wie etwa Quantencomputer und Quantenkryptographie. Nahezu gleichzeitig mit der Quantentheorie erfolgte im November 1915 mit Einsteins Allgemeiner Relativitätstheorie eine weitere Revolution der Physik. Hiernach bilden Raum und Zeit nicht mehr nur die Bühne, auf der sich die physikalischen Vorgänge abspielen, sondern Raum und Zeit nehmen selbst teil am dynamischen Geschehen. Wie die Quantentheorie führt auch diese Entdeckung weit über unsere Anschauung hinaus: Ihr zufolge können Raum und Zeit so „verbogen“ werden, dass sich daraus in starken Gravitationsfeldern ganz neuartige Phänomene ergeben. Zu den spektakulärsten davon zählen Schwarze Löcher, die nach neuesten Erkenntnissen in großer Zahl im Weltall existieren. Erst vor Kurzem hat der direkte Nachweis von Gravitationswellen Einsteins Erkenntnisse triumphal bestätigt. Darüber hinaus kommt die moderne Kosmologie ohne Einsteins Gleichungen nicht mehr aus, denn diese sind unerlässlich, um die Dynamik und Evolution des Universums zu beschreiben. Und es ist die Kombination der Einsteinschen Theorie mit den Erkenntnissen der Quantentheorie und Teilchenphysik, die es uns erlaubt, die Entstehung und Entwicklung des Kosmos fast ganz vom Beginn an zu verstehen, wobei auch die neuesten Erkenntnisse vom Large Hadron Collider (LHC) in Genf eine zentrale Rolle spielen.

  Die Einheit der Physik 

13

Über die technischen Anwendungen hinaus hat die wissenschaftliche Methode es uns so ermöglicht, die Vorgänge der Natur über einen ungeheuren Abstandsbereich zu verstehen. Die „Einheit der Wirklichkeit“ bedeutet damit auch, dass die Gesetze der Physik, soweit wir sie kennen, in weit entfernten Galaxien und über den gesamten Zeitverlauf des Universums genau so Gültigkeit haben, wie wir sie hier auf der Erde kennen, worauf bisher alle Beobachtungen hindeuten. Und doch wissen wir, dass Quantenfeldtheorie und Allgemeine Relativitätstheorie nicht das letzte Wort sein können: beide Theorien tragen den Keim ihrer Unvollständigkeit bereits in sich. Bei der Relativitätstheorie zeigt sich diese in der Form von „Raumzeit-Singularitäten“, während das Standardmodell der Teilchenphysik (jenseits der Stõrungstheorie) in einem strengen mathematischen Sinne überhaupt nicht existiert. Die Risse, von denen wir im Zusammenhang mit der Physik des 19ten Jahrhunderts gesprochen hatten, zeigen sich nun auch im Fundament der modernen Physik! In den vergangenen Jahrzehnten ist die Suche nach einer konsistenten Vereinigung von Allgemeiner Relativitätstheorie und Quantentheorie immer mehr in den Fokus der Forschung gerückt [1–4]. Trotzdem sind wir der Lösung selbst nach 40 Jahren einer beispiellosen und weltumspannenden kollektiven intellektuellen Anstrengung, die unter anderem zur Entwicklung der Stringtheorie und anderer Ansätzen zu einer Theorie der Quantengravitation geführt hat, nicht wirklich näher gekommen: Einsteins Allgemeine Relativi­ tätstheorie und die Quantentheorie passen einfach nicht zusammen. Das zeigt sich zum einen in den mathematischen Formeln: das quantenfeldtheoretische Regelwerk auf die Gravitationsfeldgleichungen anzuwenden, führt zu scheinbar unauflösbaren Widersprüchen in Form von Unendlichkeiten in den mathematischen Ausdrücken. Zum anderen will sich die Einstein’sche Theorie nicht in das von der Quantentheorie vorgegebene begriffliche Rahmenwerk einfügen. So basiert sie immer noch auf der Vorstellung, dass Raum und Zeit im Prinzip in beliebig kleine Einheiten zerteilt werden können, also ein Kontinuum bilden  – im Widerspruch zu der von der Quantentheorie postulierten Körnigkeit aller Materie, die sich letztlich auch auf Raum und Zeit selbst auswirken sollte. Die moderne Kosmologie fügt diesen ungelösten Problemen weitere Fragen hinzu. So versagt zum Beispiel die etablierte Kopenhagener Deutung (siehe den Beitrag von Günter Werth), wenn wir versuchen, die Quantentheorie auf den Kosmos als Ganzes anzuwenden und das Universum als ein einziges Quantensystem zu begreifen. Und wie sollen wir in diesem Kontext Raum und Zeit verstehen? Als unteilbar, oder aber als körnig mit einer kleinsten Länge, als begrenzt – aber was ist dann hinter der Grenze? Oder als unbegrenzt beziehungsweise unendlich – aber was zeichnet im Unendlichen einen konkreten Ort aus? Ferner stellt sich

14 

H. Nicolai

die Frage, was „vor dem Urknall“ war? Oder gab es vorher gar keine Zeit? Und angesichts des Unterschieds von Quantenwelt und Makrokosmos rätseln wir weiter darüber, ob wir es mit einer einzigen Welt zu tun haben oder ob wir in einer von unzähligen möglichen Welten leben. Hinzu kommen unerklärte Phänomene wie die „Dunkle Energie“, das heißt die beobachtete beschleunigte Expansion des Universums – eine Art Anti-Gravitation, die eng mit dem seit Einstein ungelösten Problem der kosmologischen Konstante zusammenhängt und so gar nicht zu den gängigen theoretischen Ansätzen passen will. Die kosmologische Konstante hatte Einstein eingeführt, um die als selbstverständlich vorausgesetzte Stabilität des Universums zu erklären; später, als sich he­ rausstellte, dass das Universum gar nicht statisch ist, hat er sie als die „grösste Eselei“ seines Lebens verworfen. Alle diese offenen Fragen weisen darauf hin, dass uns nicht nur entscheidende experimentelle Hinweise fehlen, sondern dass wir sehr wahrscheinlich bisher nicht über die richtigen Konzepte und auch nicht die „richtige“ Mathematik verfügen. Ein möglicher Zugang könnte auf einer Erweiterung der Symmetriebegriffe beruhen, welche bei der Entwicklung der Allgemeinen Relativitätstheorie und des Standardmodells der Teilchenphysik bereits ihre Schlagkraft bewiesen haben. Faszinierende Hinweise auf eine solche Symmetrievergrößerung, die weit über die bekannten Symmetriekonzepte hinausgeht, haben sich beim Studium des Verhaltens von Lösungen der Einstein Gleichungen nahe einer Singularität  ergeben – das heißt bei fast unendlicher Raumkrümmung [5]. Allerdings stossen wir damit auch in unwegsames und unerforschtes Gelände der modernen Mathematik vor. Auf der Seite der Experimentalphysik richten sich die gegenwärtigen Bemühungen auf die Suche nach Abweichungen von den bekannten Gesetzen der Physik, in der Elementarteilchenphysik am LHC Beschleuniger in Genf ebenso wie bei der Suche nach neuen Phänomenen in den Weiten des Weltalls – bisher jedoch ohne den geringsten Erfolg. So bleibt die Frage offen, ob sich die gesamte Physik aus einem einzigen Prinzip – Stichwort „Weltformel“ – erklären lässt, oder ob dieser „heilige Gral der Physik“ auf ewig ein Traum bleiben wird. Albert Einstein hat der Suche nach der Einheit der Physik in einer vergeblichen Anstrengung die letzen 25 Jahre seines Lebens gewidmet. Bereits 1929 formulierte er die „Sehnsüchte der Theorie“: 1. Möglichst alle Erscheinungen und deren Zusammenhänge zu umfassen (Vollständigkeit). 2. Dies zu erreichen unter Zugrundelegung möglichst weniger, von einander logisch unabhängiger Begriffe und willkürlich gesetzter Relationen zwischen diesen (logische Einheitlichkeit).

  Die Einheit der Physik 

15

Dies gilt bis heute unverändert! Einstein fährt fort: „Grob aber ehrlich kann ich das zweite Desideratum auch so aussprechen: Wir wollen nicht nur wissen, wie die Natur ist (und wie ihre Vorgänge ablaufen), sondern wir wollen nach Möglichkeit auch das vielleicht utopisch und anmassend erscheinende Ziel erreichen zu wissen, warum die Natur so und nicht anders ist.“

Viel später äußerte er, er wolle „dem Alten auf die Schliche kommen“ und herausfinden, ob „Gott eine Wahl bei der Erschaffung der Welt hatte“. Aber er blieb sich stets bewußt, dass der Weg dorthin sehr weit sein würde und wir dieses Ziel womöglich nie würden erreichen können. Die Einheit der Naturgesetze bleibt die größte Herausforderung der Physik im 21. Jahrhundert.

Was ist Raum, Zeit – und was Bewegung? Von den klassischen Konzepten zur Idee einer Raumzeit Dennis Lehmkuhl

Was ist Raum? Was ist Zeit? Viele Antworten auf beide Fragen ziehen sich durch die Geschichte, und in beinahe jedem Fall sind die Antworten mit dem Nachdenken über eine dritte Frage verbunden – einer Frage, die Raum und Zeit in Beziehung setzt: Was ist Bewegung? Schon eine vortheoretische Überlegung zum Wesen des Begriffs kommt schnell zu der Überzeugung, dass die Bewegung eines Körpers immer Bewegung durch den Raum in einer bestimmten Zeit ist. Schon Plato schloss an die Frage nach dem Wesen der Bewegung eine Unterscheidung an, die bis heute kursiert. Sie zieht sich durch die Entwicklung der aristotelischen Bewegungslehre, der klassischen Physik, wie sie vor allem Galileo Galilei, René Descartes, Isaac Newton und Gottfried Wilhelm Leibniz begründet haben, bis in die Einsteinsche Spezielle und Allgemeine Relativitätstheorie hinein: die Unterscheidung von natürlicher und erzwungener Bewegung. Laut Aristoteles war die natürliche Bewegung eines Körpers durch seinen natürlichen Ort gegeben. Was dieser natürliche Ort eines Körpers war, wurde durch seine Zusammensetzung aus den fünf fundamentalen Elementen in Aristoteles’ Ontologie bestimmt: Feuer, Erde, Luft, Wasser und Äther. So war der natürliche Ort von Körpern, die (vor allem) aus Erde bestanden (eigentlich alle Festkörper), das Zentrum des (geozentrischen) Universums, so dass sich solche Körper von uns aus gesehen nach unten bewegen. Der natürliche D. Lehmkuhl (*) Institut für Philosophie, Friedrich-Wilhelms-Universität Bonn, Bonn, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_3

17

18 

D. Lehmkuhl

Ort von Körpern, die vor allem aus Luft bestanden, war dagegen über uns. Solche Körper, etwa Rauch und andere Gase, bewegen sich von uns aus gesehen nach oben. In Aristoteles‘ Gedankenwelt konnten aber bestimmte Kräfte jeden Körper von seiner natürlichen Bewegung abhalten; so können wir etwa Festkörper an ihrer Bewegung zu ihrem natürlichen Ort hindern, indem wir sie mit der Hand festhalten. Ein in der Hand gehaltener Festkörper kann sich nicht mehr zum Zentrum der Erde bewegen, er befindet sich somit in einem erzwungenen Bewegungszustand. Laut Aristoteles waren die einzigen Körper, die aus dem Element Äther bestehen, die Himmelskörper: die Sterne und Planeten. Damit wurde die Ontologie zweischichtig: Irdische Körper, die aus Erde, Feuer, Luft und Wasser bestanden, gehorchten fundamental anderen mechanischen Gesetzen als himmlische Körper aus Äther. Auf dieser Theorie basierten viele scholastische Überlegungen zur Natur von Raum, Zeit und Bewegung im Mittelalter. Der erste Denker, der mit zentralen Prämissen dieser Lehre brach, war Galileo Galilei. Der war zum einen natürlich ein leidenschaftlicher Kopernikaner, der glaubte, dass die Sonne im Zentrum des Sonnensystems stehe und sich die Erde wirklich in Bezug auf die Sonne bewege. Zum anderen war er der Erste, der eine quantitative Theorie der Bewegung für (irdische) Körper entwickelte. Zwar übernahm Galilei die polare Unterscheidung zwischen zwei Arten von Bewegung aus der aristotelischen Lehre – nur füllte er sie ganz anders aus: Laut Galilei sind die natürlichen Bewegungen aller Körper kreisförmig. Für Körper auf der Erde bedeutet das, dass ihre natürliche Bewegung konzentrischen Bewegungen entlang der Erdoberfläche folgt, wobei angenommen wird, dass die Erde selbst eine Kugel ist. Für Planeten sah Galilei die kreisförmige Bewegung um die Sonne als ihre natürliche Bewegung an. Das Wichtigste an der Unterscheidung zwischen natürlichen und erzwungenen Bewegungen ist, daß sie bestimmt, welche Bewegungen erklärt werden müssen. Natürliche Bewegungen müssen nicht erklärt werden; sie sind ja gerade die Standardbewegungen, denen ein Körper folgt, wenn es keine Gründe gibt, sich anders zu bewegen. Erzwungene Bewegungen dagegen benötigen eine Erklärung; schließlich muss es einen Grund geben, warum sich ein Körper gerade so bewegt, wie er es tut, statt der Standardbewegung zu folgen. Da nun Galilei kreisförmige Bewegungen als Standardbewegungen deklariert hatte, brauchte es keinen weiteren Grund, warum sich die Planeten auf Kreisen um die Sonne bewegen – erklärt werden müsste in Galileis Theorie nur, wenn sie sich nicht auf Kreisen bewegten. Die Galileische Theorie, dass kreisförmige Bewegung natürliche Bewegung sei, erfuhr einen schweren Schlag durch die Arbeiten von Johannes Kepler.

  Was ist Raum, Zeit – und was Bewegung? 

19

Selbst stark von der Perfektion der kreisförmigen Bewegung überzeugt, sah sich Kepler doch durch immer genauere astronomische Beobachtungen ­gezwungen, das kopernikanische Modell so zu modifizieren, dass sich die Planeten nicht auf Kreisen, sondern auf Ellipsen um die Sonne bewegen. Durch diese Modifikation wurde das kopernikanische Model erstmals empirisch präziser als das geozentrische Model. So wie Galilei die Unterscheidung zwischen natürlichen und erzwungenen Bewegungen von Aristoteles übernahm und den Inhalt der Unterscheidung umschrieb, so übernahm René Descartes diese Unterscheidung von Galilei. Aber während Galilei die kreisförmigen Bewegungen als die natürlichen Bewegungen ansah, deklarierte Descartes nun die geradlinigen Bewegungen als die natürlichen Bewegungen. Descartes war auch der erste, der ein Trägheitsgesetz einführte, das besagt, dass nur Kräfte einen Körper aus der Ruhe oder von einer geradlinigen Bewegung abbringen können. Isaac Newton schließlich übernahm dieses Trägheitsgesetz von Descartes, und wir nennen es heute das erste Newton’sche Gesetz. Newton sah allerdings auch gleich mehrere Probleme mit dem Trägheitsgesetz: Anders als Galilei musste Newton nun erklären, also einen physikalischen Grund angeben, warum eine Kanonenkugel einer parabelförmigen Bahn folgt und warum sich die Planeten auf Ellipsen bewegen. Newtons grosse Einsicht war, dass er beide Fragen mit demselben physikalischen Grund erklären konnte: die Abweichung von geradliniger Bewegung bei Körpern auf der Erde konnte durch die auf diese ausgeübte Gravitationskraft der Erde erklärt werden, die Abweichung von geradliniger Bewegung bei den Planeten durch die auf diese ausgeübte Gravitationskraft der Sonne. Wie radikal diese Idee war, lässt sich nur dann verstehen, wenn man sich klar macht, für wie lange angenommen wurde, dass die Naturgesetze für irdische Körper von ganz anderer Art seien als die Naturgesetze für himmlische Körper – für Planeten! Neben einer Theorie der Bewegung hatte Descartes auch eine Theorie des Raumes vorgeschlagen. Er glaubte, dass die primäre Qualität von Raum und Materie ihre Ausdehnung sei, und dass deswegen Raum und Materie identifiziert werden müssten. Newton dagegen argumentierte, dass Descartes’ Theorie des Raumes und seine Theorie der Bewegung (die auf dem Trägheitsgesetz basierte) nicht miteinander funktionierten. Descartes hatte zwischen zwei Arten von Bewegung unterschieden: „Bewegung im gewöhnlichen Sinne“, durch die ein Körper sich von einem Ort zum anderen bewegt, und „Bewegung im strengen Sinne“, durch die ein Körper von der Nachbarschaft jener Köper, die sich mit ihm in unmittelbarem Kontakt befinden und die als in Ruhe betrachtet werden, in die Nachbarschaft anderer Körper kommt.

20 

D. Lehmkuhl

Newton deutete dies so, als werde postuliert, ein Köper bewege sich nur dann wirklich, wenn er sich in relativer Bewegung zu den Körpern in seiner unmittelbaren Nachbarschaft befindet. Daraufhin kritisierte Newton, dass Descartes’ Definition es nicht erlaube, am Ende der Bewegung eines Köpers zu identifizieren, durch welche Orte sich dieser Körper bewegt hatte. Deswegen gebe es keine Möglichkeit zu sagen, ob er sich auf einer geraden Linie bewegt habe oder nicht. Und deswegen kann man nicht sagen, ob es sich um eine natürliche (gerade) Bewegung oder um eine erzwungene Bewegung handle. Dieses Newton’sche Argument gegen Descartes kann wie folgt verallgemeinert werden: Jede Theorie der Bewegung von Körpern, die auf dem Trägheitsprinzip basiert, braucht eine Theorie von „wirklicher Bewegung“, die es erlaubt, einem Körper eine eindeutige wahre Bewegung zuzuschreiben. Hiervon ausgehend schlug Newton seinerseits seine eigene Definition von „wirklicher Bewegung“ in Bezug auf den (absoluten) Raum vor. Dabei muss man sehen, dass Newton im historischen Kontext zwischen zwei Weltsystemen wählte: zwischen einer Version des antiken Atomismus inklusive der Annahme der unabhängigen Existenz von leerem Raum zwischen den Atomen einerseits und Descartes’ Identifizierung von Materie und Raum andererseits. Newton legte sich schließlich auf das Weltbild der antiken Atomisten als Fundament für seine neue Theorie der Bewegung fest: leerer Raum ist eine echte Entität. Aber was für eine Art von Entität? Vieles in der modernen Debatte dreht sich um die Frage, ob der Raum eine „Substanz“ ist, und Newton wird häufig als „Erz-Substanzialist“ beschrieben. Die Unterscheidung zwischen Substanzen und Eigenschaften, welche sowohl für Descartes als auch für Newton Teil ihres Hintergrundes bildet, geht auf Aristoteles zurück. Grob gesagt sind Substanzen die fundamentalen Entitäten, denen wir Eigenschaften zuschreiben. Wenn man annimmt, dass alles, was existiert, entweder eine Substanz oder eine Eigenschaft ist, stellt sich die Frage, was der Raum ist. An dieser Frage entzündete sich die große Debatte zwischen Gottfried Wilhelm Leibniz und Samuel Clarke (wobei letzterer sich eng mit Newton austauschte und als dessen Stellvertreter in der Debatte mit Leibniz gilt). Leibniz argumentierte, Newton habe mit der Einführung des absoluten Raumes einen zu großen Preis für seine Bewegungslehre bezahlt. Leibniz bestritt nicht, dass Raum existiert; nur dass dieser genauso fundamental wie Materie sei. Laut Leibniz ist der Raum nichts anderes als die Abstände zwischen materiellen Körpern, er ergibt sich aus den Relationen zwischen Körpern. Folglich gibt es für Leibniz ohne materielle Körper, zwischen denen sich der Raum erstreckt, keinen Raum.

  Was ist Raum, Zeit – und was Bewegung? 

21

Eine ähnliche Position vertrat Ernst Mach, der mit seinem Buch „Die Mechanik in ihrer Entwicklung: historisch-kritisch dargestellt“ Newtons Argumente für die Existenz des absoluten Raumes im Detail angriff. Dieses Buch hatte einen starken Einfluss auf Albert Einstein, der es mit seiner Lesegruppe in Bern – der „Academie Olympia“ – zwischen 1902 und 1904 las. Auch Einstein meinte, dass Newton zu weit gegangen war, im Raum etwas Absolutes und Eigenständiges zu sehen: Für Einstein, wie für Leibniz und Mach, schien die Behauptung, dass sich ein Körper bewege, nur dann sinnvoll, wenn er sich in Bezug auf etwas bewegte. Und dieses etwas durfte kein im Prinzip unbeobachtbares Objekt wie Newtons absoluter Raum sein; es musste ein echter, materieller Körper sein. So besann sich Einstein mehr auf Galilei als auf Newton. In seiner Speziellen Relativitätstheorie machte er Galilei’s Relativitätsprinzip der Bewegung zu einem seiner beiden Ausgangspunkte: Die ein physikalisches System regierenden Naturgesetze sind unabhängig von der Geschwindigkeit, so sie konstant ist, mit der sich der Körper in Bezug auf andere Köper bewegt oder nicht bewegt. Dies bedeutete, dass es für Einstein anders als für Newton keine objektive Tatsache war, ob sich ein gegebener Körper mit einer konstanten Geschwindigkeit von 50 oder 1000 Kilometer in der Stunde bewegt oder ob er stillsteht; es ist nur eine Frage, mit welcher Geschwindigkeit der Beobachter sich selbst als bewegend annimmt. Einsteins zweiter Ausgangspunkt in der Speziellen Relativitätstheorie war das Prinzip von der Konstanz der Lichtgeschwindigkeit. Es besagt, dass die Geschwindigkeit eines Lichtstrahls für alle Beobachter dieselbe ist, unabhängig von der Bewegung des Beobachters. So wie er das Relativitätsprinzip aus der klassischen Mechanik importierte, so übernahm er das Prinzip von der Konstanz der Lichtgeschwindigkeit von Hendrik Antoon Lorentz’ Elektronentheorie (also der komplettierten Maxwell‘schen Elektrodynamik), in der das Prinzip als Konsequenz abgeleitet werden konnte. Einstein erhob dieses Prinzip neben dem Relativitätsprinzip zu einem weiteren Postulat, mit dem Ziel, die klassische Mechanik mit der Elektrodynamik zu vereinheitlichen oder doch die Widersprüche zwischen den beiden Theorien zu überwinden. Dabei indes stieß er auf ein neues Problem: Auf den ersten Blick scheinen sich seine beiden Prinzipien zu widersprechen. Denn führt nicht das Lichtprinzip eine absolute Geschwindigkeit ein (nämlich die Lichtgeschwindigkeit) und widerspricht damit dem Relativitätsprinzip? Nach vielem Kopfzerbrechen sah Einstein schließlich einen Weg aus dem Dilemma, wahrscheinlich inspiriert durch seinen Kollegen am Patentamt (und lebenslangen Freund) Michele Besso. Der Widerspruch ließe sich auflösen, wenn man eine bis dahin noch nie explizit gemachte Annahme über

22 

D. Lehmkuhl

das Wesen der Zeit fallen ließ: die Absolutheit der Gleichzeitigkeit. Auch sie wurde nun zu etwas Relativem: Ob zwei Ereignisse gleichzeitig stattfinden oder nicht wurde abhängig davon, mit welcher relativen Geschwindigkeit sich die die Ereignisse wahrnehmenden Beobachter bewegen. Damit war ein Damm gebrochen: Einstein konnte nun auch die schon vorher von Lorentz eingeführte Kontraktion von Längen (wiederum in Abhängigkeit vom Bewegungszustand des Beobachters) und der Dehnung von Zeiträumen (ebenso) auf ganz neue, einfache Weise ableiten. Der Name „Relativitätstheorie“ scheint also sehr angemessen: Einstein hatte Geschwindigkeit, Gleichzeitigkeit, räumlichen Abstand und zeitliche Dauer relativiert. Er hatte aber auch etwas Neues, Tieferliegendes, Absolutes gefunden: Kombinierte Raum- und Zeitabstände waren in der neuen Theorie absolut. Einsteins früherer Lehrer Hermann Minkowski führte dann auch schnell eine Repräsentation der Speziellen Relativitätstheorie ein, mit einer neuen Entität, der Raumzeit, die nunmehr genauso absolut und unverrückbar war, wie vormals der absolute Raum und die absolute Zeit in der Newton’schen Theorie je für sich. Einstein war das durchaus nicht recht, und die Spezielle Relativitätstheorie für ihn dann auch sicher nicht das letzte Wort. Schnell wurde auch klar, dass Einstein zwar die Disziplinen der Mechanik (die Wissenschaft der Bewegung von Körpern) und der Elektrodynamik (die Wissenschaft von Licht, elektromagnetischen Feldern) in Einklang gebracht hatte, die neue Theorie aber einen neuen Widerspruch mit sich brachte. Die Spezielle Relativitätstheorie widersprach der Newton’schen Gravitationstheorie, in der sich die Gravitationswechselwirkung unmittelbar mit unendlich großer Geschwindigkeit ausbreitet, was der Relativität der Gleichzeitigkeit widerspricht. Und neben dieser Baustelle sah Einstein noch eine weitere: Die Spezielle Relativitätstheorie relativierte eben nur gleichförmige Bewegungen; beschleunigte Bewegung war in der neuen Theorie genauso objektiv/absolut wie in der Newtonschen Theorie. Zwei Jahre nach der Veröffentlichung der Speziellen Relativitätstheorie hatte Einstein dann eine Einsicht, die er später den glücklichsten Gedanken seines Lebens nannte: die Idee, dass die beiden Baustellen etwas miteinander zu tun haben. Der Gedanke kam wie bei ihm so oft in Form eines Gedankenexperimentes, das auf ein weiteres allgemeines Prinzip hindeutete: das Äquivalenzprinzip. Dieses ist wie das Relativitätsprinzip ein Ununterscheidbarkeitsprinzip. Während das spezielle Relativitätsprinzip sagt, dass unbeschleunigte Bewegungen mit unterschiedlichen Geschwindigkeiten nicht experimentell unterscheidbar sind, sagt das Äquivalenzprinzip, dass es unmöglich sei, zwischen einer gleichförmigen Beschleunigung und einem homogenen Gravitationsfeld

  Was ist Raum, Zeit – und was Bewegung? 

23

zu unterscheiden. Ein Beispiel: Wenn man in einem fensterlosen Raum aus einem tiefen Schlaf aufwacht, normal aufsteht und sich auf den Boden stellt, so gibt es zwei mögliche Erklärungen für die Kraft, die man da fühlt. Entweder man befindet sich in Bezug auf die Erde in Ruhe und spürt die gewohnte Gravitationskraft, die einen mit 9,81 m/s2 zum Zentrum der Erde hin beschleunigt. Oder aber man steht nicht auf der Erde, sondern befindet sich im Weltraum, und das Zimmer – vielmehr ein Kasten – beschleunigt mit 9,81 m/s2 in der Richtung, in der wir einen Pfeil von unseren Füssen zu unserem Kopf zeichnen würden. Eine homogene Gravitationskraft und eine gleichförmige Trägheitskraft lassen sich nicht voneinander unterscheiden. Für Einstein drückte diese Idee nun zweierlei aus. Einerseits ergab sie die Möglichkeit, bestimmte beschleunigte Bewegungen (nämlich solche mit gleichbleibender Beschleunigung) mit bestimmten Ruhezuständen (nämlich solchen, in denen man sich in Ruhe befindet und einem homogenen Gravitationsfeld ausgesetzt ist) zueinander in Beziehung zu setzen. Damit wurde das Äquivalenzprinzip in Einsteins Gedankenwelt zu einer Ausdehnung des Relativitätsprinzips, es war auf halbem Weg zwischen dem speziellen Relativitätsprinzip und einem wirklich allgemeinen Relativitästprinzip, das besagt, dass alle Bewegungen relativ sind. Andererseits deutete die Idee auf eine enge Verbindung zwischen Gravitationskräften und Trägheitskräften hin. Nachdem ihn das Äquivalenzprinzip auf dem Weg zur Allgemeinen Relativitätstheorie wie eine Taschenlampe im Dunkeln ständig begleitet hatte, ging Einstein 1918 so weit zu sagen: Gravitation und Trägheit sind wesensgleich. Tatsächlich betrachtete Einstein dies als das Hauptresultat der Allgemeinen Relativitätstheorie. Während so gut wie jedes Lehrbuch heute die „Geometrisierung der Gravitation“, die Idee, dass Gravitation letzten Endes nichts anderes ist als ein Aspekt der Raumzeitstruktur, und dies als die wichtigste Konsequenz der Allgemeinen Relativitätstheorie bezeichnet, wand sich Einstein explizit gegen diese Interpretation seiner Theorie. Für ihn war die geometrische Beschreibung nichts anderes als ein mathematisches Werkzeug. Worauf es physikalisch ankam, so meinte er, war, dass Gravitations- und Trägheitsstruktur vereinheitlicht und von der Materieverteilung abhängig gemacht worden waren. Damit war nun auch, wie vorher der Raum und die Zeit als separate Entitäten, die Raumzeit ihrer Absolutheit beraubt. Für Einstein wurde sie damit in der Feldtheorie aufgelöst: So wie sich in der Maxwell’schen Theorie Licht als elektromagnetisches Feld herausgestellt hat, hat sich in Einsteins Deutung der Allgemeinen Relativitätstheorie die Raumzeit als Gravitationsträgheitsfeld entpuppt. Als weiterführende Literatur seien die Publikationen [6–15] empfohlen.

Würfelt Gott doch? Der Bereich der Quanten und das Gesetz von Ursache und Wirkung Günter Werth

Es scheint, dass der Zufall in unserem Leben eine wesentliche Rolle spielt: Wen wir „zufällig“ treffen, was wir „zufällig“ entdecken, oder ob die Lottozahlen „zufällig“ mit denen auf unserem Zettel übereinstimmen  – all dies kann in unserem Leben eine entscheidende Rolle spielen. Allgemein verstehen wir unter Zufall Abläufe, die nicht auf einer deterministischen Beziehung von Ursache und Wirkung beruhen, sondern nur den Gesetzen der Wahrscheinlichkeit unterliegen. Wie willkürlich in diesem Sinne sind dann Ereignisse in unserer makroskopischen Welt? Nehmen wir als einfaches Beispiel das Würfelspiel. Sind die Würfel perfekt gearbeitet, können wir nicht voraussagen, welche Zahl beim Werfen fällt. Wir stellen lediglich fest, dass nach vielem Würfeln jede Zahl mit großer Wahrscheinlichkeit annähernd gleich häufig gefallen ist, das Ergebnis jeden einzelnen Wurfes erscheint dagegen zufällig. Diese scheinbare Zufälligkeit würde jedoch verschwinden, würden wir bei jedem Wurf die Randbedingungen genau kennen. Die Position des Würfels in der Hand, die Geschwindigkeit, mit der er die Hand verlässt, der Drehimpuls, den wir ihm mitgeben, die Höhe über dem Tisch und vieles mehr, letztlich sogar die Bewegung der Luftmoleküle, mit denen er bei seinem Fall zusammenstößt, beeinflussen das Ergebnis. Sind alle diese Parameter genau bekannt, ist das Ergebnis klar vorherbestimmt und von Zufall kann keine Rede mehr sein. Nur die Tatsache, G. Werth (*) Institut für Physik, Johannes-Gutenberg-Universität Mainz, Mainz, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_4

25

26 

G. Werth

dass wir die entscheidenden Parameter nicht genau kennen, lässt uns vom Zufall sprechen. Dieses einfache Beispiel lässt sich verallgemeinern. Der französische Mathematiker und Physiker Pierre-Simon Laplace hat es zu Beginn des 19. Jahrhunderts auf den Punkt gebracht: „Eine Intelligenz, die in einem gegebenen Augenblick alle Kräfte kennt, mit denen die Welt begabt ist, und die gegenwärtige Lage der Gebilde, die sie zusammensetzen, und die überdies umfassend genug wäre, diese Kenntnis der Analyse zu unterwerfen, würde in der gleichen Formel die Bewegungen der größten Himmelskörper und die des leichtesten Atoms zusammenfassen. Nichts wäre für sie ungewiss, Zukunft und Vergangenheit lägen klar vor Augen.“

Offensichtlich existiert eine solche „Intelligenz“ nicht und wegen der Vielzahl der Orte, Geschwindigkeiten und gegenseitigen Wechselwirkungen ist dies auch praktisch nicht möglich. Aber die auf dieser Annahme beruhenden, von Isaac Newton eingeführten naturwissenschaftlichen Methoden der Formalisierung, der Vorhersage und ihrer experimentellen Bestätigung ist die Grundlage dafür, dass sich Naturwissenschaft und Technik so erfolgreich entwickelt haben. In diesem System werden also alle Wirkungen letztlich auf lokale Einflüsse wie Temperatur, Druck, Licht und vieles mehr zurückgeführt. Was wir heute „klassische Physik“ nennen, wird entsprechend als „lokale Theorie“ bezeichnet. Der Begriff „lokal“ kann sich dabei auf beliebig große Räume beziehen, solange sich die Ausbreitungsgeschwindigkeiten der Einflüsse mit den Wirkungen in Einklang bringen lassen. Dieser Theorie liegt ein bestimmter Begriff von „Realität“ zugrunde, die besagt, dass die Eigenschaften eines Objektes unabhängig vom Menschen und seinen Beobachtungen existieren. „Der Mond ist auch da, wenn gerade niemand hinschaut.“ In einer realen physikalischen Theorie werden durch Messung also nur Werte physikalischer Größen abgelesen, die zuvor schon feststanden. In der atomaren Welt gibt es jedoch Phänomene, die sich dem System von Ursache und Wirkung zu entziehen scheinen. Der radioaktive Zerfall eines Atomkerns lässt sich nicht vorausgesagten. Wir können mit einer gewissen Wahrscheinlichkeit sagen, nach welcher Zeit aus einer großen Zahl identischer Atomkerne die Hälfte zerfallen sein wird – welcher der Kerne aber wann zerfällt, scheint dem reinen Zufall überlassen. Ähnlich verhält es sich beim spontanen Zerfall eines angeregten Energiezustandes in Atomen oder Molekülen. Einstein hat sich damit nie anfreunden können: „Gott würfelt nicht.“ Die naheliegende Erklärung wäre, dass es noch Parameter gibt, die uns zurzeit unbekannt sind. Würden wir diese kennen, könnten wir möglicherweise nicht

  Würfelt Gott doch? 

27

nur eine statistische, sondern eine präzise Voraussage über den Zerfallsmoment eines individuellen Kerns treffen. Vor allem ein quantenmechanisches Phänomen belebte die Diskussion über solche „verborgenen Parameter“: die „Verschränkung“, ein Begriff, den Erwin Schrödinger 1935 prägte [16]. In der Quantenphysik wird ein Teilchen durch eine Wellenfunktion beschrieben. Bei zwei Teilchen lässt sich in der Regel diese Funktion durch eine Linearkombination der Wellenfunktionen der einzelnen Teilchen darstellen. Es gibt jedoch Ereignisse, bei denen zwei Teilchen entstehen, deren Eigenschaften miteinander korreliert sind. Sie lassen sich dann nur durch eine gemeinsame Wellenfunktion beschreiben, die sich nicht in einzelne Teilfunktionen aufspalten lässt. Beispielsweise gibt es angeregte Energiezustände in Atomen, die durch gleichzeitiges Aussenden zweier Photonen in den Grundzustand zerfallen. Die Eigenschaften dieser Photonen sind streng korreliert. Wird durch eine Messung eine Eigenschaft eines der Photonen festgestellt, so liegt die entsprechende Eigenschaft des zweiten Photons im gleichen Augenblick fest, unabhängig davon, wie weit beide Photonen voneinander entfernt sind. Die Gleichzeitigkeit schließt ein Einwirken des ersten Teilchens auf das zweite aus – ein Geschehen, das einem von Ursache und Wirkung geprägten Weltbild widerspricht. Die Existenz von solchen Verschränkungen wurde in zahlreichen Experimenten festgestellt, teils über Entfernungen von vielen Kilometern. Die meisten dieser Versuche nutzen Photonen, die durch sogenannte „parametric downconversion“ erzeugt werden. Dabei werden aus einem Photon in einem nichtlinearen optischen Kristall zwei Photonen mit der jeweils halben Energie erzeugt. Beide Photonen müssen die gleiche Polarisation haben, das heißt, die elektrischen Felder aller Photonen oszillieren in der gleichen Ebene, deren Richtung jedoch unbekannt ist. Durch Einschalten eines Polarisationsfilters in den Strahlengang eines der Photonen kann dessen Polarisationsrichtung festgelegt werden. Es zeigt sich, dass dann die Polarisationsrichtung des zweiten Photons ebenfalls festgelegt ist, obwohl es keinerlei Informationsaustausch zwischen den Teilchen gab. Um auszuschließen, dass die Information über die Richtung der Polarisation bereits bei Entstehen der Photonen für beide Teilchen festgelegt ist, wird die Durchlassrichtung des Polarisationsfilters für das erste Photon erst nach der Aussendung der Photonen durch einen Zufallsgenerator festgelegt. Ähnlich verhält es sich mit den Spins, den inneren Drehimpulsen zweier Atome, die in einem Molekül verbunden sind. Wird etwa ein zweiatomiges Molekül, bei dem sich die Spins aller Elektronen zu null addieren, durch Anregung mit einem Laser in die beiden einzelnen Atome aufgespalten, so sind die beiden Spins der beiden Atome verschränkt. Eine Messung der Spinrichtung in einem der Atome legt die Richtung des anderen fest, so

28 

G. Werth

dass die Gesamtsumme wieder null ergibt. Demnach ist die Messung an einem Teilsystem als Messung am Gesamtsystem anzusehen. Albert Einstein, Boris Podolsky und Nathan Rosen zeigten 1935 in einer Publikation [17], dass eine solche Quantenverschränkung das klassische Prinzip des lokalen Realismus verletzt. „Lokalität“ heißt, dass es eine kausale Beziehung zwischen Ereignissen gibt, auch wenn diese räumlich weit vonei­ nander getrennt sind. In den obigen Beispielen hieße das: Es muss eine Informationsübertragung zwischen den beteiligten Teilchen geben, das erste Teilchen teilt dem zweiten das Ergebnis der Messung quasi mit. Eine solche Wechselwirkung ist aber bei hinreichend großer Entfernung zwischen ihnen ausgeschlossen, es sei denn, es gäbe eine Informationsübertragung mit Überlichtgeschwindigkeit. In einem bekannten Zitat sprach Einstein von einer „spukhaften Fernwirkung“. Realismus meint an dieser Stelle, dass die Messergebnisse eine Folge von Eigenschaften sind, die das System vor und unabhängig von der Messung trägt. Dies ist in der Quantenmechanik insofern verletzt, als dass die Messung an einem Teilsystem die Eigenschaft eines weit entfernten Systems ändert. Sie ist dann nicht mehr unabhängig von der Messung. Der Zufall, welche der Eigenschaften an einem Teilsystem gemessen wird, spielt also eine entscheidende Rolle für die Eigenschaft des nicht gemessenen Teilsystems. Einstein forderte indes Lokalität und Realismus als wesentliche Bestandteile einer gültigen Theorie, wie sie auch in seiner Allgemeinen Relativitätstheorie verankert waren, und sah die Quantenmechanik als unvollständige Theorie an. Er äußerte die Vermutung, dass es „verborgene Parameter“ geben müsse, die bereits bei der Entstehung der korrelierten Teilchenpaare ihre Eigenschaften unabhängig von ihrer Messung festlegen. Der Physiker John Bell erkannte 1964, dass sich diese Frage experimentell beantworten lässt [18]. Die entsprechenden Experimente, wie sie etwa an korrelierten Photonenpaaren durchgeführt wurden, bestehen aus einer Reihe von Polarisationsfiltern mit unterschiedlichen Polarisationsrichtungen, durch die verschränkte Photonen hindurchgehen. Gäbe es verborgene Parameter, die die Eigenschaft der Photonen bei ihrer Entstehung komplett festlegten, so wäre damit vorherbestimmt, ob ein Photon eine bestimmte Kombination von Polarisationsfiltern passiert oder nicht, und das gleiche gilt auch für das zweite der verschränkten Photonen. Bei bestimmten Stellungen der Polarisatoren wären deshalb mehr durchgelassene Photonen zu beobachten als bei anderen. Gibt es jedoch keine solchen verborgenen Parameter, so ist die Zahl der durchgelassenen Photonen für beide Seiten rein durch statistisch berechenbare Wahrscheinlichkeiten gegeben. Zahlreiche Experimente [19, 20] mit unterschiedlichen Verfahren haben gezeigt: die Ergebnisse sind mit der Annahme von verborgenen Parametern

  Würfelt Gott doch? 

29

nicht vereinbar. Vielmehr bestätigte sich die Annahme, dass die Quantentheorie keine Aussagen über das Ergebnis einer einzelnen Messung macht, sondern nur die Wahrscheinlichkeiten von möglichen Resultaten vorhersagt. Dies entspricht der sogenannten Kopenhagener Interpretation der Quantenmechanik, wie sie Niels Bohr und Werner Heisenberg formuliert haben. Hiernach deutet der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht auf eine Unvollkommenheit der Theorie hin, sondern drückt den prinzipiell indeterministischen Charakter quantenphysikalischer Vorgänge aus. Die Abwesenheit von verborgenen Parametern macht somit aus der Quantenmechanik eine nichtlokale Theorie, das heißt, der Zustand eines verschränkten Systems ist nicht lokalisiert, sondern erstreckt sich über das gesamte räumlich verteilte System. Die Frage ist jetzt: Besteht die quantenmechanische Verschränkung neben ihrer fundamentalen Bedeutung für Tests der Grundlagen der Quantenmechanik auch in der makroskopischen Welt? Oder beschränkt sie sich auf atomare Systeme? Tatsächlich erweist sich Verschränkung als sehr empfindlich gegenüber Störungen, wie sie Wechselwirkungen mit anderen Teilchen hervorrufen können. Da bei makroskopischen Systemen mit ihrer großen Anzahl von Atomen solche Wechselwirkungen sehr häufig auftreten, scheint es zunächst ausgeschlossen, dass sich eine existierende Verschränkung für längere Zeit oder für größere Entfernungen aufrechterhalten lässt. Mit geeigneten experimentellen Anordnungen gelingt es jedoch, auch über größere Distanzen Verschränkungen zu beobachten. So schaffte es eine Forschergruppe aus München, zwei Rubidium Atome über eine Entfernung von 400 Metern zu verschränken [21]. Noch weitaus größere Entfernungen lassen sich mit Licht realisieren. Ein Team um Anton Zeilinger in Wien hat zum Beispiel verschränkte Photonen von der Kanareninsel La Palma zum benachbarten Teneriffa teleportiert – über eine Strecke von 143 Kilometern [22]. Das hat bereits zu technologischen Anwendungen geführt: Verschränkte Quantenzustände lassen sich dazu benutzen, nahezu abhörsicher Informationen zwischen Partnern auszutauschen (Quantenkryptographie). Jeder Versuch, Informationen aus einem der Übertragungskanäle abzuhören, wäre eine Störung, die die Verschränkung zerstört – Sender und Empfänger würden dies sofort bemerken. Auch in der Biologie könnte das Phänomen der Verschränkung eine Rolle spielen. Bestimmte Beobachtungen der Energieübertragung in biologischen Makromolekülen bei der Fotosynthese lassen sich möglicherweise nur erklären, wenn man eine Verschränkung der Photonen über den Bereich eines Moleküldurchmessers annimmt – trotz der in solchen Systemen existierenden Störungen durch die thermische Bewegung der Umgebung. Rund um diese Fragen entsteht aktuell das neue Forschungsgebiet der Quantenbiologie [23].

30 

G. Werth

Einstein hat vermutet, dass eine gültige Theorie lokal und realistisch sein müsse. Das heißt: das Prinzip von Ursache und Wirkung gilt ohne Ausnahme und die Eigenschaften eines Systems sind bei seiner Entstehung festgelegt. Für die Quantenmechanik gilt dies nicht, wie die Verschränkung zeigt. Die Natur ist also grundsätzlich nicht deterministisch, sie kann echten Zufall hervorbringen. Warum wissen wir nicht. Einsteins Folgerung, es müsse „verborgene Parameter“ geben, die die Quantenmechanik zu einer lokalen realistischen Theorie machen, ist experimentell widerlegt. Die Diskussionen jedoch, die sich aus seinen Überlegungen ergaben, haben zu einem tieferen Verständnis der Quantenmechanik geführt. Und die Experimente, die zur Prüfung seiner Annahme ersonnen wurden, wurden derart weiterentwickelt, dass sich bereits jetzt technologische Anwendungen für unseren Alltag ergeben – wie zum Beispiel bei der Verschlüsselung von Nachrichten.

Strukturen im Kosmos Die inflationäre Phase unseres Universums Matthias Bartelmann

Das Standardmodell der Kosmologie Der Ausschnitt des Universums, den wir in unserer kosmischen Nachbarschaft beobachten können, ist reich strukturiert. Wir leben auf einem Planeten, der Teil unseres Sonnensystems ist. Die Sonne selbst ist einer von vielleicht hundert Milliarden Sternen in der Milchstraße, deren aus dem Griechischen abgeleitete Bezeichnung „Galaxis“ der Gesamtheit der etwa tausend Milliarden von Galaxien im Kosmos ihren Namen gab. Unsere Heimatgalaxie, eine ausgeprägte Spiralgalaxie, wird von einigen kleinen Galaxien begleitet, die erheblich weniger strukturiert und wesentlich kleiner sind. Mit ihren Begleitern ist die Milchstraße ein Teil der „Lokalen Gruppe“, einer Ansammlung von Galaxien, zu denen mit dem Andromedanebel auch eine Galaxie gehört, die der Milchstraße nach Größe und Gestalt ähnlich ist.

Kosmische Strukturen Sterne sind Bestandteile von Galaxien, die sich selbst wieder zu größeren Strukturen vereinigen. Neben den Galaxiengruppen und -haufen gibt es sehr große, filamentartige Gebilde, die durch Galaxien gleichsam markiert werden

M. Bartelmann (*) Zentrum für Astronomie, Institut für Theoretische Astrophysik, Universität Heidelberg, Heidelberg, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_5

31

32 

M. Bartelmann

und die Galaxienhaufen miteinander verbinden. Diese Filamente umschließen riesige Leerräume; diese sind zwar nicht völlig leer, Galaxien sind dort aber sehr selten. Derart strukturiert erscheint unser heutiges Universum (siehe Abb. 1). Von ihm sehen wir wegen der Endlichkeit der Lichtgeschwindigkeit nur einen winzigen Ausschnitt, der nicht nur in die Ferne, sondern damit zugleich auch in die Vergangenheit reicht. Beobachtungen dieses Ausschnitts liefern uns Informationen, die aus ganz verschiedenen Epochen der Entwicklung unseres Universums stammen. Zu den faszinierendsten Erkenntnissen aus den letzten knapp 20 Jahren gehört die Einsicht, dass ein einfaches kosmologisches Modell so gut wie alle Beobachtungen unseres heutigen Universums ebenso wie seiner vorangegangenen Entwicklungsstadien beschreiben kann – so einfach und mit so erstaunlicher Übereinstimmung seiner Schlussfolgerungen mit der beobachteten kosmischen Wirklichkeit, dass es als kosmologisches Standardmodell bezeichnet wird.

Ein Modell für das Universum Diesem kosmologischen Standardmodell liegen drei Annahmen zugrunde. Zum einen geht es davon aus, dass die Allgemeine Relativitätstheorie eine Gravitationstheorie ist, in deren Rahmen unser Universum physikalisch beschrieben werden kann. Von dieser Theorie wird vorausgesetzt, dass sie

Abb. 1  Kosmische Strukturen, wie sie anhand der Galaxienverteilung in unserer kosmischen Nachbarschaft sichtbar werden. Die Daten für diese Himmelskarte wurden durch den 2-Micron All-Sky Survey aufgenommen (T. Jarret, IPAC/Caltech)

  Strukturen im Kosmos 

33

zumindest insoweit gilt, als sie auf die geometrische Gestalt des Universums und seine Entwicklung angewandt werden kann, nachdem ein Anfangsereignis stattgefunden hat: das, was wir Urknall nennen. Zweitens nimmt das Standardmodell an, dass uns das Universum im Mittel als richtungsunabhängig beziehungsweise isotrop erscheint. Hierüber wäre im Detail viel zu sagen, aber das Wichtigste ist, dass uns die beobachtbaren Eigenschaften des Universums, wenn wir sie nur über genügend große Entfernungen mitteln, in jeder Richtung gleich erscheinen. Und drittens wird vorausgesetzt, dass mit uns auch jeder andere Beobachter im Universum diese Aussage treffen darf. Ein solches Modell des Universums ist dann um jeden Beobachter herum isotrop und damit auch räumlich homogen. Allgemeine Relativitätstheorie, räumliche Isotropie und Homogenität sind die drei Annahmen, auf denen das kosmologische Standardmodell beruht. Das sind (beinahe) die einfachsten Annahmen, die wir überhaupt einem physikalischen Modell des Universums zugrunde legen können. Faszinierend an der modernen Kosmologie ist, dass es diesem Modell gelingt, in seinem Rahmen so gut wie alle empirischen Befunde unterzubringen, die wir bisher gesammelt haben. Eine Fülle von Beobachtungstatsachen, deren Ursprung aus der Zeit unmittelbar nach dem Urknall bis heute reicht, unterstützt das kosmologische Standardmodell und verleiht ihm damit empirische Evidenz.

Drei seltsame Aussagen Das kosmologische Standardmodell gelangt jedoch auch zu drei Aussagen, die zumindest rätselhaft erscheinen. Es besagt, dass der größte Teil der Materie, aus der die kosmischen Strukturen bestehen, von uns bislang unbekannter Form ist. Wir nennen sie „dunkle Materie“ und nehmen meistens an, dass diese aus schwach wechselwirkenden Elementarteilchen besteht, wissen aber nicht, wie sie wirklich zusammengesetzt ist. Das Modell besagt weiter, dass das Universum seit etwa sieben Milliarden Jahren durch eine besondere Form von Energie beschleunigt auseinandergetrieben wird, über deren physikalischen Ursprung wir ebenfalls höchst wenig wissen und die wir entsprechend „dunkle Energie“ nennen. Dass sich das Universums beschleunigt ausdehnt, darf als gesicherter Beobachtungsbefund gelten. Wieso das aber so ist, ist weiterhin rätselhaft. Ferner setzen wir im kosmologischen Standardmodell vo­ raus, dass es sehr früh in der Entwicklung des Universums – noch während der ersten Bruchteile einer Sekunde nach dem Urknall  – eine frühe Phase beschleunigter Expansion gab: eine „kosmische Inflation“, in der sich das Universum innerhalb kürzester Zeit gewaltig ausdehnte [24–26]. Trotz ihrer

34 

M. Bartelmann

Rätselhaftigkeit sind diese drei Aussagen im kosmologischen Standardmodell einfach zu begründen, und dies hat eng mit den Strukturen zu tun, die wir im Universum vorfinden.

Zwei Befunde Wir befinden uns in der Kosmologie in der eigenartigen Situation, dass wir zugleich den Anfangs- und den Istzustand der kosmischen Strukturentwicklung beobachten können. Der Istzustand umgibt uns (vgl. Abb. 2): Er ist aus der Verteilung der Galaxien, Galaxienhaufen, Filamente und Leerräume in unserer kosmischen Nachbarschaft ablesbar. Nicht nur die räumliche Verteilung der Galaxien liefert wichtige Informationen, auch deren Geschwindigkeitsverteilung tut das, denn die Galaxien bewegen sich mit Geschwindigkeiten, die zum Teil durch die Gravitationswirkung der sie umgebenden Strukturen hervorgerufen wurden.

Der Anfangszustand kosmischer Strukturen Der Anfangszustand zeigt sich in Beobachtungen des kosmischen Mikrowel­ lenhintergrundes. Das Universum war zunächst extrem heiß. Licht (wie jede Form elektromagnetischer Strahlung) wurde an den geladenen Teilchen gestreut. Wenn sich aus Protonen und Elektronen Wasserstoffatome bildeten, wurden sie

Abb. 2  Himmelskarte der Temperaturschwankungen im kosmischen Mikrowel­ lenhintergrund, die aus Daten des Planck-Satelliten abgeleitet wurde (ESA, Planck Collaboration)

  Strukturen im Kosmos 

35

sehr schnell wieder ionisiert. Erst nach 380.000 Jahren war das Universum mit etwa 3000 Grad hinreichend abgekühlt, dass die Atome stabil blieben und sich die Strahlung ungehindert ausbreiten konnte. Die Temperatur dieser Strahlung sank durch die Expansion des Universums immer weiter ab. Sie wurde 1965 als Mikrowellenstrahlung mit einer Wellenlänge von 7,4 Zentimetern von den beiden amerikanischen Astrophysikern Arnold Penzias und Robert Wilson entdeckt [27]. Sie erreicht uns aus allen Richtungen mit annähernd gleicher Intensität und kann als die Restwärme des heißen Ursprungs des Universums angesehen werden. Dieser kosmische Mikrowellenhintergrund, wegen seiner englischen Bezeichnung cosmic microwave background als CMB abgekürzt, hat im Rahmen unserer sehr hohen Messgenauigkeit ein perfektes Planck-Spektrum, wie es für Wärmestrahlung zu erwarten ist (siehe den Beitrag von Eberhard Klempt). Seine Temperatur liegt bei 2,726  Grad über dem absoluten Nullpunkt beziehungsweise bei 2,726 Kelvin. Zieht man von einer Himmelskarte des CMB die mittlere Strahlungsintensi­ tät ab und bildet damit eine Himmelskarte der Differenz zwischen der gemessenen Strahlungsintensität und der mittleren Intensität, wird der „kosmische Dipol“ sichtbar: In der Bewegungsrichtung der Sonne erscheint der CMB aufgrund des Dopplereffekts heißer, in der entgegengesetzten Richtung kühler. Dieser Dipol hat eine Amplitude von einigen Tausendstel Kelvin. Zieht man auch die Intensitätsverteilung des Dipols ab, werden Tempera­ turschwankungen im CMB sichtbar, deren typische Amplitude im Bereich von einigen Hunderttausendstel Kelvin liegt (Abb. 2). Diese Schwankungen zeigen diejenigen Strukturen, die bereits zu der Zeit im Universum angelegt waren, als der CMB freigesetzt wurde – als sich das Universum knapp 400.000 Jahre nach dem Urknall auf etwa 3000 Kelvin abgekühlt hatte. Seitdem breitet sich die Restwärmestrahlung des Urknalls beinahe frei im Universum aus. Das, was wir heute davon sehen, wurde vor ungefähr 13,7 Milliarden Jahren in einer Entfernung von uns freigesetzt, für die das Licht etwa 13,7 Milliarden Jahre zur Überbrückung brauchte. Wir sehen also mit dem CMB den Anfangszustand kosmischer Strukturen, wie er vor dieser Zeit war, knapp 400.000 Jahre nach dem Urknall.

Entwicklung vom Anfangs- zum Istzustand Angesichts des Anfangs- und des Istzustandes kosmischer Strukturen liegt die Frage nahe, ob wir verstehen, wie aus dem beobachteten Anfangs- der beobachtete Istzustand werden konnte. Die Antwort darauf ist ein klares Nein: Am Anfang sind die Strukturen so schwach ausgeprägt, dass selbst 13,7 Milliarden

36 

M. Bartelmann

Jahre bei Weitem nicht ausreichen, um sie aufgrund der Schwerkraft zu den heute beobachteten Strukturen anwachsen zu lassen. Rechnet man umgekehrt den Zustand der heutigen kosmischen Strukturen in der Zeit zurück, stellt man fest, dass diese Strukturen Temperaturschwankungen im CMB mit einer Amplitude im Bereich von Tausendstel statt Millionstel Kelvin erfordern würden. Ein schwerwiegendes Problem. Doch dies löst sich auf, wenn wir annehmen, dass die kosmischen Strukturen überwiegend aus einer Form von Materie bestehen, die nicht elektromagnetisch wechselwirken kann. Wenn das so wäre, hinterließe diese Form der Materie einen wesentlich geringeren Abdruck im CMB, als von den elektromagnetisch wechselwirkenden Materieformen zu erwarten wäre, die uns vertraut sind. Wir nennen diese hypothetische Materieform dunkle Materie. Wir wissen nicht, wie sie zusammengesetzt ist, vermuten jedoch, dass sie aus ungeladenen, schwach wechselwirkenden Elementarteilchen besteht. Nach solchen Teilchen wird weltweit sowohl in Teilchenbeschleunigern wie dem Large Hadron Collider als auch in gezielten Experimenten gesucht, die zum Beispiel den Rückstoß der Teilchen dunkler Materie in Festkörpern nachweisen sollen. Bislang wurde jedoch keine verlässliche Spur solcher Teilchen gefunden. Verstehen wir also, wie die kosmischen Strukturen innerhalb von 13,7  Milliarden Jahren von ihrem Anfangs- zu ihrem Istzustand gelangen konnten? Diese Frage führt damit ganz direkt zu der Schlussfolgerung, dass wir die Entwicklung dieser Strukturen dann – und nur dann – erklären können, wenn wir annehmen, dass sie überwiegend aus dunkler Materie bestehen. Genaue Beobachtungen zeigen, dass das kosmische Material zu 84 Prozent aus dunkler Materie bestehen muss. Obwohl wir nicht wissen, worum es sich dabei genau handeln könnte, können wir sowohl die Dichte als auch die räumliche Verteilung dieser dunklen Materie recht genau vermessen. Zu erklären, wie dies funktioniert, geht jedoch über den Rahmen dieses Beitrags weit hi­ naus. Die Ablenkung von Licht durch kosmische Strukturen, der so genannte Gravitationslinseneffekt, trägt wesentlich dazu bei. Die weitgehend ungeordnete Bewegung von Galaxien in Galaxienhaufen und die Umlaufbewegung der Sterne in Spiralgalaxien liefern weitere wichtige Hinweise darauf, wieviel dunkle Materie es gibt und wie sie sich räumlich verteilt.

Der Ursprung kosmischer Strukturen Akzeptieren wir die Existenz und die große Menge dunkler Materie, können wir im Rahmen des kosmologischen Standardmodells verstehen, wie sich der beobachtete Anfangszustand kosmischer Strukturen innerhalb von 13,7 Milliarden

  Strukturen im Kosmos 

37

Jahren zu deren beobachtetem Istzustand entwickeln konnte. Das erklärt jedoch noch nicht, wie die kosmischen Strukturen entstanden sein könnten.

Das Horizontproblem Diese Frage führt uns auf ein noch viel größeres Problem. Die kosmische Hintergrundstrahlung, der wir den Anfangszustand kosmischer Strukturen aufgeprägt sehen, wurde freigesetzt, als das Universum knapp 400.000 Jahre alt war. In dieser Zeit gelangt Licht offenbar höchstens 400.000 Lichtjahre weit. Diese Strecke wird naheliegender Weise als Horizont bezeichnet. Zwei Punkte im jungen Universum konnten sich bis zur Freisetzung des CMB nur dann über ihre physikalischen Bedingungen austauschen, wenn sie einander näher waren als diese 400.000 Lichtjahre. Das betrifft vor allem die Temperatur: Wie warm oder wie kalt es an einem Ort war, ließ sich nur dann mit der Temperatur an einem anderen Ort abgleichen und somit thermisches Gleichgewicht hergestellen, wenn diese beiden Orte weniger weit als 400.000 Lichtjahre auseinander lagen. Auf den Himmel projiziert, erscheint diese Strecke von 400.000 Lichtjahren in der Entfernung des CMB unter einem Winkel von etwa zwei Grad. Damit entspricht sie etwa dem vierfachen Durchmesser des Vollmonds. Das ist sehr wenig im Vergleich zum gesamten Himmel, dessen Raumwinkel etwa 40.000 Quadratgrad beträgt. Wie kann es dennoch sein, dass zwei Punkte im CMB, die erheblich weiter als zwei Grad voneinander entfernt sind, Strahlung derselben Temperatur aussenden? Solche Punkte konnten sich zwischen dem Urknall und der Freisetzung des CMB nicht über ihre Temperatur verständigen, weil selbst die größte verfügbare Geschwindigkeit der Informationsübertragung, die Lichtgeschwindigkeit, dafür nicht ausgereicht hätte. Dies ist das Hori­ zontproblem. Damit stehen wir wiederum vor einer Frage, die eine abenteuerlich erscheinende Antwort nach sich ziehen wird: „Wie kann es sein, dass der gesamte CMB dieselbe mittlere Temperatur aufweist?“ Die Frage erscheint zunächst harmlos, dennoch scheint sie so knifflig zu sein, dass sie schier unlösbar scheint.

Kosmische Inflation Die Antwort, die wohl die Mehrheit der Kosmologen heute darauf gibt, führt uns zur Hypothese der kosmischen Inflation. Dieses Modell der frühen kosmischen Entwicklung nimmt an, dass es sehr kurz nach dem Urknall eine Phase gab, in der sich das Universum exponentiell ausdehnte. Mit dieser

38 

M. Bartelmann

Annahme lässt sich das Problem der mittleren Temperatur des CMB einfach lösen: Ein sehr kleiner Ausschnitt des Universums, in dem bereits sehr früh thermisches Gleichgewicht herrschte, wurde durch die exponentielle Expansion aufgrund der Inflation derart vergrößert, dass er das gesamte heute beobachtbare Universum ausfüllen konnte. Allerdings zieht diese Antwort des Inflationsmodells ein nicht weniger gewichtiges Problem nach sich. Fragt man nach Antrieb für eine solche inflationäre Phase, kommt man in der einfachsten Variante schnell zu einer speziellen Sorte von Quantenfeldern, den so genannten Skalarfeldern. Sie ordnen jedem Punkt im Raum einen – und nur einen – bestimmten Zahlenwert einer physikalischen Größe zu, die sogenannte Feldstärke. Diese bestimmt die potenzielle Energie des Feldes, die Änderung der Feldstärke seine kinetische Energie. Wenn die kinetische Energie gegenüber der potenziellen Energie genügend klein ist, kann ein solches Skalarfeld tatsächlich dafür sorgen, dass die Expansion des Universums in einen exponentiellen Verlauf übergeht. Ein solches hypothetisches skalares Quantenfeld wird auch Inflatonfeld oder kurz Inflaton genannt: Inflatonen sind die quantenphysikalischen Anregungszustände desjenigen Skalarfeldes, das für die kosmische Inflation verantwortlich gemacht wird. Damit die kosmische Inflation erfolgreich verlaufen konnte, musste sie lange genug dauern. Anderenfalls hätte sich nicht der gesamte heute beobachtbare CMB auf dieselbe Temperatur einstellen können. Die Voraussetzung, dass die kinetische Energie des Inflatonfeldes klein gegenüber seiner potenziellen Energie sein sollte, musste also lange genug bestehen bleiben. Das Inflatonfeld durfte sich also nur sehr langsam ändern und dabei höchstens eine sehr kleine Beschleunigung erfahren. Diese slow-roll-Bedingungen werden durch zwei dimensionslose Parameter quantifiziert, die slow-roll-­ Parameter, die klein gegenüber eins sein mussten. Um die Inflation zu Ende zu bringen, mussten die slow-roll-Bedingungen schließlich verletzt werden. Die kinetische Energie des Inflatonfeldes nahm dann gegenüber seiner potenziellen Energie zu und die exponentielle Ausdehnung verlangsamte sich wieder. Anschließend musste das Inflatonfeld auf eine Weise in gewöhnliche beziehungsweise dunkle Materie umgewandelt werden, die uns großenteils noch unbekannt ist. Dieses reheating wird hier jedoch nicht weiter thematisiert.

Fluktuationen im Inflatonfeld In unserem Zusammenhang ist es entscheidend wichtig, dass das Inflaton­ feld  als Quantenfeld nicht vollständig in Ruhe sein kann. Aufgrund der Heisenberg’schen Unschärferelation müssen Quantenfelder selbst im Zustand

  Strukturen im Kosmos 

39

niedrigster Energie, dem Vakuumzustand, endliche Fluktuationen ausführen, die als Vakuumfluktuationen bezeichnet werden. Träten solche Fluktuationen nicht auf, wären Ort und Impuls des Feldes zugleich genau bekannt: Sie müssten dann zugleich beide gleich null sein. Da dies aufgrund der Heisenberg’schen Unschärferelation nicht möglich ist, muss es eine endliche Grundzustandsenergie geben, die das Feld selbst in seinem Vakuumzustand nicht unterschreiten kann. Nun kann man sich überlegen, welchen Gesetzen diese Vakuumfluktuationen genügen müssen. Das Ergebnis: Vakuumfluktuationen lassen sich unter inflationären Bedingungen erstaunlich anschaulich beschreiben. Zusammenfassend und mit anderen Worten ausgedrückt gelangen wir so zu dem folgenden Bild: Das unmittelbar offensichtliche Horizontproblem kann durch die Annahme beseitigt werden, dass sich das sehr junge Universum für kurze Zeit exponentiell ausdehnte. Wenn wir dies voraussetzen dürfen, kann diese Phase durch ein skalares Quantenfeld angetrieben werden. Ein solches Feld unterliegt Vakuumfluktuationen, deren Entwicklung unter diesen Voraussetzungen bekannten Gesetzen genügt und einfach zu beschreiben ist. Diese Gesetze besagen zunächst, dass der Vakuumzustand des Inflatonfeldes auf  kleinen Längenskalen schnell oszilliert: Aus dem Vakuum des Inflatonfeldes entstehen in schneller Folge Paare von Inflatonteilchen und ihren Antiteilchen und zerfallen wieder. Die Gesetze besagen aber auch, dass solche Fluktuationen auf kleinen Längenskalen gerade wegen der exponentiellen Ausdehnung aufgrund der Inflation nicht klein bleiben können. Im Gegenteil: Sie werden rasend schnell derart vergrößert, dass die Fluktuationen „einfrieren“ und gerade entstandene Inflatonteilchen nicht mehr zerfallen können, weil sie inzwischen durch zu große Entfernungen von ihren Antiteilchen getrennt sind. Die aufgrund der Heisenberg’schen Unschärferelation unvermeidlichen Vakuumfluktuationen des Inflatonfeldes führen also gemeinsam mit der exponentiellen Ausdehnung während der Inflation dazu, dass stabile Schwankungen der Energie- und damit der Massendichte entstehen. Damit liegt die Hypothese nahe, dass der Ursprung unserer heutigen kosmischen Strukturen in den Vakuumfluktuationen des Inflatonfeldes zu suchen sein könnte. Dies hat eine wahrhaft gigantische Spannweite: Die Hypothese besagt, dass die ausgeprägten kosmischen Strukturen, von denen wir uns heute umgeben sehen – seien es Galaxien, Galaxienhaufen, größere Strukturen wie Filamente und Leerräume oder kleinere Strukturen wie etwa Sternhaufen oder Sterne  – letztlich auf Vakuumfluktuationen eines Quantenfeldes zurückgehen, des Inflatonfeldes, die aufgrund der rasenden Expansion des jungen Universums nicht mehr zerfallen konnten. Letztlich hätten diese Vakuumfluktuationen damit auch die Grundlage unserer Existenz geschaffen [28].

40 

M. Bartelmann

Kosmische Strukturen aus dem Inflatonfeld Doch auch diese wahrhaft fantastisch anmutende Hypothese hat Konsequenzen, die sich durch Beobachtungen prüfen lassen. Zunächst ist es ohne große Schwierigkeiten berechenbar, welche statistischen Eigenschaften die Dichte­ schwankungen haben müssen, die aus den Vakuumfluktuationen des Inflatonfeldes hervorgegangen sein können. Damit ist gemeint, dass wir berechnen können, welche Amplitude Dichteschwankungen gegebener Größe im statistischen Mittel haben sollten. Nun wissen wir zwar nicht, wie sich das Inflatonfeld am Ende der Inflation in die „normale“ Materie umgewandelt haben mag, von der wir uns heute im Universum umgeben sehen. Obwohl wir den Prozess im Detail nicht kennen, der dafür verantwortlich gewesen sein mag, können wir davon ausgehen, dass die Dichteschwankungen des Inflatonfeldes in Dichteschwankungen der normalen Materie umgewandelt wurden. Die kosmische Inflation liefert uns damit sowohl einen physikalischen Mechanismus für das Entstehen kosmischer Strukturen als auch eine Vorhersage für deren statistische Eigenschaften. Die statistischen Eigenschaften der heutigen kosmischen Strukturen sind indessen beobachtbar. Dazu untersucht man beispielsweise die räumliche Verteilung der Galaxien. Diese Verteilung ist nicht gleichmäßig, sondern weist räumliche Verdichtungen und Verdünnungen auf. Bei ihrer Auswertung fragt man letztlich danach, welche mittleren Amplituden Verdichtungen und Verdünnungen einer gegebenen räumlichen Größe haben. Etwas technischer ausgedrückt: Man zerlegt die kosmischen Strukturen durch eine Fourieranalyse in ihre Bestandteile mit einer bestimmten Wellenlänge λ. Zu dieser Wellenlänge gehört eine Wellenzahl k, die durch k = 2π/λ gegeben ist. Diese Beobachtungen und deren Analyse sind vor allem deswegen diffizil, weil dafür die Galaxienverteilung in riesigen Volumina vermessen werden muss. Dennoch lässt sich die mittlere Amplitude der Schwankungen in der Galaxienverteilung als Funktion der Wellenzahl als direkte Beobachtungsgröße angesehen. Genau diese Funktion lässt sich aufgrund der Hypothese der kosmischen Inflation vorhersagen. Deren einfachsten Modelle erlauben vorherzusagen, dass die mittlere Amplitude der Dichteschwankungen in kosmischen Strukturen mit ihrer Wellenzahl k proportional zu dem Potenzgesetz kn anwachsen sollte, wobei der Exponent n direkt durch die slow-roll-Parameter der Inflation bestimmt ist. Hätte die Inflation beliebig lange gedauert, hätte sich einfach n = 1 ergeben. Schon unsere Existenz belegt aber, dass die Inflation nach endlicher Zeit zu Ende gegangen sein muss. Zudem muss sie so erfolgreich verlaufen

  Strukturen im Kosmos 

41

sein, dass uns der gesamte CMB mit derselben Temperatur erscheint. Dies bedeutet, dass der Exponent n zwar nahe bei eins liegen muss, aber die eins nicht ganz erreichen darf. In einfachen Modellen der Inflation wird die kleine Abweichung des Exponenten n von eins gerade durch eine Linearkombination aus den Slow-Roll-Parametern quantifiziert. Der erwartete Wert von n ist in diesen einfachen Modellen der inflationären Kosmologie daher leicht zu berechnen. Der Exponent n lässt sich aber auch messen. Dazu dienen neben den oben erwähnten Schwankungen in der Galaxienverteilung insbesondere auch die Temperaturschwankungen im CMB. Das Ergebnis der derzeit verlässlichsten Messungen ist n = 0,9645 ± 0,0049. Es entspricht damit genau der Erwartung, dass n fast, aber nicht ganz gleich eins sein sollte. Dies beweist natürlich weder, dass es die kosmische Inflation tatsächlich gab, noch, dass die kosmischen Strukturen tatsächlich aus Vakuumfluktuationen des Inflatonfeldes hervorgegangen sind. Es ist aber schwer, in diesem Ergebnis nicht einen zustimmenden Hinweis darauf zu sehen, dass die Hypothese der kosmischen Inflation und die damit verbundene Vorstellung von der Entstehung kosmischer Strukturen tatsächlich zumindest der Wahrheit nahekommen könnten. Gegenwärtige und künftige Anstrengungen insbesondere der beobachtenden Kosmologie streben an, weitere Konsequenzen des Modells der kosmischen Inflation zu prüfen. Dazu zählt vor allem die Vorhersage, dass mit den kosmischen Dichteschwankungen, die im Lauf der Zeit zu den heute beobachtbaren kosmischen Strukturen heranwuchsen, auch Schwankungen in der Geometrie der kosmischen Raumzeit angeregt worden sein sollten. Solche Schwankungen breiten sich in Form von Gravitationswellen durch das Universum aus. Das inflationäre Modell sagt also vorher, dass das Universum von Gravitationswellen erfüllt sein sollte, die einen ähnlich schwach strukturierten Hintergrund bilden sollten, wie es der CMB hinsichtlich elek­ tromagnetischer Strahlung ist. Dieser Nachweis ist bisher nicht gelungen, aber die Messgenauigkeit dürfte schon in den nächsten Jahren dafür ausreichen.

Zu guter Letzt Im Rahmen der Allgemeinen Relativitätstheorie führen die (beinahe) einfachsten Annahmen über die räumliche Symmetrie des Universums zum kosmologischen Standardmodell, das einerseits gerade wegen seiner einfachen Grundlagen, andererseits wegen seiner Fähigkeit, verschiedenste kosmologische Beobachtungen zu erklären, große Überzeugungskraft gewonnen hat.

42 

M. Bartelmann

Direkte Beobachtungen zeigen uns sowohl den Anfangszustand der kosmischen Strukturen, wie er 400.000 Jahre nach dem Urknall angelegt war, als auch deren Istzustand, wie er heute besteht, knapp 13,7 Milliarden Jahre später. Die Annahme, dass die anfänglich angelegten Strukturen durch die Schwerkraft zu den heute beobachteten Strukturen heranwachsen konnten, führt schnell zu der Einsicht, dass dies nur möglich gewesen sein kann, wenn das kosmische Material zu 84 Prozent aus einer bislang unbekannten Materieform besteht. Obwohl wir nicht wissen, wie diese dunkle Materie zusammengesetzt sein könnte, können wir sowohl ihre Menge als auch ihre räumliche Verteilung erstaunlich genau messen. Nehmen wir die Existenz dunkler Materie an, können wir die Entwicklung kosmischer Struk­ turen erklären. Schwieriger als die Entwicklung ist der Ursprung der kosmischen Strukturen zu verstehen. Unter anderem zur Beantwortung der einfachen Frage, wie der CMB zu einer einheitlichen Temperatur gelangt sein kann, wurde das kosmologische Standardmodell durch die Hypothese ergänzt, dass das Universum sehr früh in seiner Entwicklung eine inflationäre Phase exponentieller Expansion durchlaufen habe. Diese kosmische Inflation konnte durch ein skalares Quantenfeld angetrieben worden sein, dessen unvermeidliche Vaku­ umfluktuationen die kosmischen Strukturen angelegt haben können. Eine messbare Vorhersage dieser Vorstellung wurde bereits geprüft und bestätigt; weitere Bestätigungen könnten in den nächsten Jahren folgen. Diese Überlegungen und Beobachtungen führen uns zu der heute wohl von den meisten Kosmologen vertretenen Vorstellung vom Ursprung und von der Entwicklung kosmischer Strukturen: Vermutlich handelt es sich dabei um Vakuumfluktuationen eines frühen Quantenfeldes, die durch die Inflation vergrößert und durch die Schwerkraft vor allem der dunklen Materie verstärkt wurden. Unsere Existenz wäre damit durch die Vakuumfluktuationen eines Quantenfeldes und durch eine Form von Materie ermöglicht worden, deren Zusammensetzung wir noch nicht kennen.

Eine neue Sicht auf das alte Universum Der Anfang des Universums Christof Wetterich

Jede Kultur hat ihren Mythos vom Beginn der Welt. In vielen Kulturen begann es mit Chaos und Leere. In China etwa wurde Yang zum Himmel und Yin zur Erde, bevor sich das Urei trennte. Für die Griechen entstand Licht aus Chaos und leerem Raum. Bei den Sumerern entfernten sich Himmel und Erde voneinander. Das „Es werde Licht“ der Bibel findet man in Ägypten wieder mit dem unendlichen Meer Nun und mit Atum, der Licht aussendete. Das alles spiegelt den alten Traum der Menschen wider, den Ursprung zu verstehen. Unsere Generation hat als erste die Chance, diesen Beginn wissenschaftlich zu erforschen. Viele Beobachtungsmissionen erlauben eine präzise statistische Vermessung des bestehenden Universums. Damit lassen sich verschiedene Modelle detailliert testen, so dass wichtige Grundzüge der Geschichte unseres Universums heute wissenschaftlich recht allgemein akzeptiert sind. Geht es um den Beginn, bleiben dennoch viele zentrale Fragen offen.

lnflationäre Kosmologie: Beginn mit Singularität? Unser heutiges Universum ist voller Elementarteilchen, die sich in Sternen und Galaxien zusammengeballt haben. Verfolgen wir seinen Zustand mithilfe der Einstein’schen Gleichungen der Allgemeinen Relativitätstheorie zurück zu C. Wetterich (*) Institut für Theoretische Physik, Universität Heidelberg, Heidelberg, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_6

43

44 

C. Wetterich

früheren Zeiten, verringert sich im Mittel das Volumen, in dem man eine feste Zahl von Teilchen findet. In der frühen Phase des Universums war die Dichte der Elementarteilchen zu hoch, um Atome oder gar Sterne zu ermöglichen. Die Elementarteilchen formten eine heiße Suppe, die die Physiker Plasma nennen. Elektronen und Positronen, Photonen oder Lichtquanten, Quarks und Gluonen rasten völlig ungeordnet und mit dauernden Stößen, Erzeugung und Vernichtung durch das All. Bei Temperaturen viele Milliarden Male höher als im lnneren der Sonne gab es fast keinen Unterschied zwischen Materie und Antimaterie. Spulen wir den Film der Genesis des Universums immer weiter zurück, wird der mittlere Abstand zwischen den Elementarteilchen, oder genauer der „Skalenfaktor“ a der Geometrie, kleiner und kleiner. Vor ungefähr 13,7 Milliarden Jahren erreicht dieser Skalenfaktor Null. Damit erreicht auch der mittlere Abstand zwischen Elementarteilchen Null, und ihre Geschwindigkeit erreicht die Lichtgeschwindigkeit. Dieser Zeitpunkt wird mit dem Beginn des Universums gleichgesetzt. Am Beginn wird das Universum „singulär“ – ein endliches Volumen schrumpft auf einen Punkt. Das Universum scheint aus einer gewaltigen Explosion geboren, dem Urknall. Viele Vorhersagen dieses Urknallmodells, zum Beispiel die Häufigkeit der leichten chemischen Elemente oder die Entstehung der kosmischen Hintergrundstrahlung, sind durch Beobachtungen mit hoher Genauigkeit bestätigt. Dennoch hat diese Geschichte des Universums etwas Störendes. Unser ganzes beobachtbares Universum entstand vor 13,7  Milliarden Jahren aus einem Punkt. Nicht das gesamte Universum  – dieses mag auch für a gegen Null durchaus unendlich sein. Aber der Teil, aus dem uns Signale erreicht haben können und der damit zumindest prinzipiell für uns beobachtbar ist – eben „unser beobachtbares Universum“. Heute nimmt man nicht mehr an, dass das Universum mit einem heißen Plasma begonnen hat. Stattdessen gibt es gute Gründe (siehe den Beitrag von Matthias Bartelmann) für die Annahme, dass das Universum zuvor eine Epoche der „Inflation“ durchlaufen hat. Denn nur mit dem heißen Plasma allein gibt es keine Erklärung, warum das Universum nicht entweder sehr schnell wieder in sich zusammenfiel oder aufgrund der großen Krümmung so schnell expandierte, dass keine Sterne und Galaxien entstehen konnten. Auch die beobachtete Gleichförmigkeit der Hintergrundstrahlung aus allen Himmelsrichtungen kann nicht ohne die inflationäre Phase verstanden werden. In der inflationären Kosmologie ist das Anwachsen des Skalenfaktors mit der Zeit dramatisch. Es folgt näherungsweise einem exponentiellen Gesetz. (Nicht nur die Größe des Universums, sondern auch die Rate des Wachstums steigt stetig.) Auch in diesem inflationären Universum ist die Singularität des

  Eine neue Sicht auf das alte Universum 

45

Urknalls unvermeidlich – „Singularitätstheoreme“ sagen aus, dass der singuläre Wert a = 0 in einer endlichen „Eigenzeit“ erreicht wird: in der hypothetischen Zeit, die ein Beobachter auf einer konstant tickenden Uhr sähe, falls er – und diese Art von Uhr – schon am Anfang des Universums existiert hätten. Dabei muss er sich mit der Expansion mitbewegen, das heißt, er muss relativ zu dieser ruhen. Diese hypothetische Eigenzeit wird benutzt, wenn die Kosmologen von einem Alter des Universums sprechen, und sich die Köpfe heiß reden über den Zustand des Universums nach einer aberwitzig kleinen Zeitspanne seit dem Beginn, sagen wir 10-42  Sekunden. Dies ist noch eine Million Mal kürzer als das Milliardstel eines Milliardstels eines Milliardstels eines Milliardstels einer Sekunde. Verschiedenste Vorstellungen werden diskutiert, wie man einem solchen dramatischen singulären „Beginn“ entgehen könnte, vom Multiversum immer wieder neu entstehender Regionen des Universums bis zu periodischen Universen. Hier soll es jedoch nicht um diese Debatte gehen, vielmehr geht es darum, kritisch zu hinterfragen, was es mit der Singularität im inflationären Universum nun eigentlich auf sich hat.

Das leere Universum Wie sah das Universum aus, wenn wir die inflationäre Epoche zurückverfolgen, bis der Skalenfaktor a gegen Null ging? Wenn auch das inflationäre Universum nur winzige Bruchteile von Sekunden gedauert haben mag, so waren doch seine Eigenschaften vom späteren heißen Plasma der Elementarteilchen völlig verschieden. Die erste wichtige Feststellung: Es war nicht voller Elementarteilchen, wie im späteren Plasma. Die Elementarteilchen, aus denen unser heutiges Universum aufgebaut ist, werden erst nach dem Ende der Inflation produziert. Was gab es dann? Das Universum war öd und leer, der Zustand das Vakuum. Für den Physiker ist „leer“ fast nichts, aber nicht „nichts“. Es gab Felder, ähnlich dem elektrischen Feld oder Magnetfeld. Der frühe Vakuumzustand des Universums wird durch die Mittelwerte (Erwartungswerte) dieser Felder und ihrer Fluktuationen beschrieben. Ein besonders wichtiges Feld ist das metrische Feld der vierdimensionalen Raumzeit. In der Allgemeinen Relativitätstheorie ersetzt das metrische Feld das Gravitationsoder Schwerefeld der Gravitationstheorie Newtons. Das metrische Feld, genauer sein Mittelwert, die sogenannte Metrik, bestimmt die Geometrie des Universums. Insbesondere charakterisiert der Skalenfaktor a die Mittelwerte der Komponenten des metrischen Feldes. Der zweite Mitspieler ist ein skalares Feld. Dieses so genannte Inflaton ist verantwortlich für die inflationäre Entwicklung. Ein Skalarfeld hat zu jeder

46 

C. Wetterich

Zeit und an jedem Raumpunkt einen gegebenen Wert. Es ähnelt damit dem elektrischen Feld, dem Magnetfeld oder auch der Metrik. Während aber ein Magnetfeld durch seine Stärke und seine Richtung beschrieben wird, hat ein Skalarfeld keine Richtung. Skalarfelder werden seit den frühesten Tagen der Allgemeinen Relativitätstheorie diskutiert, aber erst mit dem inflationären Universum sind sie „hoffähig“ im weiten Kreis der Kosmologen geworden. Eines dieser Skalarfelder wurde mit der Entdeckung des Higgs-Bosons am CERN auch experimentell bestätigt. Die Existenz eines Skalarfeldes spielt für die Inflation und unsere weiteren Betrachtungen eine zentrale Rolle. In der inflationären Epoche sind die Mittelwerte des Skalarfelds und der Metrik in allen Regionen des Universums gleich: Gleichförmigkeit und Öde statt Struktur bestimmen das früheste Universum. Die Mittelwerte ändern sich jedoch mit der Zeit – für die Metrik mit dem Wachsen des Skalenfaktors. Alle Felder fluktuieren um ihre Mittelwerte. Hier handelt es sich nicht um besondere Quanteneigenschaften – Fluktuationen gibt es immer und sie charakterisieren sowohl die Mikrowelt als auch die Makrowelt. Man kann sich Fluktuationen vorstellen wie die Wellen auf einem Ozean, von einem Satelliten aus betrachtet. Die Meeresoberfläche ändert sich örtlich und zeitlich auf zufällige Art und Weise. Zu verschiedenen Zeiten sind die Wellenberge und Täler an verschiedenen Orten. Im Mittel ist die Meeresoberfläche dagegen überall die Gleiche – für den Mittelwert sind die Wellen „herausgemittelt“. Für die Schwankungen durch Wellen kann man im Mittel nur ihre Stärke oder Amplitude angeben. Im inflationären Universum sind sowohl Mittelwerte als auch Schwankungsamplituden aller Felder überall gleich. Da alle Längenskalen sich proportional zum Skalenfaktor a exponentiell vergrößern, gilt dies auch für die Wellenlänge einer gegebenen Welle. Ist die Welle dadurch weit genug auseinandergezogen, können keine Signale zwischen verschiedenen Orten in der Welle mehr ausgetauscht werden. Die Welle wird in diesem Zustand „eingefroren“. Aus diesen eingefrorenen Wellen wachsen viel später, lange nach dem Ende der Inflation, alle Strukturen im Kosmos – die Anisotropien in der kosmischen Hintergrundstrahlung (siehe den Beitrag von Matthias Bartelmann) sowie die Galaxien. Durch Beobachtungen kann man die Eigenschaften der Wellen bestimmen und daraus wichtige Rückschlüsse über den Zustand des Universums in der inflationären Epoche gewinnen. Bisher stimmen alle Beobachtungen sehr gut mit den Vorhersagen der Inflation überein – atemberaubend, wenn man bedenkt, dass es sich hier um den Zustand winzige Bruchteile von Sekunden nach dem Beginn handeln soll.

  Eine neue Sicht auf das alte Universum 

47

Das Lichtvakuum Im inflationären Universum gibt es also so gut wie keine Elementarteilchen. Tauchen hin und wieder in einem gegebenen Volumen ein paar Teilchen auf, werden sie schnell durch das exponentielle Anwachsen ihrer gegenseitigen Abstände verdünnt. Die Eigenschaften der Bewegung von Elementarteilchen sind dennoch wichtig für die physikalische Charakterisierung des inflationären Universums. Was zählt, ist das dimensionslose Verhältnis von Masse und lmpuls der Teilchen (in Einheiten, für die die Lichtgeschwindigkeit eins ist). Lichtquanten haben keine Masse, und dieses Verhältnis ist Null. Andere Elementarteilchen, zum Beispiel das Elektron, haben eine von Null verschiedene Masse. Im heutigen Universum ist die Masse groß verglichen mit dem Impuls, und die Geschwindigkeit der Teilchen klein verglichen mit der Lichtgeschwindigkeit. Am Beginn des Universums bewegen sich jedoch alle Teilchen (fast) mit Lichtgeschwindigkeit. Wenn der Skalenfaktor a gegen Null geht, wächst der Impuls ins Unendliche und alle Teilchen werden lichtartig. Diese Eigenschaft hat eine wichtige Konsequenz für die Zeitmessung. Lichtartige Teilchen können nicht ruhen, sie müssen sich auch relativ zur Expansion bewegen. Damit entfällt für die Singularität des Urknalls bei verschwindendem Skalarfaktor a eine Grundvoraussetzung für die Verwendung der Eigenzeit. Was ist dann eine sinnvolle Definition der „physikalischen Zeit“? Zeitmessungen haben typischerweise etwas mit periodischen Vorgängen oder Oszillationen zu tun – verallgemeinert kann man diese mit dem Ticken von Uhren identifizieren. Im inflationären Universum kann man aus den Feldgleichungen die Oszillationen von Feldern für Elektronen oder auch Lichtquanten berechnen und die Nulldurchgänge der Amplituden zählen. Und siehe da  – im Grenzfall, in dem der Skalenfaktor gegen Null geht, ticken diese „Uhren“ unendlich oft. In der Eigenzeit gemessen werden die Abstände zwischen zwei „Ticks“ einer solchen „Uhr“ kürzer und kürzer, je mehr man in die Vergangenheit zurückschaut und sich dem Urknall nähert. An der Singularität geht die Eigenzeit zwischen zwei Ticks gegen Null. Definiert man für eine physikalische Zeit die Abstände zwischen zwei Ticks als kon­ stant, so ist die physikalische Zeit seit dem „Beginn“ für Modelle der Inflation unendlich. Vom „Beginn“ des Universums bis zum Ende der Inflation ticken die „physikalischen Uhren“ unendlich oft – das Universum währt seit unendlichen Zeiten.

48 

C. Wetterich

Die Zeitabhängigkeit der Geometrie Noch eine Frage: Was bedeutet es, wenn sich der Skalenfaktor a mit der Zeit ändert und damit auch die Geometrie? Um das Anwachsen aller Abstände anschaulich zu machen, wird oft das Bild vom Aufblasen eines Ballons verwendet. Der dreidimensionale Raum wird dabei mit der Oberfläche des Ballons gleichgesetzt: Der Abstand zwischen zwei Punkten auf der Ballonoberfläche vergrößert sich beim Aufblasen stetig. Dies wird so gedeutet, dass Raum zwischen den sich voneinander entfernenden Galaxien erzeugt wird. Aber was soll „Erzeugen von Raum“ bedeuten? Raum ist ja keine Substanz wie das Material eines Ballons. Das Einzige, was sich ändert, sind Mittelwerte von Feldern. Das Anwachsen des Skalenfaktors a mit der Zeit ist die Änderung von Mittelwerten des metrischen Feldes mit der Zeit. Mittelwerte des metrischen Feldes beeinflussen die Ausbreitung von Licht und damit wichtige Eigenschaften der Geometrie. In der Tat bestimmen wir die Abstände und die Geometrie durch Lichtstrahlen. Dies gilt nicht nur theoretisch, sondern wird auch ganz praktisch gehandhabt. Immer wieder sind wir erstaunt, wie genau unser Telefon weiß, wo wir sind. Der Ort unseres Telefons wird bestimmt durch die Zeiten, die Licht von verschiedenen Satelliten zum Telefon benötigt. So lassen sich durch Lichtstrahlen dann auch die Abstände zwischen zwei Telefonen bestimmen, und eine Geometrie des Raums kann konstruiert werden. Da die Ausbreitungseigenschaften der Lichtstrahlen von der Metrik abhängen, benutzen wir die Metrik, um die geometrischen Eigenschaften des Raumes zu bestimmen. Assoziieren wir mit der variablen Geometrie nur die Änderung der Mittelwerte von Feldern – und damit die Änderung von Ausbreitungseigenschaften der Lichtquanten – so verliert die „Erzeugung von Raum“ ihren mysteriösen Charakter. Schließlich sind veränderliche Felder in der Physik gang und gäbe  – ein zeitabhängiges Magnetfeld etwa wird nicht als ein Mysterium betrachtet. Dies sollte auch für das singuläre Verhalten im Grenzfall eines verschwindenden Skalenfaktors berücksichtigt werden: Nähern wir uns der Singularität, so verschwinden in diesem Grenzfall manche Komponenten der Metrik. Das ist nicht per se dramatisch: Verschwindende Werte des elektrischen oder magnetischen Feldes sind in unserer täglichen Umgebung völlig normal, ohne jegliche „singuläre“ Konsequenzen. Es liegt also nahe, dass auch Nullwerte der Metrik nicht notwendigerweise Ausdruck einer physikalischen Singularität sind, sondern eher einer unangepassten mathematischen Beschreibung des Raumes und der Zeit.

  Eine neue Sicht auf das alte Universum 

49

Eine neue Sicht auf das Universum Die Anfangsepoche des Universums kann man auch ganz anders schreiben. Die Massen der Elementarteilchen könnten sich zum Beispiel mit der Zeit verändern. So sind die Massen der Elektronen oder Quarks proportional zum Wert des Higgs-Feldes und verschwinden, falls dieser in der frühen Geschichte des Universums null ist. Wir wollen dies verallgemeinern und Naturgesetze betrachten, für die alle Massen proportional zu einem Skalarfeld sind. Auch die Stärke der Gravitation ist durch eine Masse gegeben, die Planck-Masse, und auch diese sei durch das Skalarfeld gegeben. Ein solches Modell realisiert eine Skalensymmetrie. Wächst der Wert des Skalarfelds mit der Zeit, so wachsen auch alle Massen. Nur deren Massenverhältnisse bleiben konstant. Kosmologische Lösungen der Feldgleichungen eines solchen Modells lassen sich bis zu unendlichen Zeiten in der Vergangenheit zurückverfolgen. Das hieße: Das Universum ist unendlich – es gab es schon immer, und es wird es in der Zukunft immer geben. Der Mittelwert des Skalarfeldes und damit alle Massen wachsen mit der Zeit an. Versetzen wir uns umgekehrt unendlich weit in die Vergangenheit, so verschwinden alle Teilchenmassen. Im frühen Universum gab es nur die Mittelwerte der Felder und ihre Fluktuationen: Auch in diesem Modell ist das Lichtvakuum realisiert – öd und leer, mit seltenen Teilchen, die sich wie Lichtquanten bewegen. Ebenso ticken „physikalische Uhren“ unendlich oft, wenn man weiter und weiter in die Vergangenheit zurückgeht. Das Ticken wird jetzt in der Vergangenheit allerdings nicht schneller und schneller, sondern langsamer und langsamer. Da aber nur das Zählen der Ticks einer beobachtbaren Größe entspricht, findet man auch für die physikalische Zeit die gleichen Eigenschaften wie für das inflationäre Universum. Es sieht so aus, als sei ein solches Modell vom inflationären Universum physikalisch nicht zu unterscheiden. Dies ist in der Tat unmöglich: Es gibt eine mathematische Abbildung, die sogenannte Weyl-Transformation, die beide Bilder des Universums verknüpft. Die Beobachtungsgrößen haben in beiden Bildern identische Werte. Die beiden Bilder unterscheiden sich jedoch in der Wahl des metrischen Feldes, und damit haben Zeitskalen, Längenskalen, Massen und Temperatur unterschiedliche Werte. So fand das Einfrieren derjenigen Fluktuationen, die wir heute am Himmel beobachten können, im inflationären Universum vor 13,7 Milliarden Jahren statt, in einem anderen Bild mit wachsenden Teilchenmassen jedoch vor 5000  Milliarden Jahren. Gleiche physikalische Zeitspannen, gegeben etwa durch eine feste Zahl von Ticks „physikalischer Uhren“, dauern im inflationären Universum nur ­winzige Bruchteile von Sekunden, währen jedoch im Bild mit wachsenden Teilchenmassen Tausende Milliarden Jahre.

50 

C. Wetterich

Die lichtartige Bewegung aller Elementarteilchen am Beginn des Universums ist in beiden Bildern die gleiche. Das Bild mit wachsenden Teilchenmassen ist jedoch einfacher. Die Eigenschaften eines effektiv masselosen Teilchens sind jetzt direkt durch eine verschwindende Masse realisiert, sodass es keine unendlich anwachsenden Impulse mehr braucht. Entsprechend tritt bis in die unendliche Vergangenheit keinerlei Singularität auf. Die Singularität im Standardbild des inflationären Universums entspricht einer ungünstigen Wahl des metrischen Feldes, ähnlich einer Singularität am Südpol auf manchen Weltkarten bei einer Wahl von Koordinaten (der sogenannten Merkator Projektion), die für die Beschreibung der Pole ungünstig ist. Einfacher gesagt: Im singulären Bild des Urknalls wird mit schlecht angepassten Uhren und Meterstäben gemessen. Bei einer angepassten Wahl verschwinden diese Probleme.

Was war zu Beginn? Wissen wir jetzt, was am Anfang war? Die Antwort auf die Frage scheint bestechend einfach: Es gab das Universum schon immer, es war anfangs öd und leer, und alles Interessante hat sich erst nach und nach entwickelt. Doch ganz so einfach ist es mit der Antwort nicht. Die beschriebene kosmologische Lösung ist nur eine der möglichen Lösungen. Lösungen mit anderen Anfangsbedingungen bewegen sich jedoch auf diese Lösung zu und sind nach einiger Zeit nicht mehr davon unterscheidbar. Es führen also sehr verschiedene Anfangsbedingungen zu den gleichen Vorhersagen für Beobachtungen. Diese Unabhängigkeit von detaillierten Anfangsbedingungen führt einerseits dazu, dass die Vorhersagen erfreulich robust sind. Allerdings wird es damit unmöglich, die genauen Anfangsbedingungen wissenschaftlich zu vermessen. Der detaillierte Anfang mag dann im Grauen bleiben, ist aber auch nicht wichtig, um die heutigen Beobachtungen zu verstehen.

Dunkle Energie Wie sieht das Bild des Anfangs mit wachsenden Teilchenmassen zu späteren Zeiten aus? Dies hängt stark vom späteren Verhalten des Skalarfelds ab und damit von der Dunklen Energie. Dunkle Energie ist im Wesentlichen die potenzielle Energiedichte von Skalarfeldern. Diese beeinflusst die Zeitentwicklung des Skalenfaktors. Wir betrachten hier einfache Modelle, in denen dasselbe Skalarfeld sowohl für die Dynamik der Anfangszeit des Universums

  Eine neue Sicht auf das alte Universum 

51

und die primordialen (anfänglichen) Fluktuationen als auch für die Dunkle Energie im heutigen Universum verantwortlich ist. Stoppt das Anwachsen des Skalarfelds nach Ende der Anfangsepoche und lange genug vor der heutigen Epoche, so ist die Dunkle Energie statisch, eine kosmologische Konstante. Dauert das Anwachsen des Skalarfelds noch bis in die heutige Epoche an, dann ändert sich die Dunkle Energie auch noch heute, sie ist dynamisch. Wenn aber die Dunkle Energie statisch ist, warum wird sie dann erst in der heutigen Epoche wichtig und wurde dies nicht schon bald nach dem Ende der Anfangsepoche? Letzteres würde zu einer völlig anderen Geschichte des Universums im Konflikt mit unserer Existenz führen. Dynamische Dunkle Energie kann sich jedoch im Gleichtakt mit Strahlung und Materie verändern. Dies ermöglicht eine natürliche Erklärung, warum Dunkle Energie und Dunkle Materie heute in ähnlicher Größenordnung zur gesamten Energiedichte des Universums beitragen. Im Falle von Dynamischer Dunkler Energie wachsen in unserem alternativen Bild des Universums Skalarfeld und Teilchenmassen bis heute an. Die Geometrie des Universums sieht dann in diesem Bild anders aus als das übliche Urknallbild. Statt sehr hoher Temperaturen findet man im frühen Universum extrem niedrige Temperaturen. Nur waren die Teilchenmassen noch wesentlich kleiner, so dass auch hier das frühe Universum in der strahlungsdominierten Epoche aus einem Plasma von Elementarteilchen bestand. Das Universum schrumpft während der strahlungsdominierten und materiedominierten Epoche, und expandiert erst wieder in der heutigen Zeit der Dunklen-Energie-dominierten Epoche. Während des Schrumpfens heizt sich das Universum auf, im Gegensatz zur üblich angenommenen Abkühlung. Wir beobachten eine Rotverschiebung des Lichts weit entfernter Sterne. Im Vergleich zur nahen Sonne sind charakteristische Spektrallinien zu längeren Wellenlängen, „zum Roten“, verschoben. Dieser Effekt ist umso stärker, je weiter die Sterne entfernt sind. Die gängige Erklärung ist die Expansion des Universums, durch die die Wellenlänge gedehnt wird. Haben wir die Expansion des Universums nicht durch diese Rotverschiebung gemessen? Nicht wirklich. Statt durch größer werdende Abstände zwischen den Galaxien lässt sich die Rotverschiebung auch durch ein Schrumpfen der Atome erklären: War früher die Masse des Elektrons kleiner, waren die Atome größer und das Licht wurde zu früheren Zeiten weiter im roten Spektrum ausgesendet. Und da das Licht von fernen Galaxien zu früheren Zeiten ausgesendet wird – es braucht ja eine gewisse Zeit, bis es zu uns kommt – waren die Atome bei der Lichtemission größer und daher das emittierte Licht langwelliger. Was wir wirklich gemessen haben, ist ein Anwachsen des Verhältnisses von Galaxienabstand durch den Atomdurchmesser mit der Zeit. Ob sich die Galaxien

52 

C. Wetterich

voneinander entfernen oder die Atome kleiner werden, ist also davon abhängig, welches Bildes man wählt, und kann nicht durch Beobachtungen entschieden werden. Hier noch einmal: Beide Bilder sind durch eine mathematische Abbildung verbunden und gleichwertig. Was sich allerdings messen lässt, sind die Eigenschaften der Dunklen Energie. Nur wenn eine Dynamische Dunkle Energie angenommen wird, sind die beiden Bilder auch für die spätere Geschichte des Universums möglich. Ist die sogenannte kosmologische Konstante für die beschleunigte Expansion verantwortlich, ändern sich die Massen in der heutigen Epoche und in der Vergangenheit nicht  – nur das Standardbild mit konstanten Massen ist dann anwendbar. Seit meiner Vorhersage einer Dunklen Energie einige Jahre vor ihrer Entdeckung glaube ich daran, dass diese dynamisch ist. Falls das Skalarfeld der Dynamischen Dunklen Energie auch für die Anfangsepoche verantwortlich ist, kann man aus der präzisen Vermessung der Eigenschaften der Dunklen Energie Wichtiges über den Beginn des Universums lernen. Dieser bleibt trotz unseres beeindruckenden Wissens über die Geschichte unseres Universums jedoch noch im Nebel. Als weiterführende Literatur seien das Buch von Stephen Hawking [29] und ein Artikel Christof Wetterich [30] empfohlen.

Ein Rätsel der Kosmologie Wie die Antimaterie nach dem Urknall verschwand Konrad Kleinknecht

Vor 100 Jahren, am 25. November 1915, trug Albert Einstein vor der Preußischen Akademie in Berlin sein Ergebnis über Die Feldgleichungen der Gravitation vor – und schloss triumphierend und erleichtert mit dem Satz: „Damit ist endlich die Allgemeine Relativitätstheorie als logisches Gebäude abgeschlossen.“ Seine Theorie schuf eine neue Vorstellung von Raum und Zeit: Der Raum, so schloss Einstein, hat eine Geometrie, bestimmt von den darin befindlichen Massen. Es sind die Massen, die die Krümmung des Raumes erzeugen. Nachdem die Allgemeine Relativitätstheorie mit der spektakulären Bestätigung der Lichtablenkung im Schwerefeld der Sonne im November 1919 ihren Siegeszug durch die Welt angetreten hatte, ging es für Einstein nun darum, weitere Konsequenzen daraus abzuleiten.

Die Entwicklung des Universums und der Urknall Einstein sah von Anfang an die Möglichkeit, mit seiner Theorie der Gravitation die Entstehung und Entwicklung des Universums zu berechnen. Seine ur­sprüngliche Idee war 1916 ein unendlich ausgedehntes statisches

K. Kleinknecht (*) Institut für Physik, Johannes-Gutenberg-Universität Mainz, Mainz, Deutschland Ludwig-Maximilians-Universität München, Garching, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_7

53

54 

K. Kleinknecht

Universum. Das Problem war nur, dass solch ein Universum nicht stabil sein konnte: Es musste entweder durch die Schwerkraft zwischen den Sternen zusammenschnurren, oder die Materie würde sich als Gas im unendlichen Raum zerstreuen. Um eine statische Lösung der Feldgleichungen der Allgemeinen Relativitätstheorie zu erhalten, hätte Einstein unrealistische Annahmen machen müssen. Aber er entdeckte einen Ausweg: Das Universum sollte jetzt – wie die Oberfläche einer Kugel – endlich, aber unbegrenzt sein. Unter dieser Annahme gab es Lösungen der Feldgleichungen. Zu ­seinem Erstaunen fand er aber dann, dass diese Lösungen nicht statisch, sondern zeitlich veränderlich waren  – im Widerspruch zu seinem festen Glauben, das Universum müsse statisch sein, eine materieerfüllte Kugel. Um dieses Bild zu retten, analysierte er die Gleichungen und stellte fest, dass es eine Integrationskonstante gab, die er Null gesetzt hatte, die aber einen endlichen Wert haben konnte. Er führte also 1917 diese Kon­ stante in die Gleichung ein und nannte sie „kosmologische Konstante“; später bezeichnete er sie als seine „größte Eselei“. Mit dieser Konstanten konnte er ein statisches Universum als Lösung bekommen und dessen Radius zu zehn Millionen Lichtjahren bestimmen, ein viel zu kleiner Wert, wie wir heute wissen. Während Einstein am statischen Universum festhielt, gingen andere Kosmologen einen anderen Weg. Der Niederländer Willem de Sitter in Leiden und der Russe Alexander Friedmann in Leningrad fanden Lösungen der Feldgleichungen, die ein expandierendes Universum beschrieben. Auf Friedmanns Veröffentlichung reagierte Einstein im September 1922 abweisend, das Resultat sei verdächtig, also falsch. Acht Monate später musste er zugeben, dass er sich getäuscht hatte: Es waren in der Tat neben den statischen auch dynamische Lösungen möglich. Trotzdem beharrte Einstein darauf, nur die statische Lösung sei physikalisch sinnvoll, weil die seinerzeit beobachtbaren Sterne sich gar nicht oder nur langsam bewegten. Solange es keine experimentellen Daten gab, die seiner These widersprachen, fand er Modelle eines expandierenden Universums „abscheulich“. Das änderte sich erst, als der amerikanische Astronom Edwin Hubble 1929 beobachtete, dass sich bestimmte Galaxien von uns entfernen. Ihre Fluchtgeschwindigkeit lässt sich aus der Rotverschiebung von Spektrallinien von Sternenlicht messen. Wenn die Sterne sich entfernen, werden die Wellenlängen des sichtbaren Lichts vergrößert und die Frequenz der Schwingung wird kleiner  – so wie die Tonhöhe einer Rettungswagensirene sinkt, wenn der Wagen sich von uns entfernt. Schwieriger ist es, den Abstand einer Galaxie von der Erde zu messen. Hubble nutzte dafür eine bestimmte Art von Sternen,

  Ein Rätsel der Kosmologie 

55

die sogenannten Delta-Cepheiden. Bei diesen pulsierenden Sternen fand man eine exakte Beziehung zwischen der absoluten Leuchtkraft und der Dauer der Pulsation. Wenn die absolute Leuchtkraft bekannt ist, lässt sich aus der scheinbaren Helligkeit bei der Beobachtung auf der Erde die Entfernung des Sterns und der ihn umgebenden Galaxie bestimmen: Je kleiner die scheinbare Helligkeit ist, desto weiter ist der Stern entfernt. Nach sechs Jahren astro­ nomischer Beobachtungen hatte Hubble so die Entfernung und die Fluchtgeschwindigkeit von 24 Spiralgalaxien gemessen. Er stellte fest: Je weiter sie entfernt sind, desto schneller bewegen sie sich von uns weg und desto mehr verschiebt sich das von ihnen ausgesandte Licht zum roten Ende des Wellenlängenspektrums. Das Universum dehnt sich hiernach also aus. Das musste auch Einstein einsehen: Seine Vorstellung eines statischen Universums war falsch. Der belgische Astronom Georges Lemaître ging einen Schritt weiter: Unser Standort ist nicht maßgeblich, vielmehr ist jeder Standort in dem endlichen, aber unbegrenzten Universum gleichberechtigt. Jede Galaxie entfernt sich von jeder anderen mit einer Geschwindigkeit proportional zur Entfernung, so wie zwei Punkte auf der Oberfläche eines expandierenden Luftballons. Wenn dies so ist, müssen die Galaxien ursprünglich – am Beginn der Welt  – einmal eng beieinander gewesen sein. Lemaître meinte sogar, die ganze Masse des Universums müsse zu diesem Zeitpunkt im Volumen eines Atoms vereinigt gewesen sein. Aus der heute sehr genau bekannten Hubble-Konstanten, die die Expansion des Universums beschreibt, berechnet man, dass dies vor etwa 13,7 Milliarden Jahren der Fall war: Damals fand der „Urknall“ statt, die Geburt unseres Universums. Einen deutlichen Hinweis auf den Urknall gibt auch die Entdeckung der kosmischen Hintergrundstrahlung durch Arnold Penzias und Robert Wilson [27]. Aus allen Richtungen trifft diese Mikrowellenstrahlung auf die Erde. Die Temperatur dieser Strahlung entspricht 2,7 Grad über dem absoluten Nullpunkt von minus 273  Grad Celsius. Die Strahlung kommt zu uns als abgekühlte Lichtteilchen (Photonen) aus einer fernen Urzeit, nur etwa 380.000 Jahre nach dem Urknall. Sie verrät uns, wie die Bildung der Materieklumpen vor sich ging. Die Temperatur dieser Strahlung zeigt winzige Schwankungen um ein Hunderttausendstel eines Grads. Daraus schließen wir, wie viel Materie der uns bekannten Art damals vorhanden war: Es sind nur vier Prozent der gesamten Masse des Universums. Der Rest, dessen Natur wir noch nicht kennen, besteht aus nicht leuchtender „Dunkler“ Materie und, wie sich in den letzten Jahren gezeigt hat, aus der rätselhaften „Dunklen Energie“.

56 

K. Kleinknecht

Antimaterie Eine weitere Entdeckung, die Einstein noch nicht bekannt war, ist die Existenz von Antimaterie. Den ersten Anstoß dazu gab 1928 Paul Adrienne Maurice Dirac, als er nach Heisenbergs Erfindung der Quantenmechanik eine erweiterte Formulierung dieser Theorie vorschlug, die Dirac-Gleichung. Hieraus ergeben sich für ein Elementarteilchen zwei Lösungen mit entgegengesetzter elektrischer Ladung. Wenn also die eine Lösung der Gleichung einem negativ geladenen Elektron entspricht, so gibt es eine (unerwartete) zweite Lösung mit positiver Ladung und gleicher Masse – ein „Anti-Elektron“. Im Jahr 1933 gelang es Carl Anderson, dies nachzuweisen. In der Höhenstrahlung fand er ein Teilchen mit derselben Masse und demselben Spin wie das Elektron, aber mit positiver elektrischer Ladung – das erste Antiteilchen war entdeckt. Anderson nannte das Teilchen deshalb Positron (positives Elek­ tron). Es ist sehr kurzlebig, weil es beim Zusammenstoß mit einem Elektron der normalen Materie vernichtet wird. Mehr als 20 Jahre später, 1955, wurde im Beschleunigerlabor Berkeley auch das Antiteilchen zum Proton erzeugt und nachgewiesen, das negativ geladene Antiproton. Und so ging es fort: Für alle in der Folge entdeckten Elementarteilchen wurde auch jeweils ein Antiteilchen gefunden. Sie bilden die „Antimaterie“. Antiteilchen haben die entgegengesetzt gleichen Quantenzahlen wie ihre Teilchenpartner (Ladung, Leptonzahl, Baryonzahl, etc.). Die Summe der einzelnen Quantenzahlen, etwa die Ladung, ist bei jeder Reaktion erhalten. Bei jeder Erzeugung von Bausteinen der Materie aus Lichtenergie gemäß der Einstein’schen Beziehung zwischen Energie und Masse E = mc2 müssen deshalb zwei Teilchen entstehen, die sich die Energie teilen. Als Beispiel ist in Abb. 1 die Erzeugung eines Elektrons e− und eines Anti-Elektrons (Positron) e+ aus einem Lichtquant gezeigt, wie sie in einer Blasenkammer an einem Beschleuniger fotografiert werden kann. In ähnlicher Weise wurden auch alle anderen Grundbausteine der Materie paarweise aus Licht (Photonen) erzeugt: Die Elektronen und ihre „schweren Brüder“ (Myonen und Tau-Leptonen) mit ihren Antiteilchen, die drei Neutrinos mit Antineutrinos und die elementaren Bestandteile der Kernbausteine, die Quarks und Antiquarks (siehe Tab. 1).

Symmetrische Naturgesetze Anfang des 20. Jahrhunderts zeigte Emmy Noether in Göttingen, dass aus jeder Symmetrie einer physikalischen Gleichung ein Erhaltungssatz für eine entsprechende Größe folgt. So führt die Symmetrie der physikalischen Gesetze bei

  Ein Rätsel der Kosmologie 

e+

57

e–

γ

A

π

Abb. 1  Erzeugung eines Elektron-Positron Paares aus einem Photon in einer Blasenkammer (links); schematische Zeichnung des Prozesses (rechts): am Punkt A erzeugt ein von unten einfallendes Pion ein Photon (gestrichelte Linie). Das Photon verwandelt sich in ein Elektron und ein Positron, deren Bahnen aufgrund ihrer Ladung im Magnetfeld gekrümmt sind. Längs ihrer Bahn ionisieren geladene Teilchen die Atome der Blasenkammer; diese Ionen dienen als Keime für Gasblasen, die die Bahn sichtbar machen. Tab. 1  Elementarbausteine der Materie. Die Massen der Elementarbausteine werden üblicherweise in GeV (Milliarden Elektronenvolt) angegeben. Ein Elektron, das eine Spannungsdifferenz von einem Volt durchläuft, gewinnt eine Energie von einem Elektronenvolt. Die Leptonen e−, μ− und τ− tragen die (negative) elektrische Elementarladung e, die Neutrinos sind ungeladen. Sie haben nur eine sehr kleine Masse. Die Quarks haben drittelzahlige Ladungen: u, c, t haben 2/3e, d, s, b haben –1/3e. Elektronen, Neutrinos und Quarks haben einen inneren Drehimpuls, einen „Spin“, sie rotieren um ihre eigene Achse. Freie Quarks wurden noch nie beobachtet, ihre Masse kann nur mithilfe von Modellen bestimmt werden. Baryonen enthalten drei Quarks; das Proton zum Beispiel enthält zwei u-Quarks und ein d-Quark. Mesonen enthalten ein Quark und ein Antiquark: Ein u-Quark und ein Anti-d-Quark bilden ein π+Meson, ein Anti-s-Quark und ein d Quark ein K0-Meson, ein s-Quark und ein Anti-d-­Quark ein Anti-K0- Meson. In normaler Materie treten nur die Teilchen der ersten Familie auf (e−, νe , u, d). Die anderen Teilchen können zwar in Experimenten erzeugt werden, spielten aber nur in der Frühphase des Universums eine Rolle. Leptonen

Quarks

e− (Masse.c2 = 0,0005 GeV)νe

u (Masse.c2 = 0,0022 GeV) d (Masse.c2 = 0,0047 GeV) c (Masse.c2 = 1,27 GeV) s (Masse.c2 = 0,096 GeV) t (Masse.c2 = 160 GeV) b (Masse.c2 = 4,18 GeV)

μ− (Masse.c2 = 0,106 GeV)νμ τ− (Masse.c2 = 1,78 GeV)ντ

58 

K. Kleinknecht

einer Verschiebung (Translation) eines Experiments im Raum dazu, dass der Impuls erhalten bleiben muss. Die Symmetrie bei Drehungen im Raum führt zur Erhaltung des Drehimpulses. Und aus der Symmetrie bei einer Verschiebung in der Zeit folgt, dass die Energie erhalten bleibt. Diese Erhaltungssätze gelten in der Makrowelt genauso wie in der Mikrowelt der kleinsten Teilchen. Was aber ist mit der Symmetrie der Naturgesetze bei Spiegelungen? Wie laufen physikalische Vorgänge in einem Experiment und seinem spiegelbildlichen Experiment ab? Die Raumspiegelung wird Paritätsoperation P genannt. Experimentelle Tests zeigen, dass sowohl die Gravitation als auch die elektromagnetische Wechselwirkung und die Kernkraft sich unter der Paritätsspiegelung P symmetrisch verhalten. Auch bei einer anderen Art von Spiegelung, der sogenannten Ladungskonjugation C, bei der jedes Teilchen in sein (entgegengesetzt geladenes) Antiteilchen verwandelt wird – Materie sich also in Antimaterie „spiegelt“ – verhalten sich die drei Kräfte symmetrisch bezüglich dieser Spiegelung.

Symmetriebrechung in der schwachen Kraft Die schwache Kraft ist viel schwächer als die elektromagnetische Kraft, aber stärker als die Gravitation. Diese Kraft verursacht den radioaktiven Zerfall von Atomkernen und Elementarteilchen, den sogenannten „ß-­Zerfall“, bei dem ein Elektron und ein Antineutrino entstehen. Sie ist unter den vier Naturkräften die einzige, die sich bezüglich der Spiegelungsoperation nicht symmetrisch verhält: Sie hat beim radioaktiven Zerfall eine eindeutige Präferenz für die Emission von linksdrehenden („linkshändigen“) Elektronen und von linksdrehenden Neutrinos. Wenn dagegen Antiteilchen bei einem radioaktiven ß-Zerfall entstehen, sind sie ganz überwiegend rechtsdrehend („rechtshändig“). Dies verletzt die Spiegelsymmetrie oder Parität P  – und zugleich auch die Materie-Antimaterie-Symmetrie: Der ß-Zerfall eines Neutrons findet kein exaktes Spiegelbild im C-Spiegel, weil es kein rechtshändiges Neutrino gibt. Womöglich, so die Vermutung, bietet diese schwache Kraft auch eine Lösung für die Frage der Brechung der CP-Symmetrie zwischen Materie und Antimaterie.

Das expandierende asymmetrische Universum Wir können uns den Urknall so vorstellen, dass aus einer ungeheuren Menge von Energie in der Form von Licht bei großer Hitze Materie entsteht. Nach den Gesetzen der Physik sind die dabei wirkenden Kräfte symmetrisch

  Ein Rätsel der Kosmologie 

59

bezüglich Materie und Antimaterie: Es muss gleich viel Materie und Antimaterie entstehen. Das heißt, es muss jeweils ein Materieteilchen und das entsprechende Antimaterieteilchen erzeugt werden, also beispielsweise ein Elektron und ein Antielektron oder ein Quark und ein Antiquark gleichzeitig. Beim Urknall befanden sich die so erzeugten Teilchen miteinander im thermodynamischen Gleichgewicht und bildeten einen heißen Feuerball aus Quarks, Antiquarks, Leptonen, Antileptonen und Photonen. Diese etwa 1032 Grad heiße Masse expandierte dann rasch und kühlte ab. In einem so heißen, von Teilchen gleichmäßig erfüllten Raum entspricht die thermische Energie bei der Temperatur T einer mittleren Energie der Teilchen. Als die mittlere Energie der Teilchen unter 1 GeV absank – das entspricht einer Temperatur von 1013 Grad -, wurde die Bewegungsenergie der Quarks und Antiquarks vergleichbar mit der Bindungsenergie der Quarks in Mesonen. Sie begannen deshalb, sich zu kurzlebigen Mesonen zu vereinen, die dann in stabile Teilchen zerfielen. Beispielsweise konnten sich aus Quarks und Antiquarks neutrale π-Mesonen bilden, die nach 10−16 Sekunden zu zwei Photonen zerstrahlten. Oder drei Quarks konnten sich zu einem Proton, drei Antiquarks zu einem Antiproton zusammenfügen. Aus diesen Elementarteilchen bildeten sich im Laufe der Expansion des Universums Wasserstoffatome, die Grundsubstanz der Sterne. Wenn alle Kräfte symmetrisch auf Materie und Antimaterie einwirkten, wäre am Ende dieses Prozesses nur noch das Licht übrig geblieben. Alle Materie hätte sich beim Kontakt mit Antimaterie vernichtet, und nur die allein übrigen Photonen würden den Weltraum erfüllen. Bei der weiteren Expansion des Universums haben sich die Photonen immer stärker abgekühlt und ihre Wellenlänge wurde immer weiter in den Infrarotbereich verschoben. Diese Photonen bilden die oben erwähnte Mikrowellenstrahlung aus dem Kosmos, die „kosmische Hintergrundstrahlung“. Heute enthält jeder Kubikmeter des Raumes 400 Millionen Photonen dieser Strahlung. Aber es gibt nicht nur Photonen: Die leuchtende Materie unseres Universums besteht aus 100 Milliarden Galaxien mit je 100 Milliarden Sternen. Wenn wir alle Sterne erfassen und ihre gesamte Masse abschätzen, finden wir in zehn Kubikmetern des Weltraums nur ein Proton. Das entspricht einer Materiedichte von 10−7 Protonen pro Kubikzentimeter. Zum Vergleich können wir die Dichte der Photonen der Hintergrundstrahlung heranziehen, und die beträgt 400  Photonen pro Kubikzentimeter. Beim Urknall müssen aber gleich viele Photonen und Protonen sowie Antiprotonen vorhanden gewesen sein. Die heute vorhandene Menge an Sternmaterie beträgt also nur den zehnmilliardsten Teil der

60 

K. Kleinknecht

ursprünglich erzeugten, und die damals produzierte Antimaterie ist völlig verschwunden. Wie kann man aber verstehen, dass sich nicht alle Materie und Antimaterie gegenseitig vernichtet hat, sondern dass ein kleiner Teil der Materie  – nämlich die heute in unserem Universum vorhandene Materie  – und überhaupt keine Antimaterie übriggeblieben ist? Dieses Rätsel beschäftigt die Physiker seit langem. Der erste, der die für eine Erklärung notwendigen Bedingungen formulierte, war im Jahre 1967 der russische Physiker und Dissident Andrej Sakharov. Er stellte fest, dass das Verschwinden der Antimaterie und die Bildung eines kleinen Überschusses von Materie nur dann möglich war, wenn –– es eine Kraft gibt, die die Symmetrie zwischen Materie und Antimaterie zerstört („verletzt“), –– es eine Kraft gibt, die die Zahl der schweren Teilchen geringfügig verändert und –– es bei der Expansion des Universums Phasen gibt, in denen das thermodynamische Gleichgewicht nicht gilt. Die erste Bedingung bedeutet, dass unsere Annahme, alle Kräfte wirkten symmetrisch auf Materie und Antimaterie, falsch gewesen sein muss. Die zweite bedeutet, dass auch Protonen nicht unbegrenzt stabil sind (allerdings liegen die experimentellen Grenzen für die Lebensdauer der Protonen bei mehr als 1031 Jahren!). Die dritte Bedingung lässt sich in kosmologischen Modellen auf verschiedene Weise erfüllen: Eine Möglichkeit ist die sehr schnelle „inflationäre“ Expansion (siehe die Beiträge von Matthias Bartelmann und Christof Wetterich), eine andere besteht in einem starken Phasenübergang 1. Ordnung der elektroschwachen Wechselwirkung im Standardmodell. Hier soll es nur um die erste Bedingung Sakharovs gehen. In den vergangenen 50 Jahren wurden Experimente an Teilchenbeschleunigern unternommen, um diese Bedingung zu klären. Die experimentelle Suche galt einer Kraft, die sich bezüglich Materie und Antimaterie asymmetrisch verhält. Diese Kraft muss in den frühen Phasen des Universums bei Temperaturen von 1032 Grad einen geringen Überschuss von Quarks über Antiquarks von etwa einem Milliardstel bewirkt haben. Es könnte zum Beispiel sehr schwere Teilchen gegeben haben, die geringfügig häufiger in Quarks als in Antiquarks zerfielen („X-Teilchen“). Bei der anschließenden Vernichtung von Quarks und Antiquarks wäre dieser Überschuss erhalten geblieben und hätte die Kernmaterie und zusammen mit den Elektronen die Atome des Universums gebildet.

  Ein Rätsel der Kosmologie 

61

 rechung der Symmetrie zwischen Materie und B Antimaterie durch die schwache Kraft Bei der Frage nach einem Probeteilchen für die experimentelle Suche bietet sich das in der Natur nahezu einmalige System der neutralen K-Mesonen an. Diese tragen die Quantenzahl S (Seltsamkeit, strangeness), die in starken und elektromagnetischen Wechselwirkungen erhalten ist, sich jedoch in schwachen Wechselwirkungen ändern kann. Das Antiteilchen des K0-Mesons mit S = +1 ist das Anti- K0- Meson mit S = −1. Das K0-Meson ist also unterscheidbar von seinem Antiteilchen. Falls wir die CP-Invarianz der schwachen Wechselwirkung annehmen, sind die realen Teilchen Mischungen aus K0und Anti-K0- Teilchen, eines mit kurzer und eines mit langer Lebensdauer. Falls die schwache Wechselwirkung auf Teilchen und Antiteilchen in gleicher Weise wirkt, kann das langlebige Teilchen (mit CP = −1) wegen der Symmetriebedingung nicht in zwei π-Mesonen zerfallen.

CP-Verletzung Im Jahr 1964 entdeckten die amerikanischen Physiker James Christenson, James Cronin, Val Fitch und René Turlay [31], dass das langlebige K-Meson – anders als erwartet – doch zu einem geringen Anteil in zwei π-Mesonen zerfällt: Die CP-Verletzung in der schwachen Wechselwirkung war nachgewiesen. Der langlebige Zustand KL ist deshalb kein reiner Zustand mit CP = −1, sondern enthält eine kleine Beimischung ε mit CP = +1. Eine Serie von Experimenten in den Jahren 1965 bis 1974 hat gezeigt, dass dieser Parameter ε eine Größe von etwa 2,27 Promille hat [32]. Von verschiedenen theoretischen Modellen, diesen Sachverhalt zu beschreiben, blieben danach nur noch zwei übrig: –– Das Modell einer ad hoc erfundenen fünften sehr schwachen Wechsel­ wirkung von Lincoln Wolfenstein („superweak interaction“) [33] und –– die Erklärung im Rahmen des Standardmodells der schwachen Quarkmischung durch Makoto Kobayashi und Toshihide Maskawa [34, 35]. Die von Wolfenstein postulierte superschwache Kraft hat den Nachteil, dass sie ganz und gar nicht in den Rahmen des durch viele experimentelle Fakten gestützten Standardmodells der fundamentalen Kräfte passt. Im Gegensatz

62 

K. Kleinknecht

hierzu erklärt das Modell von Kobayashi und Maskawa (KM) diese Beimischung als Effekt der schwachen Kraft, sagt aber darüber hinaus noch weitere beobachtbare CP-verletzende Phänomene voraus. Insbesondere wird in diesem Modell der direkte Zerfall des langlebigen K0-Teilchens mit CP = −1 in zwei π-Mesonen mit CP = +1 durch eine CP-verletzende Komponente der schwachen Wechselwirkung vorausgesagt. Die Amplitude für diesen Prozess wird mit ε′ bezeichnet; sie sollte im KM-Modell eine endliche Stärke von etwa einem Millionstel der schwachen Kraft haben. Im superschwachen Modell dagegen wäre ε′ = 0.

Schlüsselexperimente zur direkten CP-Verletzung Um zwischen diesen beiden Möglichkeiten zu entscheiden, wurden in den Jahren 1980 bis 2008 an den Beschleunigerlaboratorien CERN in Genf und Fermilab bei Chicago große experimentelle Anstrengungen unternommen. In den Experimenten wurden die vier Zerfallsraten der KS – und KL -Mesonen in zwei neutrale π-Mesonen beziehungsweise in zwei geladene π-Mesonen sehr genau gemessen. Das erste Experiment am CERN (North Area 31) stellte im Jahre 1988 nach vier Jahren Messzeit fest, dass ε′ nicht gleich Null ist und somit die direkte CP-Verletzung existiert [36, 37] – fünf Jahre später bestätigt durch das Ergebnis weiterer Messungen aus demselben Experiment. Damit war 24 Jahre nach der Entdeckung der CP- Verletzung zum ersten Male die direkte CP-Verletzung im Zerfall neutraler K-Mesonen beobachtet worden – und die superschwache Kraft ausgeschlossen. Der Zahlenwert der Amplitude ε′ wurde in den Jahren 1995 bis 2004 durch zwei Experimente am CERN in Genf (NA48) und am Fermilab in Chicago (KTeV) noch genauer gemessen. Sie bestätigten das Resultat des NA31-Experimentes: Der Messwert von ε′, also die Stärke der CP-verletzenden Kraft, liegt bei 3,8 Millionstel der schwachen Kraft (oder alternativ hat ε′/ε die Größe 1,68 Promille) [38–40]. Dies untermauert die ursprüngliche Beobachtung, dass ε′ nicht gleich Null ist und die direkte CP-Verletzung existiert. Das Ergebnis entspricht den Berechnungen im Rahmen des Kobayashi-Maskawa-Modells für drei Quarkgenerationen, wie sie etwa von Andrzej Buras und Jean-Marc Gérard gemacht wurden [41–45]. Die Experimente weisen nach, dass sich die beobachtete CP-verletzende Kraft auf natürliche Weise aus der Theorie der schwachen Wechselwirkung von drei Quark-Generationen ergibt. Sie ist ein kleiner Teil dieser schwachen Kraft.

  Ein Rätsel der Kosmologie 

63

Schlussbemerkung Die Entdeckung der direkten CP-Verletzung zeigte, dass die schwache Wechselwirkung zwischen Quarks die Symmetrieverletzung verursacht – ein erster Schritt, die Asymmetrie zwischen Materie und Antimaterie zu verstehen. Um den kleinen Überschuss an Materie beim Urknall zu erklären, reicht dies allerdings nicht aus. Bei Experimenten am Speicherring LHC bei CERN zeigte sich im Jahr 2012, dass das neu entdeckte Higgs-Boson schwerer als 100 Protonen ist. Dadurch verändern sich die theoretischen Berechnungen über den Materieüberschuss im Universum; die beobachtete CP- Verletzung im Zerfall der K0-Mesonen kann den Effekt nach wie vor nur zu einem kleinen Teil erklären. Auch beim Zerfall schwerer Mesonen oder Baryonen (mit b-Quarks) wurde eine CP Verletzung gefunden [46, 47], aber auch sie reicht nicht aus, um den Materieüberschuss zu erklären. Eine weitere, stärkere CP-Symmetrieverletzung in einem anderen Sektor der Elementarteilchenphysik könnte die Ursache sein. Bis heute wurde diese noch stärkere Brechung der CP-Symmetrie allerdings nicht gefunden. Es ist jedoch möglich, dass diese stärkere CP-Verletzung auf dem Gebiet der geladenen Leptonen und Neutrinos auftritt [49]. Oder es könnte in der ganz frühen Phase des Universums bis heute unbekannte Teilchen gegeben haben, deren CP-verletzende Zerfälle den Überschuss an Materie bewirkt haben [48]. Auch für diese Teilchen wurde noch keine experimentelle Evidenz gefunden. Es ist daher weiterhin unklar, was der Grund dafür ist, dass die Antimaterie verschwand und dass es heute in unserem Universum nur noch Materie gibt – eine der faszinierendsten offenen Fragen der Physik, die immer noch auf eine überzeugende Antwort wartet.

Supernovae Explodierende Sterne als Leuchttürme im Universum Friedrich Röpke

Sternexplosionen Supernovae sind explodierende Sterne  – und stehen in gleich mehrfacher Hinsicht für „explodierende Vielfalt“. Sie gehören zu den energiereichsten Ereignissen im heutigen Universum, sie markieren die Endpunkte der Sternentwicklung und sie erzeugen das Material, aus denen die folgenden Generationen von Sternen gebildet werden. Sie sind quasi „Multiplikatoren“ in der chemischen Entwicklung des Universums. Erklärt werden Supernovae nicht durch einen einzelnen astrophysikalischen Mechanismus, vielmehr werden Klassen von Objekten unterschieden, die mit vielfältigen physikalischen Prozessen in Verbindung gebracht werden. Nicht zuletzt haben Supernovae in der Geschichte der Astronomie eine herausragende Rolle gespielt; ihre Beobachtung hat wichtige Komponenten unseres kosmologischen Weltbildes geprägt. Die 2011 mit dem Nobelpreis für Physik ausgezeichnete Entdeckung der beschleunigten Expansion unseres Universums etwa hat zur grundsätzlichen Erkenntnis geführt, dass dieses Universum aus mehr besteht als aus normaler Energie und Materie (siehe Beiträge von Mathias Bartelmann und Christof Wetterich). Schon lange vor dieser bahnbrechenden Entdeckung, in der Zeit um 1600, trugen Beobachtungen von Supernovae zur Durchsetzung des modernen F. Röpke (*) Heidelberg Institute for Theoretical Studies, Universität Heidelberg, Heidelberg, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_8

65

66 

F. Röpke

kosmologischen Weltbildes bei. Sie hatten zum Beispiel entscheidenden Anteil an der kopernikanischen Wende. Besonders ist dies mit der Untersuchung der Supernova von 1572 durch den dänischen Astronomen Tycho Brahe verbunden. Ihm standen seinerzeit neue, revolutionäre Messtechniken zur Verfügung, und die Konstruktion neuer astronomischer Instrumente machten es ihm möglich, die Position von Himmelskörpern mit zuvor unerreichter Genauigkeit zu bestimmen. Solche Messungen brauchte es, um die dreidimensionale Struktur des Universums zu rekonstruieren. Direkt zugänglich ist uns schließlich nur die zweidimensionale Projektion am Himmel; die Entfernungen zu astronomischen Objekten zu bestimmen, bedarf besonderer Methoden. Eine klassische Technik hierfür ist die Parallaxenbestimmung. Sie beruht darauf, dass sich der zu vermessende Stern vor dem Hintergrund viel weiter entfernter Sterne zu bewegen scheint, weil wir als Beobachter mit dem Umlauf der Erde um die Sonne über das Jahr verschiedene Blickwinkel einnehmen. Diese scheinbare Verschiebung der Position ist umso kleiner, je weiter der betreffende Stern von uns entfernt ist. So konnte Brahe trotz seiner hoch präzisen Beobachtungen keine Parallaxe für SN 1572 feststellen. Damit handelte es sich nach damaliger Auffassung um ein Objekt aus der Sphäre der weit entfernten Fixsterne. Dort sollte es jedoch nach dem bis dahin als gültig angesehenen Weltbild des Aristoteles keine Variationen geben. Die scheinbar aus dem Nichts aufleuchtende Supernova von 1572, die nach dem Erreichen einer maximalen Helligkeit über Tage und Wochen dunkler wurde, stand mit ihrer zeitlichen Veränderung im eklatanten Widerspruch dazu. Die Ergebnisse seiner Studien legte Tycho Brahe in einem der für die Entwicklung der Astronomie als wissenschaftliche Disziplin wichtigsten Bücher dar: „De Stella Nova“, so der Titel, unter dem es heute geführt wird. Darin prägte Brahe den Begriff „Nova“ für einen scheinbar neuen Stern. Solche Novae wurden auch in den folgenden Jahrhunderten beobachtet, allerdings waren sie, wie sich herausstellte, nicht so hell, wie die von Tycho Brahe und die wenig später – im Jahr 1604 – von Johannes Kepler beobachteten Objekte. Ernst Hartwig entdeckte 1885 eine „Nova“ im Andromedanebel. Dass es sich hierbei um ein besonderes Ereignis handelt, welches sich in seinen Eigenschaften von den klassischen Novae fundamental unterscheidet, wurde erst im frühen 20. Jahrhundert klar, als sich die Erkenntnis durchsetzte, dass es sich bei „Nebeln“ um ferne Galaxien handelt. Knut Lundmark bestimmte 1919 den Abstand zur Andromedagalaxie. Da ihre Entfernung sehr groß ist, musste die dort beobachtete „Nova“ viel mehr Leuchtkraft besessen haben, als die klassischen Ereignisse, die in der Zeit nach Brahe und Kepler in der Milchstraße

 Supernovae 

67

beobachtet worden waren. In den 1930er-Jahren haben die Astronomen Walter Baade und Fritz Zwicky solche um Größenordnungen helleren Ereignisse systematisch untersucht und prägten dafür die Bezeichnung „Supernovae“.

Was wird beobachtet? Die wichtigsten Beobachtungsgrößen von Supernovae sind ihre Lichtkurven und Spektren. Lichtkurven zeichnen die Helligkeit des Objekts als Funktion der Zeit auf, üblicherweise in bestimmten optischen Filterbändern. Eine typische Supernova wird über einige Tage heller, erreicht ein Maximum und verdunkelt sich dann wieder über Tage, Wochen und Monate. Ihre Überreste sind noch Jahrhunderte mit modernen Instrumenten beobachtbar. Die maximal erreichte Helligkeit liegt im Bereich von einigen Milliarden Sonnenleuchtkräften und kommt somit der Helligkeit einer gesamten Galaxie nahe. Spektren, die durch Aufspaltung des von der Supernova ausgesandten Lichts gewonnen werden und dessen Verteilung über die Wellenlänge wiedergeben, liefern wertvolle Hinweise auf die in Supernovae ablaufenden physikalischen Prozesse. Linien in ihnen entstehen durch quantenmechanische Übergänge in der Struktur der Hülle von Atomen, mit denen das Licht wechselwirkt, und sind für jedes chemische Element charakteristisch. So lässt sich aus der Position der Spektrallinien auf die chemische Zusammensetzung der Explosionswolke schließen. Auch die astronomische Klassifizierung von Supernovae basiert auf solchen Spektraleigenschaften: Objekte vom Typ II zeigen Spektrallinien, die Wasserstoff zugeordnet werden; bei Supernovae vom Typ I fehlen Hinweise auf Wasserstoff. Typ I Supernovae unterscheidet man weiterhin in Objekte mit starken Heliumlinien (Typ Ib) und solche, die weder Helium noch Wasserstoff enthalten (Typen Ia und Ic). Für diese beiden Typen liefern die Spektrallinien deutliche Hinweise auf Elemente der Eisengruppe und sogenannte mittelschwere Elemente in der Explosionswolke wie zum Beispiel Silizium, Schwefel und Kalzium. Sie werden anhand charakteristischer Spektrallinien unterschieden. Typ Ia Supernovae werden durch eine besonders prominente Siliziumlinie bei einer Wellenlänge von 615 Nanometern klassifiziert.

Wie erklären Astrophysiker Supernovae? Die Lage der in Supernovae entstandenen Spektrallinien weicht von der im Labor gemessenen ab. Die in Typ Ia Supernovae bei 615 Nanometern beobachtete Siliziumlinie hat in Experimenten beispielsweise eine Wellenlänge von

68 

F. Röpke

635,5 Nanometern. Diese Verschiebung ist ein Maß dafür, wie schnell sich das in der Supernova ausgestoßene Material von uns fortbewegt: Der Dopplereffekt, der uns von der Sirene überholender Rettungswagen aus dem Alltag vertraut ist, verschiebt ein Signal von sich schnell auf uns zu bewegenden Quellen (wie dem Teil der Explosionswolke, der in unsere Richtung ausgestoßen wird) zu kürzeren Wellenlängen – ein Effekt, der mit der Geschwindigkeit anwächst. In Supernovae findet man typischerweise Werte von etwa 10.000 Kilometern pro Sekunde. Das gesamte Material eines Sterns muss also in der Explosion auf solch hohe Geschwindigkeiten beschleunigt werden. Woher aber kommt die dafür benötigte Energie?

Was ist die Quelle der Explosionsenergie? Ein Stern hat nur zwei Energiequellen, die eine so gewaltige Explosion speisen können. Dies führt zu zwei physikalisch grundsätzlich verschiedenen Arten von Supernovae, die mit der empirischen astronomischen Klassifizierung in Beziehung stehen. Das Material eines Sterns ist durch Eigengravitation gebunden. Dem wirkt ein Druckgradient entgegen, der durch nukleare Reaktionen im Inneren des Sterns aufrechterhalten wird, und deshalb ist eine Stabilisierung möglich. Erlischt dieses „stellare Brennen“, so wirkt der Gravitationskraft nichts mehr entgegen, und der Stern kontrahiert: Die Dichte des Materials nimmt drastisch zu und quantenmechanische Effekte werden wichtig. Das Pauli-Prinzip „verbietet“ es aber, dass zwei Fermionen in einem System den gleichen Quantenzustand einnehmen. Die (fermionischen) Elektronen des ionisierten Sternmaterials lassen sich daher nicht auf ein beliebig kleines Raumgebiet komprimieren. Hierdurch entsteht ein sogenannter Entartungsdruck, der der gravitativen Kompression entgegenwirkt und den Kern leichterer Sterne stabilisiert. Die äußere stellare Hülle wird dabei abgestoßen, und ein Weißer Zwergstern bildet sich – ein Objekt von der Größe eines Planeten, das etwa die Masse der Sonne enthält. Für Sterne oberhalb von circa sieben bis acht Sonnenmassen ist eine solche Stabilisierung nicht mehr möglich. Elektronen (e) werden in den Kern „hi­ neingedrückt“, und Protonen (p) wandeln sich unter Emission eines Neutrinos um in Neutronen (p  +  e  →  n  +  νe): Der Stern kollabiert zu einem Neutronenstern – bei dem die Stabilisierung durch Kernkräfte und den Entartungsdruck der Neutronen erfolgt – oder im Extremfall zu einem Schwarzen Loch. Dabei wird etwa hundertfach so viel Energie freigesetzt wie notwendig

 Supernovae 

69

ist, um die Beschleunigung des Explosionsmaterials in einer Supernova zu ­erklären. In der Tat werden fast alle Klassen dieser Ereignisse durch solche Gravitationskollaps-Supernovae beschrieben  – genauer gesagt diejenigen Supernovatypen, die in jungen Sternpopulationen beobachtet werden. Die einzige Ausnahme bilden Supernovae vom Typ Ia. Sie kommen auch in Umgebungen von alten Sternen ohne aktive Sternentstehung vor und stammen somit von leichteren Sternen, für die ein Gravitationskollaps nicht möglich ist. Hier muss demnach das zweite stellare Energiereservoir zur Explosion führen – und das ist die Kernenergie des Materials. Sie kann durch Fusion leichterer Kerne bis hin zu den am stärksten gebundenen Isotopen – denen der Eisengruppe – freigesetzt werden. Weiße Zwerge bestehen meist aus einem Gemisch von Kohlenstoff und Sauerstoff, massivere Vertreter auch aus Sauerstoff und Neon. Dieses Material kann durch Fusion bis hin zu Eisengruppenelementen Energie erzeugen – bei dem Material einer Sonnenmasse wird dabei etwa die Energie frei, die eine Supernova erklären würde. Daher werden Typ Ia Supernovae als thermonu­ kleare Explosionen von Weißen Zwergsternen modelliert. So versteht man auch, warum ihre Spektren keine Anzeichen von Wasserstoff und Helium zeigen, obwohl die meisten Sterne zum großen Teil aus diesen Elementen bestehen. Wenn sich ein Weißer Zwergstern bildet, werden die äußeren Schichten abgestoßen, die hauptsächlich Wasserstoff und Helium enthalten. Auf dem zurückbleibenden Kern ist davon fast nichts mehr vorhanden. In ihrer Energiequelle und im Explosionsmechanismus unterscheiden sich thermonukleare Supernovae also fundamental von Gravitationskollaps-Supernovae.

Wie zündet eine Supernova-Explosion? Ein Gravitationskollaps ist die natürliche und unvermeidliche Konsequenz der Entwicklung von massereichen Sternen. Wie im vorhergehenden Abschnitt beschrieben, wird die Stabilisierung gegen die Gravitation erreicht, indem sich durch Kernreaktionen ein thermischer Druckgradient aufbaut. Zunächst „brennt“ (fusioniert) Wasserstoff zu Helium. Ist der Wasserstoff verbraucht, kontrahiert der Stern, bis Bedingungen erreicht werden, unter denen Helium zu Kohlenstoff fusioniert. Damit ist das Brennprodukt einer Brennphase der Ausgangsstoff für die darauffolgende Brennphase. Bei Sternen von mehr als etwa zehn Sonnenmassen ist das immer wieder möglich, bis mit Elementen der Eisengruppe (Eisen, Cobalt, Nickel) die am stabilsten gebundenen Isotope erzeugt werden. Weitere Kernfusionsreaktionen können dann nicht

70 

F. Röpke

mehr unter Energiegewinnung ablaufen. Wächst die Masse des Eisenkerns nun an, wird er irgendwann instabil und kollabiert unter seiner Eigengravitation. Bildet sich, wie man für extrem schwere Sterne erwartet, ein Schwarzes Loch, so ist keine helle Supernova zu beobachten. Bei etwas leichteren Sternen stoppt der Kontraktionsprozess jedoch, sobald das Material die Dichte von Atomkernmaterie erreicht. Hier beginnen die Kernkräfte zu wirken, die den Stern stabilisieren können. Ein Neutronenstern entsteht und die äußeren Schichten des Ausgangssterns werden in einer Supernova-Explosion abgesprengt. Massive Sterne konnten in Beobachtungen als Vorläufer von Gravitationskollaps-Supernovae identifiziert werden, was das theoretische Modell bestätigt. Bei thermonuklearen Supernovae ist die Zündung weniger klar. Es gibt bisher keine direkte Beobachtung eines Vorläufersystems einer normalen Typ Ia Supernova – ein fundamentales Problem für das Verständnis der Physik hinter diesen kosmischen Explosionen. Ein Weißer Zwergstern erreicht in seiner Entwicklung nämlich nicht einfach Bedingungen, unter denen thermonu­ kleares Brennen in seinem Material beginnt. Der quantenmechanische Entartungsdruck der Elektronen stabilisiert ihn, doch anders als bei der Erzeugung von thermischem Druck in Kernreaktionen ist dieser Prozess nicht aus einer endlichen Energiequelle gespeist. Daher sind Weiße Zwergsterne bis in alle Ewigkeit stabil. Sie kühlen langsam aus und werden dunkler, so dass sie irgendwann nicht mehr beobachtet werden können. Hier erfordert die Zündung einer Explosion daher die Wechselwirkung mit einem Begleitstern. Welche Sterne hierfür infrage kommen und unter welchen Bedingungen die Explosion zustande kommt, ist aber bisher nicht geklärt. Eines der diskutierten Szenarien nimmt an, dass sich ein Weißer Zwerg und ein normaler Stern in einem Doppelsystem so nahekommen, dass Material des Begleiters auf den Weißen Zwerg übertragen wird. Dadurch nimmt seine Masse zu. Die Quantenmechanik stabilisiert den Stern aber nur bis zu einem Grenzwert von 1,4 Sonnenmassen, wie der aus Indien in die USA ausgewanderte Astrophysiker Subrahmanyan Chandrasekhar unter Berücksichtigung von relativistischen Effekten feststellte. Entwickelt sich der Weiße Zwerg auf die nach ihm benannte Chandrasekhar-Grenzmasse hin, so wird die Dichte in seinem Zentrum immer höher. Die Fusion von Kohlenstoff beginnt und letztendlich zündet eine thermonukleare Explosion. Ein anderes Modell geht von einem System aus zwei Weißen Zwergsternen aus, die sich unter Aussendung von Gravitationswellen immer weiter annähern und schließlich verschmelzen. Nach derzeitigem Kenntnisstand ist es sehr wahrscheinlich, dass es dabei zu einer thermonuklearen Explosion kommt.

 Supernovae 

71

Wie läuft die Sternexplosion ab? Für Gravitationskollaps-Supernovae ist die Natur des Vorläufersterns bekannt, aber ihr Explosionsmechanismus stellt Astrophysiker vor große Herausforderungen. Bildet sich im Kern des kollabierenden Objekts ein Neutronenstern, so kommt die Kontraktion abrupt zum Stillstand, weil eine plötzliche Stabilisierung durch nukleare Kräfte einsetzt. Das Material der äußeren Sternhülle stürzt auf diesen sich bildenden Neutronenstern ein, was zu der Ausbildung einer hydrodynamischen Stoßwelle führt (oft auch als Schockwelle bezeichnet), die nach außen propagiert und zum Absprengen des Sternmaterials – also zur eigentlichen Supernovaexplosion  – führen könnte. Ursprünglich nahm man an, dass dies als Erklärung ausreicht. Genauere Untersuchungen ergaben jedoch, dass die Stoßwelle zu viel Energie verliert, wenn sie vom sich bildenden Neutronenstern nach außen läuft. In ihr wird das nukleare Material dissoziiert, das heißt, die Atomkerne werden in leichtere Bestandteile zerlegt. Das verbraucht Energie  – und die Propagation der Stoßwelle kommt zum Erliegen, bevor die äußeren Schichten des Sterns erreicht werden. Astrophysiker haben also zu erklären, welcher Mechanismus dazu führen kann, die Stoßwelle wiederzuerwecken, damit durch Absprengung der äußeren Sternschichten tatsächlich eine Supernova entsteht. In den vergangenen Jahrzehnten wurden aufwändige Computersimulationen durchgeführt, die die Physik immer detaillierter reproduzieren. Es zeigt sich, dass die Energiedeposition von Neutrinos, die aus dem sich bildenden Neutronenstern entweichen, und hydrodynamische Instabilitäten eine wichtige Rolle für den Mechanismus der Supernova-Explosion spielen – aber vollständig gelöst ist das Problem derzeit noch nicht. Bei thermonuklearen Supernovae ist weder die Natur des Vorläufersystems bekannt noch der Mechanismus der Zündung. Die Physik der weiteren Entwicklung ist jedoch prinzipiell verstanden. Normale Materie reagiert auf höhere Temperaturen durch Erhöhung des Drucks, so dass bei Energiefreisetzung durch Kernreaktionen in normalen Sternen eine Expansion stattfindet; diese führt zu einer Abkühlung, wodurch sich die Reaktionen verlangsamen. Solch ein Selbstregulierungsmechanismus greift bei entartetem Material jedoch nicht. Hier hängt der Druck nicht von der Temperatur ab, eine Abkühlung durch Expansion ist nicht möglich. Zugleich sind die Reaktionsraten aber äußerst temperaturempfindlich: Eine Erwärmung beschleunigt die Reaktionen  – dadurch wird noch mehr Energie frei und die Reaktionen laufen noch schneller. Es wird also noch mehr Energie freigesetzt, wodurch die Temperatur weiter ansteigt, was wiederum die Reaktionen noch

72 

F. Röpke

weiter beschleunigt – ein selbstverstärkender Prozess, der zur explosionsartigen thermonuklearen Verbrennung des Materials führt. Weil die Reaktionsraten so sehr von der Temperatur abhängen, bleiben sie auf einen kleinen Raumbereich lokalisiert, der am heißesten ist. Daher propagieren sie in Form von extrem dünnen Verbrennungswellen. Davon gibt es zwei Arten. Sogenannte Deflagrationen bewegen sich subsonisch, mit Unterschallgeschwindigkeit. Ihr physikalischer Mechanismus entspricht etwa unserem Bild einer klassischen Flamme: In der Reaktionszone wird Energie freigesetzt, und diese wird durch Wärmeleitung in den Brennstoff transportiert – ein Vorgang, der in elektron-entartetem Material besonders effizient ist. Dort wird das Material aufgeheizt und fängt seinerseits an zu brennen. Dadurch breitet sich die Flamme relativ langsam aus, mit der Geschwindigkeit der mikrophysikalischen Transportprozesse. Die Alternative sind Detonationen, die supersonisch, das heißt mit Überschallgeschwindigkeit, in das Brennmaterial hinein bewegen. Hierbei wird die Reaktionsfront durch eine hydrodynamische Stoßwelle propagiert, die das Material so weit komprimiert, dass es brennt, und die dabei freigesetzte Energie treibt wiederum die Stoßwelle voran. Aus diesen beiden fundamental unterschiedlichen Mechanismen ergeben sich die verschiedenen Möglichkeiten für den Ablauf der Explosion. Eine prompte Detonation in einem Weißen Zwergstern der Chandrasekhar-Masse kommt als Erklärung von Typ Ia Supernova nicht infrage. Solche Sterne sind sehr kompakt, das heißt, ihr Material hat eine sehr hohe Dichte. Die Brennfront würde sich dann supersonisch ausbreiten, es gäbe keine Vorexpansion des Materials – und der gesamte Stern würde bei hohen Dichten zu Elementen der Eisengruppe umgewandelt. Das widerspricht aber den Beobachtungen. In den Spektren von Typ Ia Supernova sieht man neben den charakteristischen Merkmalen von Eisengruppenelementen auch Linien, die von erheblichen Mengen mittelschwerer Elemente erzeugt wurden. Diese entstehen im Brennen bei niedrigeren Dichten; daher muss ein Weißer Zwerg mit Chandrasekhar-Masse zunächst langsam expandieren. Dies ist möglich, wenn die Verbrennung als Deflagration abläuft. Deflagrationsflammen sind zunächst langsam, beschleunigen jedoch, weil sie hydrodynamische Instabilitäten erzeugen, was wiederum zu Turbulenzen führt. Die Wechselwirkung der Flamme mit turbulenten Wirbeln vergrößert die Flammenoberfläche und beschleunigt somit den Brennvorgang. Ein Modell, das Beobachtungsgrößen vorhersagt, die relativ gut mit denen von normalen Typ Ia Supernovae übereinstimmen, nimmt an, dass es in der Explosion zu einem späten Zeitpunkt einen Übergang von einer subsonischen Deflagration in eine supersonische Detonation gibt. Hier sind die Dichten des Brennmaterials schon so weit gesunken, dass auch mittelschwere

 Supernovae 

73

Elemente produziert werden können. Eine andere Möglichkeit ist die Detonation von Weißen Zwergsternen unterhalb der Chandrasekhar-­Grenzmasse. Diese Sterne sind weniger kompakt, und die Dichte ihres Materials ist niedrig genug, so dass auch in Detonationen mittelschwere Elemente erzeugt werden. Beide Explosionsszenarien werden derzeit in Computersimulationen modelliert, aus denen Beobachtungsgrößen vorhergesagt werden. Diese können mit astronomischen Daten verglichen werden, woraus man sich Aufschluss über die Natur des Vorläufersystems und die Details der Explosionsphysik erhofft.

 elche Bedeutung haben Supernovae in der W Astrophysik? Gravitationskollaps-Supernovae sind aus physikalischer Sicht als Quellen von Gravitationswellen und der Emission von Neutrinos interessant. Darüber hinaus sind sie – neben Schwarzen Löchern und Neutronensternen – die ex­ tremsten Objekte im Universum. In der Explosion laufen Kernreaktionen ab, die substanziell zur chemischen Entwicklung des Universums beitragen. Dies wird im Beitrag von Achim Richter ausführlich diskutiert. Hier geht es vielmehr um thermonukleare Supernovae, also jene Objekte, die sich der astronomischen Klasse der Typ Ia Supernovae zugeordnet lassen.

Die Entstehung von Elementen Die enorme Helligkeit von Supernovaexplosionen bedarf einer besonderen Erklärung. Typ Ia Supernovae, die im optischen Spektralbereich zu den hellsten kosmischen Explosionen gehören, lassen sich nicht durch Emission von thermischer Energie erklären, die im Explosionsprozess erzeugt wird. Sie leuchten also nicht einfach deshalb, weil ihr Material durch die Explosion aufgeheizt wurde. Eine große Expansionsgeschwindigkeit führt zu rascher Abkühlung und daher würde die Supernova sehr schnell verdunkeln. Man beobachtet diese Ereignisse aber über Tage, Wochen und Monate als helle Objekte, und diese Helligkeit muss aus einer anderen Quelle gespeist werden. In den 1960er-Jahren wurde klar, dass die Nukleosynthese dafür verantwortlich sein kann. Der „Brennstoff“ der Kernfusion in der thermonuklearen Explosion von Weißen Zwergsternen besteht aus Kohlenstoff und Sauerstoff (beziehungsweise Sauerstoff und Neon) – also aus Elementen, die in ihrer stabilen Form die gleiche Anzahl von Protonen und Neutronen im Atomkern enthalten. Wie bereits besprochen, kann sich bei hohen Dichten Material der

74 

F. Röpke

Eisengruppe bilden, bei dem die Kernbindungsenergie pro Nukleon ein Maximum erreicht. Es wird also der Eisengruppenkern bevorzugt erzeugt, der die höchste Bindungsenergie pro Nukleon besitzt, gleichzeitig aber gleich viele Protonen und Neutronen enthält. Das ist das Nickelisotop 56Ni. Weil sich elektrisch positiv geladene Protonen aber gegenseitig abstoßen, sind schwerere Kerne mit einem Neutronenüberschuss stabiler. Daher zerfällt 56Ni (28 Protonen und 28 Neutronen) mit einer Halbwertszeit von etwa sechs Tagen zum Kobaltisotop 56Co (27 Protonen und 29 Neutronen), welches sich wiederum mit einer Halbwertszeit von etwa 77 Tagen in Eisen umwandelt  – genauer gesagt in das stabile Isotop 56Fe mit 26 Protonen und 30 Neutronen. Bei diesen radioaktiven Zerfällen werden Gammastrahlung und Positronen freigesetzt, die das umgebende Material aufheizen und damit optische Emission anregen. Um die Helligkeit einer normalen Typ Ia Supernova hiermit zu erklären, ist die Produktion von etwa einer halben Sonnenmasse von 56Ni erforderlich. In der Tat wurde dieses Modell kürzlich mit der Detektion der charakteristischen Zerfallslinien von Nickel und Kobalt in der Gammastrahlung der nahen Supernova SN2014J eindrucksvoll bestätigt – der ersten Messung, die die schon lange vermutete Emission einer Typ Ia Supernova in diesem Wellenlängenbereich des elektromagnetischen Spektrums nachweisen konnte. Dieser Prozess erklärt auch, warum Eisen ein so häufiges Element im Universum ist. Es kommt vor allem als 56Fe vor, und dieses wird aus 56Ni in Supernovae gebildet. Sowohl Gravitationskollaps-Supernovae als auch thermonukleare Supernovae tragen zur Eisenproduktion bei. Während erstere aber nur etwa ein Zehntel einer Sonnenmasse in einem typischen Ereignis erzeugen, produzieren Typ Ia Supernovae Eisen von etwa einer halben Sonnenmasse. Obwohl letztere nur etwa ein Viertel der beobachteten Supernovae ausmachen, überwiegt ihr Anteil an der Synthese von Eisengruppenelementen im heutigen Universum; man schätzt, dass sie über die gesamte kosmische Entwicklungszeit etwa die Hälfte des Eisens beigetragen haben. Dies ist wichtig, weil Eisen als eine Art „Uhr“ den Standard der Anreicherung mit chemischen Elementen setzt und somit wichtig für Theorie und Beobachtung der chemischen Entwicklung von Galaxien ist.

Kosmologische Messungen Die überragende Bedeutung von Typ Ia Supernovae für die Kosmologie basiert auf ihrer Verwendung als Abstandsindikatoren. Aufgrund ihrer besonderen Helligkeit sind sie über weite Teile des Universums mit modernen Teleskopen gut zu beobachten. Zudem sind sie im Vergleich mit anderen

 Supernovae 

75

Supernovae in ihren Eigenschaften sehr viel homogener. Die maximale Helligkeit „normaler“ Typ Ia Supernovae – es existieren Unterklassen mit abweichenden Eigenschaften, die aber seltener vorkommen – schwankt „nur“ um einen Faktor von etwa zehn. Daher kann man sie zur Vermessung der Geometrie des Universums einsetzen. Eine Lichtquelle gleicher Helligkeit erscheint bei größerer Entfernung dunkler. Aus der scheinbaren Verdunkelung von entfernten Supernovae kann man so ihren Abstand bestimmen. Dies wurde in den 1990er-Jahren durchgeführt. Das Ziel war herauszufinden, ob die Materie und Energie im Universum ausreichen, um die Expansion des Universums durch ihre gravitative Anziehungskraft zum Stillstand zu bringen oder sogar umzukehren. Das erstaunliche Ergebnis: Entfernte Supernovae erscheinen noch dunkler, als man bei einem linear expandierenden, leeren Universum erwarten würde. Somit muss das Universum beschleunigt expandieren: Für diese Entdeckung wurde 2011 der Nobelpreis für Physik verliehen. Mit normaler Materie und Energie kann so ein Befund nicht erklärt werden. Sie führen nach der Einstein’schen Relativitätstheorie zu Gravitationsanziehung – können also die Expansion abbremsen und möglicherweise sogar umkehren, aber keinesfalls beschleunigen. Also muss es eine weitere mysteriöse Zutat im Universum geben, eine Komponente mit ungewöhnlichen Eigenschaften. Diese bezeichnet man als „Dunkle Energie“. Worum es sich dabei handelt, ist eines der großen Rätsel der modernen Physik. Möglicherweise können Typ Ia Supernovae dazu beitragen, die Natur der Dunklen Energie zu ergründen. Dafür müssen die Abstandsmessungen jedoch wesentlich genauer werden. Die Bestimmung von Leuchtkraftentfernungen beruht auf der Annahme, dass die intrinsische Helligkeit des beobachteten Objekts genau bekannt ist. Für Typ Ia Supernovae trifft dies zurzeit noch nicht zu, obwohl ihre Helligkeit verglichen mit anderen astronomischen Objekten relativ wenig schwankt. Diese Variation der Helligkeit wird mit einer empirischen Korrelation zur Breite der Lichtkurve kalibriert. Grob gesprochen fällt die Helligkeit lichtstärkerer Ereignisse schneller ab als die von dunklen Objekten. Dies lässt sich unabhängig von der Entfernung bestimmen – womit Typ Ia Supernovae zu standardisierbaren Abstandsindikatoren werden. Die zugrundeliegende Korrelation theoretisch zu verstehen und zur Verbesserung der Kalibrierung beizutragen, ist ein Ziel der aktuellen Supernovaforschung. Eine ausführliche Beschreibung von Supernovae und ihren Implikationen für die Astrophysik findet sich im Buch von Hans-Thomas Janka [50].

Die Entstehung der Elemente Von der Asche der nuklearen Fusion bis zur Erzeugung schwerer Elemente Achim Richter

Entstehung, Existenz und Verteilung der chemischen Elemente im Universum haben ihren Ursprung in nuklearen Prozessen, die mit dem Urknall („Big Bang“) begannen und sich danach in Sternen und im interstellaren Medium fortsetzten und immer noch fortsetzen. Reaktionen zwischen Atomkernen sind die Energiequelle der Sterne in ihren verschiedenen Lebensphasen. Ausgehend von den sogenannten „primordialen“ Nukliden Wasserstoff und Helium  – auch „Hauptasche des Urknalls“ genannt – wurden und werden durch Nu­ kleosynthese die schwereren Elemente bis hin zum Uran gebildet. Die grundlegende Theorie der Nukleosynthese der Elemente und Isotope wurde bereits 1957 formuliert [51, 52]. Im Folgenden wird eine Übersicht über die aktuellen Erkenntnisse gegeben. Für detailliertere Darstellungen zu den jeweiligen Themen wird auf die entsprechenden Arbeiten im Literaturverzeichnis hingewiesen.

Elementhäufigkeiten im Sonnensystem Die Abb.  1 zeigt die experimentell ermittelte Häufigkeitsverteilung von Nukliden im Sonnensystem als Funktion von deren Massenzahl. Ein Nuklid ist ein bestimmter Atomkern mit einer gegebenen Zahl positiv geladener A. Richter (*) Institut für Kernphysik (IKP), Technische Universität Darmstadt, Darmstadt, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_9

77

78 

A. Richter

Abb. 1  Häufigkeitsverteilung von Atomkernen im Sonnensystem als Funktion von ihrer Massenzahl

Protonen (Z) und ungeladener Neutronen (N). Aus der Summe der Nukleonen ergibt sich die Massenzahl A (A = Z + N). Nuklide mit gleicher Protonenzahl Z werden Isotope, solche mit gleicher Neutronenzahl N Isotone genannt. Isobare sind Nuklide mit gleicher Gesamtzahl von Nukleonen (A). Aus der Kernladungszahl Z ergibt sich die Zahl der negativ geladenen ­Elek­tronen, die die Atomhülle bilden. Diese bestimmt die chemischen Eigenschaften des aus Atomen gebildeten jeweiligen Elements. Die Häufig­ keitsverteilung ist auf 106 Atome des Nuklids 28Si normiert, das aus 14 Protonen und 14 Neutronen besteht. Die hochgestellte Zahl ist die Massenzahl A der Nu­klide. Die schwarz durchgezogene Kurve in Abb. 1 resultiert aus vornehmlich zwei komplementären Quellen: (i) aus elektromagnetischen Untersuchungen der Fotosphäre, das heißt der sichtbaren „Oberfläche“ eines Sterns, und (ii) der Analyse einer spezifischen Klasse von Meteoriten, den sogenannten kohlenstoffhaltigen Chondriten (carbonaceous chondrites). Da die Sonne die Hauptmasse des Sonnensystems in sich vereint, wird sie als repräsentativ für eine globale Häufigkeitsverteilung angesehen [53], obwohl aus anderen Teilen des Universums durchaus abweichende Elementhäufigkeiten bekannt sind. Die Verteilung in Abb. 1, die auf Cameron [54] zurückgeht, findet sich seit Langem in Lehrbüchern [53, 55–57].

  Die Entstehung der Elemente 

79

Betrachtet man die Häufigkeitsverteilung in Abb.  1, fällt die starke Abnahme von den leichteren Elementen Wasserstoff (1H) und Helium (4He) bis zum schweren Element Blei (208Pb) um etwa zehn Größenordnungen (1010 auf 100) auf. Diesem Trend überlagert sind lokale, strukturierte Maxima in verschiedenen farblich unterlegten Bändern, die mit den Begriffen Urknall (gelb), Fusion (grün), r-Prozess (violett) und s-Prozess (rot) versehen sind. Diese Begriffe bezeichnen die spezifischen Mechanismen der Nukleosynthese, die für die Erzeugung der Nuklide und deren Häufigkeit verantwortlich sind. Hans Suess und Harold Urey [58] waren 1952 die ersten, die Daten zur solaren Häufigkeit zusammengestellt haben. Mit Margaret und Geoffrey Burbidge, Willy Fowler und Fred Hoyle [51] und Alastair Cameron [52] gehören sie zu den Begründern des Forschungsgebiets der Nuklearen Astrophysik, das Kern- und Astrophysik verbindet. Als weitere fruchtbare Verbindung entwickelte sich in den vergangenen drei Jahrzehnten aus Nuklearer Astrophysik und Teilchenphysik die Astroteilchenphysik. Sie ergänzt die Informationen aus traditionellen astronomischen Beobachtungen von elektromagnetischer Strahlung und hochenergetischer Teilchenstrahlung – hauptsächlich Elektronen und Positronen, Protonen und schwerere Ionen. Im Fokus stehen auch Messungen von Neutrinos kosmischen Ursprungs. Diese werden in Supernovae erzeugt, das heißt in explodierenden und dabei aufleuchtenden massereichen Sternen am Ende ihrer Existenz (siehe den Beitrag von Friedrich Röpke). Jüngst ist mit der Entdeckung der Gravitationswellen ein neuer Ansatz zur Untersuchung des Kosmos hinzugekommen. Mit dem Nachweis [59] von Gravitationswellen und elektromagnetischen Wellen, die bei der Verschmelzung zweier Neutronensterne emittiert wurden, ist eine neue „Multi-Messenger-Ära“ angebrochen [60]. Denn aus der Dynamik des Verschmel­zungsprozesses können wichtige Schlüsse bezüglich der Entstehung schwerer Elemente und ihrer Häufigkeitsverteilung im Sonnensystem und in unserer Galaxie gezogen werden.

 ntstehung der leichtesten Elemente nach E dem Urknall Nach der heute weitgehend akzeptierten Hypothese ist das Universum vor etwa 13,7 Milliarden Jahren in einer gewaltigen Explosion entstanden – dem Urknall oder „Big Bang“. Der ungeheuer heiße und dichte „Feuerball“ des

80 

A. Richter

Urknalls dehnte sich innerhalb der ersten 10−35 Sekunden in einer „kosmische Inflation“ genannten Phase um das 1050fache aus und kühlte sich dabei stark ab (siehe die Beiträge von Mathias Bartelmann und Christof Wetterich). Die Inflationsphase endete bereits 10−33 Sekunden nach dem Urknall wieder. Zu diesem Zeitpunkt bestand das Universum vermutlich aus einem Plasma von Photonen, Leptonen, Quarks und Gluonen (und deren Antiteilchen) in einem thermischen Gleichgewicht. Etwa 10−6 Sekunden nach dem Urknall bildeten sich aus Quarks und Gluonen Protonen und Neutronen. Etwa nach einer weiteren hundertstel Sekunde enthielt das Universum annäherungsweise gleich viele Elektronen, Positronen, Neutrinos und Photonen, aber deutlich weniger Protonen und Neutronen. Nach einer weiteren Abkühlung vernichteten sich Elektronen und Positronen in Gammastrahlung, so dass die aus dem „Big Bang“ resultierende „ursprüngliche Nukleonensuppe“ („pri­ mordial nucleon soup“) schließlich nur noch aus Protonen (p), Neutronen (n), Elektronen (e−) und Photonen (γ) bestand und Ausgangspunkt für die Existenz aller chemischen Elemente wurde. In den ersten Minuten nach dem Urknall kühlte sich das aus Nukleonen bestehende Gas so weit ab, dass Protonen und Neutronen miteinander in der Kernreaktion p + n → γ + d (in verkürzter Schreibweise p(n,γ)d) Deuteronen (d) bilden konnten, die wiederum über eine Kette von weiteren Kernreaktionen zur Bildung von Tritium (3H), den stabilen Heliumisotopen (3He und 4 He) sowie auch zu Spuren von Lithium (7Li) und Beryllium (7Be) führten. Im Einzelnen sind das die Fusionsreaktionen d(n,γ)3H, d(d,p)3H, d(p,γ)3He, d(d,n)3He und 3He(n,p)3H. Das entstandene Isotop 3H ist radioaktiv und zerfällt ebenfalls in das stabile 3He. Das Isotop 4He wird durch die Kernreaktionen 3H(p,γ)4He, 3H(d,n)4He, 3He(n,γ)4He, 3He(d,p)4He, und 3He(3He,2p)4He, 3 He(d,n)4He, 3He(n,γ)4He, 3He(d,p)4He und 3He(3He,2p)4He erzeugt. Diese Kernreaktionen laufen in der kühlen Gasphase bei niedrigen Energien ab. Die Reaktionswahrscheinlichkeit zwischen den fusionierenden Atomkernen ist daher wegen deren Coulomb’scher Abstoßung stark unterdrückt. Das gilt auch für die Bildung von 7Li und 7Be durch die Kernreaktionen 4He(3H,γ)7Li und 4 He(3He,γ)7Be. Das Isotop 7Be verwandelt sich später durch Einfang eines Atom-Elektrons ebenfalls in 7Li. In der primordialen Nukleosynthese in den ersten drei bis vier Minuten nach dem Urknall wurden daher nur die Elemente Wasserstoff (1H und 2H) und Helium (3He und 4He) in einem Verhältnis von etwa 75 zu 25 Prozent sowie mit einer um Größenordnungen geringeren Ausbeute auch das Element 7Li gebildet (siehe den gelb unterlegten Bereich in Abb. 1).

  Die Entstehung der Elemente 

81

 lemententstehung in Sternen – Synthese E von 4He Die nach dem Urknall entstandenen gigantischen Teilchenwolken aus Wasserstoff und Helium dehnten sich aus und kollabierten unter dem Einfluss der Schwerkraft. Es bildeten sich Sterne und ganze Galaxien. Dichte und Temperatur in diesen Objekten wuchsen derart, dass erneut Fusionsprozesse zwischen Atomkernen einsetzten. So verschmolzen im stellaren „Wasserstoffbrennen“ bei Temperaturen von etwa zehn Millionen Grad Celsius vier Wasserstoffkerne zu einem Heliumkern. Die freiwerdende Energie erzeugte den notwendigen Druck, um den Kollaps der Teilchenwolken aufzuhalten. In Sternen von etwa eineinhalb Sonnenmassen verläuft das Wasserstoffbrennen zu 4He über die sogenannte ppI-Kette [61], in deren erster Stufe zwei Wasserstoffkerne in der Reaktion 1H(p,e+νe)2H unter Erzeugung eines Posi­ trons (e+) – das Antiteilchen des Elektrons (e−) – und eines Neutrinos (νe) zu Deuterium (2H) fusionieren. Dass Positron und Neutrino auftreten, bedeutet, dass diese Kernreaktion durch die sogenannte schwache Wechselwirkung bestimmt ist, also sehr selten abläuft. Lediglich die hohe Anzahl von Protonen im Zentrum des Sterns führt dazu, dass in der Sonne pro Sekunde mehrere Millionen Tonnen von Wasserstoff in Strahlungsenergie verwandelt werden (siehe den Beitrag von Eberhard Klempt). Das erzeugte Deuterium fusioniert in einer zweiten Stufe in der Kernreaktion 2H(p,γ)3He mit einem weiteren Proton unter Emission von Gammastrahlung zum Isotop 3He. Letzteres reagiert dann etwa eine Million Jahre später mit einem weiteren 3He-Kern, so dass in der Reaktion 3He(3He,2p)4He schließlich 4He entsteht. Dabei wird ein erheblicher Energiebetrag frei. Für einen nur aus Wasserstoff bestehenden Stern stellt der ppI-Prozess die einzige Möglichkeit dar, 4He zu erzeugen. Als andere effektive Möglichkeit, Helium aus Wasserstoff zu erzeugen, haben bereits 1938 Hans Bethe und Carl Friedrich von Weizsäcker den sogenannte CNO-I Zyklus vorgeschlagen. Dieser Zyklus basiert darauf, dass in einem hauptsächlich aus Wasserstoff (H) bestehenden Plasma zusätzlich einige stabile Isotope von Kohlenstoff (C), Stickstoff (N) oder Sauerstoff (O) als Katalysatoren vorhanden sind. Der Zyklus ist dominant in Sternen mit einer etwas höheren Temperatur als der in der Sonne. Das Endresultat dieses Prozesses ist das gleiche wie bei der ppI-Kette, das heißt, vier Protonen verschmelzen zu einem Heliumkern und emittieren dabei zwei Elektronen und zwei Neutrinos: 4H →  4He + 2e+ + 2νe. Dabei ist interessant zu bemerken, dass die relative Bedeutung der pp-Reaktionen verglichen zum CNO-Prozess

82 

A. Richter

stark von der Temperatur des Sterns abhängt. Der Grund dafür ist die Coulomb’sche Abstoßung zwischen den Kernen, die in den CNO-­ Fusionsprozessen beträchtlich stärker ist als in den elementaren pp-­Reaktionen. Letztere werden zudem auch durch die schwache Wechselwirkung bestimmt, verlaufen also langsam. So ist die Leuchtkraft der Sonne in den vergangenen vier Milliarden Jahren nahezu unverändert geblieben. Nur deshalb konnte sich überhaupt Leben auf der Erde entwickeln. Obwohl der CNO-Zyklus keine Bedeutung für unsere Sonne hat, muss er eine wichtige Rolle in schwereren Sternen gespielt haben und noch spielen, da er für die Synthese des für das Leben auf der Erde unerlässlichen Elements Stickstoff 14N verantwortlich ist (siehe den Beitrag von Klaus Kowallik).

 eitere stellare Brennphasen – Synthese der W Elemente bis Eisen Nachdem in einer Brennphase von einigen Millionen Jahren der Wasserstoffvorrat im Zentrum des Sterns, seinem Kern, aufgebraucht und in Helium verwandelt worden ist, beginnt der Kern erneut zu kollabieren [62]. Damit steigen Temperatur und Druck derart stark an, dass drei 4He-Kerne über den sogenannten Triple-Alpha-Prozess 34He → 12C + γ zu einem Kohlenstoffkern 12 C miteinander verschmelzen können. Nach der Erzeugung genügend vieler 12 C-Kerne in dieser Heliumbrennphase lagert sich über die Reaktion 12 C + 4He → 16O + γ ein weiterer 4He-Kern an 12C an, und es bildet sich das Sauerstoffisotop 16O. Sterne von der Größe und Masse unserer Sonne können außer dem Wasserstoff- und Heliumbrennen keine weiteren Brennphasen durchlaufen und enden nach Milliarden von Jahren schließlich als sogenannte „Weiße Zwerge“ aus Kohlenstoff und Sauerstoff. In größeren Sternen mit mehr als der achtfachen Sonnenmasse kann ein so hoher Gravitationsdruck entstehen, dass weitere Brennphasen starten können, die alle nach dem gleichen oben genannten Prinzip ablaufen: Nachdem ein Brennstoff verbraucht ist, kollabiert der Stern wieder. Dabei erhöhen sich Temperatur und Dichte so stark, dass die „Asche“ aus der vorangegangenen Brennphase eine neue Verbrennung initiiert. Im Anschluss an das Heliumbrennen setzt Kohlenstoffbrennen ein, das heißt, jeweils zwei Kohlenstoffkerne 12C fusionieren zum Kern 24Mg. Dabei entstehen als Reaktionsprodukte auch Sauerstoff und Neon. Nachdem Kohlenstoff aufgebraucht ist, beginnt Neonbrennen gefolgt von Sauerstoffbrennen, bei dem zwei 16O Kerne fusionieren und als schwere Kernreaktionsprodukte unter anderem Schwefel, Phosphor, Silizium und Magnesium und als leichtere Neutronen, Protonen,

  Die Entstehung der Elemente 

83

Alphateilchen auftreten. Außerdem wird Gammastrahlung erzeugt. Nachdem in der Sauerstoffbrennphase genügend viel Silizium produziert worden ist und sich im Inneren des Sterns kein Sauerstoff mehr befindet, setzt eine Siliziumbrennphase ein, in der zwei 28Si Kerne zu dem Nickelisotop 56Ni fusionieren, das instabil ist und durch zwei aufeinander folgende Betazerfälle über das ebenfalls instabile Cobaltisotop 56Co in das stabile Eisenisotop 56Fe umgewandelt wird. Das Siliziumbrennen ist immer die letzte Phase der thermonuklearen Brennprozesse. Dabei entstehen durch Fusion Atomkerne mit der größten Bindungsenergie pro Nukleon im Bereich der Elemente der sogenannten Eisengruppe (Fe, Cr, Co, Ni). Ein ausgeprägtes Maximum zeigt sich beim Element 56Fe (siehe den grün unterlegten Bereich in Abb. 1). Bevor auf die Erzeugung von Elementen mit Massenzahlen A>60 eingegangen wird, soll die Endphase der Evolution eines massiven Sterns beschrieben werden [62]. Nachdem das Silizium im Sterninneren verbrannt ist, steigen Temperatur und Druck wieder an, so dass in der Schale um den Kern ebenfalls Siliziumbrennen einsetzt. Der Radius des Kerns mit den Elementen der Eisengruppe vergrößert sich damit immer mehr, die Elementverteilung im Inneren des Sterns ähnelt dabei der einer Zwiebel. Die schwersten Elemente befinden sich im zentralen Kern, in den Schalen darum die immer leichteren Elemente aus den Aschen der oben genannten verschiedenen Brennphasen. Die äußerste Hülle besteht vorwiegend aus Wasserstoff. Mit dem Radius wächst die Masse des Eisenkerns, bis auch er sich wie alle seine Vorgänger zu immer höheren Dichten zusammenzieht. Sobald sich Protonen und Neutronen der Atomkerne so weit genähert haben, dass die Dichte nicht weiter ansteigen kann, kommt es zu einer Supernova-Explosion des Sterns. Dabei werden die äußeren Schichten mit den darin produzierten Elementen in das Weltall abgestoßen. Dies sind vor allem Kohlenstoff und Sauerstoff, die Grundbausteine des Lebens. Aus dem kollabierenden zentralen Eisenkern bildet sich ein sehr heißer und dichter Neutronenstern mit einem Radius von nur etwa zehn Kilometern, aber einer Masse vergleichbar derjenigen unserer Sonne. Er kühlt sich durch eine sehr intensive Emission von Neutrinos ab, die wegen ihrer Ladungsneutralität und geringen Masse dem Neutronenstern leicht entkommen und dabei große Energiemengen davontragen können. In Abständen von einigen zehntausend Kilometern von Neutronensternen beträgt die Temperatur immer noch ungefähr eine Milliarde Grad. Die Atomkerne der sich in diesen Regionen befindlichen Materie geben dadurch Neu­ tronen ab, die – neben Neutronen aus (α, n)-Reaktionen – in Fusionsprozessen zur Synthese schwerer Elemente benötigt werden. Kerne mit Massenzahlen A>60 entstehen allerdings nicht mehr bei Fusionsreaktionen mit geladenen Teilchen. Einerseits müsste dafür Energie

84 

A. Richter

aufgebracht werden, während bei der Fusion leichter Kerne Energie freigesetzt wird. Andererseits würde die Coulomb’sche Abstoßung zwischen den Reaktionspartnern Fusionsprozesse enorm unterdrücken. Elemente schwerer als Eisen können daher praktisch nur durch den schrittweisen Einfang von freien Neutronen erzeugt werden, für die es keine Abstoßung gibt.

Synthese der schweren Elemente Die solare Häufigkeitsverteilung der Elemente in Abb. 1 zeigt oberhalb des ausgeprägten Maximums bei dem Isotop 56Fe drei weitere Überhöhungen bei Massen um A≈80–90, 130–140 und 190–210. Die Überhöhungen weisen eine Doppelstruktur auf. Deren Ursache liegt in der Schalenstruktur der Atomkerne, von denen die Neutronen eingefangen werden. Zwei Prozesse bewirken diese Überhöhungen, der s-Prozess und der r-Prozess, ein langsam (slow) und ein schnell (rapid) verlaufender Neutroneneinfang. Dahinter stehen zwei Arten von Reaktionen: Zum einen der Einfang des Neutrons von einem Atomkern der Kernladungs- und Massenzahl (Z,A), wobei ein Isotop des gleichen Elements Z aber mit einer um eine Einheit vergrößerten Massenzahl A + 1 erzeugt und die dabei freigesetzte Energie durch ein Photon hinweggetragen wird. Zum anderen kann aber auch nach nur wenigen Neutroneneinfängen ein Atomkern gebildet werden, der β− instabil ist, in dem also ein Neutron im Kern sich in ein Proton umwandelt. Dadurch wird die Kernladung Z auf Z + 1 erhöht, während die Gesamtmassenzahl A = Z + N erhalten bleibt. Wegen der Ladungserhaltung werden dabei noch ein Elektron und ein nahezu masseloses Antineutrino erzeugt. Saatkerne für die Bildung neutronenreicher Atomkerne im s-Prozess [63] sind vor allem 56Fe und die Elemente der Eisengruppe. Die Synthese verläuft entlang des Tals der stabilen Kerne in der Nuklidkarte (Abb.  2), weil bei moderaten Neutronenflussdichten die Zeit zwischen zwei aufeinander folgenden Neutroneneinfängen etwa 10 bis 100 Jahre beträgt und damit in der Regel sehr viel größer ist als die Zeit für den β−-Zerfall der instabilen Atomkerne zurück in die Stabilität. Der s-Prozess läuft in der Heliumbrennphase von Sternen ab und endet bei den Elementen Blei und Wismut. Wie aber sind die noch schwereren Elemente wie Thorium und Uran entstanden? Ein mögliches Szenario bietet sich im r-Prozess an. Hier erfolgt der nächste Neutroneneinfang an neu erzeugten Saatkernen bei extrem hohen Neutronendichten sehr viel schneller, noch bevor ein β−-Zerfall stattfindet. Auf diese Weise werden instabile Kerne 10–20 Massenzahlen weitab vom Tal der Stabilität gebildet (Abb. 2). Der r-Prozess findet bei Temperaturen von

  Die Entstehung der Elemente 

85

Abb. 2  Nuklidkarte; TU Darmstadt/Wissenschaftsmagazin „forschen“ Nr. 1, S. 24 (2009).

etwa drei Milliarden Grad auf Zeitskalen von Sekunden statt. Nach diesem explosiven astrophysikalischen Ereignis nimmt die Neutronendichte wieder ab und die erzeugten kurzlebigen und sehr neutronenreichen Isotope erreichen über mehrere β−-Zerfälle das Stabilitätstal. Wie im s-Prozess gibt es auch im r-Prozess Häufigkeitsmaxima bei besonders stabilen Kernen mit „magischen“ Neutronenzahlen N. Die Ursache dafür ist die lange Halbwertszeit für den β−-Zerfall dieser Kerne. Wie die Abb. 1 zeigt, liegen die r-Prozess-Maxima um die Massenzahlen A≈80 (N = 50), 130 (N = 82) und 195 (N = 126). Der Abstand zwischen den s-Prozess- und r-Prozess-Maxima von ca. 20 Masseneinheiten gibt an, wie weit der r-Prozess-­Pfad außerhalb des Stabilitätstals verläuft. Die Neutroneneinfangprozesse im s- und r-Prozess tragen etwa jeweils zur Hälfte zur Erzeugung der schwereren Elemente bei. Obwohl Einigkeit darüber besteht, dass der r-Prozess explosiv bei hohen Temperaturen und hohen Neutronendichten ablaufen muss, war der Ort des Geschehens bisher nicht klar. Kandidaten dafür waren Supernova-Explosionen massereicher Sterne [64], aber auch entweder eine Verschmelzung von einem Neutronenstern mit einem „Schwarzen Loch“ [65] oder von zwei Neutronensternen in binären Systemen [66]. Eine derartige Verschmelzung, ein sogenannter merger, zweier

86 

A. Richter

Neutronensterne wurde kürzlich erstmals experimentell durch eine Messung der dabei entstandenen Gravitationswellen nachgewiesen [59]. Dem Signal aus den Detektoren folgte etwa 1,7 Sekunden später ein kurzer und intensiver Blitz von Gammastrahlung (gamma ray burst). Anschließend konnten Astronomen weltweit Lichtsignale des Objekts beobachten, die – nach dem Gesetz vom radioaktiven Zerfall – eindeutig den bei der Sternenkollision erzeugten r-Prozess-Elementen zugeordnet werden können. Die Helligkeit ist etwa tausendmal größer als die einer Nova-Explosion. Deshalb spricht man auch von einer Kilonova [67]. Es wird davon ausgegangen, dass bei dem beobachteten merger unter anderem ungefähr dreißig Erdmassen Gold und zehn Erdmassen Uran entstanden sind [68]. Damit kann als sicher angenommen werden, dass merger von Neutronensternen die dominanten astrophysikalischen Orte für den r-Prozess sind. In Abb.  2 ist auf der neutronenarmen Seite der Nuklidkarte noch der p-Prozess vermerkt, durch den 37 protonenreiche stabile Isotope schwerer als Eisen entweder durch Protoneneinfang während einer Supernova-Explosion oder auch durch Fotodisintegration (durch γ-Strahlung induzierte Protonenund Alphateilchenemission) aus Saatkernen des s- und r-Prozesses gebildet werden können [69].

 ie nukleare Landkarte und das periodische System D der Elemente Die Nuklidkarte in Abb. 2 ist so etwas wie eine nukleare Landkarte. Ein Element darin ist durch die Anzahl Z seiner Protonen definiert. Je nach der Zahl N seiner Neutronen kann es verschiedene Isotope besitzen. In der Nuklidkarte sind die Isotope horizontal als Funktion von N und vertikal als Funktion von Z aufgetragen. Die Zahl der Nuklide wird begrenzt durch Linien („drip lines“), an denen die Nukleonen im Kern nicht mehr gebunden werden können. Während die Grenzlinie der nuklearen Stabilität bezüglich der Protonen recht gut bekannt ist, gilt das jedoch keineswegs für die Neutronenzerfälle der schwereren Elemente. Zum jetzigen Zeitpunkt sind von etwa 3000 bekannten Isotopen in der Nuklidkarte 288 stabil oder praktisch stabil mit Halbwertszeiten größer als die erwartete Lebensdauer des Sonnensystems. Diese 288 Nuklide bilden das Stabilitätstal. Die überwiegende Zahl der instabilen Isotope wurde künstlich hergestellt – vorwiegend an Teilchenbeschleunigern und Kernreaktoren. Wie viele Neutronen und Protonen können in einem Atomkern gebunden werden? Eine sichere Antwort gibt es darauf zurzeit (noch) nicht. Legt man

  Die Entstehung der Elemente 

87

moderne Dichtefunktionale und realistische Kernkräfte zugrunde, gibt es möglicherweise noch weitere 7000 bisher unbekannte Nuklide [70]. Aufschluss werden letztlich erst Experimente zum Studium von Atomkernen fernab vom Tal der Stabilität an bereits existierenden und noch im Aufbau befindlichen Beschleunigeranlagen für radioaktive Ionenstrahlen geben  – zum Beispiel RIKEN in Japan, HIE-ISOLDE am CERN in Genf, FRIB in den USA, TRIUMF in Kanada und GSI/FAIR in Darmstadt. Abb.  3 zeigt das periodische System der Elemente und deren Ursprung. Die jeweiligen Prozesse für die Erzeugung der Elemente sind verschiedenfarbig gekennzeichnet. Alle Prozesse – bis auf die Spallation und die künstliche Erzeugung  – wurden bereits vorgestellt. Die leichten Elemente Lithium, Beryllium und Bor entstehen bei Spallationsprozessen. Sie sind Spaltprodukte aus der Reaktion von relativistischen Atomkernen der kosmischen Strahlung mit Wasserstoff und Helium im interstellaren Raum. Alle instabilen superschweren Elemente von der Ordnungszahl Z = 95 bis Z = 118 wurden in den vergangenen Jahren im Labor an Schwerionenbeschleunigern in Fusionsreaktionen künstlich erzeugt. Die in der Chemie gebräuchlichen Abkürzungen für

Abb. 3  Periodisches System der Elemente

88 

A. Richter

diese Elemente haben ihren Ursprung zum Beispiel im Namen des Laboratoriums, in dem sie entdeckt wurden (Db: Z = 105, Dubnium für Dubna), der Entdeckerstadt (Ds: Z = 110, Darmstadtium für Darmstadt), des Entdeckerlandes (Nh: Z = 113, Nihonium für Japan), oder des Entdeckers selbst (Og: Z = 118, Oganesson für Oganessian). Das Recht, ein neu entdecktes chemisches Element zu benennen, haben traditionsgemäß die Entdecker.

Lebendige Sonne, Ursprung des Lebens Das Feuer der Sonne und die solaren Neutrinos Eberhard Klempt

„Schön erscheinst du im Lichtland des Himmels, du lebendige Sonne, Ursprung des Lebens. Du bist aufgegangen im östlichen Lichtland, und hast jedes Land mit Deiner Schönheit erfüllt.“

Echnaton (um 1351–1334 v. Chr.), Sonnengesang (Auszug), nach J.  Assmann, TUAT 2,6, Gütersloher Verlagshaus, 1991, 848–853.

Die Geburt eines Sternes Unsere Sonne ist vor etwa 4,6 Milliarden Jahren entstanden, aber auch heute entstehen laufend neue Sonnen, auch in unserer unmittelbaren Nachbarschaft. Die jungen Sterne im Rho-Ophiuchi -Nebel im Sternbild des Schlangenträgers (Abb. 1) wurden zu einer Zeit geboren, als der erste Homo sapiens durch Afrika wanderte. Das Falschfarbenbild zeigt die Krippenstube vieler junger Sterne in einer dunklen Wolke. Der Nebel, aus dem sich die Protosonnen bilden, leuchtet rötlich (24 μm = 0,024 mm), Licht mit der Wellenlängen 3,6 μm und 8 μm sind in Blau, beziehungsweise Grün dargestellt. Die Protosonnen sind noch kalt: Ihre Strahlung liegt im Infraroten, die Temperaturen, E. Klempt (*) Helmholtz-Institut für Strahlen und Kernphysik, Friedrich-Wilhelms-Universität Bonn, Bonn, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_10

89

90 

E. Klempt

Abb. 1  Junge Sterne im Sternbild des Schlangenträgers aufgenommen vom SpitzerWeltraumteleskop (NASA/JPL-Caltech)

die dieser Strahlung entsprechen, liegen zwischen etwa 150 und 1000 Grad über dem absoluten Nullpunkt [71]. Die Energie der Strahlung stammt noch aus der Gravitationsenergie; die Fusion von Wasserstoff zu Helium, die Energiequelle unserer Sonne, wird hier erst in zehn Millionen Jahren einsetzen. Der Nebel besteht aus Wasserstoff und Helium, die sich nach dem Urknall bildeten, und aus einem geringen Anteil an Sternenstaub: aus Eisen, Magnesium, Aluminium, Silizium, Sauerstoff und weiteren Elementen, die in der Explosion einer Supernova herausgeschleudert wurden (siehe die Beiträge von Matthias Bartelmann und Achim Richter). Die Gesamtmasse des Nebels entspricht der 3000 fachen Masse unserer Sonne; damit überwiegt die Eigengravitation den inneren Druck des Gases. Durch Dichteschwankungen entstehen viele Zen­tren, die wiederum zu neuen Sternen kollabieren. Auch unsere Sonne ist aus einem Nebel entstanden, der vor etwa 4,6 Milliarden Jahren innerhalb der Milchstraße um ein Zentrum rotierte. Vermutlich führte die Druckwelle einer nahen Supernova zu lokalen Verdichtungen, die sich aufgrund ihrer eigenen Schwerkraft weiter zusammenzogen. Gemäß der Erhaltung des Drehimpulses erhöhte sich dabei die Rotationsgeschwindigkeit wie bei einer Pirouette: Fliehkräfte und Gravitation formten aus der Molekülwolke eine rotierende Scheibe mit einer zentralen Gaskugel: Die Protosonne, der Vorläufer unserer Sonne entstand. Unter dem Einfluss der Gravitation verdichtete sich dieser Protostern weiter und wurde heißer. Bei einer Temperatur von 700  Grad Celsius begann die thermische Dissoziation von Wasserstoffatomen zu ungebundenen Protonen und Elektronen. Im Zentrum der Sonne

  Lebendige Sonne, Ursprung des Lebens 

91

stiegen die Dichte des Gases, der Druck und die Temperatur weiterhin an; nach etwa 10  Millionen Jahren erreichte die Temperatur in der Kernzone 15  Millionen Grad, und die Fusion von Wasserstoff zu Helium setzte ein. Diese ist bis heute die Energiequelle unserer Sonne. Aus dem Gas und dem Staub der um die Sonne rotierenden Scheibe bildeten sich Tröpfchen und Gesteinskörner, die zu Kleinstplaneten anwuchsen. Diese zogen sich gegenseitig an, es kam zu Stoßprozessen und Anlagerungen: Die Protoplaneten entstanden. Sie saugten die Materie in der Nachbarschaft auf, und so entstanden die Planeten vom Merkur, über die Venus und die Erde bis zum Neptun. Wie weit sie jeweils von der Sonne entfernt sind, lässt sich in einer einfachen, von Johann Daniel Titius (1766) vorgeschlagenen Formel darstellen: a = 0,4 + 0,3· 2n mal den Abstand von Sonne und Erde. Diese rein empirische Formel scheint auch für Planeten anderer Sonnensysteme zu gelten [72]. Die Sonne emittierte einen Strom von Strahlung und geladenen Teilchen, der die ursprüngliche Gaswolke der frühen Planeten mit sich riss. Die Gravitation der inneren Planeten war zu gering, um ihre Gashüllen festzuhalten. Sie wurden zu Gesteinsplaneten mit dünner Atmosphäre. Der Planet Mars hat seine Atmosphäre inzwischen vollständig verloren, die Erde dagegen besitzt ein Magnetfeld, das sie vor dem Sonnenwind schützt. Die großen äußeren Protoplaneten wurden zu Gasplaneten und binden noch heute einen Großteil ihrer Gase.

Die Strahlung Heute sehen wir die Sonne als leuchtenden Feuerball am Firmament. Sie besteht hauptsächlich aus Wasserstoff und Helium und vereint 99,8 Prozent der Masse unseres Planetensystems in sich. Die im Zentrum der Sonne freiwerdende Energie wird durch Strahlung und Gasströmungen bis zur sichtbaren, 6000  Grad heißen Sonnenoberfläche transportiert und dort in den Weltraum abgestrahlt. Die Strahlung der Sonne liegt nur zum Teil im sichtbaren Bereich, die Intensität ist über ein kontinuierliches Spektrum verteilt. Die größte Intensität wird dabei im Grünen abgestrahlt. Interessanterweise zeigt unser Auge für diese Farbe die größte Empfindlichkeit. Die spektrale Verteilung, das heißt die Intensität der Strahlung in Abhängigkeit von der Wellenlänge λ, hängt von der Temperatur des strahlenden Körpers ab und wird durch das Planck’sche Strahlungsgesetz von 1905 beschrieben [73], in dem sich ein gewaltiger Fortschritt der Physik verbirgt: Nach den Gleichungen der klassischen Elektrodynamik musste man bis zum Ende des 19. Jahr-

92 

E. Klempt

hunderts erwarten, dass bei kleinen Wellenlängen die Intensität der Strahlung stark ansteigt – im Widerspruch zum experimentellen Befund. Planck dagegen nahm an, dass die Strahlungsenergie nur gequantelt abgeben wird. Dies war der Ursprung der Quantentheorie; die Größe h wurde nach seinem Entdecker Planck-­Konstante genannt. Max Planck erhielt für diese Leistung den Nobelpreis für Physik des Jahres 1918. Seit 4,5 Milliarden Jahren strahlt die Sonne nun und gibt Energie ab. Sie erwärmt unsere Erde und ermöglicht hier das Leben. Außerhalb der Erdatmosphäre ist die Strahlungsleistung der Sonne fast konstant und wird als Solarkonstante bezeichnet: Jede Sekunde durchströmt eine Energie von 1,367 Kilowatt jeden Quadratmeter, der einen Abstand zur Sonne hat, der der mittleren Entfernung von Sonne und Erde entspricht und senkrecht zur Strahlung steht. Aus dieser Solarkonstanten lässt sich die Strahlungsleistung der Sonne berechnen, das heißt die gesamte in jeder Sekunde abgestrahlte Energie: Es ergibt sich der unvorstellbar große Wert von fast 4  ×  1023 Kilowatt  – 1023 bedeutet eine 1 mit 23 Nullen.

Die Sonnenenergie Ein Kilogramm Kohle liefert eine Energie von etwa acht Kilowattstunden. Für die Strahlungsleistung der Sonne müßte man etwas mehr als 1019 Kilogramm Kohle verbrennen – und das in jeder Sekunde. Bestünde die Sonne aus Kohle und Sauerstoff und käme die Energie der Sonnenstrahlung aus der Verbrennung dieser Kohle, wäre ihr Energievorrat schon nach etwas mehr als 1000 Jahren verbraucht. Woher kommt also die gewaltige Energie, die seit 4,5 Milliarden Jahren unsere Erde wärmt? Aus der Kernfusion. Im Zentrum der Sonne ist der Wasserstoff vollständig in freie Protonen und Elektronen dissoziiert. Bei einer Temperatur von 15  Millionen Grad können die positiv geladenen Protonen (p) aufgrund ihrer hohen thermischen Energie ihre gegenseitige (Coulomb’sche) Abstoßung überwinden und nach der Reaktionsgleichung p + p → d + e+ + νe ein Deuteron d, ein Positron e+ und ein Neutrino νe erzeugen (siehe den Beitrag von Achim Richter). Dabei ist d (=  pn) der Kern des Wasserstoffisotops Deuterium und νe ein Elektronneutrino. Die hierbei freiwerdende Energie teilen die drei ­entstehenden Teilchen ungleich unter sich auf: Das schwere Deuteron nimmt den größten, das fast masselose Neutrino bekommt den kleinsten Anteil: zwischen nichts und einem Prozent. Der hier geschilderte Zweig (p + p → d + e+ + νe) wird als pp-Reaktion bezeichnet. Trotz der hohen Temperatur sind es nur die energiereichsten oder schnellsten Protonen, die die Coulomb’sche

  Lebendige Sonne, Ursprung des Lebens 

93

Abstoßung überwinden können, und es dauert viele Milliarden Jahre, bis ein spezielles Proton mit einem anderen fusioniert. Zwei Deuteronen d können zu Heliumkernen fusionieren. Dabei wandeln sich vier Protonen in einen Heliumkern, zwei Elektronen werden vernichtet, die beiden Neutrinos entkommen. Die vier Protonen haben mehr Masse als der Heliumkern. Nach der Einstein’schen Formel E = mc2 wird die Massendifferenz in Energie umgewandelt. Bei der Fusion von einem Gramm Wasserstoff zu Helium wird so viel Energie frei wie bei der Verbrennung von einer Tonne Kohle! Insgesamt werden in der Sonne in jeder Sekunde 564 Milliarden Tonnen Wasserstoff „verbrannt“; vier Milliarden Tonnen Materie werden dabei in Energie umgewandelt. Der größte Teil dieser Energie dient der Aufheizung der Sonne: Diese Energie wird nach außen transportiert und als elektromagnetische Strahlung (im sichtbaren und im unsichtbaren Bereich) abgegeben. Nur ein kleiner Teil der Energie entkommt durch die Emission von Neutrinos. Die experimentelle Beobachtung der Neutrinos erlaubt einen präzisen Test des „Sonnenmodells“.

Die fehlenden Neutrinos Neutrinos sind elektrisch neutral und unterliegen auch nicht – anders als die Neutronen in Kernen – der starken Wechselwirkung. Lange Zeit vermutete man, sie hätten wie die Photonen keine Masse. Ihre Existenz hatte 1930 Wolfgang Ernst Pauli vermutet, um die scheinbare Verletzung der Erhaltung von Energie, Impuls und Drehimpuls in Reaktionen wie der Umwandlung von Stickstoff in Kohlenstoff gemäß der Reaktionsgleichung 13N → 13C + e+ + νe zu erklären. Nur über die schwache Wechselwirkung interagieren Neutrinos mit Materie. Die Wahrscheinlichkeit dafür ist jedoch äußerst gering. Daher ist der Nachweis der Sonnenneutrinos nur mit tonnenschweren Detektoren und langen Messzeiten möglich. Bei dem ersten erfolgreichen Experiment in der Homestake Mine in Süddakota bestand der 1500 Meter unter der Erde aufgebaute Detektor aus 615  Tonnen Tetrachlorethylen (C2Cl4), das üblicherweise bei der chemischen Reinigung eingesetzt wird. In dem Experiment wurden einige wenige Chloratome durch die Neutrinos in radioaktive Argonatome verwandelt. Diese wenigen Argonatome müssen dann aus den vielen Tonnen Tetrachlorethylen herausgefischt und nachgewiesen werden. Nach einer Messzeit von vielen Jahren war klar: Es wurden zwar Neutrinos nachgewiesen, aber es wurden nur dreimal weniger Neutrinos beobachtet als erwartet [74]! Der Leiter des Experimentes, Raymond Davis Jr. wurde 2002 für den Nachweis der Sonnenneutrinos mit dem Nobelpreis ausgezeichnet.

94 

E. Klempt

Wo war das Problem? Warum wurden nur so wenige Neutrinos beobachtet? In dem Experiment von Davis wurden nur die höher energetischen Neutrinos nachgewiesen, nicht diejenigen für die Energieerzeugung der Sonne dominanten, beim pp-Zyklus entstehenden niederenergetischen und schwer nachzuweisenden Neutrinos. Deren Nachweis gelang erst im Gallex Experiment unter der Leitung von Till Kirsten vom Max-Planck-Institut für Kernphysik in Heidelberg, in dem statt des Chlor das erheblich teurere Gallium eingesetzt wurde. Mit Gallium können auch Neutrinos aus der pp Reaktion beobachtet werden. Wieder wurde nur ein Drittel der erwarteten Neutrinos beobachtet [75]. Wo sind die fehlenden Neutrinos? Ist das Sonnenmodell falsch, das zur Berechnung des Neutrinoflusses dient? Oder verschwinden zwei Drittel der Neutrinos auf dem Weg von der Sonne zur Erde? Es gibt drei Arten von Neutrinos: Elektron-, Myon- und Tau-Neutrinos, νe, νμ, ντ (siehe den Beitrag von Konrad Kleinknecht). In den zwei genannten Experimenten werden Kerne umgewandelt, und damit können nur die in der Sonne erzeugten Elektron-Neutrinos detektiert werden. Myon- oder Tau-Neutrinos können nur die erheblich massereicheren Myonen (oder Tauonen) erzeugen, dazu fehlt den solaren Neutrinos jedoch die Energie. Trotzdem kann man auch diese Neutrinos nachweisen: Alle drei Neutrinoarten streuen elastisch an Elektronen: dabei bleibt die Identität der Teilchen erhalten wie zum Beispiel in dem Prozess νμ + e− → νμ + e−, in dem ein Myon-Neutrino elastisch an einem Elektron streut und dabei Bewegungsenergie auf das Elektron überträgt. In Wasser kann die Geschwindigkeit der Elektronen größer sein als die von Licht. Dann entsteht eine Lichtwelle, sogenanntes Cerenkov-Licht – ähnlich wie bei einem Fluzeug eine Schallwelle entsteht, wenn es mit Überschallgeschwindigkeit fliegt. Dieses Cerenkov-Licht lässt sich nachweisen. Hierzu wurde in Japan ein Tank mit 50.000  Tonnen hochreinem Wasser gefüllt. Das Cerenkov-Licht wurde von 11.200 Lichtverstärkern aufgezeichnet, sogenannten Fotomultipliern. Dabei endlich zeigte sich die volle erwartete Zahl von Neutrinos [76]. Die Elektron-Neutrinos haben sich also auf dem Weg von der Sonne zur Erde in eine Mischung von νe, νμ und ντ umgewandelt. Das ist nur möglich, wenn die Neutrinos eine Masse haben. Durch sehr aufwändige Experimente mit in Kernreaktoren erzeugten Neutrinos (νe), mit in der Atmosphäre aus dem Zerfall von Myonen entstandenen Neutrinos (νμ) und mit in Beschleunigern erzeugten Neutrinos (alle Arten) lassen sich durch Messung von Übergängen zwischen verschiedenen Neutrinoarten die (sehr kleinen) Differenzen der Quadrate ihrer Massen und die Mischungsparameter bestimmen. Eine Übersicht über die bisher durchgeführten Experimente und ihre Ergebnisse findet man in Review of Particle Physics [77].

  Lebendige Sonne, Ursprung des Lebens 

95

Die Beobachtung der Neutrinos aus der Sonne hat also unser Verständnis der Energieproduktion in der Sonne erhärtet und gleichzeitig weitere Forschungsfelder eröffnet. In Karlsruhe wird zum Beispiel derzeit ein von Ernst Otten vorgeschlagenes Experiment durchgeführt, in dem die Masse eines Neutrinos (νe) direkt bestimmt werden soll.

Sonnenflecken Die Sonne ist keine homogene Kugel. Die Rate, mit der Fusionsenergie erzeugt wird, hängt sehr stark von der Temperatur ab, die im Zentrum der Sonne maximal ist. Im innersten Kern, in einem Tausendstel des Volumens der Sonne, entsteht die Hälfte der Fusionsenergie. Diese Energie wird zunächst durch Strahlung mit Absorption und Reemission auf einem Zufallsweg (random walk) nach außen getragen. In den äußeren Schichten nimmt der Strahlungstransport der Wärme ab und Konvektion setzt ein: Heiße Gase steigen auf und erreichen die Sonnenoberfläche. Dies ist die nur etwa 400 Kilometer dicke Fotosphäre, aus der das Licht stammt, das wir auf der Erde sehen. Kühlere Gase sinken wieder nach unten. An der Oberfläche zeigt die Sonne eine körnige Struktur. Hell leuchtendes Gas steigt an heißen Stellen, den Granulen, auf und versinkt in ihren dunklen Rändern. Neben den etwa 1000 Kilometer großen Granulen gibt es die auffälligeren Sonnenflecken. Ihre Größe kann um ein Vielfaches größer sein als der Durchmesser der Erde. Im dunklen Teil der Sonnenflecken, der Umbra, ist die Temperatur um 3000 bis 4000  Grad niedriger als in ihrer Umgebung. Die Sonnenflecken sind auf Magnetfelder zurückzuführen, erzeugt von starken Strömen geladener Teilchen, die durch die thermische Konvektion entstehen. Während die Erde ein Dipolfeld hat, mit magnetischem Nord- und Südpol, sind die Dipolfelder auf der Sonne lokal. Mit Plasma geladene Felder durchbrechen die solare Oberfläche und dringen in einer hufeisenförmigen Kehre zurück an die Oberfläche. Die Feldlinien starker Felder können eng benachbarte Fußpunkte mit entgegengesetzter Polarität haben, benachbarte Magnetfeldlinien können sich unter Freisetzung großer Energiemengen neu verbinden (magnetische Reconnexion). Dabei wird das Gas erhitzt, und bis zu hunderttausend Kilometer hohe Gasfontänen, auch Protuberanzen genannt, werden von der Sonnenoberfläche aus in den Weltraum geschleudert. Geladene Teilchen werden in den Magnetfeldern eingefangen und können als Sonnenwind mit hohen Geschwindigkeiten ausgestoßen werden. Die Erde ist durch ein eigenes Magnetfeld gegen solche Sonnenstürme geschützt. Besonders starke Sonnenstürme können diesen natürlichen Schutzschild jedoch durchbrechen

96 

E. Klempt

und so zu intensiven Polarlichtern führen, aber auch zur Beeinträchtigung des Funkverkehrs und zu Beschädigungen von Kommunikationssatelliten, Telefon- und Hochspannungsleitungen [78]. Das Gas an der Oberfläche der Sonne rotiert an ihrem Äquator schneller als an den Polen der Rotationsachse. Diese differenzielle Rotation führt dazu, dass die Feldlinien aufgewickelt werden und sich eine wachsende magnetische Spannung aufbaut. Sie wird abgebaut, indem etwa alle elf Jahre eine Umpolung stattfindet. Wir beobachten diese Umpolung vor allem in dem (fast) regelmäßigen Zyklus der Sonnenflecken. Die erhöhte solare Aktivität erscheint synchron zu verlaufen mit einer besonderen planetaren Konstellation: Jupiter, Erde und Venus stehen auf einer Linie zur Sonne.

Die Zukunft der Sonne Im Zentrum der Sonne steigt die Heliumdichte kontinuierlich an, die Verbrennung verlagert sich in mittlere Bereiche und die Leuchtkraft der Sonne steigt an. In 0,9 Milliarden Jahren steigt die mittlere Temperatur auf der Erdoberfläche auf für höhere Lebensformen feindliche 30  Grad Celsius, nach einer weiteren Milliarde Jahren auf 100 Grad Celsius. Nach 6,5 Milliarden Jahre ist der Wasserstoff in der Kernzone der Sonne verbrannt. Die Gravitation führt zu einer Verdichtung und einem weiteren Anstieg der Temperatur. Nun verbrennt auch der Wasserstoff in den äußeren Schalen. Leuchtkraft und Radius der Sonne wachsen beschleunigt an: die Planeten Merkur und Venus verschwinden in dem riesigen, rot leuchtenden Feuerball, nach 7,6 Milliarden Jahren vermutlich auch die Erde [79]. Die Sonne ist ein roter Riese geworden. Im ihrem Zentrum steigt die Dichte, die Temperatur klettert auf 108 Grad an und die Verbrennung von Helium zu Kohlenstoff setzt ein: Vier Heliumkerne verschmelzen dabei zu einem Kohlenstoffkern. Auch hier wird Fusionsenergie frei. Nach 20 Millionen Jahren ist aber auch das Helium verbraucht. In einem dramatischen Wechsel von kälteren und heißeren Phasen verliert die Sonne ihre äußere Hülle als Sonnenwind. Der Kern besteht im Wesentlichen nur noch aus Kohlenstoff und Sauerstoff und schrumpft auf die Größe der Erde. Die Sonne ist zu einem Weißen Zwerg geworden. Nach weiteren Milliarden Jahren erlischt die Strahlung, und ein Schwarzer Zwerg dümpelt durch das Weltall. Die komplexen Formen des Lebens und der menschlichen Kultur sind zu einem kompakten und strukturlosen Steinhaufen erstarrt.

Unsere Erde Von ihrer Entstehung bis zur Plattentektonik Peter Rothe

Entstehung der Erde Die Erde hat sich nach bisherigen Erkenntnissen aus einer um die Sonne rotierenden Molekülwolke aus Gas und kosmischem Staub gebildet. Durch Kondensation ballte sich diese allmählich zu größeren Körpern zusammen, den Planetesimalen. Weitere Kollisionen und die gravitative Anziehung formten daraus die bekannten Planeten einschließlich der Erde. Mehrere hundert Millionen Jahre war die Erde einem regelrechten Gesteinsbombardement aus dem All ausgesetzt. Eine Restpopulation von Planetesimalen aus dieser Frühzeit kreist noch heute als Asteroiden im Asteroidengürtel zwischen Mars und Jupiter. Nach Kollisionen können Bruchstücke der Planetesimale als Meteoriten die Erde erreichen. Man unterscheidet Stein-, Eisen- und Stein-Eisen-­ Meteorite: Offensichtlich haben größere Asteroiden bereits einen Stoffsonderungsprozess durchlaufen, durch den sie in silikatische (das heißt steinhaltige) und metallische Anteile differenziert wurden. Die bedeutendste Kollision war vermutlich der Zusammenprall der Erde mit einem Protoplaneten von der ungefähren Größe des Mars. Bei diesem Stoß wurde der Mond aus der Proto-Erde herausgeschleudert; seine stoffliche Zusammensetzung entspricht wesentlich der des Erdmantels.

P. Rothe (*) Reiss-Engelhorn-Museen, Mannheim, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_11

97

98 

P. Rothe

Die beim Aufprall der außerirdischen Körper freigesetzte Energie ist entscheidend für den Wärmehaushalt der Erde. Der oft erwähnte radioaktive Zerfall als Ursache für die Wärme scheint da eher nachrangig.

Erdgeschichte Die Erdgeschichte gliedert sich in mehrere Zeitalter: Im Hadaikum (4,6 bis 4,0 Milliarden Jahre) trennt sich der metallische Kern vom silikatischen Mantel, und es gibt ein intensives Meteoritenbombardement. Im Archaikum (4,0 bis 2,5 Milliarden Jahre) bildet sich die erste kontinentale Kruste, der Urozean und die Atmosphäre entstehen, und es zeigen sich erste rudimentäre Lebensspuren. Das Proterozoikum (2,5 bis 0.541 Milliarden Jahre) ist die Zeit des beginnenden Lebens, das sich aber erst im nachfolgenden Paläozoikum voll entfaltet. Bei Beginn des Paläozoikums (541 bis 252 Millionen Jahre), im Kambrium, treten innerhalb weniger Millionen Jahre praktisch alle Tierstämme auf den Plan, sodass man von der „Kambrischen Explosion“ spricht. Aber im Paläozoikum gab es auch drei Katastrophen, die zu einem Massenaussterben von Tier- und Pflanzenarten führten; in deren Folge wurden die freigewordenen Räume nach und nach mit neuen Arten besiedelt. Auch das Mesozoikum (252 bis 66 Millionen Jahre) erlebte zweimal ein Massenaussterben. Das zweite Sterben wurde vermutlich durch den Einschlag eines Meteoriten nahe der heute mexikanischen Yucatan-Halbinsel verursacht. Dieser Zeitpunkt (vor 66 Millionen Jahren) definiert das Ende des Mesozoikums und den Beginn des Känozoikums. Wesentlich für die Entschlüsselung der Erdentstehung und der frühen Erdentwicklung sind vor allem physikalische Altersbestimmungen der ältesten Gesteine. Dabei spielen die inzwischen zahlreichen Datierungen an Zirkonkristallen eine Sonderrolle, weil diese nicht durch thermische Einflüsse im Zuge von Gebirgsbildungsprozessen beeinflusst worden sind. Die mit mehr als vier Milliarden Jahren ältesten Gesteine stammen aus archaischen Kontinentkernen in alten Gebirgen. In ihnen hat man eine spezielle aus dem Erdmantel stammende vulkanische Gesteinsart gefunden, die in späterer Zeit nicht mehr gebildeten Komatiite. Der Olivin darin, ein wesentlich aus Eisen und Magnesium aufgebautes Silikat ((Mg,Fe)2 SiO4), zeigt hier ein ungewöhnliches, nach einer australischen Grasart benanntes Spinifex-Muster: Damals kristallisierte Olivin schon bei 1600 Grad Celsius, was auf eine um 200 bis 400 Grad höhere Schmelztemperatur hinweist. Dieses Phänomen

  Unsere Erde 

99

macht auch eine in der Frühzeit schnellere Konvektion wahrscheinlich. Vom Paläozoikum an lassen sich die Gesteine mit Fossilien zeitlich genauer einstufen. Während der Frühzeit entwickelten sich in brodelnden Schmelzen an der Oberfläche der Erde bei sinkenden Temperaturen allmählich feste Bereiche, die aber zunächst immer wieder in die Schmelze abtauchten. Bei weiterer Abkühlung bildeten dann solche Bereiche die ersten Kontinentkerne, die unter dem aus der Atmosphäre einsetzenden Regen langsam wieder abgetragen wurden. Das führte zu einer Stoffsonderung, bei der auch die ersten Sedimente entstanden. Diese gerieten in die Schmelze, wobei schon granitähnliche Gesteine entstanden, die eine geringere Dichte hatten als die Basalte des frühen Beginns. Das ermöglichte ihnen, aus dem von Basaltschmelzen bestimmten schwereren Untergrund aufzusteigen. Erosionsprodukte an den Rändern der Kontinentkerne wurden im Verlauf wieder aufgeschmolzen, was zu weiteren Gesteinsarten führte. Die beweglichen Schmelzen in den Bereichen zwischen solchen Kontinentkernen drückten diese ersten festen Schollen gegeneinander und fügten sie zu größeren Einheiten zusammen – ein bereits der Plattentektonik ähnelnder Prozess, der allmählich die heutige Erde zu formen begann. Schließlich bildete sich so aus dem basaltischen Magma-Ozean und den kleineren festen Schollen ein erster Urkontinent, der wieder zerbrach und dessen Teile sich dann erneut zu größeren Einheiten zusammenfügten. Die frühen Kontinentkerne setzten aber nicht nur an den Rändern Kruste an, sondern wurden auch von unten verdickt (underplating). Im Laufe der Erdgeschichte sind in jeweils mehreren Hundert Millionen Jahren mehrmals Großkontinente entstanden und wieder zerbrochen. Den größten Zuwachs der etwa 35 Kilometer mächtigen Erdrinde oder Erdkruste gab es im Archaikum; für das Proterozoikum sind weitere Episoden für die Zeit von 1,6 bis 1,4 und um 1,1 Milliarden Jahre wahrscheinlich. Zu den jüngeren Großkontinenten gehörte Gondwana, das sich aus den zerbrochenen Bestandteilen des vor 1,1 Milliarden Jahren entstandenen Großkontinents Rodinia zusammengesetzt hatte und in dem vor 550 Millionen Jahren noch alle heutigen Südkontinente, die Antarktis, die Arabische Halbinsel und Indien vereinigt waren. Am besten untersucht ist Pangaea, das vor 220 Millionen Jahren zu zerbrechen begann und in dessen Teilstücken sich bereits die heutige Verteilung der Kontinente abzeichnete. Bei diesen Zusammenschlüssen und Aufbrüchen öffneten sich jeweils neue Ozeane und schlossen sich wieder. Keiner der heutigen Ozeane ist älter als 200 Millionen Jahre. Einige erweitern sich noch heute, unter anderem der

100 

P. Rothe

Atlantik und das Rote Meer. Dessen Existenz ist bereits wieder bedroht, weil sich unter dem Afrikanischen Kontinent ein Wärmedom andeutet, in dessen Folge das ostafrikanische Grabensystem aufbricht. Hier könnte sich ein neuer Ozean entwickeln. Die frühe (Proto-) Erde hatte nur eine sehr dünne Gashülle aus Wasserstoff und Helium, die wegen ihrer anfangs noch geringen Schwerkraft nicht zu halten war. Erst mit zunehmender Konsolidierung bildete sich die eigentliche Uratmosphäre aus den ausgasenden Schmelzen – eine dichte Atmosphäre aus Wasserdampf, Kohlendioxid (CO2), Stickstoff und Schwefelverbindungen. Helium, Ammoniak und Methan wurden auch von den weiterhin mit der Erde kollidierenden Himmelskörpern beigesteuert. Erst die wesentlich spätere Atmosphäre enthielt dann zunehmend auch Sauerstoff (O2), der anfangs durch die intensive UV-Strahlung aus der Spaltung von CO2 und Wasser (H2O) entstand. Zunächst wurde der Sauerstoff in Form von Hämatit (Fe2O3) in den präkambrischen Rotgesteinen gespeichert, aus der Atmosphäre „abgefangen“. Seit dem Proterozoikum wurde der Sauerstoff dann durch photosynthetische Prozesse von Lebewesen erzeugt und zu einem wesentlichen Bestandteil der Erdatmosphäre. Sein Anteil schwankte allerdings im Verlauf der Erdgeschichte stark, ehe der aktuelle Wert von etwa 21 Prozent erreicht war. Bei abnehmenden Temperaturen sammelte sich das aus starkem Dauerregen gespeiste Wasser in den Senken, aus denen sich die künftigen Ozeane zu entwickeln begannen. Man vermutet, dass ein Teil davon aus der Entgasung der Gesteinsschmelzen stammen könnte, als wesentliche Lieferanten werden heute allerdings auch Meteoriten beziehungsweise Kometen („Schmutzige Schneebälle“) diskutiert. In 3,8 Milliarden Jahre alten Sedimentgesteinen Grönlands hat man erste vermutlich beim Transport durch Wasser oder Muren abgerundete Steine gefunden, die auf fließendes Wasser hinweisen. In diesen Gesteinen wurden erste Spuren frühen Lebens gefunden. Auch der Nachweis von isotopisch leichtem Kohlenstoff in diesen Sedimenten weist auf Spuren frühen Lebens. Im festen Stoffbestand kommen aus den in die Schmelze abtauchenden Bereichen nun auch nennenswerte Mengen von Gneisen in die Erdkruste, das heißt von Gesteinen, die durch Metamorphose bei hohem Druck und hoher Temperatur entstanden. Die häufigsten Gesteine in den alten Kontinentkernen bilden die Orthogneise, die sich aus magmatischen Ausgangsgesteinen entwickelt haben. Seitdem herrscht auf der Erde ein ständiges Recycling, mit zunehmender Bedeutung der Sedimente. Diese Entwicklung setzt sich bis heute fort.

  Unsere Erde 

101

Aufbau der Erde Die Erde stellt man sich heute als aus konzentrischen Kugelschalen aufgebaut vor, deren Dichte nach innen zunimmt. Man unterscheidet Kruste, Mantel und Kern, die ihrerseits noch weiter in kontinentale und ozeanische Kruste, oberen und unteren Mantel sowie äußeren und inneren Kern gegliedert werden (Abb. 1). Die Kruste und der äußerste Teil des Erdmantels sind starr und werden zusammen als Lithosphäre bezeichnet. Sie besteht aus einzelnen Platten, die auf der darunter liegenden plastischen Schicht „schwimmen“. Die Kruste besteht wesentlich aus Sauerstoff, Aluminium und Silizium; dies sind die Bestandteile von Feldspat und Quarz, die zusammen granitartige Gesteine mit einem spezifischen Gewicht beziehungsweise einer Dichte von 2,7 Gramm pro Kubikzentimeter aufbauen. An aktiven Kontinentalrändern werden gelegentlich Gesteinskomplexe der ozeanischen Lithosphäre aufgeschoben, gelangen an die Oberfläche und sind so direkter Beobachtung zugänglich. Zur Strukturbestimmung tieferer Erdschalen sind wir überwiegend auf Analogien angewiesen. Der Obere Mantel mit einer mittleren Dichte von 2,95 g/cm3 besteht im Wesentlichen aus Olivin und Pyroxen, den Hauptmineralbestandteilen von Basalt und ähnlichen Gesteinen wie Gabbro beziehungsweise Peridotit, die aber erst in größerer Tiefe entstehen (Abb. 2). Über den noch tieferen Bereich des Mantels wird spekuliert, ob hier die Minerale infolge des höheren Drucks dichter gepackt sind, ohne dass sich deren chemische Zusammensetzung ändert. Innerhalb des Mantels selbst lassen sich noch weitere Grenzschichten erkennen: Bei 410 Kilometern geht der Olivin in eine noch dichtere Struktur über (die sogenannte Spinellstruktur). Die Grenze zwischen oberem und unterem Mantel liegt bei etwa 660 Kilometern Tiefe. Bei einer mittleren Gesamtdichte der Erde von 5,52 Gramm pro Kubikzentimeter muss der Kern erheblich schwerer sein, er besteht daher vermutlich vor allem aus Eisen und Nickel. Die Schalengrenzen hat man geophysikalisch anhand von Erdbebenwellen ermittelt, deren Laufzeiten von der Dichte des Materials abhängig sind: In dichterem verlaufen sie schneller. Feste und plastische beziehungsweise flüssige Bereiche können durch Messung von P(rimär)- und S(sekundär)-Wellen unterschieden werden. S-Wellen sind Transversal- oder Scherwellen, die senkrecht zur Ausbreitungsrichtung schwingen; diese werden durch Flüssigkeiten nicht weitergeleitet. Aus solchen Messungen ergibt sich, dass der äußere Erdkern flüssig sein muss. Seine Temperatur beträgt nach neuesten Untersuchungen 6000 Grad. Die von dort aufsteigende Wärme ist letztlich der Motor der Plattentektonik (siehe unten). Dies wird durch zusätzliche Beobachtungen

102 

P. Rothe

Abb. 1  Das Schalenmodell der Erde

  Unsere Erde 

103

Abb. 2  Entstehung der Gesteinsarten aus der basaltischen Urschmelze

gestützt: Strömungen in dieser Schmelze bewirken auch das Magnetfeld der Erde. Der innere Kern, dessen Grenze bei etwa 5000 Kilometern liegt, ist dagegen infolge des enorm hohen Drucks wieder fest. Der Wärmetransport erfolgt durch heiße, schlauchartige Aufstiegszonen, in denen geschmolzenes Material wieder zur Oberfläche zurück gelangt (plumes). Solche plumes bilden auch an der Oberfläche besonders heiße Bereiche, die dann als hot spots für den Vulkanismus vor allem innerhalb der tektonischen Platten verantwortlich sind. An den Plattenrändern taucht der obere Erdmantel in tiefer liegende Schichten: die Mehrzahl der Vulkane ist an diese Subduktionszonen gebunden.

104 

P. Rothe

Plattentektonik Das Puzzlespiel der Plattentektonik hatte sich zunächst an der Passform der Kontinentgrenzen beiderseits des Atlantiks orientiert. Der Meteorologe, Polar- und Geowissenschaftler Alfred Wegener entwickelte 1915 die Hypo­ these, dass sich die Kontinente bewegen und auseinanderdriften, beziehungsweise aufeinander zu – diese Ansicht hat inzwischen eine glänzende Renaissance erfahren. Tatsächlich wandern jedoch nicht die Kontinente, sondern Lithosphärenplatten, die aus Kruste und lithosphärischem oberstem Mantel bestehen und auf der unter ihr liegenden plastisch reagierenden, teilweise geschmolzenen Asthenosphäre bewegt werden (Abb. 2, 3). Die wesentlichen die Plattentektonik untermauernden Beobachtungen begannen aber erst in den 1960er-Jahren: Am Ozeanboden wurde ein spiegelsymmetrisches Streifenmuster von wechselnder magnetischer Orientierung entdeckt, in den dortigen Gesteinen ist die Richtung bestimmter Kristalle relativ zu den Polen „eingefroren“ und im festen Gestein orientiert fixiert; dies

Abb. 3  Der „Feuerring“ um den Pazifik (aus Frisch, W. & Meschede, M., Plattentektonik und Gebirgsbildung, 208 S., 5.  Auflage 2013 (1.  Auflage 2005), Wissenschaftliche Buchgesellschaft/Primus-Verlag, Darmstadt., erstellt mit freundlicher Unterstützung durch Agneta Schick, Bundesanstalt für Geowissenschaften und Rohstoffe, Hannover)

  Unsere Erde 

105

kann man mit Magnetometern von Schiffen aus verfolgen. Altersbestimmungen zeigen, dass dieses Streifenmuster von den Mittelozeanischen Rücken aus nach beiden Seiten hin älter wird, ein Hinweis darauf, dass sich der Ozeanboden offensichtlich ausdehnt (sea floor spreading). In den Gesteinen ist auch, von Ausnahmen abgesehen, eine annähernd periodische Änderung der Ausrichtung des Erdmagnetfelds dokumentiert. Dem wachsenden Ozeanboden steht auf der anderen Seite dessen Verschluckung gegenüber, anderenfalls müsste sich der Erdumfang ausdehnen, astronomische Daten widersprechen dem aber. Die Verschluckung geschieht an den Subduktionszonen. Dort taucht die ozeanische Kruste zusammen mit den darauf abgelagerten Sedimenten in den Mantel ab. Diese Bereiche sind auch durch meist vulkanische Inselbögen und Tiefseegräben gekennzeichnet. Die Hypozentren von Erdbeben zeigen, dass die schwerere ozeanische Lithosphäre schräg in den Mantel eintaucht und erst in 700 km Tiefe ihre Identität verliert – dort geht das Material in den Schmelzzustand über. Seit den 1970er-Jahren ist es möglich, Bewegungen von Teilbereichen der Erdkruste mit Satelliten bzw. GPS zu verfolgen, die in der Größenordnung von weniger als ein bis zu mehr als 15 cm pro Jahr liegen. Teilbereiche entfernen sich entweder voneinander (Bestätigung für aktives sea floor spreading), bewegen sich aufeinander zu oder aneinander vorbei. Tiefseebohrungen erlauben seit 1968 systematische Sondierungen der ozeanischen Kruste und deren Sedimentbedeckung: In jenem Jahr begann das Deep Sea Drilling Project mit einigen, bis tausend Metern tiefen Bohrungen auf dem Meeresgrund. Dabei wurden die zuvor ermittelten Altersabläufe mit sedimentgeologischen Methoden bestätigt. Die Sedimentdecke wird mit zunehmender Entfernung von den Mittelozeanischen Rücken immer älter und mächtiger. Fortschritte in der Bohrtechnik ermöglichten später auch größere Eindringtiefen in die ozeanische Lithosphäre. Diese besteht, von oben nach unten, aus basaltischer Kissenlava (pillow lava), aus zu steilstehenden Gängen erstarrtem Magma und darunter aus massivem Gabbro und Peridotit. Noch tiefer folgen schichtige ultramafische Magmatite – ultramafisch bedeutet, dass sie zu großen Teilen aus Magnesium- und Eisenmineralen bestehen. Sie sind bereits Teile des Oberen Mantels. Diesen hatte man ursprünglich mit dem „project Mohole“ erbohren wollen, um die Grenze zwischen Kruste und Mantel, die 1910 von dem kroatischen Geophysiker Andrij Mohorovičić entdeckte „Mohorovicic-­Diskontinuität“ zu erkunden. Bei Beobachtungen vom Tauchboot aus fand man an den Mittelozeanischen Rücken die black smokers, „Schornsteine“, aus denen mehrere 100 Grad Celsius heißes, metallbeladenes Wasser quillt und die heute eine wesentliche Rolle in der Diskussion um die Entstehung des Lebens spielen (siehe den

106 

P. Rothe

Beitrag von Klaus Kowallik) und die zur Erklärung von hydrothermal entstandenen Buntmetall-Erzlagerstätten beitragen. Experimente zur Strömungsmechanik und Computermodelle sind zahlreich, liefern aber immer noch kein völlig befriedigendes Bild. Unter Kontinenten ist die Lithosphäre 70 bis 150 Kilometer mächtig, unter Gebirgen manchmal mehr als 200 Kilometer. Die kontinentale Kruste misst im Mittel 30 bis 40 Kilometer, die ozeanische ist dagegen nur 5 bis 8 Kilometer „dünn“. Die als Lithosphärenplatten bezeichneten Großeinheiten sind eigentlich sphärische Segmente auf der Erdkugel, die sich in unterschiedlichen Richtungen bewegen: An den Mittelozeanischen Rücken, die mit 70.000 Kilometer Länge die größten zusammenhängenden Gebirge der Erde sind, entsteht ständig neue Kruste, die an den gegenüberliegenden Kontinenträndern durch Subduktion wieder in den Erdmantel abtaucht. Man unterscheidet konstruktive von destruktiven Plattenrändern, an denen entweder neue Kruste gebildet oder vernichtet wird, außerdem neutrale Transformstörungen, an denen Platten aneinander vorbei gleiten wie zum Beispiel beim San Andreas Störungssystem. In Bezug auf die Kontinente werden passive von aktiven Rändern unterschieden: An passiven sind kontinentale und ozeanische Kruste verbunden wie beim Atlantik, an aktiven Kontinentalrändern trifft dagegen ozeanische Lithosphäre auf einen Kontinent, wobei Faltengebirge wie zum Beispiel die Anden entstehen. Die auftreffende Platte wird dabei subduziert, wobei deren Gesteine partiell aufgeschmolzen werden. Aktive Plattenränder sind vor allem die Orte von Erdbeben; dies manifestiert sich an den Mittelozeanischen Rücken und im pazifischen Feuerring (Abb. 3). Intraplatten-Vulkanismus ist dagegen an hot spots gebunden. Ein Beispiel: In Hawaii ist der Knick im Verlauf der Inselkette durch Änderung der Driftrichtung der Platte erklärbar, die über den als Schneidbrenner wirkenden hot spot gleitet. Plattentektonik verläuft in Zyklen von jeweils ein paar Hundert Millionen Jahren (Wilson-Zyklen). Die Prozesse beginnen damit, dass sich kontinentale Kruste durch einen aufsteigenden Wärmedom wölbt. Dabei entstehen erste Risse, an denen entlang der Kontinent schließlich zerbricht (rifting). Im weiteren Verlauf kann bei fortschreitendem Auseinanderbrechen (drifting) ein neuer Ozean entstehen. Dieser Dilatation der Erdkruste steht die Kompression im Bereich der Subduktionszonen gegenüber, dabei entstehen Faltengebirge. Die Anzahl der mit Namen versehenen Platten reicht von mindestens sieben größeren bis zu über fünfzig kleineren, es gibt aber viele zusätzliche Lithosphäre-Splitter, die exotischen Terrane. Ihr Ursprung liegt oft Tausende Kilometer von der gegenwärtigen Position entfernt, und sie haben jeweils

  Unsere Erde 

107

eigene geologische Geschichten. Die Ausgangspositionen lassen sich anhand paläomagnetischer Daten rekonstruieren, und die Grenzen dieser Splitter sind immer tektonische Kontakte. Ihr meist leichteres Material verhindert eine Subduktion, sodass sie an Kontinentbereiche „angeschweißt“ werden können, wo sie vielfach auch Bestandteile von Faltengebirgen sind. Solche aus Terranen bestehenden „Anwachsstreifen“ kennzeichnen beispielsweise den nordwestlichen Rand Nordamerikas. Plattentektonik hat nicht nur Folgen für die Lebewelt und die Positionierung der Kontinente, sondern unmittelbar auch für Klimaschwankungen, die heute meist monokausal auf unser eigenes Verhalten zurückgeführt werden. Allerdings haben sich derartige Klimaschwankungen in geologischen Zeiträumen vollzogen, während die gegenwärtige Erwärmung der Erdatmosphäre zweifellos mit der beginnenden industriellen Revolution vor 180 Jahren korreliert. Schon in der Erdvergangenheit, lange vor unserer Existenz, gab es Ex­ treme wie die vollständig vereiste Erde im Jungpräkambrium („snowball earth“) oder die während der Kreidezeit eisfreien Pole, was mit einem weltweiten Meeresspiegelanstieg einherging. Mit der inzwischen über den Rang einer Hypothese weit fortgeschrittenen Theorie der Plattentektonik lassen sich heute Gebirgsbildung, die Entstehung und Entwicklung von Ozeanen, aber auch Erdbeben und Vulkanismus in einen stimmigen Zusammenhang bringen. Sie ermöglicht sogar zu pro­ gnostizieren, wie sich unser Planet weiterentwickelt: von der in geologisch relativ kurzer Zeit zu erwartenden Schließung des Mittelmeers bis hin zum Stillstand aller geologischen Umwälzungen in wesentlich weiterer Zukunft, die enden werden, sobald der Wärmevorrat aus der Entstehungszeit des Planeten Erde aufgebraucht sein wird. Als weitergehende Lektüre seien [80–82] empfohlen.

Der Anfang des Lebens Von der chemischen zur biologischen Evolution Klaus V. Kowallik

Die Frage nach dem Ursprung des Lebens hat durch die bahnbrechenden Experimente des französischen Mikrobiologen und Chemikers Louis Pasteur um die Mitte des 19. Jahrhunderts eine zunächst grundlegende Antwort gefunden: Alles Leben kann nur vom Leben abstammen (omne vivum ex vivo). Dies wirft zugleich die Frage nach der Entstehung und dem Wesen der ersten Zelle auf. Ist sie allmählich durch sequenzielle Prozesse aus zunächst unbelebten chemischen Verbindungen hervorgegangen? Ist sie durch kosmische Ereignisse als Folge heftiger Einschläge durch Asteroiden und Meteorite zu Anbeginn der Erdentstehung auf unseren Planeten gelangt? Oder geht sie sogar zurück auf einen einmaligen Schöpfungsakt, eingeleitet durch eine höhere Macht im Sinne eines Intelligent Designs? Weder ein xenogener, von außen eingebrachter Anfang des Lebens, noch ein durch einen Schöpfer induzierter Lebensbeginn soll hier weiter diskutiert werden, da für beide Erklärungsmodelle jegliche naturwissenschaftlichen Beweise fehlen. Wir müssen uns aber bewusst sein, dass wir Prozesse, die der eigentlichen Zellbiogenese vorausgegangen sind, also der Entstehung einer Zelle im heutigen Sinne, mit den uns bisher zur Verfügung stehenden Mitteln nicht zweifelsfrei verstehen können. Wenn dennoch versucht wird, die Lücke zwischen der am Anfang der Erdgeschichte bestehenden anorganischen, das heißt unbelebten Welt und dem sich anschließenden schrittweisen Übergang zur organischen und K. V. Kowallik (*) Botanisches Institut, Heinrich-Heine-Universität Düsseldorf, Düsseldorf, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_12

109

110 

K. V. Kowallik

letztlich organismischen Evolution zu schließen, so sind derartige Überlegungen dennoch Erklärungen für Reaktionsketten, die zunächst den Gesetzen der anorganischen, organischen und physikalischen Chemie gehorchen müssen. Ob sie sich tatsächlich so ereignet haben, ist nach dem heutigen Stand wissenschaftlicher Erkenntnis wahrscheinlich, keineswegs aber bewiesen. Betrachten wir die Vielfalt der Organismen, die alle Lebensbereiche der Erde bevölkern, so stellen wir grundlegende Eigenschaften fest, die bei allen Lebewesen ähnlich oder sogar identisch sind – und zwar unabhängig davon, ob diese zu den Prokaryoten zählen, den Archaeen (früher: Archaebakterien) und Bakterien, oder zu den Eukaryoten, die einen Zellkern haben und eine hoch organisierte Zellstruktur. Alle heute lebenden Organismen müssen demnach auf die Existenz eines letzten gemeinsamen Vorfahren zurückgehen, das Leben ist also monophyletisch entstanden. Die Wissenschaft hat diesen Vorfahren LUCA getauft, den last universal common ancestor. Auch wenn LUCA heute nicht mehr existiert, ist die Kenntnis seiner Eigenschaften letztlich Voraussetzung dafür, dass wir verstehen, worin sich Leben äußert, erhält und verändert. Aus den frühesten überlieferten Fossilien und chemischen Analysen der ältesten Gesteine – mehr als vier Milliarden Jahre alte, eisenhaltige Silikate – können wir vermuten, dass der erste einzellige Organismus vor 3,8 bis 4,2 Milliarden Jahren gelebt hat [83], also nur wenige Hundert Millionen Jahre nach der Geburt unseres Planeten vor 4,56 Milliarden Jahren. In dieses Zeitfenster fallen jüngste Analysen an Kohlenstoffisotopen in Grafiteinschlüssen und Carbonaten nordkanadischer Sedimente, die auf einen biogenen Ursprung des Kohlenstoffs vor 3,95 Milliarden Jahren hinweisen [84]. Eine so frühe Entstehungsphase des Lebens, als der Urozean durch die noch dünne Erdkruste, vulkanische Aktivitäten und Asteroideneinschläge aufgeheizt war, erscheint uns zunächst als wenig glaubwürdig. Und doch wissen wir durch gesicherte Fossilienfunde aus wenig später entstandenen Sedimentschichten, dass der gemeinsame Vorfahr allen heutigen Lebens bereits derart früh in der Erdgeschichte gelebt haben muss. Mit LUCAs Entstehen müssen zudem die Gesetze der Evolution, das heißt Mutation und Selektion, wirksam geworden sein: Fossile Matten von Bakterien aus wenig jüngeren Sedimentschichten weisen bereits auf zahlreiche unterschiedliche Organismen hin, die aus LUCA hervorgegangen sind. Durch einen neuen bioinformatischen Ansatz hat der gemeinsame Vorfahr LUCA, der bisher rein hypothetischer Natur war, in jüngster Zeit ein Gesicht erhalten [85, 86]. So sind Eigenschaften, die wir heute mit Leben in Verbindung bringen, bereits bei LUCA nachweisbar. Sie haben sich bis heute in ihren Grundzügen erhalten. Dazu zählen zum Beispiel die Energiegewinnung

  Der Anfang des Lebens 

111

und -konservierung durch biochemische Stoffwechselprozesse, die mit der selektiven Aufnahme oxidierbarer Gase und gelöster Mineralien beginnen, sowie die Fähigkeit, sich identisch zu reproduzieren, also die Weitergabe aller durch Mutation und Selektion erworbenen Merkmale an die nachfolgenden Generationen. Diese Eigenschaften schließen gleichzeitig aus, dass Leben ein zweites Mal auf der Erde entstehen kann, denn die heutigen atmosphärischen Bedingungen unterscheiden sich grundlegend von denen der frühen Erde, und gerade diese waren entscheidend dafür, dass LUCA entstanden ist. Maßgeblich hierfür ist der im Laufe der erdgeschichtlichen Entwicklung gestiegene Sauerstoffgehalt der Atmosphäre von ursprünglich weniger als einem Prozent bis zu etwa 21 Volumenprozent. Dass Sauerstoff in der Uratmosphäre fehlte, bedeutet, dass das Leben in einer anaeroben, also sauerstofffreien Umgebung entstanden ist, in der Energiegewinnung nicht durch oxidative Prozesse unter Beteiligung elementaren Sauerstoffs, sondern allein durch spontan ablaufende Redoxreaktionen möglich war, wobei Elektronen von einem Reaktionspartner auf einen anderen übertragen werden. Erst nach zwei Milliarden Jahren konnte der Sauerstoffpartialdruck der Atmosphäre als Folge bakterieller Photosynthese zunehmen, und erst dies erlaubte die Entstehung der ersten eukaryotischen Zelle und damit den Beginn allen höheren Lebens. Gleichzeitig schließt die Existenz von LUCA jedoch nicht aus, dass Leben auf anderen Planeten, Monden oder in anderen Sonnensystemen auf ähnliche, vielleicht sogar identische Weise entstehen kann oder entstanden ist, sofern die Bedingungen denen der frühen Erde glichen beziehungsweise gleichen. Wie haben wir uns nun diese Bedingungen vorzustellen, die LUCA zum Leben verhalfen? Wenn wir die wichtigsten Kriterien betrachten, unter denen Leben existiert, so gibt es zwei Grundvoraussetzungen, damit Leben überhaupt erst entstehen kann: Die erste Voraussetzung ist Wasser in flüssiger Form, die zweite der ungehinderte Zugang zu Energie. Gemeint ist nicht etwa Wärmeenergie, sondern freie Energie (Enthalpie) in Gestalt von chemischer Energie sowie die Gegenwart geeigneter Reaktionspartner, welche unter wiederum geeigneten Reaktionsbedingungen sich spontan und irreversibel zu neuen Verbindungen zusammenfinden können. Beides gab es auf der frühen Erde: Die allmählich erkaltende und noch sehr dünne Erdkruste war nach Unterschreiten der Siedetemperatur des Wassers von einem weitgehend salzarmen Urozean bedeckt. Heftige vulkanische Aktivität und das Bombardement durch Asteroiden aus dem Weltall verhinderten, dass Kontinente entstanden wie wir sie uns heute vorstellen. Die Atmosphäre, noch frei von Sauerstoff und damit auch ohne Ozonschicht, war dem Einfluss intensiver ultravioletter Strahlung aus dem Weltall ausgesetzt  – Strahlen, die das Erbgut verändern, was einer Entstehung des Lebens außerhalb des Wassers entgegengestanden hätte.

112 

K. V. Kowallik

Der Chemiker Stanley Miller vermutete, dass sich die frühe Atmosphäre der Erde aus reduzierten, das heißt elektronenreichen Gasen zusammensetzte wie Methan, Ammoniak und Wasserstoff, die leicht oxidierbar sind und die damit ähnlich beschaffen war wie die des Planeten Jupiter. Unter diesen Bedingungen können unter dem Einfluss elektrischer Ladungen spontan einfache organische Verbindungen entstehen, wie Miller 1953 in einem Laborexperiment nachwies. Darunter fanden sich Aminosäuren, also Bausteine der Proteine, sowie eine stickstoffhaltige heterozyklische Base Adenin, die in allen Lebewesen Bestandteil der Nukleinsäuren DNA und RNA und des universellen Energieträgers Adenosintriphosphat (ATP) ist (siehe den Beitrag von Joseph W. Lengeler). Proteine, die als katalytische Zentren die Aktivierungsenergie von Reaktanden herabsetzen und somit Reaktionen beschleunigen, ließen sich in den Miller’schen Experimenten indes nicht nachweisen. Synthesen zu komplexeren Molekülen, wenn überhaupt, verliefen vermutlich schleppend. Die von Miller initiierten und nachfolgend von anderen Wissenschaftlern unter Verwendung weiterer Gasgemische durchgeführten Experimente sind unter dem Begriff der Ursuppenhypothese bekannt. Damit wurde zwar bewiesen, dass organische Moleküle, die wir mit Leben in Verbindung bringen, aus einfachen chemischen Verbindungen entstehen können. Doch dieser zunächst als schlüssig erachtete experimentelle Versuchsansatz, wie er immer noch in Lehrbüchern steht, basiert auf nicht zutreffenden Annahmen. Aus kristallografischen Analysen wissen wir, dass sich die frühe Erdatmosphäre infolge vulkanischer Tätigkeiten aus elektronenarmen, das heißt oxidierten und damit reaktionsträgen Gasen wie Kohlendioxid, Wasserdampf und Stickstoffoxiden zusammensetzte. Hinzu kommen geringe Anteile an elementarem Wasserstoff, abiotisch entstanden durch Serpentinisierung, das heißt durch engen Kontakt von Wasser mit heißem eisenhaltigem Olivin der Erdkruste sowie Methan als Reduktionsprodukt von Kohlendioxid mit Wasserstoff. Zudem verwendete Miller bei seinen Versuchen ein geschlossenes System, in dem die entstehenden Reaktionsgemische länger in engem Kontakt bleiben und somit erneut zu komplexeren Verbindungen reagieren können. Die Reaktionsräume der Urozeane, in denen gelöste Gase und Elektrolyte miteinander in Verbindung stehen, waren hingegen offene Systeme: Die Reaktanden und ihre Produkte waren dem Verdünnungseffekt ausgesetzt  – umso mehr, als atmosphärische Einflüsse wie Sturm, Meteoriteneinschlag und thermische Konvektion den Verdünnungseffekt erheblich beschleunigen. Nach dem Massenwirkungsgesetz bewegen sich der Stoffmengenanteil und damit die Konzentration an Ausgangs- und Endprodukten in einem offenen System sehr schnell gegen Null. Da wir aber von den zuvor genannten wenigen Gasen

  Der Anfang des Lebens 

113

ausgehen müssen, deren Partialdrucke und damit auch ihre Reaktionsfreudigkeit zueinander nicht gleich sind, müssen wir fordern, dass die Reaktionsorte eng begrenzt sind, um Reaktionen mit hinreichender Ausbeute zu ermöglichen. Darüber hinaus müssen die Reaktionsprodukte weitgehend an ihrem Bildungsort bleiben, damit komplexere Verbindungen entstehen können. Die Anfänge des Lebens müssen wir daher in eng begrenzten Bereichen suchen, die diese Forderungen erfüllen. Bereits 1988 haben sich der Biochemiker Mike Russell und Mitarbeiter zu Eigenschaften und Vorkommen solcher Bereiche geäußert [87]. Sie sollten Reaktionsräume sein, umgeben von einer Eisensulfid-Niederschlagsmem­ bran, angereichert mit einer Lösung aus reduzierten Komponenten im alkalischen Milieu. Solche Reaktionsräume finden sich an schwefelhaltigen, submarinen heißen Quellen, an denen Kontinentalplatten aufeinandertreffen oder sich voneinander wegbewegen. Die erst wenige Jahre zuvor entdeckten hydrothermalen Quellen an den Mittelozeanischen Rücken lösen unter hohem Druck und bei mehreren Hundert Grad Celsius Metalle, vor allem Eisen, aus dem umgebenden Gestein, welche bei Kontakt mit dem kalten Umgebungswasser als schwarze Sulfide ausfallen. Bekannt geworden sind diese Quellen als Schwarze Raucher (black smokers). Sie können aufgrund der hohen Temperaturen allerdings kaum als Orte in Betracht kommen, an denen erste biochemische Synthesereaktionen stattgefunden haben. Erst die Tauchfahrten eines amerikanischen Tieftauchbootes haben um die Jahrhundertwende nahe der Schwarzen Raucher bei abnehmender Wärmestromdichte Kamine aus Sulfaten, Carbonaten und Silikaten der Erdmetalle Calcium und Barium entdeckt. Diese wegen ihrer hellen Farbe als Weiße Raucher (white smokers) bezeichneten alkalischen Quellen sind reich an reduzierten Gasen wie Wasserstoff, Stickstoff, Schwefelwasserstoff und Methan, gelöst in Wasser mit Temperaturen um 100 Grad Celsius und darunter. Sie enthalten aber auch Oxide anorganischen Kohlenstoffs. Die Gase zirkulieren innerhalb dieser Kamine in Kammersystemen, die einem verfestigten Schaum gleichen. Spontane geochemische Reaktionen an diesen Orten zwischen Wasserstoff und Kohlendioxid lassen komplexere organische Moleküle entstehen, wobei die freigesetzte Energie weiteren Synthesereaktionen dienen kann [88, 89]. Mit zunehmendem Molekulargewicht werden Reaktionsprodukte innerhalb der Porensysteme der Weißen Raucher zurückgehalten, während niedermolekulare Produkte und nicht miteinander reagierende Gase entsprechend ihres geringeren Molekulargewichtes entweichen können [90]. Mit zunehmender Konzentration an höher molekularen Komponenten nimmt daher auch die Wahr­scheinlichkeit zu, dass organische Moleküle wie Nukleinsäuren, Proteine und Lipide entstehen und angereichert werden können.

114 

K. V. Kowallik

Allerdings ist es noch ein weiter Weg bis zu einer Biomembran aus Lipiden und Proteinen, die als selektiv permeable Schranke alle modernen pro- und eukaryotischen Zellen gegenüber dem Außenmilieu abschirmt. Als selektiv permeabel bezeichnen wir die Eigenschaft einer Biomembran, wenn sie für bestimmte Stoffe wie Wasser und fettlösliche Moleküle durchlässig, für gelöste Salze, Zucker und höher molekulare Verbindungen jedoch undurchlässig ist. Denkbar wäre, dass sich bei der Entstehung von LUCA – oder seiner Vorläufer  – eine solche Biomembran an Eisen-Nickelsulfid-Niederschlägen der Poreninnenwand hydrothermaler Weißer Raucher gebildet hat, wobei die katalytischen Eigenschaften derartiger Sulfide es durchaus unterstützt haben können, dass Lipoproteine entstanden [91]. Auch die Gegenwart von RNA-­ Molekülen, sollten diese innerhalb der Porensysteme entstanden sein, könnte entscheidend für die Entstehung komplexer organischer Verbindungen gewesen sein. Schließlich ist RNA nicht nur Informationsspeicher und -überträger, sondern wirkt als Ribozym auch enzymatisch. Diese Eigenschaften haben zu der Annahme geführt, dass der zellulären Evolution eine RNA-­basierte Informationswelt vorausgegangen sein könnte. Da das RNA-Enzym unter erhöhten Drucken, wie sie an hydrothermalen Quellen herrschen, seine katalytischen Eigenschaften erheblich verstärkt [92], erscheint eine enzymatisch modulierte Zwischenwelt an der Kontaktzone zwischen Erdkruste und Ozean als durchaus wahrscheinlich. In Anspielung an den Ort der Entdeckung wurden alkalische hydrothermale Quellen symbolisch mit dem sagenumwobenen und versunkenen Atlantis der Antike in Verbindung gebracht: Sie sind heute als lost city, als untergegangene Stadt, im wissenschaftlichen Sprachgebrauch verankert. Für viele der heute an hydrothermalen Quellen lebenden Archaeen ist Wasserstoff der ideale Elektronendonator. Sie übertragen ihn auf Kohlendioxid und wandeln die Reaktionsprodukte ohne Beteiligung von Sonnenlicht in körpereigene Substanz um. Es liegt daher nahe anzunehmen, dass hydrothermale Quellen der frühen Erde die Orte waren, an denen nicht nur spontane Synthesen bis hin zu organischen Verbindungen erfolgten, sondern sich auch der Übergang von der chemischen zur zellulären und damit biologischen Evolution vollzogen hat. Wie aber lassen sich die Eigenschaften und Lebensumstände des ersten zellulären Organismus rekonstruieren? Möglich ist dies prinzipiell durch die molekularphylogenetische Abstandsanalyse vollständig sequenzierter Genome von Bakterien und Archaeen. Diese Analyse basiert darauf, dass eine beliebige Eigenschaft, die sich in zwei Abstammungslinien findet, auf einen gemeinsamen Vorfahren hinweist. Daher müssten auch einander homologe Proteine, die in den Genomen von Bakterien und Archaeen kodiert sind, von einem

  Der Anfang des Lebens 

115

gemeinsamen Vorläufer vererbt worden sein. Was bei Eukaryoten durchaus möglich ist, verbietet sich allerdings bei Bakterien und Archaeen, denn im Laufe der Evolution ist es zu einem weitreichenden Genaustausch (lateral gene transfer, LGT) zwischen Bakterien und Archaeen untereinander sowie innerhalb verschiedener Bakterien- und Archaeenlinien gekommen [93]. So haben sich alle bisher sequenzierten prokaryotischen Genome als eine Summe von Mosaikbausteinen variabler Herkunft erwiesen. Sie erklären zwar die hohe Anpassungsrate der Prokaryoten an sich verändernde Umweltbedingungen, für Stammbaumanalysen sind sie jedoch ein Problem, da LGT die Spuren verwischt. Wie ist es dann möglich, vertikal vererbte Gene von denen zu trennen, die durch LGT verbreitet wurden – das heißt, die auf LUCA zurückgehenden Gene von denen zu unterscheiden, die sich erst in nachfolgenden Generationen etabliert oder horizontal verbreitet haben? Mit einem neuartigen Ansatz haben der Evolutionsbiologe William Martin und Mitarbeiter alle bisher sequenzierten Genome von Bakterien und Archaeen einer molekularphylogenetischen Analyse unterworfen [85, 86]. Aus mehr als sechs Millionen bakteriellen Genen beziehungsweise Proteinfamilien aus über 2000 sequenzierten Genomen fanden sich 355 Proteingene, die sowohl bei Archaeen als auch bei Bakterien vorhanden sind und nicht durch LGT verbreitet wurden. Diese Gene muss folglich auch der gemeinsame Vorfahr LUCA besessen haben. Unter seinen Genen fanden sich solche, die heute bei strikt anaerob lebenden Bakterien und Archaeen den Energiehaushalt durch Oxidation von Wasserstoff sowie Reduktion von Kohlendioxid, Kohlenmonoxid und Stickstoff ermöglichen. Derartige Organismen leben heute in großem Artenreichtum an unterseeischen heißen Quellen wie den Weißen Rauchern. Ihre Lebensweise wird als Chemolithotrophie bezeichnet. Dazu gehören sowohl acetogene Bakterien, die Essigsäure ausscheiden, als auch methanogene Archaeen, die Kohlendioxid zu Methan reduzieren. Beide Organismengruppen benutzen dabei den Acetyl-­CoA-­Weg zur Reduktion von Kohlendioxid, einen Stoffwechselweg, der nur bei ursprünglichen Archaeen und Bakterien vorkommt. Dies muss folglich auch der Hauptweg zur Energiegewinnung bei LUCA gewesen sein. Damit wird gleichzeitig wahrscheinlich, dass auch LUCA unter ähnlichen Bedingungen gelebt haben muss, sich also von Gasen ernährt hat, wie sie heute an hydrothermalen unterseeischen Quellen zutage treten. Wie bei ähnlich lebenden Bakterien und Archaeen wurden auch bei LUCA die einzelnen Reaktionsschritte von Enzymen katalysiert, die an Übergangsmetalle zur Elektronenübertragung gebunden sind. Hydrothermale Quellen verfügen über solche Metalle wie Molybdän, Eisen und Nickel, sowie weitere Elemente wie Schwefel und Selen, durch heißes Wasser aus umgebendem Gestein herausgelöst. Darüber hinaus ist

116 

K. V. Kowallik

bemerkenswert, dass unter den 355 archaischen Genen jegliche Hinweise fehlen, die auf die Verwendung von Licht als weitere Energiequelle hinweisen würden. Damit stand LUCA ausschließlich chemische Energie als einzige Energiequelle zur Verfügung [94]. So erhellt sich allmählich das Dunkel, das bisher den Anfang des Lebens umgab. LUCA und seine evolutionären azellulären und vielleicht auch präzellulären Vorstufen, über deren Beschaffenheit wir bisher keine gesicherten Erkenntnisse haben, entstammen chemischen Prozessen, die sich unter sauerstofffreien Bedingungen an hydrothermalen Quellen abgespielt haben. Damit können wir festhalten, dass das Leben sehr wahrscheinlich unter anaeroben Bedingungen, lichtunabhängig und bei hohen Temperaturen in Gegenwart von Wasserstoff, Kohlendioxid, Stickstoff und gelösten Metallen an Kontaktzonen zwischen Erdkruste und Urozean seinen Anfang genommen hat.

Jede Zelle entsteht durch Teilung einer Zelle Selbstorganisation bei der Entstehung biologischer Systeme Joseph W. Lengeler

Sind Lebewesen mit ihrer Fähigkeit zur Selbstorganisation im Vergleich zu toter Materie etwas qualitativ Neues, auch wenn sie ursprünglich aus toter Materie entstanden sind und beim Tod wieder in sie zerfallen? In der Biologie gilt jedes Lebewesen als eine Ganzheit, innerhalb derer alles zweckmäßig koordiniert auf ein gemeinsames Ziel hin ausgerichtet ist: auf die Fähigkeit zur spontanen Replikation aller eigenen Strukturen bei gleich­ zeitiger Erhöhung der Komplexität, Vielfältigkeit und Fitness. Es ist strittig, ob diese „Zweckmäßigkeit“ jeder Materie unseres Universums innewohnt oder nur der Materie in Lebewesen. Unstrittig ist dagegen, dass sich diese Emergenz nicht aus der Summe ihrer Teile ableiten lässt, wenn diese allein in isolierter Form und mithilfe physikalisch-chemischer Methoden erfasst wurden. Evolution betrifft sowohl die Phylogenese, die stammesgeschichtliche Entwicklung von den kernlosen Einzellern (Prokaryoten; „Bakterien“) bis zu den Zellkern-tragenden Eukaryoten und schließlich dem Menschen, als auch die Ontogenese, die Entstehung eines Organismus aus einer Zelle. Beide werden durch gemeinsame Mechanismen und Prozesse gesteuert, die ebenfalls der Evolution unterliegen.

J. W. Lengeler (*) Institut für Genetik FB Biologie/Chemie der Universität Osnabrück, Osnabrück, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_13

117

118 

J. W. Lengeler

Leben erzeugt Leben Alle Lebewesen bestehen aus Zellen, der kleinsten, lebensfähigen Einheit. Die enorme Fülle an Formen und Arten sowie die Größenunterschiede vom kleins­ ten Einzeller bis zum größten Vielzeller gehen wesentlich auf die Zahl und Anordnung ihrer Zellen zurück. Alle Zellen sind nach demselben Grundprinzip aufgebaut und arbeiten nach einheitlichen Mechanismen. Und alle Lebewesen beginnen ihr Leben als Zelle, bei der sexuellen Vermehrung als befruchtete Eizelle. Heute entsteht das Leben auf dieser Erde nicht mehr neu, sondern es wird ausschließlich von Zelle zu Zelle weitergegeben. Zellen gleichen einer Fabrik. Wie in den Computern einer Fabrik liegt die Information für den Bau, die Funktion und die Steuerung der Zelle und des gesamten Organismus als Desoxyribonukleinsäure (DNA) in den Chromosomen des Nukleoids (Kernäquivalents) der Prokaryoten beziehungsweise des Zellkernes der Eukaryoten vor. Die fadenförmigen DNA-­Riesenmoleküle sind Polymere, in denen Millionen Monomere oder Nukleotide linear angeordnet sind. Jede DNA besteht aus zwei Einzelsträngen mit dem Zucker Desoxyribose als Holmen, die jeweils durch Basenpaare als Sprosse zu einer „Leiter“ in Form einer Doppelhelix verbunden sind. Es gibt vier Basen, Adenin (A), Thymin (T), Guanin (G) und Cytosin (C). Von diesen sind jeweils zwei zu einer Sprosse der Leiter verbunden, aber nur die komplementären Basenpaare A und T, beziehungsweise G und C passen wie Schlüssel und Schloss und ermöglichen die Bildung einer stabilen DNA-­Doppelhelix. Zur Verdop­ plung werden beide Stränge getrennt und jeder Einzelstrang wird durch seinen komplementären Gegenstrang zu einer neuen Doppelhelix vervollständigt. Das Ergebnis sind zwei identische Doppelhelices, für jede Tochterzelle eine. Die Reihenfolge beziehungsweise Sequenz der Basenpaare der DNA enthält in einer Art Morse- oder Quipu-Schrift (der Schrift der Inkas in Form einer Knotenschnur) die verschlüsselte Erbinformation. Diese muss mit Hilfe des genetischen Codes entziffert werden, bevor sie in einer Zelle wirksam werden kann. Jeweils drei Basen bilden dabei ein Satzzeichen des genetischen Codes: das macht bei vier Basen zusammen 43 beziehungsweise 64 mögliche Tripletts, von denen jedes seine spezifische Bedeutung hat. Jeweils ein bis mehrere Tripletts bedeuten eine der 20 Aminosäuren bei der späteren Proteinsynthese, zum Beispiel UGG oder ACA, ACC, ACG, ACU. Die in der DNA enthaltene Information wird bei der Transkription in eine komplementäre umgewandelt, die sogenannte Boten-RNA.  Die Reihenfolge der Basen aus der DNA wird während der Transkription eins zu eins beibehalten, wobei ­Thymin durch die Base Uracil (U) ersetzt wird. Beim zweiten Schritt, derTranslation, werden die Nukleotide der Boten-RNA exakt in die Reihenfolge der

  Jede Zelle entsteht durch Teilung einer Zelle 

119

­ minosäuren in den Proteinen übersetzt. Proteine sind die Arbeitsmaschinen A der „Fabrik Zelle“. Die genetische Information der Chromosomen liegt in Form von Genen vor, per Definition eine DNA-Sequenz mit definierter Funktion. Das gesamte Erbgut einer Zelle, das Genom, besteht aus vielen Tausend Genen, jedes mit einer bestimmten Aufgabe, entweder als Bauplan für die Synthese eines größeren Bausteins (Peptid, Protein) oder eines Regulators von Stoffwechselreaktionen. Durch Kombination der zwanzig Aminosäuren entsteht eine ­riesige Zahl von Proteinen unterschiedlicher Länge und mit den verschiedens­ ten Funktionen. Sowohl der genetische Code und der Verdopplungsmechanismus der DNA als auch Transkription und Translation haben sich bis auf kleinere Abweichungen in allen Lebewesen erhalten. Sie sind universell. Vier Tripletts des Codes haben regulatorische Bedeutung. Sie signalisieren den Anfang und das Ende einer Proteinkette, in der Aminosäuren in einer definierten Reihenfolge zu einer Kette verbunden sind. Darüber hinaus bezeichnen größere Gruppen von Basen in der DNA den Beginn (den Pro­ moter) und das Ende eines Genes oder einer Gengruppe oder Schnittstellen für das Zerlegen und Zusammenfügen von DNA-Abschnitten. Gleiches gilt für Gruppen von Aminosäuren in den Proteinen. Solche Signalgruppen ­werden nach dem Schlüssel-Schloss-Prinzip von spezifischen Enzymen (s. unten) und sonstigen Regulatoren als Zielort erkannt. Bei dieser Autoregulation steuern also die Regulatoren unter anderem ihre eigene Synthese und ihren eigenen Abbau, wobei immer wieder Korrekturmechanismen zwischen­ geschaltet sind: Die Kontrolleure kontrollieren sich selbst. „Leben ist Bewegung“! Alle dynamischen Stoffwechselreaktionen erfordern Energie, die dem System Lebewesen von außen zugeführt werden muss. Energie ermöglicht durch ein raffiniertes Zusammenspiel von Kräften und Gegenkräften und mithilfe von Enzymen den Aufbau höherer Ordnungsstrukturen der neuen Zelle und aktive Bewegungen wie Laufen, Kriechen und Fliegen. Einige primitive Bakterien verwenden mineralische Stoffe mit niedrigem Energiegehalt, die sie ohne Sauerstoff verarbeiten (siehe den Beitrag von Klaus Kowallik). Diese ältere Form der Energiegewinnung wurde weitgehend durch die weit effektivere, sauerstoffabhängige Atmung abgelöst. Bei allen ener­ gieliefernden Prozessen wird in einem universellen Verfahren die Energie in Form von Ionengradienten zur Synthese von Adenosintriphosphat (ATP) verwendet, der universellen Energie-Währung aller Lebewesen. Das Verfahren haben frühe Bakterien entwickelt, deren Nachkommen als Mitochondrien und Plastiden, einschließlich deren Gene, in den Zellen der Eukaryoten überlebt haben. Die Energiequelle der grünen Pflanzen und mancher Bakterien ist das Sonnenlicht, für Pilze und Tiere sind es andere Lebewesen.

120 

J. W. Lengeler

Den Maschinenhallen unserer imaginären Fabrik entsprechen Zellab­ teilungen wie der Zellkern für das Genom, das Zytoplasma für die Proteinsyn­ these, die Mitochondrien für die Zellatmung und die Energieversorgung, die Plastiden für die Fotosynthese und das komplizierte Membransystem als Transportweg. Bei der Zellvermehrung werden zunächst alle Komponenten und Zellstrukturen nach den Plänen der in der DNA gespeicherten Information neu synthetisiert und so gesteuert, dass zunächst eine Tochterzelle, bei Vielzellern ein neuer Organismus entsteht. Vererbt wird bei diesem Vorgang also nicht der Organismus selbst, sondern die Information, wie ein neuer Organismus derselben Art reproduziert wird. Die genetische Information in einen lebenden Organismus umzusetzen, erfordert zwingend die dynamische, hochgeordnete Struktur einer lebenden Zelle, bei Vielzellern der Eizelle, nach dem Prinzip: „Alle Zellen entstammen einer Zelle“. Zellen sind kein Sack voll von Enzymen, sondern durchstrukturierte und dynamische Gebilde, welche in Mikrosekunden gezielt auf Reize reagieren können. Bereits auf der DNA-Ebene beginnt die Organisation, denn Gene liegen keineswegs statistisch verteilt auf den Chromosomen. So bilden Gene mit gemeinsamer Funktion kleine und größere Gruppen mit bis zu hundert Genen. Solche Gengruppen werden von einem Promoter ausgelesen und in eine Abfolge von Aminosäuren übertragen, oder sie liegen zusammen in „Genomischen Inseln“ der Chromosomen, deren Gene ebenfalls koordiniert exprimiert werden. Außer der Bildung von Zellstrukturen ist die wichtigste Aufgabe der Prote­ ine, als Enzyme den gerichteten und schnellen Ablauf fast aller chemischen Reaktionen zu steuern. Ohne diese Katalysatoren würden biologische Pro­ zesse nur langsam und ungerichtet verlaufen. Bei komplizierten Prozessen wie Proteinsynthese, Glykolyse, Atmung und Fotosynthese sind alle direkt beteiligten Enzyme häufig in der Reihenfolge der chemischen Reaktionen in einem Komplex organisiert. Die vorher erwähnten RNAs bestehen im Gegensatz zu DNAs nur aus einem Strang, können aber lokal doppelsträngige Schleifen bilden. Als Ribozyme, katalytisch aktive RNA-­Moleküle, überneh­ men auch sie regulatorische Funktionen in solchen Komplexen. Erst diese Komplexe garantieren die korrekte und schnelle Reihung der einzelnen Schritte des gesamten Prozesses und sind folglich entscheidend bei der Koordination aller zellulären Stoffwechselprozesse zu einer Ganzheit, einem Lebewesen. Bakterien besitzen meist nur ein Chromosom, auf dem ihre 600 bis 6000 Gene liegen. Eukaryoten dagegen haben mehrere Chromosomen. Die Fruchtfliege etwa hat sechs Chromosomen, Blütenpflanzen können mehr als 100 Chromosomen besitzen. Beim Menschen gibt es 2 × 23 Chromosomen mit

  Jede Zelle entsteht durch Teilung einer Zelle 

121

jeweils etwa 25.000 Genen vom Vater und von der Mutter. Diese unerwartet kleine Zahl von Genen erklärt sich dadurch, dass Eukaryoten verstärkt Teile von Genen und ganze Gene beziehungsweise die entsprechenden Proteine in vielen Varianten zu aktiven Komplexen mit den verschiedensten Eigenschaften kombinieren. Hierzu wurde die Mutagenese, die Veränderung der Basensequenz in der DNA, so optimiert, dass sie außer bei der Phylogenese auch gezielt während der Ontogenese einsetzbar ist. Bei jedem einzelnen Menschen entstehen durch Autoregulation auf der Ebene der RNAs, der Proteine und Enzyme, bis zu ungefähr eine Million unterschiedliche Antikörper im Lauf seines Lebens. Synthese und Abbau solcher Komplexe laufen streng koordiniert mit dem Energiezustand der Zellen, der Zellteilung, den Wachstumsphasen des Organismus und den Umweltbedingungen ab. Wenn die Komponenten nach Bedarf zusätzlich in unterschiedlichen Zellabteilungen, Geweben und Organen sowie zu definierten Phasen der Ontogenese eingesetzt werden, erhöht sich die Variabilität weiter. Die Koordinierung aller Stoffwechselflüsse erfordert ein ausgefeiltes sensorisches System, welches sowohl den inneren Zustand des Organismus als auch die umgebende Umwelt möglichst präzise widerspiegelt und es ermög­ licht, alle Prozesse in Abhängigkeit von dieser Information strikt zu kontrollieren und zu steuern. Intrazelluläre Reize spiegeln hauptsächlich die Energieversorgung der Zellen. Außerdem ist die Oberfläche jeder Zelle mit Rezeptoren für physikalische und chemische Reize aus der Außenwelt wie Licht, Temperatur oder pH-Wert gespickt. Das schließt Botenstoffe ein, ­welche von benachbarten Zellen ausgesendet wurden und der Koordination aller Zellen einer Population von Einzellern oder eines Gewebes bei Vielzellern dienen. Bei höher entwickelten Organismen existieren außerdem Sinnesorgane und leistungsfähige Zentrale Nervensysteme. Diese sind sowohl bei der Koordinierung des gesamten Stoffwechsels als auch bei der Wahrneh­mung der Umwelt und des Verhaltens innerhalb der Gruppe (Schwarmbildung) beteiligt. Die chemischen Prozesse hinter diesen sensorischen Systemen sind von den Bakterien bis zu den Eukaryoten hoch konserviert. Die Komponenten und Prozesse einer Zelle sind aber nicht nur modular, sondern auch hierarchisch strukturiert. Kleine Gengruppen für spezifische Prozesse werden durch eigene Regulatoren kontrolliert, die auf einzelne Stoffe wie Substratmoleküle, Endprodukte oder Indikatormoleküle reagieren. In größeren Gengruppen mit ähnlicher Funktion übernehmen zusätzlich global und übergeordnet wirkende (epistatische) Regulatoren die Kontrolle, welche die Gruppe als Ganzes aktivieren oder inaktivieren. Diese globalen Regula­ toren reagieren in der Regel auf physiologische Zustände wie Hunger oder Sättigung und An- oder Abwesenheit von Sauerstoff. Auch diese Gruppen

122 

J. W. Lengeler

können zu noch größeren Gruppen vereinigt werden, zum Beispiel für die gesamte Sporenbildung bei Prokaryoten, Pilzen und Algen, mit wiederum übergeordneter Kontrolle über die vorigen Regulatoren. So reiht sich Gruppe an Gruppe, bis bei Einzellern die Zelle und bei Vielzellern die Ebene der Gewebe und Organe erreicht ist bis hin zum ganzen Organismus als größter Einheit. Auf dieser letzten Ebene der Hierarchie spielt auch die Population eine wesentliche Rolle, sowohl bei Einzellern als auch bei Vielzellern. Beispiele sind die Assoziation vieler Bakterienarten zu einer Lebensgemeinschaft, einem Biofilm, oder auch die Koordinierung der generativen mit der reproduktiven Lebensphase bei Pflanzen- und Tiergruppen im Jahreswechsel.

 ie sich ein Einzelwesen entwickelt: Das Beispiel W der Fruchtfliege Die Hierarchie der Genkontrolle lässt sich besonders klar am Beispiel der Ontogenese der Fruchtfliege aufzeigen. Wie zu erwarten, steht die globale Kontrolleinheit am Beginn der Entwicklung, und mit fortschreitender Differenzierung der Gewebe und Zellen werden die Kontrolleinheiten immer spezieller und kleiner. Gleichzeitig zeigt dieses Beispiel das entscheidende Zusammenspiel zwischen Genetik und Epigenetik bei der Selbstorganisation. Genetisch gesehen ist jede durch asexuelle Vermehrung, also ohne Austausch von Genen entstandene Population ein Klon, und alle seine Zellen besitzen dasselbe genetische Programm. Dies gilt gleichermaßen für eine Population von Einzellern wie für jeden aus einer befruchteten Eizelle, einer Stammzelle oder aus abgetrennten Gewebeteilen von Tieren oder Pflanzen entstandenen Vielzeller. Wie können aber innerhalb solcher Klone Nachkommen mit den verschiedensten Eigenschaften entstehen? Hier spielt die sogenannte Epigenetik die entscheidende Rolle. Wie alle Zellen enthält auch die Eizelle ein Zellskelett, ein stabiles Netzwerk von Fäden und Fibrillen, an das biochemische Prozesse regulierende Proteine und katalytisch aktive RNA-Moleküle stabil angeheftet werden können. Bei der Fruchtfliege (Drosophila melanogaster) legt die Mutter auf diese Weise in der Eizelle mithilfe globaler Regulatoren ein einfaches Muster des neuen Organismus an (Abb. 1; erstes Stadium). Bereits diese legen die zukünftige Vorderregion (anterior), Hinterregion (posterior), Rückenregion (dorsal) und Bauchregion (ventral) fest. Nach der Befruchtung teilt sich der Zellkern mehr­ fach (zweites Stadium), bis schließlich ab dem dritten Stadium der Entwicklung 512 Kerne vorhanden sind. Die Kerne werden aktiv mithilfe muskelfaserähnlicher Fibrillen des Zellskeletts an die Oberfläche der Eizelle

  Jede Zelle entsteht durch Teilung einer Zelle 

123

Von der Eizelle zur adulten Fliege I. Oocyte

II. befruchtete Eizelle

dorsal Polkappe Zellposterior anterior kern

Polkappe

ventral

III. syncytiales Blastoderm (3. Stadium)

dorsal ant

IV. zelluläres Blastoderm (5. Stadium)

Polkappe post Mesoderm

ventral

Ectoderm Embryo (11. Stadium) A8

A7

A6

A5

A4 A3

Endoderm

A2 Ectoderm

Mesoderm (Keimband)

Endoderm C1 C2

Thorax

C3

T1

A1 T2

T3

Abdomen

Kopf/Caput

Abb. 1  Zusammenspiel von Genetik und Epigenetik

Polzellen

124 

J. W. Lengeler

verlagert und dort fixiert, ohne dass die Zelle sich teilt: Die Kerne und die Eidotter sind noch nicht durch eine Membran voneinander getrennt. Nun aktivieren die nächsten, spezielleren Regulatoren die Gene für den späteren Hinterleib, das Abdomen, und schalten die Gene für die anderen drei Bereiche ab; analog geschieht es in diesen Bereichen. Die Kerne der Eizelle werden „zufällig“ auf die vier Bereiche verteilt, das heißt nach bisher unbekannten Regeln. Ebenso „zufällig“ wandern einige Kerne in den Bereich der späteren Polkappe und bilden sogenannte Polzellen. In diesen unterbleiben zunächst Änderungen, und sie werden zu Stammzellen, aus denen  – etwa nach einer Verletzung  – alle anderen Zelltypen neu entstehen können. „Zufällige“ Bedingungen dieser Art, welche nicht in der DNA festgelegt sind, die Aktivität der Gene aber direkt und vor allem rever­ sibel beeinflussen, nennt man epigenetisch. Epigenetische Mechanismen verändern die Basenfolge der DNA nicht, sondern beeinflussen nur die Kontrolle der Genaktivitäten. Das unterscheidet diese Ereignisse von den irrever­ siblen Mutationen. Die Aktivität vieler Gene hängt nämlich stark von ihrer direkten Umgebung und ihrer Herkunft ab, zum Beispiel davon, in welcher „Genomischen Insel“ die Gene liegen (Positionseffekte), in welcher Entwicklungsphase oder Umwelt der Organismus sich gerade befindet und ob sie aus dem väterlichen (paternale Gene) oder dem mütterlichen (maternale Gene) Elternteil stammen. Fehlsteuerungen während dieser frühen Phasen der Ontogenese führen zu Missbildungen wie einem zusätzlichen Bein am Kopf der Fliege oder zu Kälbern mit zwei Köpfen. Im fünften Stadium der Entwicklung trennt eine Membran die einzelnen Zellen und jede wird ein „Individuum“ mit eigenem Zellkern, Zellinnerem und eigenen Zellorganellen. Die Differenzierung der Zellen in immer neue Unterklassen mit immer spezielleren Regulatoren setzt sich fort. Bis zum 13. Stadium (eventuell aber auch schon im 11. Stadium, siehe Abbildung) entsteht das sogenannte Keimband des Embryos. Aus dessen äußerem Keimblatt entstehen die Oberflächenstruktur und das Nervensystem, aus dem inneren Keimblatt entsteht der Verdauungstrakt, und aus dem mittleren Keimblatt entstehen die meisten inneren Organe. Die Zellen des Keimbandes wandern zielgerichtet in das Innere des Embryos, gesteuert von Lock- und Schreckstoffen, die vom Zielort ausgehen. Ähnliche uralte Mechanismen steuern bereits die Bewegungen freilebender Amöben oder das Wachstum des Pollenschlauchs einer Pflanze zur Eizelle. Das stark differenzierte Keimband ist letztlich in vierzehn Segmente unterteilt. Hieraus werden später drei Kopf-, drei Brust- und acht Hinterleibssegmente. Diese Segmentierung ist typisch für die Klasse der Insekten sowie der Würmer, Tausendfüßer und Weichtiere. Gleichzeitig erscheinen auch die

  Jede Zelle entsteht durch Teilung einer Zelle 

125

­ orstufen des zentralen Nervensystems, während die früheren Polzellen ihre V autonome Entwicklung fortsetzen und zu Keimzellen werden. Nach diesem Prinzip geht die Spezialisierung mit fortschreitender Diffe­ renzierung immer weiter bis zur Entwicklung der Anhänge der vierzehn Körpersegmente, den Antennen und Mundwerkzeugen, den Flügeln und Beinen, den Sinnesorganen sowie dem zentralen Nervensystem und endlich zur ausgewachsenen Fliege. Nach der Reifung der weiblichen Keimzelle in der neuen Mutter kann der ganze Prozess erneut beginnen, nun wieder unter der Kon­ trolle der globalen Regulatoren. In diesem Entwicklungsprozess erfolgen Wachstum und Strukturbildung meist durch Verlängerung und Ergänzung bestehender Strukturen, an denen als Matrize sehr viele chemische Reaktionen kontrolliert ablaufen. Auch diese Strukturen, also nicht nur die DNA, werden der neuen Zelle von der Mutterzelle „vererbt“ und mit ihnen die in ihnen enthaltene epigenetische Information. Die enge Kopplung zwischen den Genen, den epigenetischen Faktoren und den Umweltbedingungen ist zudem wesentlich dafür, dass sich – wegen der Selbstorganisation während der Ontogenese – Individuen mit den unterschiedlichsten Eigenschaften entwickeln. Denn Lebewesen reagieren nicht automatisch auf den gleichen Reiz mit immer der gleichen Antwort. Vielmehr „streuen“ die Ergebnisse komplizierter Prozesse, innerhalb derer auch „zufällige“ (hier die epigenetischen) Ereignisse vorkommen, notwendigerweise in Form einer Gauß-Kurve. Diese Streuung begründet die Einmaligkeit jedes Individuums, selbst der von geklonten Organismen wie den eineiigen Zwillingen. Zwar gleichen sich die Milliarden Menschen, aber keine zwei sind absolut identisch.

Wie geht es weiter? Bei der Ontogenese wird letztlich das genetische Programm („Eine Fliege zeugt immer Fliegen“) von Zelle zu Zelle weitergegeben. Doch nur innerhalb hoch strukturierter Zellen kann der hierarchisch geordnete und zweckmäßige Prozess in enger Koordination zwischen genetischen und epigenetischen Prozessen sowie mit der Umwelt zu einem neuen Artgenossen führen. Obwohl die einzelnen Prozesse bekannten physikalisch-chemischen Gesetzen folgen, streuen die Ergebnisse. Folglich können sie nur in Form von Wahr­ scheinlichkeiten beschrieben werden, sind streng genommen nicht reprodu­ zierbar. Oder andersherum: Aus den Genen allein kann man das Schicksal des neuen Individuums nicht vorhersagen! Außerdem sind Mutation und Selektion, die treibenden Kräfte der Evolution, das Produkt sogenannter

126 

J. W. Lengeler

Markoff-Prozesse, bei denen die Ergebnisse vorausgegangener Zufallsereignisse die Wahrscheinlichkeiten nachfolgender Zufallsereignisse beeinflussen. Deshalb erscheint die ganze Evolution von außen gesehen wie zielgerichtet. Die erste Selbstorganisation von toter Materie zu lebenden Zellen bleibt immer noch ein rätselhafter Schritt, während die Evolution der Lebewesen vom Anfang bis heute ein kontinuierlicher Prozess ist. Schon Bakterien unterscheiden zwischen innen („Ich“) und außen, verrichten zusammen Tätigkeiten, die eine Zelle allein nicht bewältigen kann („soziales Verhalten“), und sie setzen ihr Leben zur Erhaltung und Verteidigung ihrer Population ein („Verantwortung“/„Altruismus“). Aufgrund dieser uralten evolutionären Wurzeln „typisch menschlicher“ Eigenschaften kann von einem qualitativen Sprung von Tier zu Mensch keineswegs sicher ausgegangen werden. Sicher ist lediglich, dass die Evolution nicht beim heutigen Menschen endet und der genetisch programmierte Tod für alle Lebewesen ein zwingend notwendiger Teil der Evolution bleibt. Detailliertere Informationen findet der Leser in [95, 96].

Mechanismen der Evolution Von Darwin zur Evolutionären Entwicklungsbiologie Günter Theißen

Wie ist das Leben entstanden, was generierte seine komplexe Vielfalt, und woher stammt der Mensch? Fragen wie diese drängen sich uns seit vielen Generationen auf. Unzählige Mythen und Religionen geben darauf vielfältige Antworten. Unter den Naturwissenschaften versucht es vor allem die Evolutionsbiologie, Licht ins Dunkel unserer Herkunft zu bringen. Wie kaum eine andere Naturwissenschaft, vergleichbar allenfalls noch der Kosmologie, berühren die Ergebnisse damit das Selbstverständnis des Menschen. Die Evolutionsbiologie ist daher ständigen Herausforderungen auch außerhalb ihrer Fachwissenschaft ausgesetzt, nicht nur durch andere Wissenschaften wie Philosophie und Soziologie, sondern besonders auch durch außerwissenschaftliche, zum Beispiel religiöse Vorstellungen. Gerade in den vergangenen Jahren haben Kreationisten und die Intelligent-Design-Bewegung wieder von sich reden gemacht. Sie behaupten, das Leben sei in seinen vielfältigen Erscheinungen viel zu kompliziert, als dass es die von der Evolutionsbiologie behaupteten Mechanismen hätten hervorbringen können. Folglich bedienen sich selbst viele Naturwissenschaftler bei dem Versuch, die Methoden und Ergebnisse der Evolutionsbiologie zu verteidigen, nicht selten wissenschafts- und erkenntnistheoretisch unhaltbarer Argumente  – und erweisen der Wissenschaft damit einen Bärendienst. Denn die Evolutionsbiologie ist keineswegs eine abgeschlossene Sammlung ewiger Weisheiten  – letztere kennen nur G. Theißen (*) Matthias-Schleiden-Institut – Genetik, Friedrich-SchillerUniversität Jena, Jena, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_14

127

128 

G. Theißen

Ideologien und Religionen. Doch abgeschlossene Systeme mit nicht mehr zu hinterfragenden „Wahrheiten“ stellen genau den Humbug dar, den Aufklärung und Naturwissenschaften seit Jahrhunderten zu überwinden versuchen. Die Evolutionsbiologie verfügt nicht einmal über ein einheitliches Theoriegebäude, vielmehr ähnelt sie eher einer etwas chaotisch anmutenden Siedlung mit einigen komfortablen Villen, während andere Gebäude eher improvisierten und oftmals unfertigen Baracken ähneln. Dessen ungeachtet steht die Evolutionsbiologie aber auf relativ soliden Fundamenten. Dazu zählen die schon von Charles Darwin formulierten Vo­ raussetzungen, unter denen es zu evolutionären Veränderungen kommen kann. Es müssen zunächst Lebewesen vorhanden sein, die sich durch erbliche Merkmale unterscheiden, deren Entstehung man sich in der Regel als ungerichtet vorstellt, ohne vorbestimmtes Ziel. Wenn sich diese durch Mutationen generierten Merkmalsunterschiede zufällig auf die Fähigkeit der Organismen, überlebensfähige und fertile Nachkommen zu produzieren, das heißt auf ihre „Fitness“, auswirken, setzt die sogenannte „Natürliche Selektion“ ein: Es werden sich zunehmend Lebewesen mit höherer Fitness durchsetzen („survival of the fittest“). Dabei sollte man nicht vordringlich an die beliebten Tierfilme denken, in denen Raubkatzen schwächliche Antilopenkinder in der Serengeti fressen – das ist nur ein besonders anschaulicher Spezialfall. Meist ist Natürliche Selektion viel unspektakulärer, zum Beispiel besteht sie in oftmals nur sehr geringfügigen, langfristig aber sehr wirksamen Unterschieden in der Reproduktions- oder Mortalitätsrate von Lebewesen. Mit diesen einfachen Prinzipien lassen sich bereits viele evolutionäre Vorgänge gut erklären, besonders die Anpassung von Lebewesen an ihre Umwelt durch Optimierungsprozesse. Bedenkt man aber, dass die Umwelt nicht konstant ist – nicht zuletzt, weil sie auch aus vielen anderen Lebewesen besteht, die sich beständig ändern –, wird ersichtlich, dass Evolution ein offener, endloser Prozess ohne Annäherung an ein absolutes Optimum ist. Besonders durch Co-Evolution zwischen Räuber und Beute, oder Parasiten und Wirten, kann es zu regelrechten „Rüstungswettläufen“ kommen („evolutionary arms races“), die die Evolution stark beschleunigen und auch weitgehend unvorhersehbar machen können. Hinzu kommen globale Katastrophen wie Vulkanausbrüche und Meteoriteneinschläge, die die physische Umwelt massiv verändern, einen Großteil der jeweils existierenden Arten auslöschen und damit die Rahmenbedingungen der überlebenden Arten drastisch ändern können. Im Laufe der Erdgeschichte ist es ziemlich sicher mehrfach zu solchen katastrophalen Ereignissen gekommen, etwa vor ca. 252 Millionen Jahren an der Grenze zwischen Perm und Trias, als etwa 75 Prozent der an Land lebenden Arten und ungefähr 95 Prozent aller Wirbellosen im Meer

  Mechanismen der Evolution 

129

ausstarben, oder an der Kreide-Tertiär-Grenze vor etwa 65 Millionen Jahren, als unter anderem die Dinosaurier ausstarben bis auf die Linie, die zu den Vögeln führte. In diesem Zusammenhang sei nebenbei bemerkt, dass es in vielen Trivialdarstellungen so erscheint, als sei beim Menschen die Evolution an einen Endpunkt angelangt. Das entspricht vermutlich einem tiefen Wunsch vieler Menschen, an einem seelenlosen Spiel aus blindem Zufall und unerbittlicher Selektion nicht mehr teilnehmen zu müssen. Doch gerade Co-Evolution ist überhaupt nicht aufzuhalten, schon jede Grippe-, Ebola- oder Cholera-­ Epidemie ändert die genetische Konstitution unserer Art. Und so wird auch die Spezies Mensch früher oder später in andere Arten übergehen, oder die gesamte Linie wird aussterben  – selbst wenn wir uns nicht vorzeitig durch irgendwelche menschengemachten Katastrophen den Garaus gemacht haben. Wenn erbliche Variabilität und Natürliche Selektion zusammenkommen, ist evolutionäre Veränderung unvermeidlich. Viele Anpassungsvorgänge und Co-Evolutionsprozesse im Rahmen einer „Mikroevolution“ lassen sich mittels survival of the fittest tatsächlich gut erklären. Daneben ist in den letzten Jahrzehnten insbesondere durch molekularbiologische Analysen deutlich geworden, welche ungeheure Bedeutung, neben der Selektion, der schiere Zufall in der Evolution spielt, meist als „genetische Drift“ verbal beschönigt, insbesondere in kleinen Population und bezüglich der Evolution der biologischen Makromoleküle (DNA, RNA, Proteine). Dies geht so weit, dass man nach der sogenannten „Neutralen Theorie der Molekularen Evolution“ annimmt, dass die Veränderung der biologischen Makromoleküle weitgehend durch neutrale Prozesse erfolgt, also nur wenig durch Natürliche Selektion bestimmt wird. Dass ungerichtete Mutationen, Natürliche Selektion und genetische Drift Evolutionsprozesse verursachen, bedeutet aber nicht, dass diese Prinzipien alle evolutionären Veränderungen zwanglos erklären. Eine besondere Herausforderung für die Evolutionsbiologie ist, dass auch komplexe evolutionäre Neuheiten entstehen können. Als prominentes Beispiel diente schon Darwin das Auge der Wirbeltiere. Es erscheint, ähnlich einer Kamera, so perfekt konstruiert, dass nur schwer vorstellbar ist, wie blinder Zufall und Natürliche Selektion allein es haben hervorbringen können. Dabei handelt es sich durchaus nicht um einen Einzelfall, die Diversität des Lebens bietet Beispiele für komplexe Neuheiten zuhauf. Warum sind durch Evolution beispielsweise aus Bakterien nicht einfach immer wieder nur besser angepasste Bakterien geworden  – schließlich geschah dies Hunderte von Millionen von Jahren lang in mutmaßlich komplexen Ökosystemen? Wieso und wie sind komplexe eukaryotische Organismen mit Zellkern und echten Chromosomen entstanden – und wie

130 

G. Theißen

konnten diese sich gegen die bereits existierenden, sich ungeheuer rasch vermehrenden und auch sonst überaus erfolgreichen Bakterien behaupten? Und wie und warum sind, nachdem wiederum viele Hundert Millionen Jahre lang einzellige Eukaryoten existierten, vielzellige Lebewesen entstanden, die sich mutmaßlich noch langsamer vermehrten und noch angreifbarer waren als ihre einzelligen Ahnen? Vielzellige Lebewesen, die dann so komplizierte Strukturen hervorbrachten wie Gehirne und Augen bei Tieren oder Blüten und Blätter bei Pflanzen? Man sollte solche Frage nach der Entstehung evolutionärer Neuheiten nicht als Nebenaspekte der Evolutionsbiologie abtun. Im Gegenteil – es sind Fragen wie diese, die Evolution so faszinierend und zu einer ganz besonderen intellektuellen Herausforderung machen. Gleichzeitig sind es genau auch solche Fragen, die zum Beispiel Kreationisten dazu provozieren zu behaupten, dass die Evolutionsbiologie die Entstehung komplexer Lebewesen überhaupt nicht erklären kann. Es sei darauf hingewiesen, dass einige Evolutionsbiologen der Ansicht sind, dass mikroevolutionäre Prozesse wie die oben beschriebenen Anpassungsvorgänge schon genügen, evolutionäre Neuheiten hinreichend zu erklären. Hiernach ist „Makroevolution“ schlicht die Abfolge vieler kleiner Mikroevo­ lutionsvorgänge. Viele Kollegen folgen dem jedoch nicht. Vielmehr bestehen sie darauf, dass Makroevolution, also das arrival of the fittest, besondere Erklärungsansätze benötigt, die über ein survival of the fittest hinausgehen. Ein Hauptproblem, evolutionäre Neuheiten zu erklären, besteht darin, Übergänge zwischen komplexen, gut angepassten Strukturen zu verstehen, da unfertige Strukturen vermutlich oftmals keinen Vorteil bringen oder sogar nachteilig sind. „What use is half a jaw?“ (Was nützt ein halber Kiefer?) So brachte der Evolutionsbiologe Steven Jay Gould das Problem auf den Punkt. Eine Erklärung komplexer Neuheiten wurde traditionell noch dadurch erschwert, dass Darwin seine Vorstellungen von den Evolutionsmechanismen mit einem strikten Gradualismus verknüpfte. Er nahm an, dass sich Evolution ausschließlich in nahezu unendlich vielen, unmerklichen kleinen Schritten vollzieht. Gerade im Falle fundamentaler Neuheiten ist ein solcher Modus aber nur schwer vorstellbar, die Natürliche Selektion sollte solche Strukturen also gar nicht hervorbringen können. Schlimmer noch: Bei der Evolution einer optimierten Struktur in eine andere (etwa bei der Evolution von Beinen in Flügel) sollte es zu vielen Zwischenstadien kommen, in denen weder die alte, noch die neue Funktion gut etabliert ist, so dass die entsprechenden Lebewesen im Vergleich zu den Ausgangsformen massiv benachteiligt sein und daher aufgrund Natürlicher Selektion rasch aussterben sollten.

  Mechanismen der Evolution 

131

Man kennt einige Möglichkeiten, diese Probleme zu umgehen. Beispielsweise könnte ursprünglich gar keine Selektion für die heute ­prominente Funktion, sondern für eine alternative Funktion bestanden haben. So verdanken die Federn der Vögel ihre Entstehung möglicherweise nicht ihrer Funktion beim Flug, sondern einer Aufgabe bei der Thermoregulation einiger Dinosaurier, von denen die Vögel abstammen. Hier erscheint graduelle Evolution nachvollziehbar (besser ein paar Federn als gar keine). Erst später wurden Federn dann vermutlich „rekrutiert“, den Flug zu ermöglichen. Doch in vielen Fällen lassen sich solche indirekten Szenarien nicht plausibel rekonstruieren. Nicht zuletzt deshalb werden schon seit Darwins Zeiten einige seiner Grundannahmen hinterfragt: Vielleicht ist erbliche Variation ja gar nicht so zufällig, wie oft angenommen wird. Vielleicht sind es eher Mutationen als die Natürliche Selektion, die Tempo und Richtung der Evolution bestimmen. Und vielleicht erfolgt Evolution auch gar nicht immer graduell, sondern gelegentlich auch sprunghaft. Historisch haben solche alternativen Evolutionsvorstellungen durchaus eine bedeutende Rolle gespielt, wurden von den zunehmend vorherrschenden Evolutionstheorien („Neodarwinismus“ und „Moderne Synthese“) aber mehr oder weniger rasch diskreditiert. So hatte beispielsweise Richard Goldschmidt, einer der weltweit führenden Genetiker der 1930er-Jahre, in Abkehr von Darwin als Lösungsversuch die Idee vorgeschlagen, dass neue Arten niemals durch graduelle Abwandlung existierender Arten entstehen, sondern immer nur über radikal abweichende Zwischenstufen, die er hopeful monster nannte. Damit formulierte Goldschmidt eine radikale Position des sogenannten „Saltationismus“  – der Annahme, dass evolutionäre Veränderung der Struktur oder Physiologie von Lebewesen auch sprunghaft erfolgen kann. Goldschmidt verknüpfte seine hopeful-monster-Hypothese mit genetischen Vorstellungen, die sich jedoch als unhaltbar erwiesen haben, daher wurden seine Vorstellungen zunächst weitgehend verworfen. In den vergangenen Jahrzehnten haben große Fortschritte in nahezu allen biologischen Teildisziplinen unsere Vorstellungen von den Evolutionsmechanismen deutlich erweitert. So war schon zu Darwins Zeiten bekannt, dass sich bei Fossilien kaum graduelle Formenänderungen finden lassen, doch hat man dies zunächst vor allem auf die unvermeidliche Unvollständigkeit des Fossilmaterials zurückgeführt. Wesentlich umfangreichere Analysen der in den letzten 150 Jahren gefundenen Fossilien haben den Eindruck der Diskontinuität aber keinesfalls eliminiert. Im Gegenteil: oftmals scheinen neue Formen tatsächlich nahezu „aus dem Nichts“ zu entstehen. Das wohl bekannteste Phänomen wird gerne als „kambrische Explosion“ bezeichnet: das fast gleichzeitige

132 

G. Theißen

erstmalige Auftauchen im Fossilmaterial von Vertretern fast aller heute bekannten Tierstämme binnen weniger Millionen Jahre zu Beginn des Kambriums vor ca. 543 Millionen Jahren. Ähnlich bemerkenswert und bereits von Darwin als „abominable mystery“ bezeichnet ist das scheinbar plötzliche Auftauchen diverser Gruppen von Blütenpflanzen zu Beginn der Kreidezeit. Während das bekannte Fossilmaterial alles andere als einen strikten Gradualismus unterstützt, lässt eine relativ geringe zeitliche Auflösung immer noch Spielraum für verschiedene Evolutionsmechanismen. Ein besonderer Schub wurde der Evolutionsbiologie aber in den letzten 40 Jahren durch die intensivere Einbeziehung der Entwicklungsbiologie gegeben, was zu einem neuen florierenden Forschungsfeld führte, der Evolutionären Entwicklungsbiologie (international meist evolutionary developmental biology, abgekürzt Evo-Devo). Während in der ersten Hälfte des 20. Jahrhunderts die Einbeziehung der Genetik, besonders der Populationsgenetik, in die Evolutionsbiologie zum „Neodarwinismus“ und der „Modernen Synthese“ führte, blieb die Entwicklungsbiologie zunächst weitgehend ausgeklammert. Man erkannte im Verlaufe der Zeit aber zunehmend, dass die Mechanismen der Entwicklung einerseits der Evolution bestimmte Beschränkungen auferlegen, andererseits aber auch ihr Potenzial entscheidend mitbestimmen, dass für ein Verständnis von Evolution die Einbeziehung der Entwicklungsbiologie also letztlich unverzichtbar ist. Vor allem wurde das ungeheure Erklärungspotenzial entdeckt, das in einem Verständnis der Gene steckt, die Entwicklungsprozesse steuern. Evo-Devo geht von einigen einfachen Grundtatsachen aus. So entstehen selbst die kompliziertesten vielzelligen Lebewesen (Pflanzen, Tiere, Menschen, …) in aller Regel aus einer einzigen Zelle, der befruchteten Eizelle (Zygote). Dies bedeutet, dass Veränderungen in den Strukturen adulter (ausgewachsener) Lebewesen im Lauf der Evolution nur durch Abwandeln von Entwicklungsprozessen hervorgebracht werden können. Nun hat die Entwicklungsgenetik zeigen können, dass Entwicklungsprozesse weitgehend unter der Kontrolle einer recht geringen Zahl relativ konservierter Gene stehen. Diese „Entwicklungskontrollgene“ codieren oftmals für Transkriptionsfaktoren, das heißt Proteine, die die Transkription anderer Gene steuern, ihrer sogenannten Zielgene. Einige der bekanntesten Entwicklungskontrollgene gehören zur Familie der Homöoboxgene, die in allen Eukaryoten vorkommt; dazu zählen zum Beispiel die auf Tiere beschränkten sogenannten HOX-Gene, die in konservierten Clustern im Genom angeordnet sind und insbesondere Positionsinformation entlang der Körperlängsachse (anterior-posterioren Achse) eines Tieres festlegen. Einige Homöoboxgene sind als homöotische Gene bekannt

  Mechanismen der Evolution 

133

geworden. Bei ihnen führen bestimmte Mutationen dazu, dass an definierten Stellen statt der dort üblicherweise anzutreffenden Organe andere Organe erscheinen. Eine bekannte Mutante der Taufliege (Drosophila melanogaster) ist Antennapedia, bei der sich anstelle der Antennen Beine entwickeln. Eine andere spektakuläre Mutante ist Ultrabithorax  – hier erscheint statt der Schwingkölbchen im dritten Körpersegment ein zweites Paar Flügel. Homöotische Mutanten sind bereits seit der Antike auch von Pflanzen bekannt. Besonders spektakulär sind homöotische Blütenmutanten, bei denen zum Beispiel die Staubblätter in Kronblätter umgewandelt sind. Viele Menschen empfinden gerade solche Blüten als besonders attraktiv. So verwundert es nicht, dass solche Mutanten massenweise unsere Gärten besiedeln. Im Gegensatz zu den homöotischen Genen der Tiere gehören die der Pflanzen aber typischerweise nicht zur Familie der Homöboxgene, sondern sind Mitglieder einer anderen großen Genfamilie, die Transkriptionsfaktoren kodiert, der sogenannten MADS-Box-Gene. Diese sind in die Kontrolle sehr vieler Entwicklungsprozesse bei Pflanzen involviert, beileibe nicht nur in die Blütenentwicklung. Sie kommen aber auch bei nahezu allen anderen Eukaryoten vor. Im Rahmen von Evo-Devo versucht man nun zu erklären, wie Mutationen in solchen Entwicklungskontrollgenen zu Veränderungen in der Entwicklung und Evolution von Lebewesen geführt haben. Als Mutationen kommt hier das gesamte Spektrum der Möglichkeiten infrage, von der Punktmutation in einem einzelnen Gen bis zur Verdopplung des gesamten Genoms. Mutationen innerhalb eines Genes können das kodierte Protein oder regulatorisch Regionen betreffen, die zum Beispiel entscheiden, wann, wo und in welcher Menge ein Genprodukt gebildet wird. So kann man etwa eine Reihe evolutionärer Veränderungen im Bauplan von Tieren und Pflanzen im Wesentlichen darauf zurückführen, dass bestimmte Entwicklungskontrollgene den Ort (Gewebe, Organ) oder Zeitpunkt ihrer Expression verändert haben. Die von Evo-Devo entdeckten Mechanismen haben auch die Glaubwürdigkeit rascher bis sprunghafter Evolutionsereignisse wieder erhöht  – und damit selbst in traditionellen biologischen Disziplinen Akzeptanz gefunden. So hat zum Beispiel ein detaillierteres Verständnis der Verwandtschaftsverhältnisse der heute lebenden Organismen, nicht zuletzt durch molekularbiologische Analysen, in nicht wenigen Fällen rasche und drastische, wenn nicht gar sprunghafte Veränderungen von Strukturen nahegelegt. So sind die wohlbekannten Blütenkronblätter der Rosengewächse – zu denen Rose, Erdbeere, Apfel, Aprikose, Birne, Pfirsich und viele weitere Spezies zählen  – höchstwahrscheinlich durch Umwandlung von Staubblättern entstanden. Bedenkt man, dass eine solche Organumwandlung nur einer einzigen Mutation in

134 

G. Theißen

bestimmten MADS-Box-Genen bedarf, erscheint schon deshalb eine sprunghafte Veränderung in solch einem Fall viel plausibler als eine graduelle Umwandlung über Tausende von Einzelschritten. Doch selbst mit den interessanten Konzepten von Evo-Devo ist Makroevolution bislang alles andere als vollständig verstanden. Dabei geht es durchaus nicht nur um Details, sondern um grundsätzliche Fragen nach den Evolutionsmechanismen. Vermutlich wird dies nirgends so deutlich wie bei der Frage nach dem Ursprung des Lebens. Der mit den Möglichkeiten der vergleichenden Genomanalyse mittlerweile recht gut zu rekonstruierende letzte gemeinsame Vorfahre aller heute existierenden Lebewesen (Last Universal Common Ancestor, LUCA, siehe den Beitrag von Klaus Kowallik) war bereits ein überaus komplexes Lebewesen. Sein Unterschied zu allem, dessen Entstehung man sich durch chemische Evolution halbwegs plausibel vorstellen kann (zum Beispiel kurze, sich replizierende Moleküle in einer „RNA-Welt“) ist jedoch immer noch so gigantisch, dass weitgehend unklar ist, wie diese Komplexitätslücke überwunden werden konnte, was immer auch scheinbar anschauliche Darstellungen in diversen Hochglanzmagazinen behaupten mögen. Einen wichtigen Aspekt evolutionsbiologischer Forschung sollten wir abschließend nicht vergessen: Anders als die meisten anderen Naturwissenschaften  – hier erneut allenfalls mit der Kosmologie vergleichbar  – hat die Evolutionsbiologie eine historische Dimension und damit teils auch andere Geltungskriterien als eine „reine“ Naturwissenschaft. Aussagen wie „die Dinosaurier starben vor 65 Millionen Jahren durch einen Meteoriteneinschlag aus“ sind nun einmal einer Überprüfung durch labortechnische Reproduktion des Ereignisses nicht unmittelbar zugänglich, sie ergeben sich also nur durch indirekte Evidenzen. Wir werden also in vielerlei Hinsicht niemals genau wissen, wie die Evolution auf unserem Planeten konkret abgelaufen ist, und die Entstehung des Lebens selbst dürfte dabei die härteste Nuss sein, die es zu knacken gilt. Dennoch sollten wir jedoch keinesfalls darauf verzichten, die Evolution des Lebens mit wissenschaftlichen Methoden und Konzepten erforschen zu wollen – soweit es irgendwie geht, und möge dies auch noch so schwierig erscheinen. Eine Abkehr von wissenschaftlichen Versuchen wäre psychologisch vielleicht verständlich, heuristisch aber kontraproduktiv. Das überaus komplexe und auch kontroverse Gebiet der Evolutionsbiologie in wenigen tausend Worten angemessen darzustellen ist schwierig. Notwendigerweise kommt es dabei zu Unschärfen und Unausgewogenheiten. Für den an weiteren Details oder auch anderen Sichtweisen interessierten Leser seien daher einige weiterführende Literarturempfehlungen [96–111] gegeben.

Wie Tiere sich auseinanderleben Die Entstehung der Arten Matthias Glaubrecht

Das „Mysterium der Mysterien“ Als „Mysterium der Mysterien“ bezeichnete bereits der britische Naturforscher Charles Darwin vor beinahe zwei Jahrhunderten die Frage nach Ursprung und Entstehung der Arten. Mit seiner damals noch so genannten „Transmutationstheorie“ überzeugte Darwin zwar viele von der Tatsache, dass Evolution stattgefunden hat. Doch das von ihm vorgeschlagene Prinzip natürlicher (und später auch sexueller) Auslese als dem wichtigsten zugrunde liegenden Mechanismus des Artenwandels wurde erst mit großer Verzögerung in der ersten Hälfte des 20. Jahrhunderts allgemein anerkannt. Obgleich Darwins Werk „Über die Entstehung der Arten“ von 1859 in diesem Sinne also eine wahrlich epochale Wirkung hatte, gibt er darin nicht wirklich eine Antwort auf die Frage, was eine Art eigentlich ausmacht und wie der Prozess der Artenbildung im Einzelnen abläuft. Für Darwin blieb mithin die Aufspaltung der Lebewesen in immer wieder neue und anders gestaltete Formen eines der ungelösten Geheimnisse der Natur. Und bekanntlich sind es die scheinbar banalen Fragen, die tatsächlich am schwersten zu beantworten sind. Anlässlich seines 125-jährigen Jubiläums fragte das renommierte amerikanische Wissenschaftsmagazin „Science“ vor einigen Jahren einen illustren Kreis von Forschern nach 100 kleineren M. Glaubrecht (*) Center of Natural History, Universität Hamburg – Zoologisches Museum, Hamburg, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_15

135

136 

M. Glaubrecht

und den 25 großen Fragen der Wissenschaft. Dabei erwies sich die Frage nach dem Ursprung der Arten und danach, wie die biologische Artenvielfalt auf der Erde eigentlich zustande kommt, als eine jener großen und bislang ungelösten Rätsel.

Explodierende Vielfalt Unvermittelt und scheinbar aus dem Nichts tauchten mit Beginn des Zeitalters Kambrium vor 540 Millionen Jahren die ersten Vertreter beinahe aller heutigen Tierstämme auf. Nach einer uns noch weitgehend verborgenen Erdgeschichte ohne Fossilien hinterließ das Leben dank erhaltungsfähiger Kalkpanzer und anderer Hartstrukturen erstmals massenhaft erkennbare Zeugnisse. Nach einer über einen langen Zeitabschnitt offenbar recht ereignislosen Erdgeschichte schien das Leben plötzlich förmlich zu explodieren. Ebenso vielfältige wie oftmals bizarre Lebensformen mit jeweils anderen Bauplänen erschienen, die später zur uns heute bekannten Tierwelt werden sollten. Vielen Evolutionsbiologen erscheint diese vermeintliche „Kambrische Explosion“ der Tierwelt als der größte Durchbruch zu einem völlig neuen Evolutionsniveau – als der wohl gewaltigste Sprung, den die Natur je machte. Es ist der Übergang von einer bis dahin überwiegend aus Mikroben gebildeten Biosphäre zu einer Lebenswelt, in der vielzellige Kreaturen erstmals Körperbauentwürfe verwirklichten, die es zuvor nicht gegeben hatte und durch die sich das ökologische Beziehungsnetz um viele Maschen erweiterte. Tatsächlich enthalten diese innovativen frühkambrischen Lebensentwürfe die Blaupausen für sämtliche späteren Lebensgemeinschaften auf der Erde. In einem vergleichsweise schmalen Zeitfenster von nur 10 bis 25 Millionen Jahren erschienen die wichtigsten heutigen Tiergruppen, darunter Weichtiere wie Tintenfische, Muscheln und Schnecken, gegliederte Würmer und Gliedertiere wie Krebse und Spinnenverwandte, Armfüßer und Stachelhäuter, zu denen heute Seesterne und Seeigel gehören – ja, sogar die ersten Chorda-­Tiere treten auf, zu denen sämtliche Wirbeltiere zählen, einschließlich des Homo sapiens. Neben Fossilfunden, die über den Globus verstreut Zeugnis jener Ereignisse in der Frühzeit der Tierwelt geben, zeigt neuerdings auch eine Reihe molekulargenetischer Verwandtschaftsanalysen, wie eilig es das Leben mit Beginn des Kambriums offenbar hatte. Studien zur Stammesgeschichte aller heute lebenden Vertreter der Hauptlinien der Evolution von Vielzellern belegen, dass diese nicht allmählich im Verlauf der Erdgeschichte, sondern innerhalb

  Wie Tiere sich auseinanderleben 

137

v­ ergleichsweise kurzer Zeit bei schnell aufeinander folgenden Artbildungsvorgängen entstanden  – ein wahrer „Urknall“ in der Evolution der Tierwelt im Kambrium.

Darwins Dilemma Um die Interpretation der Kambrischen Explosion, dieser entscheidenden Wendezeit des Lebens, gibt es seit langem einen heftigen Disput unter den Paläontologen, die sich mit der Rekonstruktion der Evolutionsgeschichte beschäftigen. Sie streiten darüber, wie und warum die Tierwelt innerhalb kürzester Zeit scheinbar ohne Vorläufer entstehen konnte und bereits diese Formenfülle aufwies. Manche bezweifeln, dass sich die kambrische Fauna tatsächlich derart unvermittelt entfaltet hat und dass sie noch formenreicher gewesen sein soll, als die heutigen Tierstämme zeigen. Seit dieser frühen Blütephase hat das Leben nichts wirklich Neues mehr zustande gebracht – bei aller Kreativität im Bereich tierischen Designs. Beinahe scheint es, als ob mit den kambrischen Entwürfen die kreativen Kategorien der Natur fixiert wurden, der Rest ist nur mehr Variation der immer gleichen Grundmuster; als ob mit der Ausgabe der ersten „Schnittmuster“ die Designvorgaben festgeschrieben wurden, in deren Rahmen sich fortan die kreativen Möglichkeiten bewegen. Das ebenso urplötzliche wie beinahe komplette Erscheinen der Tierwelt, dieses Feuerwerk an Schöpfungsideen, bedeutete ein Dilemma für Charles Darwin: Er war in seinem Werk „Über den Ursprung der Arten“ davon ausgegangen, dass die Evolution gradualistisch verlief. Aber wie und warum konnte dann die Tierwelt scheinbar ohne Vorläufer entstehen und bereits innerhalb kürzester Zeit eine derartige Formenfülle aufweisen? Mit seinem Szenario eines in der Burgess Shale-Formation im kana­ dischen Bundesstaat British Columbia dokumentierten „Kambrischen Urknalls“ hat der eloquente amerikanische Evolutionstheoretiker und Paläontologe Stephen Jay Gould in seinem Buch „Wonderful Life“ (in Deutschland 1991 unter dem Titel „Zufall Mensch“ erschienen) für Furore gesorgt. Seine lebhafte Schilderung des rund 520 Millionen Jahre alten „Burgess-Bes­ tiarums“ brachte einem breiten Publikum die Bewohner einer Art „Wiege des Lebens“ näher: gepanzerte Würmer, rotierende Quallen, Gliedertiere mit einem Reißwolf als Maul oder Rüsseln wie Staubsaugerschläuche sowie Tiere, die sich mit nadelspitzen Stacheln ihrer Feinde erwehren, oder solche, die rücklings durchs Meer ruderen, angetrieben von einer Doppelreihe aus Ruderblättern. Der Fossilschatz in den Schieferschichten im Yoho-Nationalpark in den kanadischen Rocky Mountains zeigt gleichsam wie in einer

138 

M. Glaubrecht

Werkstatt der Evolution, was die Natur aus Schalen, Stelzen und Stummelfüßen, aus Panzerplatten, Beinpaaren und Ruderblättern einst zu basteln vermochte.

Urknall des Lebens? Ob diese neuen Baupläne und Tierstämme jedoch tatsächlich unvermittelt aus dem Nichts auftauchten oder ob die bizarr geformten Burgess-Tiere nur dank ihrer fossilisierungsfähigen Kalkpanzer und anderer Hartstrukturen verstärkt ihre Spuren in den Sedimenten hinterließen, ist umstritten. Viele Forscher bezweifeln nicht nur, dass die kambrische Fauna formenreicher war als die heutige Tierwelt, sie mögen auch nicht an deren allzu plötzliche Entfaltung glauben. Vielmehr vermuten sie, dass uns aufgrund von Überlieferungslücken das präkambrische Vorspiel jener Evolution am Beginn des Erdaltertums fehlt. Denn aus den Äonen davor hinterließen kryptische Kreaturen nur schwache Spuren und weiche Abdrücke im Meeressediment. Die tatsächlichen Nachweise evolutiver Vorfahren aus der Zeit vor dem Kambrium waren bislang ins Dunkel der Erdgeschichte getaucht. Fossile Überreste aus dem Präkambrium sind vor allem durch die nach einem Fundort in Australien so genannten Ediacara-Fauna bekannt. Doch um die Interpretation dieser rund 600 bis 544 Millionen Jahre alten Ediacara-Tiere, von denen überwiegend Spurenfossilien erhalten sind, und besonders um die Zuordnung zu den aus späteren Erdzeitaltern bekannten Tierformen gab und gibt es heftige Debatten. Denn die nur als Weichteil-Eindrücke erhaltenen, oft eigenartig matratzen- oder seefederähnlichen Mehrzeller entziehen sich weitgehend der Erforschung. Da sich diese Vendobionten genannten Vorläufer bislang keinem der heute lebenden Tierstämme zweifelsfrei zuordnen lassen, werden sie von vielen Forschern als ein erstes, bald wieder aufgegebenes Experiment der Evolution angesehen. Dagegen lassen andere Funde darauf schließen, dass viele entscheidende Merkmale der Tierwelt, vor allem die Grundzüge der inneren körperbaulichen Organisation, bereits lange vor der vermeintlich explosiven Entfaltung im Kambrium entstanden waren. So haben erst unlängst rund 580 bis 600 Millionen Jahre alte Fossilfunde im Süden Chinas ein weiteres Fenster zur präkambrischen Vergangenheit aufgetan. Von diesen „Frühlingstieren“ sind erstmals mikroskopisch kleine fossile Tierembryonen sowie Schwämme und Algen bis ins feinste zelluläre Detail erhalten. Und diese frühkambrischen Fossilien aus China ähneln auffällig den präkambrischen Vendobionten der Ediacara-Fauna!

  Wie Tiere sich auseinanderleben 

139

Schaufenster des tierischen Urknalls Eines der „Schaufenster“ für die Entstehung neuer genetischer Blaupausen und tierischer Baupläne ist Chengjiang nahe dem Ort Kunming in der chinesischen Provinz Yunnan. Nachdem dort vor gerade einmal zwei Jahrzehnten die ersten versteinerten Zeugnisse aus der Frühzeit animalischer Designexperimente vor 530 Millionen Jahren entdeckt wurden, hat sich Chengjiang als beständige Quelle neuer Einblicke erwiesen. In den feinkörnigen Schlammablagerungen eines einstigen Flachmeeres haben sich sogar die Weichteile vieler mariner Tierformen in exquisitem Detail erhalten, bis hin zu Abdrücken von Herz und Muskulatur. Chengjiang erlaubt es mithin heute, einstige Körperformen fast vollständig zu rekonstruieren. In rascher Folge feiern chinesische Forscher mit Kollegen aus Amerika, Kanada und Großbritannien die Entdeckung wichtiger Funde. Beinahe jeder neue Fund wirft Licht in den kritischen kambrischen Wurzelbereich des tierischen Stammbaums. Zu den Highlights der vergangenen Jahre gehört etwa das rätselhafte Tierchen Vetulicola. Auf den ersten Blick sieht es wie ein schwanztragender Krebs aus, weist aber auch Kiemenspalten auf. Daneben gehören zweifellos auch die fischähnlichen Fossilien mit so exotischen Namen wie Yunnanozoon, Cathaymyrus und Haikouella dazu – nur knapp drei Zentimeter große, aber eindeutig erste Vertreter der Wirbeltiere mit einer Rückensaite (Chorda), aus der sich im Laufe der Evolution die Wirbelsäule entwickelte. Chengjiang gilt seitdem als die Wiege der Chordaten-Evolution und gleichsam als die chinesische Antwort auf den spektakulären kanadischen Fossilfundort Burgess Shale. Doch auch wenn immer mehr Forscher annehmen, dass sich die „Kambrische Explosion“ gleichsam von langer Hand vorbereitet hatte – das Darwin’ sche Dilemma eines offenbar doch nicht gleichmäßigen Evolutionsverlaufs bleibt: Denn wie entstanden einst diese ersten Baupläne? Vor allem aber: Warum sind im Verlauf der Evolution nicht kontinuierlich neue Tierstämme dazugekommen?

Neue Erkenntnisse durch die „Evo-Devo“ Um die Kambrische Explosion zu erforschen, haben sich Paläontologen mit den innovativsten Köpfen aus den sich derzeit rasch entwickelnden Forschungszweigen Entwicklungsgenetik und Molekularsystematik zusammengetan: Fossiljäger und Knochengräber denken immer häufiger nicht mehr nur über die Umweltbedingungen und ökologischen Beziehungsgefüge in längst

140 

M. Glaubrecht

vergangenen Zeitaltern nach; ihnen sind die genetische Umwelt im Erbgut der Tiere und die Mechanismen der Vererbung und Steuerung der Embryonalentwicklung ebenso wichtig. Den beinahe schon routinemäßig als „spektakulär“ etikettierten Fossilfunden kambrischer Kreaturen begegnet diese jüngste Generation wissenschaftlicher Grenzgänger mit Thesen über die genetischen Grundprinzipien, die die kambrische Explosion und den Ursprung biologischer Vielfalt erklären könnten. Dass heute Entwicklungs- und Evolutionsbiologen gemeinsam nach der genetischen Basis für die anatomischen Entwürfe der Natur suchen, ist allerdings so neu nicht. Bereits Ernst Haeckel, der in Deutschland einer der ersten Anhänger von Darwins damals neuer Theorie der Evolution war, erkannte vor über einem Jahrhundert, dass sich die evolutionäre Geschichte von Organismen in deren Embryonalentwicklung widerspiegelt. Unlängst haben Forscher eine bestechende, wenngleich noch spekulative These vorgestellt, nach der des Rätsels Lösung in den Besonderheiten der Architektur jener genetischen Netzwerke liegen könnte, die die Entwicklungsvorgänge steuern. Dabei nutzen sie die jüngsten Befunde einer noch recht neuen Forschungsrichtung, der evolutionären Entwicklungsbiologie, kurz „Evo-Devo“. Deren Credo ist, dass sämtliche evolutionären Transformationen über Entwicklungsprozesse gesteuert werden. Da diese wiederum unter genetischer Kontrolle stehen, hängt unser Verständnis der Evolution – und damit eben auch der Vorgänge während der Kambrischen Explosion – von den jüngsten Einblicken der Entwicklungsbiologen ab. Diese liefern eine Flut neuer Daten und erlauben immer detaillierteren Einblick in jene entwicklungsbiologischen Vorgänge, die für die Entwicklung neuer morphologischer Innovationen verantwortlich sind.

Gefangen im genetischen Netzwerk Nach Überzeugung einiger Entwicklungsbiologen könnten Regulationsvorgänge in genetischen Netzwerken dafür verantwortlich sein, dass am Beginn des Kambriums neue Baupläne enstanden. Ihre Kenntnis könnte einen Meilenstein im Verständnis der Naturgeschichte darstellen. Diese neue These setzt an zwei zentralen Beobachtungen an: Zum einen werden sämtliche Baupläne und somit die Entwicklung aller Lebewesen durch regulatorische Netzwerke gesteuert, sogenannte „gene regulatory networks“ (GRN). Zum anderen bestehen diese Schaltkreise im Erbgut aus einzelnen Komponenten,

  Wie Tiere sich auseinanderleben 

141

die unterschiedlich schnell und auf verschiedenen Wegen evolviert sind. Wichtige Elemente der genetischen Regelkreise finden sich bei verschiedenen Tiergruppen in ähnlicher Form wieder, etwa bei Stachelhäutern (wie Seesternen und Seeigeln), bei der Taufliege Drosophila (siehe den Beitrag von Joseph W. Lengeler) und beim Menschen. Überhaupt bedient sich die Natur bei entwicklungsgenetischen Vorgängen gern des Baukastenprinzips. So ist für den Fortgang der Evolution offenbar nicht zwangsläufig immer neue „hardware“ nötig gewesen; vielmehr liefen entscheidende Evolutionsvorgänge offenbar meist über die Verbesserung der gleichsam genetischen „software“. Da die Steuerungsnetzwerke hierarchisch organisiert sind, wirken sich genetische Veränderungen durchaus unterschiedliche aus, je nachdem welche Teile der genetischen Regulationsnetzwerke betroffen sind. Mutationen in den Kernbereichen der GRN sollten das tierische Grunddesign weitaus massiver beeinflussen als etwa Mutationen in den randlichen Regionen. Weil die Genbatterien und Schaltkreise in den Kernbereichen die Entwicklungsvorgänge im Organismus über zahlreiche Rückkopplungen vielfältig beeinflussen, wurden die bei den ursprünglichsten Tierformen einmal angelegten Grundverdrahtungen im Laufe der Evolution weitgehend beibehalten. Tatsächlich sind die meisten Einzelkomponenten solcher genetischen Schaltkreise hochkonservativ. Sie sind mithin das eine Extrem innerhalb solcher Netzwerke. In einem räumlich koordinierten System beeinflussen die gleichsam im Inneren liegenden Regulationsgene und genetischen Informationen auf vielfältige Weise nachgeordnete Entwicklungsvorgänge, die zur morphologischen Ausbildung im tierischen Embryo führen. Dieser Verdrahtung verdanken, so die These, die tierischen Baupläne und die mithin fundamental verschiedenen Tierstämme ihr Dasein. Einmal angelegt und verdrahtet, ließen sie sich kaum noch verändern. Dagegen haben Veränderungen in den Außenbezirken solcher genetischen Netzwerke ungleich weniger massive Auswirkungen. Da hier viele der Rückkopplungen fehlen, die die Funktion von Genbatterien und genetischen Steuerungen in den Kernbereichen beeinträchtigen, stellen sie das andere Extrem dar; hier ziehen Mutationen nur mehr vergleichsweise marginale morphologische Veränderungen nach sich. Solche Veränderungen betreffen die vielen Variationen der Tierwelt auf dem Niveau unterschiedlicher Arten, Artengruppen oder gar Familien, wo sich bis heute die abermillionenfache Vielfalt des Lebens abspielt, nicht aber die ganzer Tierstämme, von denen es vergleichsweise wenige Grunddesigns gibt.

142 

M. Glaubrecht

Mikro- versus Makroevolution Sollte sich die GRN-Hypothese als stichhaltig erweisen, könnte dies einen Weg zum Verständnis der Ursachen der Kambrischen Explosion weisen. Möglicherweise ist die Verdrahtung in den Kernzonen der Regulationsnetzwerke bereits recht frühzeitig während der tierischen Evolution zustande gekommen, etwa vor 630 bis 530 Millionen Jahren. Nachdem die Grundzüge der genetischen Steuerung spätestens am Ende des Präkambriums etabliert waren, haben sich diese in den sich damals entfaltenden Tierstämmen erhalten. Einmal festgelegt, steuern die genetischen Schaltkreise deshalb die Entwicklung bei sämtlichen noch heute lebenden Tierformen auf buchstäblich im Kern immer gleiche Weise. Allzu große Veränderungen in diesen Kernzonen dürften demnach jeweils katastrophale Auswirkungen gehabt haben, so dass die Evolution zunehmend kanalisiert wurde. Nachdem die neuen Schaltmuster mit im Kernbereich mehr oder weniger festgefügten genetischen Verdrahtungen entworfen waren, konnten weitere Tierstämme seit dem Kambrium nicht mehr hinzukommen: Grundsätzliche Veränderungen zeitigten zugleich letale Folgen für die sich entwickelnden Organismen. Der Evolution blieben gewissermaßen nur die Komponenten in den Randregionen der genetischen Netzwerke, um Modifikationen auf dem Niveau der verschiedenen Arten hervorzubringen. Anders ausgedrückt: Nachdem mit dem Kambrium die Grundmotive der Symphonie des Lebens einmal komponiert waren, blieb der Rest melodische Variation. Neben der Erklärung der Kambrischen Explosion könnte die GRN-­ Hypothese zudem eine weitere alte Streitfrage der Evolutionsforschung auflösen. Bis heute diskutieren Fachleute, ob es neben sogenannten mikroevolutiven Vorgängen, wie sie sich etwa bei der Entstehung neuer Arten oder Artengruppen nachweisen lassen, auch eine Makroevolution gibt – also eigenständige evolutive Vorgänge oberhalb des Artniveaus. Besonders spektakuläre Fallstudien solch makroevolutiver Übergänge sind etwa der Landgang der Wirbeltiere, als fischartigen Ahnen aus Flossen erste Extremitäten wuchsen, oder die Entwicklung von Flügeln, mit denen sich die ersten Vogelvorfahren einst in die Lüfte schwangen. Solche makroevolutiven Ereignisse könnten möglicherweise durch genetische Veränderungen hervorgebracht worden sein, die näher an den Kernre­ gionen der genetischen Regulationsnetzwerke mit ihren empfindlichen Rückkopplungen liegen und die erfolgreich verliefen. Dagegen kommen genetischen Veränderungen an der Peripherie der Netzwerke höhere Freiheitsgrade zu; sie wirken sich bei der mikroevolutiven Entstehung neuer Arten aus, wie sie

  Wie Tiere sich auseinanderleben 

143

in der Evolution allenthalben passieren. Wer nach Mustern und emergenten Eigenschaften in der Natur sucht, den verblüfft es, wie sich die hierarchische Architektur der genetischen Steuerung von Entwicklungsprozessen zugleich auch im sogenannten hierarchisch-­enkaptischen System der Linnéschen Klassifikation des Tierreichs widerspiegelt, das in wenngleich künstlicher Stufenfolge von den Kategorien Art und Gattung über Familie und Ordnung zum Tierstamm schreitet.

Wenn Tiere sich auseinanderleben Seit Darwins Zeiten zählt die Frage nach Werden und Wesen biologischer Arten zu den spannendsten Fronten evolutionsbiologischer Forschung. Dass zur Entstehung neuer Arten tatsächlich mehr gehört als die Natürliche Selektion, propagierte seit den 1940er-Jahren vor allem der einst am Berliner Museum für Naturkunde tätige und später in den USA überaus einflussreiche Zoologe und Systematiker Ernst Mayr. Zu Recht wurde er vielfach „Darwin des 20. Jahrhunderts“ genannt. Denn wie kaum ein anderer hat er entscheidend einen biologischen Artbegriff entwickelt und vor allem die komplexen Phänomene bei der Entstehung neuer Arten untersucht. Demnach stellt die reproduktive Isolation, also die fehlende Verpaarung von Angehörigen zweier nahe miteinander verwandter Arten, das wichtigste Kriterium dar, ihren Art­ status festzulegen. Auf der Basis einer Fülle von Befunden, die über Jahrzehnte aus verschiedenen Tiergruppen zusammengetragen wurden, hat Mayr überzeugend dargelegt, dass für die Evolution neuer Organismen stets die räumliche Sonderung durch geografische Barrieren die entscheidende Rolle spielt. Solche Hindernisse können durch ein sich auffaltendes Gebirge, einen sich öffnenden Ozean oder die Unterbrechung durch ein sich veränderndes Flusssystems entstehen und zunehmend den weiteren Kontakt zwischen den sich allmählich trennenden neuen Arten unterbinden. Denn während der geografischen Separation bilden sich durch zufällige genetische Mutationen auch Fortpflanzungsschranken zwischen den Ausgangspopulationen heraus. Solche Differenzen entfremden die entstehenden Tochterarten derart wirkungsvoll voneinander, dass sie sich selbst dann nicht mehr verpaaren, wenn sie später – wenn die geografische Barriere durch geologische Prozesse wieder verschwinden sollte – miteinander in Kontakt kommen. Mit den Arbeiten von Ernst Mayr wurde diese Vorstellung einer sogenannten „allopatrischen“ Artenbildung zum zentralen Teil der modernen Evolutionstheorie. Da also die Bildung neuer Arten – wenigstens der gängigen Theorie nach – sehr gemächlich abläuft, glaubte man lange Zeit, dass sich deren Details kaum

144 

M. Glaubrecht

einmal wirklich beobachten oder gar untersuchen lassen. Mittlerweile wurden Evolutionsbiologen mehrfach zum Umdenken gezwungen. Dabei verläuft die vorderste Frontlinie der aktuellen Studien in der freien Natur selbst. Denn zu den besten Freilandlaboratorien, die die Natur zu bieten hat, gehören neben ozeanischen Inseln auch Süßwasserseen wie etwa in Mittelamerika und in Ostafrika, aber auch in Südostasien die Hochlandseen auf der indonesischen Insel Sulawesi. Dort können Zoologen der Evolution gleichsam über die Schulter schauen und beobachten, wie neue Arten entstehen. Auf den Spuren von Mayrs Theorien interessiert sie dabei vor allem, ob der genetische Austausch auch zwischen Tieren, die gemeinsam im selben Verbreitungsgebiet leben, derart effektiv unterbrochen werden kann, dass sich auseinanderdriftende Populationen allmählich zu neuen Arten entwickeln. Inzwischen mehren sich nämlich die Hinweise, dass einige Tierformen sogar bei räumlichem Miteinander wirkungsvolle Paarungsschranken zu ihren nächsten Verwandten errichten. Aus molekulargenetischen Analysen von DNA-Sequenzen lässt sich ablesen, dass sich die Organismen in den einzelnen untersuchten Süßwasserseen nach der Besiedlung durch eine oder auch mehrere Gründerpopulationen anschließend an Ort und Stelle in diverse Evolutionslinien aufgespalten haben. Auch ohne geografische Isolation verpaaren sie sich heute nicht oder kaum noch miteinander. Oftmals gibt es zwar keine räumlichen, sehr wohl aber ökologische Barrieren. Obgleich also auffällige geografische Isolationsfaktoren fehlen, haben sich viele der Arten in diesen „Naturlaboratorien“ in ökologischer Weise – etwa durch unterschiedliche Lebensräume im Kleinen sowie oft damit verbundener differierender Nahrungsbevorzugung  – derart auseinander gelebt, dass schließlich reproduktiv voneinander geschiedene Tochterarten entstanden. Bei einzelnen Arten, etwa der Buntbarsche in Afrika, spielt überdies die Wahl der Weibchen eine entscheidende Rolle: Wenn diese stets nur bestimmte Männchen bevorzugen, pflanzen sie sich gewissermaßen nur in ihrer jeweiligen „ökologischen Zunft“ fort. Neben den von Ernst Mayr noch recht einseitig propagierten räumlichen Faktoren wären mithin vor allem ökologische und bei einigen Tiergruppen zudem verhaltensbiologische Faktoren ein wichtiger Motor bei der Artenbildung.

 äumliche Sonderung oder ökologische R Differenzierung Neuerdings fahnden Evolutionsbiologen daher vermehrt nach Beispielen für diese sogenannte „sympatrische“ Artenbildung, also für Speziation ohne räumliche Separation. Tatsächlich zeigen einzelne Fallstudien, dass bei der

  Wie Tiere sich auseinanderleben 

145

Artenbildung offenkundig nicht immer äußere Barrieren und vergleichsweise lange Zeiträume notwendig sind. Entsprechenden Anschauungsunterricht liefern nicht nur die farbenprächtigen und vielgestaltigen Buntbarsche aus der Familie der Cichliden, die vor allem in den großen Seen des ostafrikanischen Grabenbruchsystems nach Hunderten zählende formenreiche Schwärme nächst verwandter Arten hervorgebracht haben. Inzwischen stehen auch Süßwasserschnecken aus der Familie der Paludomiden in Seen Ostafrikas und der Pachychiliden in Seen Sulawesis und Flüssen Thailands im Fokus, die zu Zeugen beginnender ökologischer Sonderung und mithin sympatrischer Artenbildung werden. Grundlage der Studien sind heute mit modernsten Verfahren durchgeführte molekulargenetische Stammbaumanalysen, die dann anschließend durch morphologische und ökologische Vergleiche einzelner Arten ergänzt werden. In einzelnen Seen kommen jeweils Arten vor, die sich in bestimmten körperbaulichen Merkmalen unterscheiden. Häufig stehen diese im Zusammenhang mit der jeweiligen Ernährung der Tiere, verursacht durch die Kieferbezahnung bei den Buntbarschen oder die Radulabezahnung bei den Schnecken. Je nach Baueigenschaften ihrer Kauwerkzeuge nutzen einzelne Arten immer wieder etwas andere Nahrung; sie leben überdies auf anderem Substrat oder in anderen Zonen der Seen. Durch diese unterschiedliche Bevorzugung von Lebensraum und Nahrung bilden sich unterschiedliche ökologische Nischen heraus. Dadurch gelingt es einzelnen Populationen, sich von ihren „Noch-­Artgenossen“ allmählich immer mehr abzugrenzen. Wenn dann die Weibchen noch dazu wählerisch sind und bestimmte Männchen bevorzugen, könnten sich selbst innerhalb eines Sees allmählich nach Aussehen und Nahrungsbevorzugung unterscheidbare Gruppen bilden: Der erste Schritt zur Speziation ist getan. In den jüngsten Studien lässt sich dank modernster molekulargenetischer Methoden immer besser zeigen, wie aufgrund verminderten Genflusses bei Seen besiedelnden Fisch- und Schneckenarten der Prozess einer ökologischen statt nur geografischen Artenbildung eingesetzt hat. Viele Verfechter dieser Idee einer sympatrischen Artenbildung gehen überdies davon aus, dass neue Tierarten unter günstigen Bedingungen möglicherweise bereits nach wenigen tausend Jahren entstehen können. Andere Forscher sind dagegen weiterhin überzeugt, dass es zur wirklich abgeschlossenen Artenbildung deutlich längerer Zeitspannen bedarf und dass das vollständige evolutive Auseinanderleben viel mehr Zeit als lediglich ein paar Tausend Jahre braucht. Unstrittig ist indes, dass noch immer viele Fragen um jenes Geheimnis der Artenbildung offen sind, das schon Charles Darwin als „Mysterium der Mysterien“ bezeichnet hat und nicht zu lösen vermochte. Weiterführende Literatur findet sich unter [96, 104–111].

Vom Menschenaffen zum modernen Menschen Fünfzehn Millionen Jahre Entwicklungsgeschichte Friedemann Schrenk

Ursprung der Homininen Der Stamm der Primaten reicht zurück bis in die Kreidezeit vor über 80 Millionen Jahren, die modernen Menschenaffen (die Hominiden) entstanden jedoch erst vor ungefähr 15 Millionen Jahren. Einigermaßen gesichert erscheint auch der Zeitpunkt der Abspaltung der Homininen, der zum Menschen führenden Linien von Vor- oder Urmenschen, von den Hominiden: Nach molekulargenetischen Untersuchungen fand dies vor etwa acht bis sieben Millionen Jahren statt. Aus dieser Zeit sind mittlerweile mehrere Funde unserer frühesten Homininen-Vorfahren bekannt: aus Kenia der ca. sechs Millionen Jahre alte aufrecht gehende „Millenium-Mensch“ (Orrorin tugenensis) [112], aus Äthiopien die ca. 5,8 Millionen Jahre alten Funde des Vormenschen Ardipithecus kedabba [113, 114] und die mit knapp sieben Millionen Jahren bislang ältesten Homininen-Reste (Sahelanthropus tchadensis) im Tschadbecken. Die verwandtschaftlichen Beziehungen zwischen diesen frühesten Vorfahren im Homininen-Stammbaum sind noch ungeklärt. Es fällt jedoch auf, dass

F. Schrenk (*) Sektion Paläoanthropologie, Senckenberg Gesellschaft für Naturforschung, Frankfurt, Deutschland Abteilung Paläobiologie und Umwelt, Goethe Universität Frankfurt, Frankfurt, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_16

147

148 

F. Schrenk

sich alle Funde im Randbereich des damaligen tropischen Regenwaldes befanden, also am Übergang von dichten, geschlossenen Wäldern zu laubwerfenden Trockenwäldern und Savannen. Warum gerade dort? Verständlich wird dieser früheste Abschnitt der Menschwerdung, wenn man betrachtet, wie sich das Klima und die Lebensräume entwickelt haben – vor allem das große tropische Regenwaldgebiet, das sich ursprünglich von der West- bis zur Ostküste Afrikas erstreckte [116]. Vor etwa zehn bis sieben Millionen Jahren führte eine globale Abkühlung dazu, dass Waldgebiete stark zurückgingen und sich stattdessen Savannengebiete ausbreiteten.

Ursprung des aufrechten Gangs Nun siedelten Menschenaffenpopulationen an der Peripherie des Regenwaldes in unterschiedlich dichten Baum- und Strauchsavannen und Flusslandschaften. Nach der Uferhypothese [117] nutzten unsere Vorfahren Bäume, Uferbereiche und Graslandschaften als Lebensraum. Als die Nahrung knapp wurde, bewegten sie sich watend durchs Wasser, um die dort befindliche, zunehmend lebensnotwendig gewordene Hauptnahrungsquelle zu suchen: nämlich tierische Proteine. Da sie nicht schwimmen konnten, richteten sich die vierbeinigen Menschenaffen im Wasser auf und bewegten sich auf zwei Beinen fort. Hierdurch wurde der zweibeinige Gang stabilisiert und konnte sich dann an Land durchsetzen. Die Savannen erstreckten sich jedoch über mehr als fünf Millionen Quadratkilometern. Da ist es unwahrscheinlich, dass nur eine einzige Form des aufrechten Gangs entstand. Vielmehr ist anzunehmen, dass sich unterschiedliche geografische Varianten frühester zweibeiniger Vormenschen entwickelten. Der Nahrungserwerb dürfte relativ unspezialisiert gewesen sein: Früchte, Beeren, Nüsse, Samen, Sprösslinge, Knospen und Pilze, aber auch kleine Reptilien, Jungvögel, Eier, Weichtiere, Insekten und kleine Säugetiere standen den Vormenschen zur Verfügung.

 ustralopithecinen: Vormenschen mit A panafrikanischer Verbreitung Die Vormenschen behielten eine enge Verbindung zu den breiten Uferzonenhabitaten bei, die sich seit etwa vier Millionen Jahren stark ausbreiteten. So breiteten sich auch die Vormenschen aus, und es entstanden schließlich mehrere geografische Varianten der Australopithecinen (Südaffen), zunächst in

  Vom Menschenaffen zum modernen Menschen 

149

den Savannen des nordöstlichen und westlichen Afrika, und – vor etwas mehr als drei Millionen Jahren – auch im südlichen Afrika (Abb. 1): Mit den Australopithecinen breiteten sich frühe Menschen also erstmals über ganz Afrika aus. Zwar sind aus dem westlichen Teil nur wenige Funde bekannt (Australopithecus bahrelgazali), dies dürfte aber an schlechten Fossilisationsbedingungen liegen. Eine panafrikanische Verbreitung dieser Vormenschen seit etwa drei Millionen Jahren ist sehr wahrscheinlich. Der erstmals 1924 aus dem südlichen Afrika beschriebenen Vormenschengattung Australopithecus werden heute sechs Arten mit panafrikanischer Verbreitung zugeordnet, die jedoch in wesentlichen anatomischen und Verhaltensmerkmalen übereinstimmen: Die Zahnreihen im Ober- und Unterkiefer sind fast parallel angeordnet. Die Eckzähne im Unterkiefer stehen schräg zur Kaufläche und sind wie die Backenzähne (die Molaren) noch relativ groß. Australopithecus afarensis war – wie das Skelett von „Lucy“ zeigt – ca. 30 bis 50 Kilogramm schwer und etwa 1,20 Meter groß. Die Backenzähne sind deutlich größer als bei schimpansenähnlicher Körpergröße zu erwarten wäre, und haben einen recht dicken Zahnschmelz. Dies lässt auf die Verarbeitung relativ grober Nahrung schließen, zum Beispiel auf hartschalige Früchte und Samen oder Pflanzenfasern. Mit dem trockener werdenden Klima und der Ausbreitung von Savannen ging auch ein verändertes Nahrungsangebot einher. Während in den Regenwäldern über das ganze Jahr ähnlich reichhaltige Nahrung zur Verfügung steht, ist in den von Saisonalität gekennzeichneten Savannen vor allem die pflanzliche Nahrung in der Trockenzeit knapp: Viele Bäume und Sträucher verlieren ihre Blätter, Gräser und krautige Arten vertrocknen und überdauern die ungünstige Jahreszeit zum Beispiel in Form von Samen oder unterirdischen Speicherorganen. Es ist denkbar, dass die Homininen gerade in den Trockenzeiten mit knapper Nahrung verstärkt auf diese unterirdischen Speicherorgane zurückgriffen. Vor etwa 2,8 Millionen Jahren begann eine Phase zunehmend extremen Klimas gekoppelt mit starken jahreszeitlichen Schwankungen. Diese führte im südlichen Afrika dazu, dass sich das offene Grasland ausdehnte. Einerseits entwickelten sich lokale Populationen von Australopithecus africanus weiter zu Australopithecus sediba, einer Art, die im südlichen Afrika bis vor ca. zwei Millionen Jahren nachweisbar ist [118]. Andererseits blieben viele Organismen, auch die Vormenschen, ihrer Vorliebe für schwache jahreszeitliche Änderungen dadurch treu, dass sie äquatorwärts weiterzogen (Abb. 1). Da­ runter waren auch Populationen von Australopithecus africanus, die sich entlang des Uferzonenkorridors nach Norden ausbreiteten. Es entstand der Homo habilis, der sich vor ca. 2,2 Millionen Jahren als Allesfresser etablierte

150 

F. Schrenk Homo floresiensis

Homo neanderthalensis Homo heidelbergensis

Homo sapiens

Ma –0

Homo naledi –0,5

archaischer Homo sapiens Homo ergaster

Paranthropus boisei A. sediba

–1

Homo erectus –1,5

Australopithecus africanus icanus

Paranthropus robustus

–2 Homo habilis –2,5 Homo rudolfensis

Paranthropus aethiopicus

Australopithecus garhi Kenyanthropus platyops

Australopithecus deyiremeda

–3

–3,5 Australopithecus bahrelgazali

Australopithecus afarensis

–4

Australopithecus anamensis Ardipithecus ramidus

Afrika & außerhalb Afrikas Europa/Südostasien westliches Afrika

–4,5

–5

Ardipithecus kadabba Sahelanthropus tchadensis

–5,5

südliches Afrika östliches Afrika tropisches Afrika

Orrorin tugenensis

–6

Abb. 1  Chronologie der frühen Homininen auf biogeografischer Grundlage. (Grafik: F. Schrenk)

  Vom Menschenaffen zum modernen Menschen 

151

und sich durch die Entwicklung einer Werkzeugkultur gezielt Vorteile bei der Nahrungsbeschaffung sichern und damit vermutlich Habitatgrenzen leichter überwinden konnte. Für die weitere Entwicklung der Gattung Homo scheint der früher als ältester Urmensch angesehene Homo habilis aber von untergeordneter Bedeutung gewesen zu sein. Denn bereits eine halbe Million Jahre früher, vor ca. 2,7 Millionen Jahren, hatte sich im östlichen Afrika der bis dahin – von geografischen Varianten abgesehen – einheitliche Homininenstamm der Australopi­ thecinen in zwei Linien aufgespalten: In die Gattung Homo und die Gattung Paranthropus, die auch als Nussknackermenschen bezeichnet wird (Abb. 1). Die Koexistenz dieser zwei Linien vor ca. zwei Millionen Jahren ist anhand mehrerer Funde aus Olduvai Gorge (Tansania), aus Koobi Fora (Kenia) und aus Konso (Äthiopien) bekannt.

Das Schicksal der Nussknackermenschen Alle robusten Australopithecinen, die oft zur Gattung Paranthropus zusammengefasst werden, haben wesentliche Merkmale in der Konstruktion des Schädels und der Bezahnung gemeinsam: Der Gesichtsschädel ist sehr breit. Die Jochbögen sind sehr kräftig und weit ausladend. Am auffälligsten ist allerdings die Ausbildung eines Scheitelkammes an der Oberseite des Schädels aufgrund stark vergrößerter seitlicher Kaumuskulatur. Diese Merkmale und auch die stark vergrößerten Backenzähne deuten darauf hin, dass vor allem harte und grobe pflanzliche Nahrung zerkaut wurde, zum Beispiel Samen und Pflanzenfasern. Die robusten „Nussknackermenschen“ weisen im Zahnschmelz der Backenzähne Furchen und Kerben auf, die bei der Zermahlung von Pflanzen, die mit der Aufnahme von harten Partikeln wie etwa Quarzteilchen verbunden ist, entstehen können. Der für die „Nussknackermenschen“ charakteristische massive Schädelbau entstand im Zusammenhang mit der erwähnten Phase zunehmender Trockenheit in Afrika vor ca. 2,8 bis 2,5 Millionen Jahren. Die offenen Lebensräume mit einem höheren Anteil an hartfaserigen und hartschaligen Pflanzen dehnten sich aus, die Trocken- und Galeriewälder nahmen ab. Dennoch gilt als wahrscheinlich, dass die robusten Australopithecinen Verbindung zu den wasserführenden Zonen mit ihren Galeriewäldern in den Savannen hielten, die besonders während der Trockenzeiten wichtig waren. Neben dem ganzjährigen Zugang zum Wasser hielten diese geschlosseneren Habitate wahrscheinlich nach wie vor Schutz, Schlafplätze und ein gewisses Maß an anderen

152 

F. Schrenk

Nahrungsressourcen bereit. Insgesamt erhöhte jedoch der Selektionsdruck dieser Habitatänderung die Chancen für Säugetiere mit großen Mahlzähnen, die sich das härtere Nahrungsangebot der Savannen erschließen konnten. Dieser Druck war offensichtlich groß genug, um eine Aufspaltung der Australopithecinen in die Gattungen Paranthropus und Homo vor ca. 2,7 Millionen Jahren hervorzurufen. Welche Gründe führten dann aber dazu, dass diese mehr als 1,5 Millionen Jahre existierenden Nussknackermenschen ausstarben? Klimatische Veränderungen und eine wachsende Konkurrenz durch spezialisierte Pflanzenesser mögen eine Rolle gespielt haben, genauso wie die zeitgleich auftretenden Urmenschen (Homo habilis, Homo rudolfensis). Die Paranthropinen konnten sehr wahrscheinlich aufgrund ihrer hoch spezialisierten Ernährung nicht flexibel genug auf diese Herausforderungen reagieren.

Der Beginn der Kultur: Gattung Homo Bislang wurden in Afrika über 300 Homininen-Fragmente gefunden, die im weitesten Sinne zu den frühesten Nachweisen der Gattung Homo zu rechnen sind. Die geologisch ältesten Funde reichen bis etwa 2,7 Millionen Jahre zurück. Die robusten Nussknackermenschen und die Gattung Homo sind gleichzeitig entstanden; daraus ist zu schließen, dass es zur Entwicklung der großen Zähne der robusten Australopithecinen eine Alternative gab: den Beginn der Werkzeugkultur, deren Anfänge ebenfalls – wie die der Gattung Homo – 2,5 Millionen Jahre alt sind. Östlich der Homininen-Fundstellen von Hadar bei Gona in Äthiopien wurden sehr ursprüngliche, 2,6 Millionen Jahre alte Geröllwerkzeuge entdeckt. Auch Funde am Westufer des Turkana-Sees bestätigen, dass vor spätestens ca. 2,5 Millionen Jahren die ersten Werkzeugkulturen etabliert waren. Die Benutzung von Steinwerkzeugen zum Hämmern harter Nahrung bringt Vorteile in unvorstellbarem Ausmaß: Zufällig entstehende scharfkantige Abschläge könnten als Schneidewerkzeuge eingesetzt worden sein und eine Revolution in der Fleischbearbeitung und der Zerlegung von Kadavern ausgelöst haben. Bei der pflanzlichen Nahrung in den Savannen stellte sich jedoch eine andere Herausforderung: Diese dürfte eher kalorienarm und faser- beziehungsweise ballaststoffreich gewesen sein. Das erfordert ein entsprechendes Darmsystem wie zum Beispiel bei den Menschenaffen, damit diese Rohkost effizient verdaut werden kann. Zwar gibt es in Savannen auch Pflanzenprodukte mit höherer Energiedichte, etwa fetthaltige Früchte, Nüsse und Samen,

  Vom Menschenaffen zum modernen Menschen 

153

aber kaum ein Habitat stellt diese Früchte ganzjährig und in größeren Mengen zur Verfügung. Daher musste in Mangelperioden auf Nahrungsmittel mit ­geringerem Energiegehalt zurückgegriffen werden, beispielsweise auf unterirdische Speicherorgane wie Wurzeln und Knollen. Die effiziente Verwendung dieser stärkehaltigen Nahrungsressourcen ist nur durch – zunächst zufälliges, dann gezieltes – Kochen denkbar. Nach Richard Wrangham [119] sind Menschen „die kochenden Affen, Geschöpfe des Feuers“! Viele pflanzliche Nahrungsquellen werden durch Erhitzen  – Rösten oder Kochen  – verdaulicher und energetisch besser aufschließbar, sodass sich die Energiemenge, die beim Verzehren aufgenommen wird, erhöht. Dies wiederum ermöglicht, dass sich das Gehirn vergrößert und parallel das Darmsystems verkleinert. Unter dem Druck der Umweltveränderungen zu jener Zeit war es also die Fähigkeit der Homininen zu kulturellem Fortschritt, die die Gattung Homo entstehen ließ. Im Gegensatz zu den robusten Vormenschen waren unsere näheren Vorfahren flexibler in ihrem Verhalten – eine Entwicklung, die letztlich auch zu einem größeren und leistungsfähigeren Gehirn führte. Die zunehmende Unabhängigkeit vom Lebensraum führte aber auch zu einer sich steigenden Abhängigkeit von den dazu benutzten Werkzeugen – bis heute ein charakteristisches Merkmal der Menschen.

Frühmenschen und erste Expansionen Vor ca. zwei Millionen Jahren begann in Afrika die Entwicklung zu Homininen-Typen mit kräftigerem und größerem Skelett und massivem Knochenbau im Schädel, den typischen Merkmalen von Homo erectus. Diese Tendenz zeigen bereits die ältesten Frühmenschen der Art Homo ergaster. Vor allem nahm das Hirnvolumen zu: Ausgehend von den Australopithecinen (ca. 500 Kubikzentimeter) beträgt es bei den ältesten Schädeln der Gattung Homo vor knapp zwei Millionen Jahren ca. 800 bis 900 Kubikzentimeter, und steigt dann bis auf 900 bis 1000 Kubikzentimeter vor etwa einer Millionen Jahre an. Auch die Bein- und Fußknochen waren kräftig ausgebildet. Dies lässt darauf schließen, dass Homo erectus hohe Kraft und Ausdauer beim Tragen von Material und Nahrung zu den Wohnorten aufbrachte. Außerdem sind damit erstmals in der Geschichte der Menschen anatomische Merkmale überliefert, die zeigen, dass der Homo erectus nicht nur gehen, sondern auch rennen konnte. Im südlichen Afrika entwickelten sich die Frühmenschen in relativer Abgeschlossenheit zu einer ganz eigenen Menschengruppe heraus, dem Homo naledi [120]. Die Jagdtechniken entwickelten sich rasch weiter, ebenso die Fähigkeit, das Feuer zu nutzen. Die frühesten Hinweise auf den kontrollierten Gebrauch

154 

F. Schrenk

von Feuer stammen aus Koobi Fora in Ost-Turkana vor ca. 1,5 Millionen Jahren. Direkte Nachweise gelangen in Swartkrans in Südafrika, wo rund eine Million Jahre alte Verbrennungsspuren an Knochen nachgewiesen wurden, die aufgrund der experimentell rekonstruierten Temperaturen nicht von einem Buschfeuer hergerührt haben können. Wahrscheinlich gelang es dem frühen Homo erectus, Feuer gezielt nutzbar zu machen. In Savannen entstehen Feuer sehr oft natürlich, zum Beispiel durch Blitzschlag. Daher muss es den Frühmenschen als zerstörerische Kraft gut bekannt gewesen sein. Nicht nur die Wärme des Feuers war  – vor allem später bei der Besiedlung kühlerer Kontinente  – von Bedeutung, sondern auch der bessere Schutz vor wilden Tieren sowie die Möglichkeit, Nahrung zu erhitzen. Die Kontrolle des Feuers war und ist bis heute jedoch nicht nur eine technisch, sondern gleichermaßen eine gesellschaftlich zu regelnde Aufgabe. Aus der Beherrschung des Feuers lässt sich daher für den Homo erectus ein funktionierendes Sozialgefüge und deutlich verstärktes vorausschauendes Bewusstsein ableiten.

Frühe Eurasier Entsprechend ausgestattet war es nur eine Frage der Zeit bis zu den ersten Expansionen „Out of Africa“ (Abb. 2). Spätestens vor zwei Millionen Jahren verließen die Frühmenschen zum ersten Mal den afrikanischen Kontinent. Die ältesten Nachweise der Besiedlung Javas und Chinas gehen bis ca. 1,8 Millionen Jahre zurück, ein ebenso hohes Alter wurde für die Funde in Dmanisi (Georgien) ermittelt. Dies stimmt mit klimageografischen Daten aus dem Gebiet der Levante und des östlichen Mittelmeers überein, die für die Zeit von vor zwei Millionen Jahren die Ausdehnung der an Nahrung reichen savannenartigen Lebensräume belegen. Möglicherweise war die Jagd eine Triebkraft, um in entfernteren Gebieten nach Beute zu suchen und den Lebensbereich langsam auszudehnen. Die Eiszeit Europas, die sich in tendenzieller Abkühlung und in einer Intensivierung der Temperaturschwankungen äußerte, bildete die klimatische Rahmenbedingung für die Ausbreitung des Menschen auf der Nordhalbkugel. Vor ca. 1,4 Millionen Jahren dürften Homininen zunächst in Südeuropa heimisch geworden sein, wie durch Funde von Steinwerkzeugen belegt ist. Die erste Ausbreitung des Menschen in Europa ist aus der Zeit vor ca. 800.000 Jahren aus der spanischen Fundstelle Atapuerca (Gran Dolina) belegt. Danach nahm die Intensität der Kälteperioden weiter zu, denen aber mildere und wärmere Zeitspannen zwischengeschaltet waren, in denen Menschen erstmals in das Europa nördlich der Alpen vordringen konnten. Die geografische Variante des

  Vom Menschenaffen zum modernen Menschen 

Homo erectus

155

Homo o sapiens Homo ergaster Australopithecus bahrelgazali

Australopithecus afarensis

Homo omo mo o habilis abilis 4–3 Mio. Jahre Homo rudolfensis 2,5–2 Mio. Jahre

Paranthropus robustus

2–1,5 Mio. Jahre Aus Australopithecus afric africanus 0,1 Mio. Jahre

Abb. 2  Klimaabhängige Migrationen der frühen Homininen in Afrika. (Grafik: Friedemann Schrenk, Homininen-Rekonstruktionen: WildLifeArt Nina Kieser & Wolfgang Schnaubelt, Foto: Friedemann Schrenk)

Homo erectus in Europa, die sich im mittleren Pleistozän h ­ erausbildete, wird oft als eigene Frühmenschenart Homo heidelbergensis eingestuft: Ein bereits 1907 in Mauer bei Heidelberg entdeckter Unterkiefer ist mit einem Alter von ca. 600.000 Jahren der älteste Homininen-Fund in Deutschland. Vor etwa 300.000 Jahren traten – noch in einer Warmphase des Eiszeitalters  – erstmals der Ante-Neandertaler (Homo steinheimensis) auf, spätestens vor ca. 90.000 Jahren gab es die klassischen Neandertaler  – erstmals Menschen mit heller Hautfarbe. Am Höhepunkt ihrer Entwicklung waren sie in Europa und darüber hinaus weit verbreitet. Neandertaler waren in der Lage,

156 

F. Schrenk

auch extreme Lebensräume zu besiedeln. Als geografische Variante früher Eurasier gelten die Denisova-Menschen aus Sibirien, bekannt geworden durch DNA-Nachweise [121]. Auch eine vor ca. 50.000 Jahren ausgestorbene Menschenform von der indonesischen Insel Flores (Homo floresiensis) [122], deren Ursprung wahrscheinlich sogar auf die erste Out-of-Africa-­Expansion zurückgeht, lässt vermuten, dass es zur Zeit der Entstehung der ersten modernen Menschen weltweit viele weitere geografische Homininen-­Varianten gab. Neandertaler und moderner Mensch trafen vor knapp 90.000 Jahren im Gebiet des Nahen Ostens aufeinander. Vermischungen von Homo sapiens mit Neandertalern in Europa sind ebenso wahrscheinlich wie mit Denisova-­ Menschen in Südostasien. Die ebenfalls aus Afrika stammenden modernen Menschen setzen sich schließlich weltweit durch, während alle andere Menschenformen als seit ca. 27.000 Jahren ausgestorben gelten müssen.

Ursprung der modernen Menschen Vor wenigen Hunderttausend Jahren beginnt sich ein Synergieeffekt unterschiedlicher Faktoren biologischer und kultureller Evolution  – wie Werkzeugkultur, Kommunikation, Sozialverhalten, Gehirnstruktur und Körperbau – auszuwirken. Dadurch und durch die gleichzeitige Erhöhung der sozialen Organisation entsteht ein zunehmend vorausschauendes Bewusstsein, das oft als Charakteristikum des Menschen angesehen wird (Abb. 3). Während sich in Europa die Neandertaler entwickelten, entstanden in Afrika vor ca. 300.000 Jahren die ersten modernen Menschen. Fossilien aus der Mislyia-Höhle im nördlichen Israel sind mit einem Alter von ca. 180.000 Jahren die ältesten Nachweise für die Expansion der modernen Menschen aus Afrika [114]. Sowohl die afrikanischen als auch die israelischen Homo-sapiens-­ Funde stützen eine Theorie, die als „Out-of-Africa-Hypothese“ bezeichnet wird. Ein „multiregionaler“ Ursprung der modernen Menschen in verschiedenen Regionen der Welt erscheint unwahrscheinlich, wie molekulargenetische Daten vor allem aus DNS-Sequenzen von Mitochondrien (mtDNA) moderner Menschen zeigen. Die moderne Genetik lehrt uns auch, dass es beim Menschen keine Rassen gibt. Es gibt zwar durchaus genetische Besonderheiten bei verschiedenen geografischen Varianten (weniger als zehn Prozent), aber auch so viele Übereinstimmungen (mehr als 90 Prozent), die jedes Rassekonzept bei Homo sapiens hinfällig machen. Mit dem „Out-of-Africa“-Konzept wird der identitätsstiftende Ursprung des Homo sapiens einem Kontinent zugeschrieben, dem die Fähigkeit zur Ent-

  Vom Menschenaffen zum modernen Menschen 

157

Abb. 3  Wichtige Evolutionsmerkmale des Menschen. Die Breite der Pfeiler entspricht dem Ausmaß der Veränderungen der Merkmale während der letzten 6 Millionen Jahre

wicklung oft abgesprochen wird. Die gegenwärtige Abschottung von Wohlstandsregionen ist der Versuch, einheitliche Lebensbedingungen für den Homo sapiens zu verhindern. Dies wird aber langfristig – in vielen Generationen gedacht – nicht erfolgreich sein, da nur die kulturelle globale Vernetzung weltweit das Überleben der modernen Menschheit sichern kann.

Der moderne Homo sapiens Zur Evolution seiner Kulturfähigkeit Winfried Henke

„ Die Frage aller Fragen …“ im Lichte der Evolution Im 17. Jahrhundert, in vordarwinischer Zeit, behauptete René Descartes (1596–1650), dass der Mensch sich von den Tieren und dem Rest der Welt deutlich unterscheide. Im cartesianischen Dualismus sind Tiere nur Automaten, wenn auch sehr ausgefeilte, während als Alleinstellungsmerkmale des Menschen Sprache und Vernunft gelten. Gut hundert Jahre später ordnete Carl von Linné (1707−1778) in der ersten Auflage des „Systema Naturæ“ von 1735 den Menschen nach äußeren Ähnlichkeitskriterien dem Genus Homo innerhalb der Ordnung Primates zu und ergänzte vielsagend den vorsokratischen Imperativ „Nosce te ipsum“ (Erkenne Dich selbst). Erst in der zehnten Auflage von 1758 seines hierarchisch aufgebauten Natursystems führte er den Doppelnamen Homo sapiens ein,1 dessen Beiwort mit ­„vernunftbegabt“ oder − euphemistisch  – mit  Unter moderner Homo sapiens wird hier – neben dem kürzlich auf ein Alter von etwa 300.000 Jahren datierten frühen modernen Homo sapiens aus Jebel Irhoud – der vor 200.000 Jahren in Afrika entstandene anatomisch-moderne Homo sapiens verstanden, der nach neuesten Befunden [123] schon wenig später aus Afrika in die Levante und vor 45.000 Jahren als Jungpaläolithiker oder CroMagnon-Mensch nach Europa einwanderte. Die taxonomische Problematik des teilweise zeitgleich lebenden Neandertalers sowie des Denisova-Menschen wird hier nicht thematisiert (siehe hierzu [124, 125]).

1

W. Henke (*) Anthropologie (Fachbereich Biologie, Johannes-Gutenberg-Universität Mainz), Mainz, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_17

159

160 

W. Henke

„weise“ übersetzt wird. Da er an das Buch Genesis glaubte, zweifelte Linné (anfangs) nicht am Dogma der „Konstanz der Arten“. Mit der Abstammungslehre und der Annahme einer Natürlichen Auslese (Selektion), die durch die Anpassung der reproduktiv Erfolgreichsten im struggle for life zur Umweltanpassung der Organismen führt, begründete Charles Robert Darwin (1809–1882) in seinem Hauptwerk „On the Origin of Species“ (1859) den Paradigmenwechsel von einem statisch-typologischen zu einem dynamisch-evolutionären Weltbild. Da ihm die Brisanz seiner Abstammungstheorie seit Langem bewusst war, wie sein legendärer Satz „Mir ist, als gestehe ich einen Mord“ in einem Schreiben an seinen Freund Joseph D.  Hooker belegt, packte er erst zwölf Jahre später (1871) in „The Descent of Man“ (deutsche Übersetzung [126]) das „heiße Eisen“ an. Die Bemühungen um unser Selbstverständnis und unsere Rolle in der Welt wurden zur evolutionsbiologischen Herausforderung, denn „[d]er Mensch war aus allen ihn übergreifenden Sinnbezügen herausgefallen und auf sich selbst und sein Werden zurückgeworfen“ [127]. In diesem zukunftsweisenden, aber noch vielfach in den Zeitgeist des Viktorianischen Zeitalters eingebundenen anthropologischen Werk versuchte Darwin nicht nur die körperbauliche Abstammung des Menschen „aus einer tiefer stehenden Form“ (S.  28) abzuleiten, sondern auch die altehrwürdige Natur-Kultur-Dichotomie aufzulösen und die Grundeigenschaften der menschlichen Kulturfähigkeit als Evolutionskontinuum zu erklären. Damit begann die dynamische Diversifizierung und Spezifizierung der Paläoanthropologie und die multidisziplinäre anthropologische Spurensuche [128], aber vielen ist auch heute noch die Vorstellung unserer „Affenabstammung“ zweifelhaft. Dies wird offenbar auch durch die Fehlannahme befördert, unter den heutigen Affen befänden sich unsere direkten Vorfahren. Das ist ein grobes Missverständnis, denn die Evolutionstheorie nimmt einen letzten gemeinsamen Vorfahren an, aus dem sich sowohl die heutigen Menschenaffen als auch der Homo sapiens entwickelt haben, worauf schon „Darwins Bulldogge“, Thomas H. Huxley, 1863 in seinem epochalen Werk „Evidence as to Man’s Place in Nature“ hinwies [129]. Aber selbst mit modernster Gentechnologie ermittelte Vergleichsbefunde zwischen dem gemeinen Schimpansen (Pan troglodytes) und dem Homo sapiens werden eingefleischte Evolutionsskeptiker nicht dazu bringen, den Menschen nur als einen Menschenaffen „eigener Art“ zu sehen [130]. Kreationismus oder Intelligent Design bieten die Möglichkeit zur Flucht vor wissenschaftlichen Erkenntnissen.

  Der moderne Homo sapiens 

161

Standortbestimmung des Menschen Thomas H. Huxley hatte in seinem sogenannten „Glaubensbekenntnis“ formuliert, „dass, mag der Mensch von den Tieren abstammen oder nicht, er zulässig nicht eins derselben ist.“ Vergleicht man Gemeinsames und Trennendes, dann ist die Brücke über den Rubikon zwischen Natur und Kultur nur zu schlagen, indem wir den Erwerb der Kulturfähigkeit im Sinne einer genetisch-kulturellen Co-Evolution systematisch zu erklären versuchen. Neuere Untersuchungsansätze differenzieren zwischen der organischen und der (sozio-)kulturellen Entwicklung. In beiden Fällen handelt es sich um informationsgewinnende Prozesse, das heißt, sie sind auf den Erwerb, die Speicherung und die Weitergabe von Informationen ausgerichtet. In der Biogenese, der organischen Evolution, wird die Information durch Gene via Keimbahn von einer Generation zur nächsten weitergegeben, also von Eltern auf ihre Nachkommen. In der Tradigenese, der soziokulturellen Evolution, werden Informationen in Form von sozial erlerntem Wissen, Gedanken und Ideen über Sprache oder Schrift weitergegeben, also von Individuum zu Individuum. Die evolutionsökologisch eklatant relevanten Vorteile der Tradigenese und ihre Bedeutung für die Menschwerdung (Hominisation) sind offensichtlich: Verbale und schriftliche Informationen können sich entschieden schneller fortpflanzen. Sie sind nicht nur, wie die biogenetische Information, an die Eltern gebunden, sondern können jederzeit und lebenslang durch Lernen wirksam werden, und die Wirksamkeit kann am Erfolg oder Misserfolg geprüft werden. Aus der tradigenetischen Perspektive lösten sich viele Probleme, die Darwin als Paradoxa zu seiner Selektionstheorie bedenklich erschienen. So konnte er auf der Grundlage der Konkurrenz die Entstehung altruistischen Verhaltens wie zum Beispiel der Fürsorge nicht erklären. Dies wurde erst durch eine Erweiterung des Fitnessbegriffs ermöglicht, bei der auch der Fortpflanzungserfolg nahe verwandter Individuen in der Berechnung berücksichtigt wird, da deren Gene großenteils identisch sind. Um unsere sozialen, emotionalen, kommunikativen, kognitiv-intellek­ tuellen, ästhetischen und moralischen Fähigkeiten, die Wurzeln der menschlichen Kultur und die Voraussetzungen unserer Kulturfähigkeit, als Merkmalsmosaik der in der Vergangenheit erworbenen evolutionären Anpassungen zu verstehen, erhielten ab den 1960er-Jahren Verhaltensweisen lebender Primatenspezies durch Feld- und Laborstudien immer mehr Bedeutung für die Rekonstruktion der Menschwerdung, sowohl als Kontrast- als auch als Analogmodelle.

162 

W. Henke

Das Gehirn ist zweifellos das organische Substrat, in dem die oben erwähnten Verhaltensfunktionen „verankert“ sind. Deshalb stehen die evolutionsökologischen Faktoren im Vordergrund, die beim Homo sapiens zu einer exorbitanten Vergrößerung und Differenzierung des Gehirns geführt haben, zumal es ein sehr „teures“ Organ ist, das überproportional viel Energie verbraucht. Zunehmend steht die Interaktion zwischen den Akteuren „Gen, Geist, Gehirn, Gesellschaft“ im Vordergrund der Decodierung unserer Conditio [131]. Da unser menschliches Gehirn schon bei der Geburt vergleichsweise recht groß ist, sich aber in der Individualentwicklung (Ontogenese) noch verdoppelt und spezifiziert, ist der Blick auf den gestiegenen Energiebedarf und die veränderte Ernährung sowie die Individuation und die Sozialisation wichtig. Da nicht nur die evolutionsökologischen und sozialen Rahmenbedingungen unser Gehirn und damit unsere Intelligenz triggern, sondern letztere unter anderem durch komplexe Nahrungsakquirierung und Innovationen rückgekoppelt ist (Abb. 1), erweist sich Phillip Tobias‘ bekanntes Resümee als wegweisend: „Nature makes man and man makes nature, therefore man makes himself“. Jüngste Befunde der Epigenetik machen die Frage spannend, welche Faktoren die Erbbausteine der Zelle beeinflussen und eine DNA-­Modifikation bewirken.

Wie wir wurden, was wir sind Die paläoanthropologischen Kernfragen lauten: • Wie konnte aus einem vor etwa 75 Millionen Jahren lebenden, kreidezeitlichen, rattengroßen, baumlebenden Kleinsäuger mit einem kleindimensionierten, wenig komplexen Gehirn schließlich ein bodenlebender, zweibeiniger, nackter sowie sozial, emotional, technisch-kreativ, kognitiv-­ intellektuell, sprachkommunikativ, künstlerisch, ästhetisch und moralisch befähigter, biopsychisch hochkomplex organisierter „dritter Menschenaffe“ entstehen, dessen herausragendes Charakteristikum sein exzessives Gehirn und seine neurophysiologisch „verortete“ Kulturfähigkeit sind? Diese sind Voraussetzungen für die von ihm erschaffene komplexe kulturelle Vielfalt, für gemachte und gedachte Welten. • Wie konnte ein erkenntnisfähiges und selbstbewusstes Wesen „ziellos“ entstehen, das über seine existenzielle Situation nachdenken kann und immer differenziertere Antworten auf die „Frage aller Fragen“ findet [133]: „Was ist die Stellung des Menschen in der Natur?“

  Der moderne Homo sapiens 

163

Rückkopplungssystem Mobilität Aktionsradius

Fortpf lanzung Sozialleben

Energie

Futtersuche

Hirngröße

Abb. 1  Rückkopplungssystem zur Steigerung der Hirngröße. Die energetische Optimierung triggerte evolutionsbiologische Parameter, die für die Menschwerdung essenziell waren (s. [130, 132])

• Wie konnte sich der Homo sapiens ohne einen „Weltenplan“, selbstorganisiert, durch Zufall (oder sagen wir besser: aus den stochastischen Bedingungen von zufälligen genetischen Mutationen und stabilisierenden Eigenschaften von Gennetzwerken) zu dem Kulturwesen entwickeln, das durch Tradigenese in erdgeschichtlich kürzester Zeit unserem Planeten ein völlig neues, „anthropogenes“ Gesicht gab? Und der in der nach seinem Namen benannten geochronologischen Epoche lebt, dem „Anthropozän“, in dem er selbst der größte ökologische Einflussfaktor ist – eine unbehagliche Lage.

 kizze der Evolutionstrends in der S Menschwerdung Durch den evolutionsbiologischen Vergleich des Menschen mit dem weiten Spektrum heutiger Tier-Primaten und deren unterschiedlichen Komplexitätsniveaus wird der Prozess, der den Menschen als kulturfähiges Wesen hervorbrachte, modellhaft rekonstruiert. Dieser Ansatz erlaubt es, allgemeine Evolutionstrends in der stammesgeschichtlichen Komplexitätssteigerung unserer nächsten lebenden Verwandten zu rekonstruieren. Dabei geht man davon aus, dass auch zufällig oder für einen anderen Zweck entstandene Merkmale simuliert werden, die sich bei einer Veränderung der Umweltbedingungen als Selektionsvorteil erweisen. Aber es sei nochmals

164 

W. Henke

betont: Kein derzeit noch lebender Primat ist unser Vorfahre – das Modell impliziert keinen zielgerichteten Prozess. Und was die Interpretation fossiler Homininen-Funde und archäologischer Quellen betrifft: Wissenschaft ist „Menschenwerk“ und unterliegt dem „Vermutungscharakter allen Tatsachenwissens“ [134, 135], oder salopp formuliert: „Stammbäume sind wie Blumensträuße, schön anzusehen, doch schnell verwelkt“ [136, 137]  – und das gilt auch für noch so elaborierte Modelle und Szenarien, wie deren kurze Halbwertszeit zeigt. In der Stammlinie der Primaten zeichnen sich Entwicklungslinien ab, bei denen sich nicht nur eine Struktur, ein Organ, eine Verhaltensweise oder eine Funktion an eine neue Lebensweise anpasst, sondern ein ganzer Organismus in seiner vielfältigen Komplexität. Die Rekonstruktion der Anpassungen in der Primatenreihe reicht zurück bis in die Erdzeit des Tertiärs, als sich kleine, krallenbewehrte Halbaffen unter Selektionsdruck zu kletternden und schwingenden und später zu aufrecht gehenden höheren Primaten entwickelten [130]. Dies erforderte: • erhebliche Beweglichkeit der Gliedmaßen (insbesondere im Schultergelenk); • Abspreizbarkeit sowie Dreh- und Opponierbarkeit von Daumen und Großzehen (jedoch beim Menschen sekundäre Reduktion durch Standfußentwicklung); • große Hirnschädel mit Schnauzenverlängerung (bei Pavianen sekundäre Verlängerung); • nach vorne gerichtete Augenhöhlen (face-to-face-Betrachtung ermöglichend); • mäßige Entwicklung des Geruchssinns und entsprechend geringer Riechhirnanteil; • den optischen Sinn als dominierende Sinnesmodalität; • eine große, komplex strukturierte, im Hinterhauptslappen des Großhirns mit anderen Hirnregionen vernetzte Sehrinde; • hoch empfindliche Tastorgane an Hand und Fuß (Hautleisten) und eine besonders empfindliche Lippenregion; Nägel statt Krallen, um die Greiffähigkeit zu optimieren; • ein im relativ niederen Frequenzbereich gut ausgebildetes Gehör; • einen gut entwickelten Geschmackssinn; • eine große, stark gefurchte neue Großhirnrinde (Neocortex); sekundäre und tertiäre Sinneszentren, sehr viele neuronale Verschaltungen und große Speicherkapazität für Informationen (Gedächtnis und Sinneseindrücke);

  Der moderne Homo sapiens 

165

• ein hoch differenziertes Kleinhirn (Cerebellum) als Voraussetzung für feinste Bewegungskontrollen, unter anderem der Hand für Manipulation und non-verbale Kommunikation sowie • eine lange Trächtigkeitsphase (beziehungsweise Schwangerschaftsdauer), hohes elterliches Investment während der Kindheit und Jugendzeit, einen monatlichen Sexualzyklus und Organisation in Sozialverbänden. Zum Realitätsgehalt unserer Wahrnehmungen mag exemplarisch der klassische (hier übersetzte) Erklärungsbeitrag von G.G.  Simpson [138] erwähnt sein: „Der Affe, der keine realistische Wahrnehmung von dem Ast hatte, nach dem er sprang, war bald ein toter Affe – und gehört daher nicht zu unseren Urahnen“. In diesem Sinne waren die Anpassungen in der Primatenreihe – laut Modell retrospektiv betrachtet – essentiell für Homo sapiens und stimmig, denn die Vergangenheit erklärt die Gegenwart. Die Vernetzung anatomischer mit physiologischen Anpassungen von Homo ergaster (Abb. 2) zeigt, dass mit dem aufrechten Gang und der Lebensweise als Aasfresser, Jäger und Sammler auch immer körperliche Adaptationen mit Nebenbedingungen verbunden sind. So war mit der Aufrichtung aus funktionalen Gründen die Verengung des Beckens und damit auch des Geburtskanals verbunden. Dies resultierte in der von Adolf Portmann schon früh beschriebenen physiologischen Frühgeburt. Vorteil war der engere Kontakt in der Mutter-Kind-Dyade im „extrauterinen Frühjahr“, da die Traglinge in einer längeren postnatalen Phase betreut werden mussten. anatomische Anpassung

physiologische Anpassung

schmale Hüften und enger Geburtskanal

physiologische Frühgeburt Tragling, sekundärer Nesthocker

vergrößertes Gehirn

größerer Energiebedarf intellektuelle Fähigkeiten

Zunahme der Körperhöhe

größerer Energiebedarf vergrößerte Lauf leistung

größere Linearität der Körpergestalt

größere Hitzetoleranz

kleinere Kiefer und Zähne

Reduzierung der Kauleistung

Abb. 2  Anatomische Anpassungsmuster und damit verbundene physiologische Adaptationen beim Homo ergaster, der vor etwa zwei Millionen Jahren entstand und erstmals Afrika in Richtung Eurasien verließ, wie 1,8 Millionen Jahre alte Fossilien aus Dmanisi (Georgien) belegen (aus [132, 139])

166 

W. Henke

Die Verlängerung der Frühgeborenen- und auch der Kindheits- und Adoleszenzphase führte zu einem intensiven sozialen Lernen in allen Lebensphasen – bis hin zur „Erfindung der Großmutter“. Vielseitiges Lernen erlangte in der Menschwerdung eine immer größere Grundbedeutung bis hin zu unserer heutigen Wissensgesellschaft. Der gebotene Umfang verbietet es, auf so wichtige Neuentdeckungen wie die Beziehung zwischen Gehirn und Verdauungstrakt, auf die Bedeutung des verdeckten Eisprungs für die Paarbindung oder auf die Dunbar-Zahl einzugehen: Nach Robin Dunbar gibt es eine theoretische kognitive Grenze der Anzahl an Menschen, mit denen eine Einzelperson soziale Beziehungen sinnvoll unterhalten kann. Sie soll selbst in unseren Gesellschaften mit Tausenden Chats bei nur n = 150 liegen [140]. Schließlich sei kurz auf die Evolutionäre Erkenntnistheorie [134, 135] und das Problem hingewiesen, warum wir die Welt erkennen, sowie auf den Wagenheber- oder Ratschen-Effekt, unter dem Michael Tomasello [141] den Vorgang der kumulativen generationsübergreifenden Verbesserung menschlicher Errungenschaften versteht. Es sollte deutlich geworden sein, dass unser Geist nicht vom Himmel fiel, denn trotz der komplexen Lern-, Sprach- und Kulturfähigkeit sind auch wir ein „Kind der Natur“, dessen Kultur nach Hubert Markl „an der langen Leine der Natur hängt“ (siehe Abb. 3). Soziobiologisch gesprochen sind Organismen „Exekutoren biologischer Programme“ ([142], S. 247), und der Homo sapiens macht da keine Ausnahme. Spätestens als der anatomisch-moderne Mensch vor 90.000 Jahren die Levante und vor 45.000 Jahren als Jungpaläolithiker Europa bevölkerte, zeigten sich seine sozialen und kognitiven Evolutionsvorteile. Als fähiger Jäger und Sammler hat er den Neandertaler innerhalb weniger Jahrtausende verdrängt – oder integriert. Da auch die theoriengeleitete Paläoanthropologie eine hohe narrative Komponente hat (vgl. [137]), zieht sich durch die Darstellung unserer Stammesgeschichte ein vorurteilsbeladenes Denken. So hat die Dehumanisierung des Neandertalers seit seiner Entdeckung 1856 Methode. Doch es wird an seiner Rehabilitierung gearbeitet, wie die neueste Rekonstruktion seiner spezifischen ökologischen Nische und seiner Kulturfähigkeiten zeigt [143]. Ferner belegen paläogenetische Befunde mit Spuren von Genfluss in unserem Erbgut eine effektive Verschmelzung von Neandertalern und dem anatomisch-modernen Homo sapiens. Was aber bedeutet diese Verschmelzung für die stammeskundliche Rolle des Neandertalers und welche Bedeutung hat die Bildung von spezifischen Menschenarten seit dem Auftreten von Homo erectus für uns und unser Selbstverständnis? War der Jungpaläolithiker „wie wir“? Morphologisch fast; als Künstler, dessen Figurinen und Höhlenmalereien eine hohe Ästhetik [146] und dessen Geräte eine hohe Planungstiefe [147] und Geschicklichkeit bezeugen, war

  Der moderne Homo sapiens 

167

Hochkomplexe vielfältigste Sozialsysteme Vokalisation (spez. Lautäußerungen) als spezifische Kommunikationssysteme Empathie, Fähigkeit von Bewegungs- und Verhaltensintensionen Imitationen, Fähigkeit zur Bewegungs- und Verhaltensnachahmung Anfänge kooperativ-altruistischen Verhaltens Soziale Traditionsbildung in ihren Anfängen Intentionales Verhalten bzgl. Bewusstwerdung Ausbildung eines Ich-Bewusstseins, Autonomie

Tier-Mensch-Übergangsfeld - Rubikon der evolutiven Entwicklung der Kulturfähigkeit Verlängerung der Wachstumsphase und Neocortex-Entwicklung Exploration der Umwelt und gesteigertes Neugierverhalten (Intelligenzverschiebung) Sexualverhalten mit Paarbeziehung und Kooperation nicht verwandter Männer Extrem gesteigerte Soziabilität (Vergesellschaftungsformen) Exponentielle Steigerung des imitatorischen Bewegungs- und Handlungslernens, Tradierung Erhebliche Steigerung der Emotionalität, Gefühle Soziale Abstimmung symbolhafter Wahrnehmungsverarbeitungen Gestliche und lautliche soziale Kommunikation Proben sozial geforderter Handlungs- und Denkantriebe Magische und mystische Vorstellungen und Denkweisen Ausgeprägte soziale Normen und Maximen mit Tradierung Differenzierte Sprachkommunikation, Verantwortungs- und Schuldbewusstsein Eigenständiges Denken unter Bezug auf gespeicherte Wissen- und Erinnerungselemente Komplexe Denk- und Handlungssysteme Komplexe Tradierungssysteme Kurz- und Langzeitplanung – detaillierte Antizipation Kosmologisch-religiöse Gedankensysteme Weltanschauliche-religiöse Visionen!

Abb. 3  Evolutionäre Schritte zur Kulturfähigkeit des modernen Homo sapiens (nach [144, 145], aus [132] verändert)

er – auch als Jäger und Sammler – in seinem Verhalten modern (siehe den Beitrag von Harald Floss). Vor 11.500 Jahren wurden frühneolithische Populationen sesshaft und mit der „Neolithischen Revolution“ wechselte der Homo sapiens sukzessive zur produzierenden Arbeitsweise mit Ackerbau, Viehzucht und Vorratshaltung. Ab dem Neolithikum, seit etwa 7500 vor Christus, baute er erste Städte (Çatal Hüyük, Anatolien) und prägte seinen Lebensraum [148] (siehe auch den Beitrag von Joachim Bretschneider). Durch Arbeitsteilung veränderten sich das soziale Gefüge seiner Familien und das politische seiner Gesellschaften. Der Weg in die Zivilisation war durch die Summe technischer

168 

W. Henke

und wissenschaftlicher Innovationen und komplexere soziale und materielle Lebensbedingungen geprägt (siehe den Beitrag von Stefan Hradil). Dass der moderne Homo sapiens den Auswirkungen seiner eigenen Erfindungen nicht traut, belegen Institute zur Technikfolgenabschätzung und zur biomedizinischen Risikobewertung. Er ist ein zur Innovation Getriebener. In unserem „globalen Dorf“ Erde leben zurzeit mehr als 7,5 Milliarden Menschen und konkurrieren in einer „Gesellschaft mit beschränkter Hoffnung“ (nach Ulrich Lüke). Ihre spezifische ökologische Nische hätte ohne den „Rubikon“ zu überschreiten, das heißt ohne die kulturelle Evolution, nicht erschlossen werden können. Aber wir haben trotz Erfindungen wie der Künstlichen Intelligenz und der Raumstation Mir einen an die Steinzeit angepassten Körper, so dass Kollisionen unserer Conditio humana mit den Konstituenten der Neuzeit vorprogrammiert sind. Unsere evolutionäre Anpassung an das paläolithische Leben als Wildbeuter (Jäger und Sammler) führte zu Fehlentwickungen („Dysevolutionen“), wovon steigende Gesundheitsrisiken zeugen, gegen die die evolutionäre Medizin kämpft [149] – etwa chronische Erkrankungen wie Diabetes, Allergien, Herzinfarkte, Haltungsschäden und Stressleiden. Mit unterschiedlichen Ideologien sowie asymmetrischen Ökonomien und Ökologien rivalisieren die wachsenden Bevölkerungen zunehmend um ihre Existenz aufgrund versiegender Ressourcen und irrationaler Bedürfnisse im innovativen Wachstumsrausch [150]. Wir können vieles sein, wie die lange Liste der unterschiedlichsten Entwürfe von Menschenbildern zeigt (Abb. 4). Das so innovationsfähige menschliche Gehirn ist nicht nur „sapiens“, um Grundbedürfnisse zu befriedigen,

H. utopicus

H. compensator H. oeconomicus

H. cerebralis H. superior H. religiosus

technicus

H. faber

H. aestheticus

sapiens

animal rationale

habilis naturalis

H. grammaticus H. scribens

Homo

H. investigans

zoon politicon

H. laborans

loquens H. culturalis H. mendax

H. communicans H. loquax

animal symbolicum

Abb. 4  Menschenbilder – Konstrukte der Biologie und anderer Wissenschaften (nach [152], aus [132])

  Der moderne Homo sapiens 

169

sondern auch, seine Existenz zu klären, sinnstiftende Gründe seines Daseins zu bestimmen. Bedrohlicherweise liefert der Neocortex auch den „Stoff, aus dem die Dummheit ist“, aus dem Stereotype und Vorurteile erwachsen (nach [151]). Kann das gut gehen? Die stammesgeschichtliche Rolle des Homo sapiens fasst der Biophilosoph Bernulf Kanitscheider ([153], S.  251) naturalistisch nüchtern: „Kein Weltenplan wollte den Menschen, und niemand wird ihn vermissen, wenn er dereinst wieder verschwunden ist. So wie er sich heute kennt, ist er eine temporäre Komplexitätsstufe in einer expandierenden Welt, …“ (kursiv W.H.).

Macht Kunst den Menschen? Über die Ursprünge der Kunst – ein Erklärungsversuch Harald Floss

Die ältesten, heute als Kunstwerke angesprochenen menschlichen Erzeugnisse sind ein bedeutender Schritt, wenn nicht gar der definitorische starting point des Menschseins. Dabei sind unlängst in das UNESCO-Weltkulturerbe eingetragene Höhlen der Schwäbischen Alb ein besonderer Eckpfeiler. Bei der Betrachtung ältester Kunst ist zu bedenken, dass sich die Ur- und Frühgeschichte stets nur auf den aktuellen Stand der überlieferten Funde und Erkenntnisse beziehen kann, da aus der Frühzeit der Menschheit nur ein sehr kleiner Ausschnitt der ehemaligen Kulturgüter überliefert ist und jederzeit neue Entdeckungen bisherige Einschätzungen völlig obsolet erscheinen lassen können. In der Tat musste der Zeitpunkt der frühesten Besiedlung vieler Gebiete vorverlegt werden. Auch die Beherrschung des Feuers, die Nutzung organischer Rohmaterialien oder verschiedene technologische Errungenschaften bei der Werkzeugherstellung werden heute zu deutlich früheren Zeiten vermutet. In Bezug auf die Anfänge der Kunst sind wir nichtsdestotrotz der Meinung, dass sich nach mehr als 100 Jahren ernstzunehmend geführter Urgeschichtsforschung ein in der Tendenz zutreffendes Bild abzeichnet. Demnach verzeichnen wir vor ca. 40.000 Jahren in Europa und vermutlich auch in

H. Floss (*) Institut für Ur- und Frühgeschichte und Archäologie des Mittelalters, Eberhard-­Karls-­Universität Tübingen, Tübingen, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_18

171

172 

H. Floss

anderen Kontinenten einen signifikanten Anstieg von Kunstäußerungen.1 Für Europa haben wir dies unlängst in qualitativer und quantitativer Hinsicht konkret nachweisen können [154]. Hauptverantwortlich für diese sprunghaften Entwicklungen ist der Homo sapiens, sind seine „Eroberung“ außerafrikanischer Kontinente und vor allem sein Aufeinandertreffen mit anderen Menschenformen wie etwa dem europäischen Neandertaler. Dies erklärt aber noch nicht die sehr variablen künstlerischen Ausformungen, die wir seither beobachten. Sprunghafte Entwicklungen werden in der Wissenschaftsgeschichte oft aus zwei sehr verschiedenen Gründen als unglaubwürdig abgetan: Wie wir prähistorische Kunst betrachten, ist zum einen noch immer von einer evolutionistischen Sicht beeinflusst, nach der sich die Äußerungen vom Einfachen zum Komplexen zu entwickeln hätten. Einen Kulminationspunkt fand diese Sichtweise in der ansonsten bahnbrechenden Hauptarbeit André Leroi-­ Gourhans, der die Eiszeitkunst in verschiedene aufeinanderfolgende Stile einteilte, in denen am Anfang die archaischen und „primitiv“ wirkenden Piktogramme der Dordogne standen [155]. In diesem Schema hatten aber die minutiös ausgearbeiteten Elfenbeinfiguren der Schwäbischen Alb keine Chance, am Anfang der Kunstentwicklung zu stehen, weil sie, simpel gesagt, zu schön waren, um alt zu sein. Heute wissen wir unzweifelhaft, dass sie sehr früh entstanden sein müssen [156]. Auf der anderen Seite werden heute die vor-jungpaläolithischen, das heißt in Europa vor-Homo-sapiens-zeitlichen Erzeugnisse aufgewertet, um früher diskreditierten Menschenformen, wie etwa dem Neandertaler, eine Ehrenrettung zu Teil werden zu lassen. Im Ergebnis kann die Kombination der beiden angeführten Sichtweisen zu einer Entwertung der Rolle des frühen Jungpaläolithikums und hier insbesondere des Aurignacien führen. Wir sind demgegenüber überzeugt, dass das frühe Jungpaläolithikum eine entscheidende, wenn nicht die entscheidende Phase der Menschheitsgeschichte war [157–159]. Die Beweggründe und Umstände, die im Zuge der Menschheitsgeschichte zur Erzeugung von Objekten geführt haben, die wir heute der Kategorie „Kunst“ zuordnen, sind vielfältig. Wir sind dezidiert der Meinung, dass kein Grund dazu besteht, prähistorischen Erzeugnissen grundsätzlich andere  Hierzu sei ein Aufsatz erwähnt, der im Februar 2018 die Medienlandschaft erschütterte. Die Autoren behaupteten, die Malereien aus drei spanischen Höhlen gingen auf den Neandertaler zurück. Diese Behauptung ist aus verschiedenen Gründen falsch. Ohne hier auf Details eingehen zu können, ist zum Zeitpunkt des Verfassens dieses Beitrages eine Gegendarstellung einer großen Anzahl namhafter Wissenschaftler in Vorbereitung, die diese von Populismus und Ideologie getragene Darstellung widerlegt. 1

  Macht Kunst den Menschen? 

173

Bewertungskriterien zugrunde zu legen, als jüngeren Äußerungen der Menschheitsgeschichte, nur weil sie älter sind als andere. Im Einzelnen wird man aus den Eigenschaften des Objektes selbst sowie aus kontextuellen Umständen heraus entscheiden, was man in der Urgeschichte der Kategorie Kunst zuschreibt und was nicht. In der Regel dürfte es sich um Bildnerisches handeln, sei es Malerei, Gravierung oder Skulptur, dem man vordergründig keine Funktion im Zusammenhang mit trivialem Alltagsgeschehen beimessen würde. Insofern messen wir im Allgemeinen auch Steinartefakten, so ästhetisch hochwertig sie auch gestaltet sein mögen, keine Rolle als Kunstwerke bei, weil sie stets beziehungsweise auch triviale Gebrauchsgegenstände bleiben. Diese Einschätzung würde sich in dem Moment ändern, wenn ein Gerät zum Träger ikonografischer, semantischer oder symbolischer Botschaften würde, wie dies bei verzierten Knochengeräten der Fall sein kann, zum Beispiel bei Speerschleuderenden oder Lochstäben. Bei alledem müssen wir uns natürlich bewusst sein, dass vermutlich ein Großteil künstlerischer Aktivitäten keinen Eingang in die materielle Kultur gefunden oder sich schlicht nicht über die Jahrtausende erhalten hat. In den zurückliegenden Jahrzehnten ist ferner viel darüber diskutiert worden, was als conditio humana zu verstehen sei und inwieweit die früheste Kunst dabei ein wichtiges Kriterium sein kann. Und hier stecken wir in der Tat in einem Dilemma, das wir so einfach nicht werden lösen können. Im Allgemeinen wird heute der erste aktive Werkzeuggebrauch als Definitionskriterium der ersten Menschen angesehen. Bezeichnungen wie Homo habilis oder Homo erectus tragen diesem Umstand Rechnung, und heute sind die ältesten Geräte aus Stein knapp drei Millionen Jahre alt. Das weithin bekannte Problem besteht aber darin, dass auch Tiere Werkzeuge herstellen können. Besonders die Primatenforschung ist hier in den letzten Jahrzehnten zu wichtigen neuen Erkenntnissen gekommen. Die Kognitionswissenschaften haben nun den schwierigen Versuch unternommen, aufgrund einer beim Menschen beobachteten vermeintlich höheren Planungstiefe der Werkzeugherstellung Definitionskriterien herauszuarbeiten. Wir halten diese Abgrenzung aber für problematisch. Vielleicht sollte man einen anderen Weg beschreiten: sich von der Werkzeugdefinition für den Menschen zu lösen. Doch wenn es nicht das Werkzeug ist, was das Menschsein ausmacht, was dann? Etwa der aufrechte Gang oder die Beherrschung des Feuers? Wir denken, dass der erste Nachweis ritueller, kultischer Handlungen, früheste Formen von Religion, in deren Zuge „Kunstobjekte“ entstanden sind, vermutlich den entscheidenden Wandel hin zum Menschen markieren. In der Literatur bereits existierende menschliche Attribute wie Homo metaphysicus [160] oder Homo cultus [161] treffen hier wohl den Kern. Allerdings zögern wir, den in

174 

H. Floss

der Konsequenz nötigen Schritt zu gehen, das Menschsein erst mit diesen Hinweisen auf kultisches Handeln zu definieren. Denn auch dem Neandertaler, dessen Gene wir im Übrigen in uns tragen, kann man Handlungsweisen attestieren, die möglicherweise in den Bereich des Kultes fallen, wie etwa Bestattungen oder den Gebrauch von Farbe. Hier wird man aber wiederum einwenden können, dass Bestattungen auch dem Schutz des Verstorbenen vor Tierverbiss dienen können und auch der Farbgebrauch ganz und gar trivialen Nutzungen folgt, wie etwa dem Gerben von Fellen. Im Ergebnis sind wir der Auffassung, dass erst mit Beginn des europäischen Jungpaläolithikums sämtliche Kriterien erreicht sind, die man auch mit dem heutigen Homo sapiens verbindet, dass aber durchaus bereits zuvor Kriterien geltend gemacht werden können, mit denen man das Menschsein assoziieren kann. Nun aber zum archäologischen Fundstoff der ältesten Eiszeitkunst. Über Jahrzehnte hinweg wurden zwei Fundprovinzen kontrovers debattiert: die Dordogne mit ihren archaisch wirkenden Piktogrammen auf Kalksteinblöcken [162] sowie die Schwäbische Alb mit ihren filigranen Elfenbeinfiguren [163–167]. Die wichtigsten Fundstellen der Dordogne heißen Abri Castanet, Abri Blanchard, Cellier, Belcayre und La Ferrassie; in der Schwäbischen Alb der Hohle Fels und das Geißenklösterle im Achtal bei Ulm sowie der Vogelherd (Abb. 1 und 2) und die Stadelhöhle im Lonetal bei Heidenheim. Durch die 1994 entdeckte Grotte Chauvet in der Ardèche [168, 169], deren absolut herausragende Malereien mittels radiometrischer Datierungen größtenteils in das Aurignacien vor mehr als 30.000 Jahren fallen [170], änderte sich das Bild dramatisch, und die ­auffällige Ambivalenz der geschilderten Fundprovinzen

Abb. 1  Das Vogelherdpferd, eine kleine Figur aus Mammutelfenbein, die Gustav Riek 1931  in der Vogelherd-Höhle im Lonetal bei Heidenheim (Baden-Württemberg, Deutschland) gefunden hat. Alter ca. 35.000 Jahre. (Foto: Hilde Jensen, Eberhard-Karls-­ Universität Tübingen)

  Macht Kunst den Menschen? 

175

Abb. 2  Das Mammut vom Vogelherd, eine kleine Figur aus Mammutelfenbein, die Gustav Riek 1931  in der Vogelherd-Höhle im Lonetal bei Heidenheim (Baden-­ Württemberg, Deutschland) gefunden hat. Alter ca. 35.000 Jahre. (Foto: Hilde Jensen, Eberhard-Karls-Universität Tübingen)

konnte auf diese Weise aufgelöst werden. In der Folge setzte in verschiedenen Regionen ein Prozess des Nachdenkens darüber ein, ob nicht auch andere Kunstwerke, die aufgrund der traditionellen Stileinteilung als jünger angesehen wurden, in diese Anfangsphase der Eiszeitkunst gehören könnten. So verfügen wir heute im gesamten eurasiatischen Großkontinent von Spanien bis Rumänien und Russland und von Belgien bis Italien über annähernd 50 Fundorte, die sich durch Höhlen- oder Kleinkunst aus der angesprochenen Frühphase der Eiszeitkunst auszeichnen [158]. Diese Kunstäußerungen zeigen Gemeinsamkeiten, aber auch deutliche regionale Prägungen und unterstreichen damit den generellen Charakter des Aurignaciens als ein paneuropäisches Phänomen, aber gleichermaßen den einer mosaikartigen Struktur mit starken regionalen Eigenheiten. Vor allem aber wird der zuvor angedeutete deutliche Wechsel bestätigt, der mit dem Beginn des europä­ ischen Jungpaläolithikums einhergeht: In relativ kurzer Zeit treten nun völlig neue Phänomene auf, zum Beispiel figürliche Kunst, Musikinstrumente, formüberarbeiteter Schmuck und die Darstellung von Mischwesen. Wir wollen hier jedoch nicht diese frühen Kunstwerke beschreiben, vielmehr versuchen wir, die Umstände und die Hintergründe zu erhellen, vor denen die frühesten Kunstwerke entstanden sind. Hier müssen wir zunächst etwas weiter ausholen. Die Menschen des Paläolithikums waren Sammler und Jäger, die im jahreszeitlichen Wechsel ihre Lagerplätze wechselten. Sie unterhielten zentrale Basislager oder auch spezialisierte Camps, die der Jagd, der Beobachtung von Wild oder der Beschaffung von Rohstoffen dienen konnten. Diese Plätze konnten sich in Höhlen, vor allem aber auch im Freiland

176 

H. Floss

befinden. Eine Neuheit des Jungpaläolithikums ist, dass es ab jetzt Plätze gab, die vornehmlich beziehungsweise ausschließlich rituellen Zwecken und so gut wie nicht alltäglichen Zwecken dienten. Dies lässt sich vor allem an Höhlenfundstellen belegen, denen es an gewöhnlichen Siedlungsresten mangelt, die sich aber durch Höhlenmalereien oder sonstige nicht alltäglich erklärbare features auszeichneten. Hier ist für den Anfang der Eiszeitkunst vordringlich die Grotte Chauvet in der Ardèche (Frankreich) zu nennen, die eine deutliche choreografische Verdichtung in Richtung des Höhlenendes aufweist und bei der man darüber hinaus sogar den Eindruck gewinnt, dass das unmittelbare Umfeld der Höhle besonders symbolisch aufgeladen und für gewöhnliche Besiedlung tabu war. Die Grotte Chauvet offenbart ein geradezu vogelwildes Ensemble eiszeitlicher Malereien, die in atemberaubenden Assemblagen Geschichten aus der Welt der eiszeitlichen Mythologie erzählen. Ganz am Ende der Höhle befinden sich Beispiele der besonderen Themen der Eiszeitkunst – zum Beispiel Vulvendarstellungen, Abbildungen besonders gefährlicher Tiere wie etwa Löwen und insbesondere ein aus einem Wisent und einer Frau bestehendes Mischwesen (siehe den Beitrag von Ina Wunn). Solche Verdichtung der Choreografie zum Höhleninneren hin findet sich in vielen Bilderhöhlen der Eiszeit und unterstreicht deren besondere Rolle: Vermutlich stellten die Höhlen einen Zugangsort zur Geisterwelt dar. Auch in die Felswände hineingesteckte Knochen und Steingeräte, die wie eine Art Opfergabe zu interpretieren sind, die Abbildung menschlicher Hände, die zweifellos einen apotropäischen Charakter tragen (Abwehrzauber) und die Darstellung partieller Tiere und Menschen, die so den Eindruck erwecken, in die Welt jenseits der Höhlenwand hinein- oder herauszutreten, unterstreichen die Rolle der Höhle als besonderen Ort in der Kontaktaufnahme des Menschen mit der jenseitigen Welt [171]. Der im Hohlenstein-Stadel im Lonetal ganz am Ende der Höhle in einer Nische gefundene Löwenmensch aus Mammutelfenbein [172] wäre ein Beispiel aus der mobilen Kunst, das ähnlich zu interpretieren ist. Bereits die Darstellung von Mischwesen aus Mensch und Tier, die es nur in der Vorstellungswelt gibt, sprechen eine deutliche Sprache, die eine banale oder triviale Interpretation der Eiszeitkunst widerlegen, doch dazu später mehr. Es ist also unbestreitbar, dass die genannten Elemente erst mit Beginn des Jungpaläolithikums auftreten und zeigen, dass die Welten des Neandertalers und die des Homo sapiens in Europa unterschiedliche waren. Dennoch bleibt die Frage, was die Gründe für diesen Wandel waren. Hier könnte man einfach behaupten, der Homo sapiens besäße aufgrund seiner intellektuellen, neurologischen und physiologischen Grundausstattung schlicht eine andere Eignung als etwa der Neandertaler, diese neuen Elemente einzubringen, und dass

  Macht Kunst den Menschen? 

177

diese Fähigkeiten ihm evolutionistisch gesehen einen Vorteil gegenüber anderen Menschenformen sicherten. Wir halten diese Argumentation nur bedingt für schlüssig. Denn natürlich bedarf es einer gewissen menschlichen Grundausstattung, um bestimmte Handlungsformen durchführen zu können, denn Bienen oder Schneehasen hätten die Grotte Chauvet nicht erschaffen können. Aber erklärt diese Grundausstattung zielführend das Zustandekommen und die Vielfalt menschlicher Kulturgüter? Wir denken nicht. Wir meinen, dass es zusätzlicher besonderer Umstände bedarf, die im sozialen, demografischen und vor allem im rituell-religiösen Feld liegen und die dezidiert für Handlungsweisen verantwortlich zeichnen, aus denen Objekte hervorgegangen sind, die wir heute als Eiszeitkunst bezeichnen. Denn es gibt den Homo sapiens seit ca. 200.000 Jahren und zwar in verschiedenen Regionen der Erde, ohne dass in den ersten 150.000 Jahren seiner Existenz im geringsten etwas entstanden wäre, das mit der Komplexität, Dichte und, ja, Schönheit der europäischen Eiszeitkunst seit ca. 40.000 Jahren vergleichbar wäre. Im Gegensatz zu anderen Kontinenten, in denen der Homo sapiens in ein weitgehend unbewohntes Gebiet einwandert, ist die Situation in Europa eine besondere, da hier der moderne Mensch vor ca. 40.000 Jahren in eine Region vordringt, die zu dieser Zeit noch von einer anderen Menschenform besiedelt ist, dem Neandertaler. Wir denken in der Tat, dass diese über mehrere Tausend Jahre belegbare Koexistenz auch eine Wettbewerbssituation hervorgerufen haben könnte, in deren Zuge es auf die Herausbildung identitätsfördender Maßnahmen ankam [173]. Es ist gut möglich, dass die Entstehung der Kunst teilweise auch so motiviert war. Dies heißt, dass die Menschen des frühen Jungpaläolithikums zu verstehen lernten, was ihre spezifische Position in der Seinswelt dieser Zeit war: anderen Menschentypen gegenüber, aber vor allem auch gegenüber den Tieren. Wir müssen hier versuchen, uns in die Lebenswelt der damaligen Menschen hineinzuversetzen, in der es nichts von alledem gab, was unsere heutige Zeit auszeichnet. In der offenen Steppe des Eiszeitalters kam jeglichen beweglichen oder akustisch wahrnehmbaren Agenzien eine besondere Bedeutung zu. Dies können Sonne, Mond und Sterne, die Gezeiten, Naturphänomene wie Blitz und Donner oder auch große Flüsse mit ihren jahreszeitlich wechselhaften Zuständen gewesen sein. Ein besonderes Verhältnis entwickelten die Menschen des Jungpaläolithikums aber zweifelsohne zu den anderen lebendigen Bewohnern der eiszeitlichen Steppe, den Tieren. Tiere waren für den Menschen der Eiszeit überlebenswichtig, weil man sie zur Ernährung (Fleisch, Fett, Innereien, Knochenmark, Blut), aber auch zur Herstellung diverser Werkzeuge, zur Kleidung und zum Behausungsbau benötigte (Knochen, Geweih, Horn, Elfenbein, Sehnen, Felle und Häute, etc.). Tiere waren für die Menschen aber noch sehr viel mehr. Sie waren kongeniale

178 

H. Floss

Partner in gemeinsamen Seinsgefügen [174, 175], zu denen man eine besondere Beziehung unterhielt. Nicht von ungefähr kommt den gefährlichen und Eindruck erweckenden Tieren in der Kunst des frühen Jungpaläolithikums eine besondere Rolle zu, denn Löwe, Nashorn und Mammut zählten zu den am häufigsten dargestellten Tieren. Und nicht von ungefähr entwickelten sich in dieser Zeit Darstellungen von Mischwesen, die exemplarisch das symbiotische Verhältnis von Mensch und Tier zum Ausdruck bringen. Doch es entstand offensichtlich auch ein Konfliktpotenzial, da man die Tiere zum einen verspeiste, zum anderen sie aber auch als mögliche Träger und Wohnort der Ahnen verehrte [171]. Wir denken, dass es dieses spezifische Wirkgefüge war, in dem sich konfliktlösende Rituale entwickelten, ja, zum Gleichgewicht der Gruppen auch entwickeln mussten, in deren Folge Objekte und Höhlenausschmückungen entstanden, die wir heute als Kunstwerke bezeichnen. Die Ausmalung einer Bilderhöhle wie etwa der Grotte Chauvet ist ein organisatorisch viel zu vielschichtiges, zeitintensives Unterfangen, als dass man es allein mit einer ästhetischen, aber ansonsten beiläufigen Intention erklären könnte. Nun ist die Höhlenkunst oft mit anderen heute seltsam wirkenden Aktionen verknüpft, die ein rituelles Gesamtes darstellen. Die Bilderhöhlen des Jungpaläolithikums sowie die ausgearbeiteten Kleinkunstwerke dieser Zeit zeigen damit beispielhaft, dass nun ein neues Zeitalter angebrochen war – das des Menschen in seiner heutigen Form.

Vom Jäger und Sammler zum Bewohner von Städten Hochkulturen im fruchtbaren Halbmond Joachim Bretschneider

Die Mauern von Jericho Die ersten bäuerlichen Gemeinschaften nach dem Ende der letzten Eiszeit entstanden unzweifelhaft in Vorderasien. Klimaerwärmung und höhere Niederschläge verwandelten vor rund 12.000 Jahren die Steppengebiete am Rande des vorderasiatischen Tieflandes in fruchtbare Weidegebiete für zahlreiche Wildtiere, die den Jäger- und Sammlergemeinschaften eine substanzielle Lebensgrundlage boten. Höhlen und saisonal genutzte Freilandsiedlungen der Natufian-Kultur (ca. 11.000 bis 9600 v. Chr.) im Gebiet Palästinas und der Levante waren die Vorboten zur Sesshaftigkeit. Holz- und Knochensicheln mit Feuersteinklingen, Mahlsteine, Herde und Vorratsgruben mit Körnern von wildwachsendem Getreide sind frühe archäologische Zeugen einer kulturellen Entwicklung der Menschheit, die wenig später im Gebiet des sogenannten fruchtbaren Halbmondes mit der Domestikation von Pflanzen und Tieren den entscheidenden Schritt zur einer bäuerlichen Subsistenzwirtschaft vollziehen sollten. Dieser, durch den australischen Archäologen Gordon Childe als „Neolithische Revolution“ definierte Prozess sollte binnen weniger Jahrtausende die Kulturräume Vorderasiens zur Wiege großer Zivilisationen werden lassen.

J. Bretschneider (*) Ancient Near East Department of Archaeology, Ghent University, Ghent, Belgium E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_19

179

180 

J. Bretschneider

An Fundstätten wie der des alten Jerichos (Tell es-Sultan) im Jordantal lassen sich die Übergänge von der Natufian-Kultur zu den kulturellen Entwicklungen des anschließenden Präkeramischen Neolithikums (Pre Pottery Neolithic PPN, ca. 9500 bis 6200 v. Chr.) gut fassen. Ihre weltberühmte Ausgräberin Kathleen Kenyon vermutete vor mehr als fünfzig Jahren in der an einer ergiebigen Quelle gelegenen Siedlung im Westjordanland die älteste Stadt der Welt, eine Einschätzung, die heute so nicht mehr haltbar ist. Die teilweise in den Boden versenkten Rundhütten hatten einen Durchmesser von bis zu fünf Metern. Für das aufgehende Mauerwerk wurden erstmals handgeformte und luftgetrocknete Lehmziegel in der Form eines Brotlaibes verwendet. Rechteckige Lehmziegel, in Holzformen gepresst, bilden noch Jahrtausende später den universalen Baustoff der altorientalischen Städte. Die Toten des präkeramischen Neolithikums wurden wie in vielen anderen Fundstätten Syriens und Palästinas unter den Fußböden der Wohnhäuser begraben, wobei häufig die Schädel gesondert bearbeitet und bestattet wurden. Gipsmodellierungen von Gesichtszügen und Muscheleinlagen in den Augenhöhlen einiger Schädel von Jericho und Tell Aswan lassen eine gewisse Porträthaftigkeit erkennen (Kap. „Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum Monotheismus“, Abb. 4 im Beitrag von Ina Wunn). Ein Kultgebäude für Schädeldeponierung ist aus dem anatolischen Çayönü bekannt, auch hier könnte eine Form der Ahnenverehrung stattgefunden haben. Die drei bis vier Hektar große Siedlung von Jericho war von einer in verschiedenen Bauphasen errichteten Feldsteinmauer umgeben. Diese und ein aus dem Felsen gehauener acht Meter breiter und über zwei Meter tiefer Graben schützten die geschätzten 1500 Einwohner und ihre Vorräte vor Feinden – oder Überflutungen, wie jüngst vermutet wurde. Rätselhaft bleibt auch die Funktion des mächtigen runden Steinturms von beinahe neun Metern Höhe, der an die Innenseite des westlichen Mauerrings angebaut war. Nur durch die kollektive Arbeitsleistung der gesamten Siedlungsgemeinschaft konnte dieses für die Jungsteinzeit bislang singuläre Bauvorhaben verwirklicht werden.

Die ersten Tempel Über 1000 Jahre älter sind die monumentalen Steinkreisanlagen des Göbekli Tepe, deren erste Errichtung weit ins zehnte Jahrtausend v. Chr. zurückreicht. Der in Obermesopotamien, nahe der südostanatolischen Stadt Şanlıurfa gelegene Hügel (Tell) erstreckt sich in einem Durchmesser von 300 Metern auf einem 750 Meter hohen kargen Bergrücken. Die durch den leider früh

  Vom Jäger und Sammler zum Bewohner von Städten 

181

verstorbenen Ausgrabungsleiter und Prähistoriker Klaus Schmidt und das Deutsche Archäologische Institut seit Mitte der 1990er-Jahren freigelegten Baureste der ältesten Schicht III werden dem Präkeramischen Neolithikum A und dem Beginn der Neolithisierung in dieser Region zugeschrieben. Vier von insgesamt zwanzig durch Georadar nachgewiesenen monumentalen Steinkreisanlagen mit einem Durchmesser zwischen zehn und dreißig Metern wurden bislang untersucht (Abb. 1). Hauptkennmerkmal dieser Baukonstruktionen sind T-förmige, aus Kalkstein gefertigte monolithische Pfeiler, die durch Feldsteinmauern verbunden sind. Vorgelagerte steinerne Bänke mögen als Sitzplätze gedient haben. Im Zentrum der Räume erheben sich jeweils zwei sich gegenüberstehende, besonders große und reich verzierte T-Pfeiler von bis zu fünf Metern Höhe, denen eine rein symbolische Funktion zugeschrieben wird (Abb. 2a). Schmidt deutete die Pfeiler als hochstilisierte menschengestaltige Wesen, deren angewinkelte Arme und Hände im Relief zu erkennen sind (Abb. 2b). Die nach innen blickenden „Pfeilerwesen“ des Mauerrings scheinen mit den beiden Hauptpfeilerfiguren ein figuratives Ensemble zu bilden. Flachreliefs mit Darstellungen von Feliden, Stieren, Füchsen, Wildschweinen, Gazellen, Geiern, Kranichen, Schlangen und Skorpionen gehören neben unbekannten abstrakten Piktogrammen zum

Abb. 1  Das Hauptgrabungsgebiet in Göbekli Tepe. (Foto: Nico Becker, Deutsches Archäologisches Institut)

182 

J. Bretschneider

Abb. 2  a Der Pfeiler 43 in der Anlage D. (Foto: Nico Becker, Deutsches Archäologisches Institut). b Der Pfeiler 18 zeigt eine anthropomorphe Gestalt mit Händen und Lendenschurz. (Foto: Nico Becker, Deutsches Archäologisches Institut)

Bildrepertoire auf den Pfeilern, von denen mehr als 200 im Gesamtbefund zu erwarten sind. Die Monumentalität der Anlagen mit ihren symbolgeladenen Darstellungen und auch das Fehlen von Siedlungsbefunden sprechen dafür, dass die Göbekli-Bauten ausschließlich kultisch-religiös genutzt wurden. Wer waren die Baumeister und Schöpfer dieses gigantischen Bergheiligtums an der Schwelle zur Neolithisierung in Obermesopotamien? „Dem Göbekli-­Tepe liegt eine komplexe gesellschaftliche Organisationsform von Jägern- und Sammlergesellschaften zugrunde“ vermutete Schmidt. Diese Gesellschaften wollten gemeinschaftlich die reichen Wildgetreidevorkommen in den fruchtbaren Gebieten Obermesopotamiens vor den grasenden Gazellenherden schützen. Nicht weit vom Göbekli-Tepe, im Gebiet des KaracadağBerges, wurde auch der Ursprung des Kulturgetreides lokalisiert. Vom Schutz bevorzugter Wildformen über das selektive Ernten besonders ertragreicher Pflanzen bis hin zu ihrer Kultivierung war es ein kleiner Schritt. Nur vor dem Hintergrund einer begünstigten Versorgungslage mit großen Mengen an jagdbarem Wild und Wildgetreide kann das gigantische Bauvorhaben auf dem kargen und wasserlosen Bergplateau des Göbekli erklärt werden.

  Vom Jäger und Sammler zum Bewohner von Städten 

183

Die große Zahl an Tierknochen in den Verfüllschichten der Rundbauten werden als Speisereste von ausgedehnten Festveranstaltungen gedeutet. Herstellung, Transport und Aufstellung der bis zu zehn Tonnen schweren Pfeiler konnten nur gemeinschaftlich und durch Spezialisten ausgeführt werden, deren Koordination vielleicht in der Hand eines Mannes oder weniger Männer lag. Schmidt sprach hier von der Machtelite der jägerischen Gesellschaft des Göbekli Tepe. Das Herausarbeiten der monolithischen T-Pfeiler aus dem Felsgestein mit den Werkzeugen der Steinzeit wird viele Arbeitskräfte über einen längeren Zeitraum gebunden haben, deren Versorgung gewährleistet werden musste. Der Ausgräber Klaus Schmidt vermutete „selbstständig agierende Gruppen“ mit gleichartiger kultureller Prägung aus einem Einzugsbereich von ca. 200 Kilometern, die hier als Kultgemeinschaft zusammenkamen. Gemeinschaftsgebäude, „Heiligtümer“, T-Pfeiler und ein vergleichbares Bildrepertoire sind unter anderem aus den vorkeramischen Wohnsiedlungen von Çayönü, Nevalı Çori, Tell Abr, Mureybet, Jerf el-Ahmar, Tell Qaramel und anderen Fundorten bekannt, wobei die Monumentalität der T-Kopf-­ Pfeiler auf dem Göbekli-Tepe unübertroffen bleibt. „Die Vorgänge um den Göbekli Tepe gründen also auf kollektiven Zusammenhängen (konzentrierter Menschenmengen) in der Region“, resümierte Schmidt, die kurzfristig und in beträchtlichem Umfang zur Neolithisierung Obermesopotamiens führen sollten. Er widerspricht damit der gängigen, einst von Robert Braidwood postulierten Forschungsmeinung von einem langsamen Erwerb landwirtschaftlicher Erkenntnisse, die zum Entstehen der ersten dörflichen Landbaugemeinschaften am nördlichen und nordwestlichen Rand des Zweistromlandes führten. In der altsumerischen Mythologie wird die Erfindung von Landbau, Viehzucht und Webkunst auf dem Du-ku-Berg lokalisiert. Die dort beheimateten, noch nicht namentlich differenzierten uralten Anuna-Götter brachten verschiedene Autoren mit den „Pfeilerwesen“ des Göbekli Tepe in Verbindung, und es wurde die Frage gestellt, in wie weit das kulturelle Gedächtnis Sumers zum „Götterberg“ des Göbekli zurückreichen könnte. Mehr als 1500 Jahre bleibt die heilige Stätte das Zentrum des „Pfeilerwesen-Kultes“, bis sie in ihrem jüngsten Bauzustand der Schicht II zu Beginn des achten Jahrtausends v. Chr. aufgegeben und zugeschüttet, quasi bestattet wurde. Es ist das bewusst herbeigeführte Ende einer, bis weit in die jüngere Altsteinzeit zurückreichenden Ära, ihrer „Götter“ und Symbole, die mit dem Göbekli-Tepe ihren bislang bekanntesten, großartigsten Abschluss finden sollte. „Der Jäger hatte an Bedeutung verloren, und als seine Bedeutung schwand, schwand auch die Bedeutung seiner religiösen Riten und Zwänge, und mit ihnen verschwanden auch seine Kultanlagen. Als die wirtschaftlichen Grundlagen sich damals wandelten, sank auch der weltanschauliche Überbau in den Staub. Die Feuer

184 

J. Bretschneider

der Jäger, die so lange um das Heiligtum gebrannt hatten, waren für immer erloschen“ (Schmidt 2006). Mit der fortschreitenden Subsistenzwirtschaft verliert sich die Großartigkeit der paläolithischen Symbolwelt. Es sollte noch Jahrtausende dauern, bis Kult und Religiosität wieder in monumentalen Baumanifestationen für uns sichtbar werden.

Die erste Göttin Spätestens zu Beginn des keramischen Neolithiums (nach ca.7000 v. Chr.) ist die Subsistenzwirtschaft mit der Domestikation von Pflanzen und Tieren im Gebiet des Fruchtbaren Halbmondes und den angrenzenden Regionen allgemein verbreitet. Zu den außergewöhnlichsten Fundstellen dieser Zeit gehört die in der Konya-Ebene Zentralanatoliens gelegenen Siedlung von Çatalhöyük, die seit ihrer Entdeckung 1958 unser Verständnis von der Entwicklung prähistorischer sedentärer Gemeinschaften maßgeblich geprägt hat. Über 200 Häuser, etwa fünf Prozent der geschätzten Gesamtbesiedlung, wurden in 18 übereinanderliegenden Bauschichten des östlichen Hügels untersucht, die eine kontinuierliche Besiedlung zwischen etwa 7400 bis 6200 v. Chr. widerspiegeln. Nach Aufgabe des Ortes findet sich eine Nachfolgebesiedlung der Kupfersteinzeit in Çatalhöyük West, die bis etwa 5200 v. Chr. andauerte. Die kaum in ihrer Grundform variierenden rechteckigen, dicht aneinander gebauten Lehmziegelhäuser mit ihren Flachdächern erinnern an den Baustil der Pueblos. Mit mehr als 13 Hektar übertrifft die Großsiedlung von Çatalhöyük das präkeramische Jericho um ein Vielfaches, sollte jedoch nach unserem Verständnis immer noch nicht als Stadt angesprochen werden. Die Schätzungen der Einwohnerzahl von Çatalhöyük schwanken zwischen 2500 und 10.000, wobei der niedrigere Wert wahrscheinlicher ist. Sondergebäude in Form von Heiligtümern und gemeinschaftlichen Speichergebäuden, wie zum Beispiel in Çayönü und Nevalı Çori schon für das vorangegangene vorkeramische Neolithikum belegt, konnten bislang nicht nachgewiesen werden. Das reiche rituelle Leben der Bewohner von Çatalhöyük manifestiert sich in den spektakulären Wandmalereien- und Reliefs, die häufig in übereinanderliegenden Malschichten die Innenräume der Häuser bedeckten. Ein Großteil des Bildrepertoires umfasst neben komplexen geometrischen Motiven viele figürliche Kompositionen, die häufig Jagdszenen zeigen. Die Malerei des alles dominierenden, überdimensionalen roten Wildstieres besticht durch ihre Bilddynamik: Farbig skizzierte Jäger und Tänzer in Leopardenfellen umkreisen das erlegte Tier. Unter dem Stier ist die steatopyge (griechisch: stéar ‚fett‘; pygē

  Vom Jäger und Sammler zum Bewohner von Städten 

185

‚Gesäß‘) Frau des uralten „Venusfigurine-Typs“ mit ihrem kleineren Begleiter auszumachen, die auch in rundplastischer Form häufiger im Siedlungskontext von Çatalhöyük belegt ist. Aus einem Getreidebehälter stammt vielleicht das bislang älteste, als Göttin zu identifizierende Rundbild der Menschheitsgeschichte, das wohl nicht zu Unrecht so manche Matriarchatstheorie beflügelt hat. Nackt und voluminös zwischen zwei Feliden  – wahrscheinlich Leoparden  – sitzend, gebärt sie ein Kind, dessen Kopf zwischen ihren Schenkeln sichtbar ist. Symmetrie und Synergie zwischen Wildkatze und üppiger „Venusfrau“ waren so vorher noch nicht bekannt. Dominierend liegen ihre Hände auf den Köpfen der Tiere, die wiederum ihren Schweif kontrollierend auf die Schulter der Frau gelegt haben. Von nun an hat die Fruchtbarkeit und Leben verkörpernde Göttin auf ihrem attributiven Tier in der Ikonografie des Alten Orients ihren Platz gefunden. Auffallend auch, dass das Motiv der Frau im Bildrepertoire der Wildbeuter vom Göbekli Tepe fast gänzlich unbekannt ist und erst mit der entwickelten bäuerlichen Lebensform eine Renaissance erlebt. Übermodellierte Stierschädel und -hörner in den Häusern von Çatalhöyük repräsentieren wohl das männliche Prinzip. Die Lebensweise und ihre Grundlagen haben sich im fortschreitenden Neolithikum verändert und mit ihnen vermutlich auch der Focus der Religiosität. Doch immer noch wurden die Toten unter Podesten und Fußböden der Wohnhäuser bestattet und manchmal ihre Schädel gesondert behandelt. Einzigartig sind die Wandbilder stilisierter Geier, die über kopflosen Körpern schweben und wahrscheinlich die Entfleischung auserwählter Verstorbener symbolisieren. Eine gesellschaftliche Elite und Hierarchisierung der Gemeinschaft ist bislang im archäologischen Befund von Çatalhöyük nicht zu belegen. Skelettuntersuchungen machten zudem deutlich, dass Männer und Frauen die gleiche Nahrung zu sich nahmen und eine Lebenserwartung von ca. 30 bis 34 Jahren hatten.

Eridu – eine erste städtische Hochkultur Vor der Kulisse einer fortschreitenden Entwicklung der bäuerlichen Lebensform in Verbindung mit einem überregionalen Güteraustausch lassen sich nun frühe Ackerbaukulturen mit ihrer namengebenden Buntkeramik (Hassuna-, Samarra-, Halaf-, Obed-Kulturen) im gesamten Gebiet Mesopotamiens nachweisen. Durch ausgeklügelte Bewässerungstechniken und vor dem Hintergrund eines sinkenden Wasserstandes im persisch-arabischen Golf konnte nun auch die fruchtbare Alluvialebene ganz im Süden des Landes genutzt werden. Die

186 

J. Bretschneider

der Frühen Obed-Kultur des sechsten und fünften Jahrtausends v. Chr. zugeschriebenen Siedlungen von Tell el-Uweili und Eridu stehen am Anfang einer kulturellen Entwicklung, die sich in der Späten Obed-Zeit bis nach Obermesopotamien ausdehnen wird. Großfamilien wohnen in den für diese Periode charakteristischen vielräumigen Mittelsaalhäusern, die sich wie in Tell Abada bis über 200 Quadratmetern ausdehnen und eine zunehmende soziale Hierarchisierung anzeigen. Frühe Sakralbauten dieser Bautypologie sind sowohl für Tepe Gaura (Schicht XIII) für die Mitte des fünften Jahrtausends v. Chr. als auch für das südmesopotamische Eridu belegt. Die kontinuierliche Erneuerung und Erweiterung der Eridu-Tempel auf einem durch Planierung anwachsenden Terrassenniveau steht baugeschichtlich am Anfang einer Entwicklung, die zu den sumerischen Tempeltürmen führen wird, den Zikkurats. Als zentraler Kultplatz des sumerischen Gottes Enki, des Gottes des (Süß-) Wassers und der Weisheit, kommt der etwa zwanzig Hektar großen Siedlung in der sumerischen Mythologie eine herausragende Rolle zu. Nach der sumerischen Königsliste war es hier, wo „das Königtum vom Himmel heruntergekommen war, war das Königtum in Eridu“, hier herrschten nun die beiden ersten vorsintflutlichen, mythischen Könige Alulim und Alalgar über die Stadt. Eridu steht am Anfang einer Entwicklung, die mit der Uruk-Kultur des vierten Jahrtausends v. Chr. ihre erste zivilisatorische und urbane Blüte erreicht und den Übergang von der Vorgeschichte zur Geschichte markiert. Wer die Träger dieser ersten städtischen Hochkultur waren, wird breit diskutiert. Fragen, wann die Sumerer nach Südmesopotamien einwanderten und welchen Anteil die einheimische Substratbevölkerung an den kulturellen Veränderungen hatte, sind bislang weitestgehend unbeantwortet.

Metropole Uruk Schon in der zweiten Hälfte des vierten Jahrtausends v. Chr. entwickelte sich die südmesopotamische Stadt Uruk zur alles dominierenden Metropole auf einer Fläche von ungefähr ca. 2,5 Quadratkilometern. Monumentale Kult-, Verwaltungs- und Repräsentationsbauten von bislang unbekanntem Ausmaß und architektonischer Symmetrie dominierten die heiligen Bezirke der Liebes- und Kriegsgöttin Inanna und des Himmelsgottes An. Komplexe Verwaltungssysteme und ein weitverzweigter Güteraustausch bedingten die Erfindung der sumerischen Keilschrift, die als Bilderschrift begann und von nun an bis ins erste nachchristliche Jahrhundert in Gebrauch bleiben wird. Das Rollsiegel löst das Stempelsiegel in der Tempelbürokratie ab und entwickelt sich zum vielfältigsten Bildträger in der altorientalischen

  Vom Jäger und Sammler zum Bewohner von Städten 

187

Kunst. Ein wichtiges Motiv zeigen Relief- und Siegelbilder mit dem Großen Mann von Uruk, dem späteren Priesterherrn En, der gnadenlos seine Feinde unterwirft und das mächtigste Tier der Wildnis, den Löwen, bezwingt. Als Sinnbild für eine die Zivilisation beschützende Macht kommt der königlichen Löwenjagd in den altorientalischen Kulturen eine tiefe symbolische und religiöse Bedeutung zu. Das durch die Götter gegebene Königtum, Garant menschlicher und urbaner Ordnung, wird in Uruk erstmals sichtbar. Als Mittler zwischen Göttern und Menschen kommt dem König auch – wie uns die urukäische Bildkunst lehrt – eine kultische Funktion in der Versorgung der Götter in ihren Tempeln zu (Abb. 3).

Abb. 3  Reliefvase aus Uruk. Spiegelbild der sumerischen ‚Weltordnung‘ (teilweise rekonstruiert); (Foto: Albert Hirmer; Irmgard Ernstmeier-Hirmer, Bildarchiv Foto Marburg)

188 

J. Bretschneider

Zu Beginn des dritten Jahrtausends v. Chr. verdoppelt sich die durch eine 9,5 Kilometer lange und sieben Meter hohe Mauer geschützte Stadtfläche von Uruk auf eine Größe von 5,3 Quadratkilometern und bleibt für viele Jahrhunderte die größte Metropole der altorientalischen Welt. Ihr legendärer und vergöttlichter König Gilgamesch, der vielleicht um 2700 v. Chr. lebte, ist auch Held des gleichnamigen Epos. Seine dort geschilderte Suche nach dem ewigen Leben war zwar nicht im physischen Sinne erfolgreich, die Geschichte aber machte ihn für die Menschheit im übertragenden Sinne unsterblich. Weiterführende Literatur findet sich unter [176–189].

Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum Monotheismus Ursprung und Evolution der Religionen Ina Wunn

Evolvieren Religionen? Mit dem Begriff Religion verbinden wir den Glauben an ein übermächtiges Wesen, an heilige Schriften, an Tempel, Kirchen und an Gottesdienste. Uralte fromme Überlieferungen berichten, wie am Beginn der Zeiten eine Gottheit die Welt, das Universum und den Menschen erschuf und sich zuletzt dem Menschen offenbarte, um von ihm verehrt und angebetet zu werden. Soweit der Ursprung der Religionen aus der Sicht der Religionen selbst. Für den Anthropologen, den Archäologen oder den Religionswissenschaftler ist diese Antwort jedoch unbefriedigend. Vielmehr stellt sich hier die berechtigte Frage nach dem historischen Ursprung der Religionen und von Religion überhaupt. In diesem Zusammenhang ist es wichtig zu wissen, ob die vielen Religionen der heutigen und vergangener Zeiten in irgendeiner Weise miteinander verwandt sind, ob sie also auseinander hervorgegangen sind, denn dann müsste es auch eine allererste Religion gegeben haben, aus der alle späteren Formen von Religion abgeleitet werden können. Hier hilft der Blick auf zwei weltweit verbreitete Religionsfamilien weiter: Da sind zunächst die sogenannten abrahamitischen Religionen, also diejenigen Religionen, die sich auf eine mythische Gestalt, den Urvater Abraham, zurückführen. Als historische Person hat dieser Abraham vermutlich niemals I. Wunn (*) Institut für Theologie und Religionswissenschaft, Leibniz Universität, Hannover, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_20

189

190 

I. Wunn

existiert, sondern die Erzählung gehört zu den frommen Überlieferungen, die Judentum, Christentum und Islam eben deshalb miteinander teilen, weil sie einen gemeinsamen Ursprung haben: Das heutige Judentum und das Christentum sind um 70 n. Chr. aus einer älteren Form des Judentums hervorgegangen, und gut 500 Jahre später entstand die dritte der Schwesterreligionen, der Islam, aus gleichen Wurzeln. Diese ältere Form des Judentums, aus denen das heutige Judentum, das Christentum und der Islam hervorgingen, hatte sich in der Abgeschiedenheit der Bergwelt Judas herausgebildet und erhielt zur Zeit des babylonischen Exils (597–539 v. Chr.) und der sich anschließenden Perserherrschaft seine charakteristischen Züge als Schriftreligion, die es bis heute prägen. In dieser Zeit entstand auch die Hoffnung auf einen endzeitlichen Erlöser, den Messias oder auch Mahdi, der im Judentum, Christentum und im Islam eine zentrale Stellung einnimmt. Die indischen Religionen können auf eine noch ältere Geschichte zurückblicken. Um 1500 v. Chr. drangen indoarische Stämme auf den indischen Subkontinent vor und brachten ihre eigene polytheistische Religion mit, in der Göttergestalten wie Indra, Mithra und Varuna eine gewichtige Rolle spielten und in der Opferrituale im Mittelpunkt des kultischen Handelns standen. Man erbat von den Göttern Reichtum, Sieg über die Feinde und ein langes Leben, an dessen Ende den Menschen eine Schattenexistenz in der Unterwelt erwartete. Allerdings spielte das Jenseits in dieser Religion, der Vedischen Religion, keine große Rolle. Was zählte, war das Hier und Jetzt. In dem Maße, in dem man auf dem indischen Subkontinent heimisch wurde, veränderte sich auch die Religion. Waren vorher die Krieger die wichtigste herrschende Schicht, wurden es nun die Brahmanen; jene Priester, die wussten, wie man mit Opfern und Zaubersprüchen die Götter gefügig machen konnte. Wenn nun aber diese Götter gar nicht so mächtig waren und Zaubersprüchen und Opfern gehorchen mussten, lag die Frage nahe, wer dann die entscheidende Macht noch über den Göttern war – und das konnte nur das große, unpersönliche Brahman sein: Die hochphilosophische Religion der Upanischaden war entstanden. Jetzt bildeten sich die für die indischen Religionen so charakteristischen Vorstellungen von einem ganz anderen Schicksal nach dem Tode. Hier ging es nicht mehr um eine Schattenexistenz in der Unterwelt, sondern vielmehr um den ewigen Kreislauf der Wiedergeburten, aus dem sich der Fromme irgendwann befreien zu können hoffte. Es waren genau diese Spekulationen um mögliche Erlösungswege, die für die Entstehung von zwei neuen Schwesterreligionen sorgte: Buddhismus und Jainismus. Aber auch der Hinduismus der Upanischaden veränderte sich weiter und mündete in den Hinduismus der klassischen Zeit mit seinen berühmten religiösen Epen Mahabharata und Ramayana und mit seinen

  Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum … 

191

Gottheiten Vishnu, Shiva und Durga. Erst im Zuge politischer Ereignisse, nämlich der Bildung eines indischen Nationalstaates, wuchsen dann diese unterschiedlichen Religionen wieder zu einer einzigen, nationalen Religion zusammen, dem Hinduismus. Das heißt also: Innerhalb dieser beiden Religionsfamilien sind die Religionen miteinander verwandt, und zwar so, dass sich gemeinsame Abstammungslinien verfolgen lassen. Auch für die alten polytheistischen Religionen Roms, Griechenlands, Indiens und Persiens haben Wissenschaftler Ähnlichkeiten von Götternamen, von Opferpraktiken und Kultformen feststellen können, die belegen, dass auch diese Religionen ursprünglich aus einer gemeinsamen Wurzel hervorgegangen sind. Die heute existierenden und die historischen Religionen können also entsprechend ihrer Abstammung als Stammbaum dargestellt werden – an dessen Beginn dann eine allererste Religion gestanden haben muss. Und die gilt es nun zu rekonstruieren. Wenn es um Religionsentstehung, um den Ursprung von Religion überhaupt geht, muss also nach der ersten Form von Religion gesucht werden, und zwar da, wo sie zum ersten Mal entstanden, also wo sie aus ganz normalem Alltagsverhalten des Menschen hervorgegangen ist.

Die Frage nach dem „Wann“ Die Schnittstelle von religionsrelevantem Alltagsverhalten und beginnender Religion liegt in der zweiten Hälfte des mittleren Paläolithikums (vor 200.000–40.000 Jahren) in einer Zeit, die in Europa kulturell durch den Neandertaler (Homo neanderthalensis) gekennzeichnet ist, in der sich im Nahen Osten jedoch bereits der moderne Mensch (Homo sapiens) den Lebens­ raum mit dem aus dem Norden vordringenden Neandertaler teilte. Wie unsere nächsten Primatenverwandten, die Schimpansen und Gorillas, sind heute und waren auch damals Menschen territorial, d. h. sie beanspruchen ein bestimmtes Territorium, das ihnen die Ressourcen bietet, die sie zum Überleben und zur erfolgreichen Fortpflanzung benötigen. Dies ist gerade für Wildbeuter essenziell, die sowohl auf einen sicheren Unterschlupf als auch auf ein genügend großes Jagdrevier angewiesen sind. Ist ein solches Revier erst einmal besetzt, geht es darum, diesen Besitz zu verteidigen und den Anspruch darauf zu kommunizieren, – und genau diesen Zweck verfolgten die Bestattungen, die vor 90.000 Jahren einsetzen. Der Neandertaler und der zeitgleiche Homo sapiens begnügte sich aber nicht nur mit Bestattungen – vorzugsweise an den Wohnplätzen –, sondern mazerierte (skelettierte) vor allem die Schädel der Toten, um sie dann in seinen Wohnhöhlen oder unter Abris sichtbar zu

192 

I. Wunn

deponieren  – als deutliches Zeichen, dass dieser Platz bereits als besetzt zu gelten und für konkurrierende Wildbeutergruppen tabu zu sein hatte. Vor etwa 40.000 Jahren genügten die Bestattungen nicht mehr, um territoriale Ansprüche geltend zu machen. Nun bediente man sich zusätzlicher und womöglich weit effektiverer Signale, um möglichen Eindringlingen zu signalisieren, dass sie hier und an dieser Stelle nicht erwünscht waren: Man malte auf die Wände der Wohnhöhlen und Felsvorsprünge solche Bilder, die geeignet waren, mögliche Eindringlinge in die Flucht zu schlagen. Dazu gehörte in erster Linie die abwehrend und zurückweisend vorgestreckte Hand, wie wir sie heute noch von Stoppschildern und Baustellenzeichen kennen. Die Aussage ist klar: „Zurück! Betreten verboten! Hier nicht weiter!“ Sollte jemand die Aufforderung nicht verstehen, wurde sehr klar gemacht, was ihm drohte, nämlich nicht weniger als eine bestrafende Vergewaltigung. Genau das sagen nämlich die ithyphallischen (griechisch ithus, „aufrecht“) Chimären (Abb. 1) und die Vulvenzeichen aus, die sich auf den Wänden jungpaläolithischer Bilderhöhlen finden. Und damit nicht genug: Um den Eindruck von Wildheit und Gefahr zu verstärken, wurden die Chimären zusätzlich mit Klauen und Hörnern verziert, oder aber die wilden und gefährlichen Tiere wurden gleich selbst abgebildet. Die gleichen Motive und die gleichen Praktiken findet man übrigens noch heute, und zwar auf den Hauswänden und Türstöcken von Behausungen im ländlichen Indien, Afrika – oder in Gestalt von Graffiti in amerikanischen Slums, wo sie ebenfalls territoriale Ansprüche signalisieren! Aber man will den möglichen Eindringling, Konkurrenten oder Feind nicht nur bedrohen, sondern ihn gleichzeitig besänftigen und beschwichtigen, und was ist dazu mehr geeignet als das Abbild einer üppigen Frauenbrust und eines einladend vorgestreckten Steißes? Genau dieses ethologische Signal nutzen die Frauenfigurinen des Jungpaläolithikums, deren bekannteste die Venus von Willendorf mit ihren riesigen Brüsten, breiten Hüften und ausgeprägter Scham ist. Dass hier ganz auf Signalwirkung gesetzt wird, macht jedoch vor allem die älteste bekannte Venusfigur vom Hohlen Fels/ Schelklingen deutlich (Abb. 2), bei der die Spreizhaltung der Beine verdeut­ licht, dass hier beschwichtigendes Brustweisen und drohendes Schampräsentieren in einer Figur effektiv kombiniert wurde. Die Frauenfigurinen, die als Schutzfiguren in den Boden gesteckt oder als Amulett getragen wurden, waren so erfolgreich, dass sie sich sofort durchsetzten, dabei jedoch im Laufe der Jahrhunderte eine charakteristische Veränderung durchmachten: Schon bald finden sich solche auf bloße Brüste, Steiße oder gespreizte Beine reduzierten Amulette überall im europäischen Jungpaläolithikum. Mehr ­ noch: Sie konnten erfolgreich in das Gebiet des sogenannten Fruchtbaren Halbmondes im Nahen Osten vordringen. Hier fand sich im Epipaläolithikum

  Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum … 

193

Abb. 1  Ithyphallische Chimären aus paläolithischen Bilderhöhlen. (Zeichnung: Karolina­ Rupik)

(vor 20.000–10.000 Jahren) eine vollständige Halskette, nur aus schützenden Frauenbrüsten bestehend!

Die weitere Entwicklung Mit den Bestattungen einschließlich der zugehörigen Schädeldeponierungen und den apotropäischen (griechisch apotropaios, „abwehrend“) Frauenfiguren standen dann, zu Beginn des Neolithikums, diejenigen Symbole zur Verfügung, auf denen Religion aufbauen, an denen sie sich festmachen ließ. Dabei ging die Vorstellung der wirkmächtig schützenden Frauenfigur ganz offen­ sichtlich mit den Bestattungen eine enge und sinnstiftende Verbindung ein, denn beide hatten ja ursprünglich dazu gedient, ein Territorium zu sichern,

194 

I. Wunn

Abb. 2  Die Venus vom Hohle Fels, ca. 40.000 vor heute. (Foto: Hilde Jensen, Eberhard-­ Karls-­Universität Tübingen)

und sich dabei als so erfolgreich erwiesen, dass diese Schutzfunktion sowohl den Toten als auch der Frauenfigur unterstellt wurde. Am wirkmächtigsten waren sie, wenn sie in eine inhaltliche Verbindung gebracht wurden. Wie genau diese Verbindung ausgesehen hat, entzieht sich unserer Kenntnis und lässt sich höchstens sekundär mithilfe von völkerkundlichen und religions­ historischen Vergleichen erschließen. Archäologisch belegt ist jedoch, dass das schampräsentierende Weibchen in der ersten Hälfte des Neolithikums (seit etwa 8000 Jahren) zusammen mit Bestattungen zu finden ist  – und zwar innerhalb der Wohnhäuser unterhalb der Fußböden. Eindrucksvoll belegt und über Fachkreise hinaus bekannt geworden sind in diesem Zusammenhang die Funde von Çatalhöyük in Anatolien, wo das schampräsentierende Weibchen als großes Relief die Innenwände der Häuser zierte, aber auch in Lepenski Vir, Serbien (Abb. 3), wo schamweisende Figurinen direkt auf den Grabstätten der Verstorbenen standen. Aber auch die Bestattungen selbst hatten nun, mit beginnender Sesshaftigkeit und produzierender Wirtschaftsweise, ihren Charakter verändert: Bestattet wurde nun zweistufig. In einem ersten Schritt setzte man den Verstorbenen an einem geschütz­ ten Platz aus, bis alle Weichteile verwest waren, und dann begrub man die Überreste endgültig im Rahmen einer aufwändigen Zeremonie, während das Abbild des Verstorbenen in Gestalt einer Figur oder größeren Plastik aufgestellt wurde. In einigen Fällen, so im neolithischen Jericho, bearbeitete man den Schädel des Toten und rekonstruierte die Gesichtszüge mit Lehm (Abb.  4, siehe auch den Beitrag von Joachim Bretschneider). Diese Form des Begräbnisses, das sich über Monate hinziehen konnte, verdeutlicht, dass

  Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum … 

195

Abb. 3  Schampräsentierendes Weibchen aus Lepenski Vir

Abb. 4  Schädelskultur aus Jericho. (Foto: Ina Wunn)

nun der Tod als Transformations- und Übergangsstadium verstanden wurde. Während die Weichteile des Toten verwesten, befand sich seine Seele auf dem Weg in eine jenseitige Welt. Dieser Weg galt als gefährlich und musste daher mit Ritualen begleitet werden, um zu gelingen. Hatte der Tote seinen Platz in der Unterwelt gefunden (meist unter dem Fußboden der Wohnhäuser),

196 

I. Wunn

gehörte der Tote zu den wirkmächtigen Unterirdischen, über die wahrscheinlich eine Frauengestalt, eine sogenannte Urmutter, herrschte  – eben jenes bereits aus dem Jungpaläolithikum bekannte schampräsentierende Weibchen. Alles dies erschließt sich selbstverständlich nicht aus den archäologischen Befunden allein, sondern kann ergänzend durch völkerkundliche Vergleiche und über die Inhalte alter Mythen erschlossen werden. Aber eines macht der archäologische Befund deutlich: Zwar spielten überall im Neolithikum der Tod und die Urmutter eine große Rolle, aber im Einzelnen entwickelten sich diese Religionen ganz unterschiedlich. Während in Südosteuropa ein regelrechter Hauskult entstand, in dessen Rahmen kleine Ahnenfigürchen im Hause selbst verehrt wurden, machte sich in Mitteleuropa eine ganz neue Religion breit, in deren Zentrum sogenannte Ringheiligtümer standen. Auch hier wurden die Ahnen verehrt, aber man brachte sie mit den Jahreszeiten, den Gestirnen und vor allem mit wichtigen kalendarischen Daten in Zusammenhang, die zur Bestimmung landwirtschaftlich wichtiger Termine essenziell waren. Hier sieht man zum ersten Mal sinnfällig, wie der Lauf der Gestirne und der Himmel in das religiöse Weltbild integriert werden. Die übermächtigen Unterirdischen, die für Gedeih von Feld und Vieh zuständig waren, wurden nun auch mit dem Wettergeschehen und Gestirnen in Verbin­ dung gebracht. Damit waren die Grundlagen für die späteren Wetter- und Himmelsgottheiten vom Schlage eines Jupiter, Zeus und Thor gelegt. Zunächst aber gab es noch keine Gottheiten, sondern nur die Toten in der Unterwelt und die Urmutter als große weibliche Gottheit. Allerdings waren längst nicht mehr alle Toten gleich. In einer Zeit, in der kriegerische Ausei­ nandersetzungen zunahmen und die Gesellschaft sich differenzierte, betrat ein neuer Typus die Bühne: der jugendliche Held! Er führte ein kriegerisches Dasein, glänzte durch herausragende Taten und starb einen heldenhaften Tod. Nach seiner rituellen Überführung in die Unterwelt behielt er auch dort seine herausragende Stellung bei und wurde entsprechend verehrt: die erste chthonische (griechisch chthonios, „der Erde zugehörig“) Gottheit war entstanden. Auch in späterer Zeit im antiken Griechenland lässt sich bei Göttern wie zum Beispiel Dionysos ihr chthonischer Ursprung leicht zurückverfolgen. Nach und nach, im Laufe der Jahrhunderte, hatte jedes Dorf, jede größere Siedlung neben den privat verehrten Toten seinen eigenen gottähnlichen Helden, der als die persönliche Schutzgottheit des Ortes fungierte. Auch aus der Urmutter waren inzwischen weibliche Gottheiten hervorgegangen, die ebenfalls einem Ort oder einer Stadt heilig waren. Während diese frühen Gott­ heiten in Europa im Freien, in Heiligen Hainen, an Quellen und auf Bergen wohnend gedacht wurden, war die Religionsentwicklung im Nahen Osten einen anderen Weg gegangen.

  Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum … 

197

Die Götter Mesopotamiens und der Levante Hier hatte man schon früh angefangen, kollektiv zu bestatten, d. h. die Toten wurden nicht, wie in Anatolien und Europa, im Hausinneren begraben, sondern man errichtete ihnen regelrechte Beinhäuser, die die Verstorbenen einer ganzen Ortschaft aufnahmen. Erste Ansätze zu einem solchen Brauchtum hatten sich bereits im neolithischen Jericho gezeigt, wo große plastische Menschenbildnisse zunächst in öffentlichen Schreinen deponiert und erst später beerdigt worden waren. Im südostanatolischen Çayönü gab es dann bereits Sondergebäude für kollektive Bestattungen, und auch im Osten des Fruchtbaren Halbmondes fanden sich Gebäude für kollektive Begräbnisse, aus denen dann nach und nach die Tempel mit ihren jeweiligen Schutzgott­ heiten hervorgingen (zum Beispiel B. Tepe Gaura, Irak). Noch heute kann man in den alten Kosmogonien die Vorstellungen aus damaliger Zeit nachverfolgen: Vater- und Muttergötter lebten in einer Urstadt auf den heiligen Hügeln, wo sie den Himmelsgott und den Stadtgott hervorbrachten. Aller­ dings waren zunächst sowohl die Götter als auch ihr Mythos noch von Stadt zu Stadt unterschiedlich. Erst als sich im dritten vorchristlichen Jahrtausend größere politische Einheiten bildeten und mächtige Stadtstaaten entstanden, wurden die einzelnen Stadtgottheiten zu einem polytheistischen Pantheon zusammengefasst und die verschiedenen Mythen zu einem Reichsmythos verwoben. In diesen Mythologien spiegelt sich die jeweilige Religionsgeschichte insofern, als hier von Götterkriegen berichtet wird, in deren Verlauf eine ältere Göttergeneration durch eine jüngere, kriegerische Generation abgelöst und entmachtet wurde. Während diese polytheistischen Religionen in den Staaten des Vorderen Orients aufblühten, prächtige Tempel erbaut wurden und der Kult der Gott­ heiten im politischen und im öffentlichen Leben eine zentrale Stellung einnahm, verlief die Entwicklung in einem kleinen Bergland an der Peripherie der damaligen großen Welt entscheidend anders: Die Rede ist von Juda mit seiner Hauptstadt Jerusalem. Hier hatte sich um etwa 1000 v. Chr. eine erste politische Einheit bilden können, die aber erst nennenswerte bauliche Spuren hinterließ, als der nördliche Nachbar Israel das kleine Juda unterwarf und kulturell entwickelte. Hinsichtlich der Religion hatten Juda und Israel ähnliche Vorstellungen wie die Nachbarn: Man verehrte seine lokalen Gottheiten in Heiligtümern auf den Höhen. Auch Jerusalem hatte ein solches Höhenheiligtum, auf dem nun, unter der Herrschaft der israelitischen Omriden, ein Tempel entstand. Allerdings war die in diesem Tempel verehrte Gottheit un­sichtbar und wollte nicht, wie für eine Hirtenbevölkerung charakteristisch, im Kultbild dargestellt werden.

198 

I. Wunn

Die politische Entwicklung des erfolgreicheren Israels war beendet, als eine neue Großmacht, das assyrische Großreich, Israel zunächst zum Vasallen machte, dann aber nach einem Aufstand besiegte und seine Bevölkerung verschleppte (722 v. Chr.). Juda, das sich klugerweise rechtzeitig dem Schutz der neuen Großmacht unterstellt hatte, blieb ein solches Schicksal erspart. Stattdessen strömten nun Flüchtlinge aus dem unterworfenen Israel in das kleine Bergland und brachten ihr religiöses Traditionsgut mit. Um diese Zeit wurden die unterschiedlichen Überlieferungen zum ersten Mal zusammengetragen und zu einem großen epischen Gesamttext verbunden. Um die heterogene Bevölkerung auch kultisch zu einigen, wurde das Heiligtum in der Hauptstadt Jerusalem auf Kosten der anderen Höhenheiligtümer gestärkt. Allerdings wählte man nicht, wie in den benachbarten Staaten, den Weg des Zusammenfassens der verschiedenen Gottheiten zu einem polytheistischen Pantheon, sondern man erklärte die unterschiedlichen lokalen Gottheiten für identisch: Auch in den übrigen, nun verlassenen und zurückgebauten Höhenheiligtümern sei immer schon niemand anderes als der unsichtbare Jerusalemer Stadtgott verehrt worden, und dieser Gott wolle nun ausschließlich und exklusiv im Tempel zu Jerusalem angebetet werden. Zwar galt dieser Jerusalemer Gott nicht als der einzig existierende Gott, aber als Schutzgottheit Judas war er der für seine Einwohner relevante und zuständige Gott. Nur er durfte verehrt werden, hatte dafür aber seine uneingeschränkte Hilfe und Unterstützung zugesagt. Unter dem Schutz dieses Gottes florierte Juda, bis es zuletzt vom gleichen Schicksal wie sein nördlicher Bruderstaat ereilt wurde. Nachdem zunächst König Joschija (639 bis 609 v. Chr.), ein strahlender jugendlicher König, in seinem kleinen Bergland erfolgreich herrschen und dessen Grenzen sogar ausdehnen konnte, geriet er zuletzt zwischen die Fronten der damaligen rivalisierenden Großmächte Assur, Ägypten und Babylon und wurde in Megiddo ermordet. Der Tod dieses jugendlichen Helden aus dem Hause Davids löste ein nationales Trauma aus: Der Ort seines Todes, Megiddo, griechisch Armageddon, gilt seither als der Ort, an dem die Mächte des Guten und des Bösen eines Tages in einer schicksalhaften Endschlacht aufeinandertreffen werden. Am Ende der Zeiten würde ein neuer König aus dem Hause Davids er­scheinen und dann eine dauerhafte, glückliche Herrschaft errichten. Zunächst aber war das kleine Juda von den glücklichen, messianischen Zeiten weit entfernt. Im Gegenteil: Im Jahre 597 v. Chr. eroberte der Baby­ lonier Nebukadnezar II. Jerusalem, zerstörte dessen Tempel und verschleppte einen Teil der Bevölkerung in andere Städte des Babylonischen Reiches. Hier wurden die Exilierten jedoch keineswegs unterdrückt oder diskriminiert, sondern konnten ihre Religion weiterhin frei ausüben; eine Religion freilich,

  Am Anfang war der Tod: Von den steinzeitlichen Frauenidolen zum … 

199

die durch die Zerstörung des für uneinnehmbar gehaltenen Tempels in eine ernste Krise geraten war. Wollte man nicht an der Macht seines Gottes zwei­ feln, mussten die Ereignisse umgedeutet werden. Demnach war der Verlust der Heimat und des Tempels die kollektive Strafe für den Abfall früherer Könige von der Religion der Väter, und folgerichtig lag in ebendieser Religion auch die Hoffnung für eine glückliche Zukunft. Passagen in den Büchern der Propheten, die in Auseinandersetzung mit den politischen Entwicklungen des sechsten Jahrhunderts entstanden, thematisieren diese Hoffnung, die in­zwischen über die reine Wiederherstellung des Staates Juda hinausging und die Züge eines allgemeinen Erlösungsgedankens angenommen hatte. Als die Exilierten nach der Eroberung des Neubabylonischen Reiches durch die Perser in ihre Heimat zurückkehren und den Tempel wieder aufbauen durften, hatten sie eine völlig umgestaltete Religion im Gepäck: eine Religion, deren Schwerpunkt auf den schriftlich fixierten und inzwischen sorgfältig überarbeiteten alten Überlieferungen lag und in deren Zentrum nun ein unsichtbarer Gott stand, der als der einzig existierende Gott galt. Der Monotheismus war entstanden (siehe den Beitrag von Carel van Schaik und Kai Michel)! Der damalige Monotheismus, unter Fachleuten als Second-TempleJudaism bekannt, wurde im Zuge der weiteren politischen und religiösen Entwicklungen zur Mutterreligion der heutigen Weltreligionen Rabbinisches Judentum, Christentum und Islam.

Fazit Religionen sind also zu einem konkreten und nachweisbaren Zeitpunkt entstanden. Ihr Ursprung lag im menschlichen Territorialverhalten: Unsere Vorfahren sicherten ihre Jagdreviere und Wohnplätze mithilfe bekannter und bewährter ethologischer Signale. Daraus entwickelten sich dann zunächst Vorstellungen von wirkmächtigen Toten, aber auch von einer ebenso wirkmächtigen weiblichen Gestalt, die mit den Toten in Verbindung gebracht wurde. Als im Zuge der Neolithisierung einerseits der Ackerbau wichtiger wurde, ande­ rerseits aber auch aggressive Übergriffe auf die Dörfer häufiger wurden, veränderte sich der Charakter dieser frühesten Religionsformen: Einerseits wurde das Wettergeschehen und damit der Himmel in das Weltbild mit einbezogen, andererseits entstanden aus den toten kriegerischen Helden chthonische Götterfiguren, die ihr Dorf oder ihre Siedlung aus der Unterwelt heraus beschützen sollten. Im Zuge erster Reichsbildungen im Orient wurden die verschiedenen lokalen Gottheiten dann meist zu polytheistischen Pantheons zusammengefasst – oder aber, wie das Beispiel Judas zeigt, in einen einzigen

200 

I. Wunn

Gott integriert. Aus diesem Gott entstand dann im Zuge der historischen Entwicklung der monotheistische Gott, der heute im Zentrum von Judentum, Christentum und Islam steht. In anderen Teilen der Welt ging die religiöse Evolution andere Wege: Indien hat seine Vorstellung von vielen existierenden Göttern niemals aufgegeben, in der alten chinesischen Religion wie auch im religiösen Weltbild Japans spielen die Ahnen eine große Rolle, und in den traditionellen Religionen Afrikas sind es bis heute wirkmächtige Verstorbene, die das Schicksal des Menschen lenken. Für den an mehr Details interessierten Leser seien die Publikationen [190–200] empfohlen.

Wie aus Zorn Liebe wird: die Evolution Gottes Monotheismus Carel van Schaik und Kai Michel

Die Gesetze des menschlichen Glaubens Die einen bewundern Religion als von einer göttlichen Macht offenbartes oder zumindest inspiriertes Wissen; die anderen verachten sie als ein Sammelsurium zufällig generierter Überzeugungen, denen es an Rationalität mangelt. Keine der beiden Sichtweisen hilft, Religion zu verstehen. Betrachtet man jedoch Religion als Produkt der kulturellen Evolution (siehe den Beitrag von Winfried Henke), wird sie überraschend einsichtig. Dann zeigt sich, dass es im Wesentlichen zwei Faktoren sind, welche die Richtung religiösen Wandels bestimmen. Erstens sind da unsere angeborenen sozialen Präferenzen für Egalitarismus, denen Ungerechtigkeit ein Dorn im Auge ist. Zweitens spielen jene Veranlagungen eine Rolle, die die Kognitionswissenschaften als cognitive biases identifizieren. Gemeinsam spurt beides den Weg vor, auf dem soziale Gruppen kulturelle Regeln entwickeln, mit denen sie auf veränderte Lebensumstände reagieren. Wie aber konnte auf diese Weise so etwas Außerordentliches wie der jüdisch-christliche Monotheismus entstehen? Die Evolution hat den Menschen, wie auch viele andere Tiere, mit einer Reihe von cognitive biases ausgestattet. Im Deutschen werden sie oft als „kognitive Verzerrungen“ bezeichnet. Das sorgte lange für Erstaunen, weil fehlerhaftes Denken nicht zu unserem Selbstverständnis als rationale Wesen passte.

C. van Schaik · K. Michel (*) Anthropologisches Institut & Museum, Universität Zürich, Zürich, Schweiz © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_21

201

202 

C. van Schaik und K. Michel

Mittlerweile sind sie als sinnvolle Anpassungen an jene Lebensumstände erkannt worden, unter denen sich unsere Evolution während der längsten Zeit vollgezogen hat: Sie sind das Erbe unserer Jäger- und Sammler-­ Vergangenheit. Aber für die radikal veränderten Lebensbedingungen des sesshaften, von Landwirtschaft geprägten Daseins taugen sie nicht mehr recht. Da wir aber erst seit einigen Jahrtausenden so leben, war die Zeit zu knapp, als dass die Selektion die Verzerrungen hätte eliminieren können. Wir werden deshalb hier den neutraleren Begriff der kognitiven Heuristiken verwenden, mittels derer wir versuchen, trotz begrenzten Wissens zu praktikablen Lösungen zu kommen. Einige dieser kognitiven Heuristiken sind noch sehr ausgeprägt bei Kindern zu beobachten oder dort, wo die Menschen in Gesellschaften leben, die noch nicht von den auf der Aufklärung basierten Wissenschaften durchdrungen sind. Wir haben es also mit einer uralten Konfiguration unserer Spezies zu tun, die nicht zuletzt die große Plastizität unseres Denkens offenbart. Einige von ihnen können als das grundlegende biologische Substrat für Religion angesehen werden, während andere dieser Heuristiken für die Veränderungen in den Glaubenssystemen verantwortlich sind, die diese im Laufe der kulturellen Evolution als Reaktion auf veränderte Lebensbedingungen vollzogen haben. Unsere erste Heuristik: Wir sind natürliche Dualisten. Wir neigen dazu, Lebewesen als Körper und Seele anzusehen. Die Seele geht nicht im Tod mit dem Körper unter, sie lebt weiter. Das widerspricht nicht unseren unmittelbaren Erfahrungen, wir nehmen uns selbst durchaus als etwas anderes wahr als unseren Körper. Hört jemand auf zu atmen und stirbt, sieht es so aus, als ob das, was das Leben hervorbringt, den Körper verlassen hat – der Körper ist nur eine Hülle, die aufgegeben werden kann. Entsprechend wird die Seele historisch fast universell mit dem Atem gleichgesetzt. Auch ist sie lebensspendende Kraft, die unsere Absichten und unseren Willen hervorbringt. Es gibt eigentlich keine Alltagserfahrungen, die uns dazu zwingen würden, diesen Glauben aufzugeben. Wir haben außerkörperliche Erfahrungen, und besuchen uns Verstorbene nicht häufig in unseren Träumen? Entsprechend lässt sich der Glaube an das Weiterleben der Seele in der Form der Ahnen oder durch Wiedergeburt in so gut wie allen Kulturen von Ethnologen nachweisen. Unser Dualismus ist eng mit einer zweiten Heuristik verbunden: dem Animismus, der Tendenz, Absichten nicht nur Mitmenschen, sondern auch Tieren, vor allem den größeren und gefährlicheren, und sogar natürlichen Objekten wie Felsen, Flüssen oder dem Meer zuzuschreiben (auch bekannt als theory of mind). In dessen Konsequenz haben wir etwas entwickelt, das in der kognitiven Religionswissenschaft als hyperactive agency detection device

  Wie aus Zorn Liebe wird: die Evolution Gottes 

203

bezeichnet wird: Wir sehen überall Akteure am Werk, selbst dort, wo physikalische Prozesse ablaufen. Der Wind zum Beispiel. Er bläst – und scheint seinen eigenen Willen zu haben: An einem Tag säuselt er leise, erfrischt uns als milde Brise, am nächsten Tag ist er stürmisch, gewalttätig und deckt das Dach unseres Hauses ab. Dem schreiben wir intuitiv persönliche Motive zu, keine thermodynamischen. Dieser Animismus funktionierte in Zeiten, in denen es an hinreichenden Einsichten in die tatsächlichen Wirkzusammenhänge der Welt fehlte. Er war eine taugliche Heuristik, um unsere Erfahrungen über unsere Umwelt zu organisieren und Prognosen anzustellen. Die hypersensible Heuristik zum Aufspüren möglicher Akteure ist überaus adaptiv: Selbst dort, wo wir Akteure am Werk vermuten, obwohl keine vorhanden sind, richtet das wenig bis keinen Schaden an; ignoriert man dagegen einen tatsächlichen Akteur, kann das tödlich sein. Deshalb betrachten wir Ereignisse nicht einfach als stattfindende Geschehnisse, sondern als Handlungen von Akteuren, die bewusste Intentionen verfolgen. Diese psychologische Neigung, die schon Denker wie David Hume oder Forscher wie Jean Piaget beschrieben haben, hat uns sehr geholfen, erlaubt sie es doch, mögliche Ereignisse auf eine vorwissenschaftliche Weise zu prognostizieren. Allerdings bedeutet das eben auch, dass wir Akteure wie Geister oder Ahnen am Werk sehen, die gut oder böse sein können. Es ist unser Dualismus, der dort übersinnliche Akteure ins Spiel bringt, wo wir sonst keine Ursachen entdecken können. Hunderttausende von Jahren lang nahmen wir die Welt so wahr: Es gab keine physikalische Kausalität, alle Kausalität war eine soziale! Wie hätte es auch anders sein können? Wir wussten ja nichts über Mikroben oder Plattentektonik, über Naturgesetze oder biologische Evolution. Wir hatten keine andere Möglichkeit, die in der Umwelt beobachteten Informationen für uns sinnvoll zu verarbeiten, als sie als Abfolgen miteinander verbundener intentionaler Aktionen zu interpretieren. Und wollten wir auf sie einwirken, versuchten wir mit den Ahnen und Geistern zu kommunizieren und sie entsprechend zu beeinflussen. Dazu versetzten wir uns mithilfe von Tanz oder Drogen in Trance oder versicherten uns der Unterstützung von Schamanen. Eine solche Art, die Welt wahrzunehmen, wurde durch unsere teleologische Heuristik erleichtert (auch als Funktionalismus oder Finalismus bezeichnet), der in jedem Organismus oder Objekt einen Zweck sieht. Kinder werden mit dem Vorurteil geboren, dass die Dinge alle zu einem bestimmten Zweck existieren oder dafür gemacht wurden und dass deshalb alles aus bestimmten Gründen geschieht. Auch das ist sinnvoll, weil es uns aufmerksamer unsere Umwelt beobachten lässt. Fehler, die daraus resultieren, bleiben in aller Regel ohne Folgen.

204 

C. van Schaik und K. Michel

Dann, etwa 10.000 Jahre v. Chr., begannen einige unserer Vorfahren, ihre eigene Nahrung zu produzieren, statt sich auf das zu verlassen, was die Natur ihnen von sich aus bot: Sie erfanden die Landwirtschaft. Eine ebenso radikale wie beispiellose Transformation unserer Existenzbedingungen war die Folge. In wenigen Jahrtausenden veränderte sich alles. Naturkatastrophen wurden zu Geißeln der sesshaften Gesellschaften, die nicht mehr einfach fortziehen konnten wie noch die Jäger und Sammler. Überschwemmungen und Dürren führten zu Hungersnöten, die Dörfer waren für Parasiten ein Paradies, von den neu domestizierten Tieren sprangen Krankheitserreger über und entwickelten sich beim Menschen zu Seuchen. Die Menschen wurden nicht mehr so groß, starben jünger; Frauen wurden viel häufiger schwanger, Kinder und Mütter überlebten die Geburt oft nicht. Weil aber die Geburtenraten schneller stiegen als die Sterbeziffern, wuchs die Bevölkerung trotzdem. Später, etwa ab 4000 v. Chr., als sich die Landwirtschaft dank neuer Technologien intensivierte, stieg die Produktion steil an und damit auch die Konkurrenz. Es galt, Grundstücke, Ernten, Geschäfte und Immobilien zu verteidigen. Die Familien sahen sich mit dem Problem der Weitergabe von Privateigentum konfrontiert, was oft zu familiären Konflikten führte. Ungleichheit entstand durch räumliche Produktivitätsunterschiede, aber auch dadurch, dass sich gut bewaffnete lokale Eliten herausbildeten, welche die Gemeinschaft ausbeuteten, sie aber andererseits gegen Eindringlinge verteidigten. Eliten bildeten Allianzen untereinander und bauten Städte, vor allem mittels Sklaven. Dort blühten Anonymität, Krankheiten und Kriminalität. Gewalt, Ungerechtigkeit und Krieg uferten aus. Die Menschen fühlten sich, als würden sie in einer Welt leben, für die sie nicht gemacht waren. Rund um den Globus finden sich Mythen vom verlorenen Paradies oder dem längst untergegangenen Goldenen Zeitalter. Um sich all die neuen Probleme zu erklären, konnten die Menschen ja nur auf die Logik der ihnen zur Verfügung stehenden kognitiven Dispositionen zurückgreifen, und die soufflierten ihnen: Die Geister oder die Ahnen hatten die unglücklichen Bauern in die Misere gestürzt – meist, um deren ungebührliches Verhalten zu bestrafen. Hier kommen einige weitere kognitive Prinzipien ins Spiel. Dem Prinzip der Proportionalität entsprechend, müssen große Ereignisse große Ursachen haben (erst die Wissenschaft wird uns aufklären, dass dies in komplexen, nichtlinearen Systemen keineswegs zutreffen muss). Das neue große Unheil bescherte also einigen der Geister und Ahnen einen gewaltigen Machtzuwachs. Diese Deutung war umso plausibler, weil sie bestens mit einer weiteren kognitiven Heuristik harmonierte: dem Widerspiegelungsprinzip, dem zufolge die Vorstellungen, die sich Menschen von der göttlichen Sphäre

  Wie aus Zorn Liebe wird: die Evolution Gottes 

205

machen, den Verhältnissen der irdischen Sphäre entsprechen – im Himmel wie auf Erden. Je mehr die Ungleichheit unter den Menschen wuchs, desto mehr tat sie das auch bei den übernatürlichen Agenten. Einige mauserten sich zu Göttern, und von ihnen wiederum wurden einige größer als andere. Diese Entwicklung kennzeichnete Religionen überall dort, wo sich die Gesellschaften unter dem Einfluss der produktiven Landwirtschaft zu hierarchisieren begannen. Damit war die Religion im heutigen Sinne entstanden. Sie war zu großen Teilen ein vorwissenschaftliches Erklärungsmodell der Welt, das den Eindruck von Kontrolle und Vorhersagbarkeit vermittelte. Als die ersten Staaten entstanden, legitimierten die Herrscher ihre Macht damit, dass ihre Regentschaft auf dem Willen der Götter beruhe. Auch das war ein Produkt der bisher beschriebenen Prozesse: Denn das Glück der Menschen verdankte sich ebenso den Göttern wie das Unglück. Also mussten im Kampf erfolgreiche Helden in der Gunst der Götter stehen. Die sie schützenden Götter konnten ihre Vorfahren sein (und legitimierten damit die Erblichkeit der Macht), oder die Herrscher erfreuten sich einer besonderen Verbindung zu den großen Göttern und regierten mit deren Segen. Das schreckte potenzielle Herausforderer ab. Diese Götter waren ja real genug. Sie lebten in den ihnen errichteten Statuen und konnten sogar direkt in Kriege eingreifen. Die Despoten mussten stets penibel darauf achten, ihre göttliche Unterstützung nicht zu verlieren. Als ihre Reiche wuchsen und die Einsätze höher wurden, bauten die Herrscher deshalb immer größere Tempel und brachten immer gewaltigere Opfer (einschließlich der kostspieligsten Opfergaben, die möglich waren: Menschenleben). Schließlich benötigen mächtige Akteure große Geschenke als Gegenleistung für ihre Unterstützung. Das ist das Grundgesetz aller menschlichen Kooperation: Leistung und Gegenleistung müssen sich stets im Gleichgewicht befinden, quantitativ wie qualitativ.

Entstehung des Monotheismus Der Monotheismus mag als der unvermeidliche Höhepunkt des Widerspiegelungsprinzips erscheinen. Wenn ein Akteur so mächtig wird, dass er als absoluter Despot regiert, verschwinden alle Partikulargewalten im Hintergrund. Über eine Zeit der Monolatrie (griechisch: mónos einzig, latreia Gottesdienst), in der die Existenz anderer Geister und Götter akzeptiert, aber diese für mehr oder weniger bedeutungslos gehandelt wurden, avancierte aus dem größten Gott des Pantheons mit der Zeit der Eine und Einzige. Das geschah jedoch nicht in den großen Imperien, dazu besaß kaum eine Herrschaftsdynastie die

206 

C. van Schaik und K. Michel

nötige Dauerhaftigkeit. Könige waren Anführer von fraktionierten und potenziell instabilen Adelsallianzen, die mit einer ähnlich fraktionierten göttlichen Entsprechung einhergingen. Versuche, die Macht in Händen eines Gottes zu zentralisieren, waren selten von Dauer. Auch hier ist das Widerspieglungsprinzip am Werk. In einem Fall wissen wir, dass der Herrscher es versuchte, seinen irdischen Absolutismus durch einen göttlichen Absolutismus zu zementieren: Echnaton, ein ägyptischer Pharao, der im 14. Jahrhundert vor Christus regierte, erklärte sich zum Repräsentanten des einzigen Gottes Aton, der Sonnenscheibe, und versuchte alle anderen Götter zurückzudrängen. Doch unmittelbar nach seinem Tod wurden die alten Kulte wieder in ihr Recht eingesetzt. Dafür sorgte vor allem deren Priesterschaft. Die einfache Bevölkerung, die viele traditionelle Überzeugungen praktizierte, einschließlich der Ahnenverehrung, hatte ohnehin weiter an ihren alten Überzeugungen festgehalten. Das ist ein Phänomen, das wir genauso in der Bibel sehen: Die Durchsetzung des Monotheismus stößt auf massive Widerstände. Die Geschichte vom Tanz ums goldene Kalb ist nur das prominenteste Beispiel für antimonotheistische Proteste. Das Problem mit dem Monotheismus ist, dass er für die menschliche Natur zu abstrakt und philosophisch ist. Es erscheint kontraintuitiv, dass alle Geschehnisse der Welt, ob gut oder böse, auf einen einzigen Akteur zurückzuführen seien, widerspricht dies doch unseren kognitiven Heuristiken. Um Monotheismus zu etablieren, braucht es also große Macht und subtile Strategien, ihn glaubwürdig zu machen: Wunder zum Beispiel sind ein probates Mittel, ein widerstrebendes Publikum zu überzeugen. Selbst, wenn der Monotheismus etabliert ist und Kinder von klein auf entsprechend sozialisiert werden, wird er nie ganz selbstverständlich sein. Ein potenzieller Ketzer schlummert noch im treuesten Gläubigen. Um eine monotheistische Religion zu etablieren, ist es also nötig, weitere Strategien einzubauen, die die Religion davor schützen, widerlegt zu werden. Solche Immunisierungsstrategien können darin bestehen, Zweifelsbekundungen zu sanktionieren oder Rituale kompliziert zu gestalten: Falls das erwünschte Ergebnis ausbleibt, lässt sich dies durch einen Fehler beim Vollzug der Zeremonien erklären. Deshalb neigen monotheistische Religionen auch dazu, alternative Glaubenssysteme zu verteufeln: Wenn es wirklich nur einen Gott gibt, kann es keine anderen Religionen geben, das können nur Trugbilder des Bösen sein (mit dessen Existenz der Monotheismus aber ein erhebliches logisches Problem hat)! Insofern sind alle Heiden oder Ketzer zu bekämpfen, und dieser Kampf wird zum Beweis der eigenen Glaubenstreue.

  Wie aus Zorn Liebe wird: die Evolution Gottes 

207

Wie aber ist dann der Monotheismus entstanden? Diese Frage wird nach wie vor diskutiert, sicher ist nur: Es war ein seltenes Ereignis, weil es mit den erwähnten Widerständen zu kämpfen hatte. Der historische Kontext spielte dabei eine große Rolle: Als die kleinen Königreiche Israel und Juda im neunten Jahrhundert v. Chr. entstanden, waren sie von mächtigen Imperien umgeben. Entsprechend dienten die benachbarten Vorbilder absoluter Herrscher dazu, das eigene Selbstverständnis zu formen, vor allem auch das des eigenen Staatgottes Jahwe. Bibelwissenschaftler haben überzeugend nachgewiesen, dass etwa die Eifersucht, mit der der Gott der hebräischen Bibel von seinen Anhängern absolute Treue forderte, am Vorbild der assyrischen Könige und ihrer Vasallenverträge formuliert wurde. Ein schönes Beispiel des Widerspiegelungsprinzips. Ein wesentlicher Faktor: Der Monotheismus formierte sich, als das Volk Israel unter Fremdherrschaft stand, also keinen eigenen König mehr besaß. So konnte sein Gott zum alleinigen Hüter und Wächter der Moral erklärt werden. Die Niederlage Israels und die Fremdherrschaft wurden als Strafe Jahwes wegen der Unbotmäßigkeit des Volkes gedeutet. Der Monotheismus verschaffte den Gläubigen einen einzigartigen Schlüssel zum Verständnis der Welt. Da alle Ereignisse auf einen Gott zurückzuführen waren, ließ sich genau beobachten, was diesen zornig machte (bei vielen Göttern war nie klar, wer nun die Verantwortung für dies oder jenes trug). So konnte sein Wille rekonstruiert werden, und wenn man diesem nicht zuwiderhandelte, würde man zukünftig Gottes Strafen entgehen. Es boten sich zwei Möglichkeiten, Gottes Willen zu erkennen. Die erste war introspektiver Natur. Gott, unser Schöpfer, geriet über dieselben Dinge in Rage wie wir. Wo immer er eine Krankheit, eine Katastrophe oder eine Niederlage im Krieg schickte, musste er über etwas erzürnt gewesen sein, das auch uns Menschen nicht richtig erschien. Zum Beispiel über die Praxis mächtiger Männer, Reichtümer anzuhäufen, sich viele Frauen zu nehmen und andere Menschen auszubeuten oder zu versklaven. Das widerspricht den egalitären Prinzipien unserer Natur, wie sie die Natürliche Selektion über Jahrtausende geformt hatte, als unser Überleben davon abhing, dass die Solidarität der Kleingruppen, in denen wir lebten, funktionierte. Also geißelt Gott immer und immer wieder die Luxussucht der Reichen. Der zweite Ansatz war empirischer Natur. Es galt, durch genaue Beobachtung jene menschlichen Praktiken zu identifizieren, die Gottes Empfindungen verletzt haben könnten. Das war ein enormer Rationalitätsschub hin zu systematischer Beobachtung der Umwelt. So stellten die Priester schnell fest, dass Gott homosexuelle Handlungen, Sodomie und Promiskuität nicht zu

208 

C. van Schaik und K. Michel

mögen schien. Sie erkannten eine Korrelation zwischen diesen Praktiken und dem Auftreten sexuell übertragbarer Krankheiten, die Gott in ihrer Wahrnehmung als Strafe geschickt haben musste. Die Zubereitung von Speisen, die Isolierung von Kranken, die Beseitigung von Ausscheidungen, die Tabuisierung von Frauen während der Menstruation, alles wird in der Bibel detailliert gesetzlich geregelt. Auch hinter diesen vorwissenschaftlichen Erklärungsversuchen stecken kognitive Heuristiken. Das teleologische Prinzip lässt uns nach einem Sinn, einem Zweck hinter allem suchen. Aber nicht alle spontanen Erklärungen sind völlig überzeugend. Eine weitere Regel kommt ins Spiel, die als Kohärenzzwang bezeichnet werden kann. Wir sind erst zufrieden, wenn ein Modell auch Antworten auf mögliche Einwände liefert. Und in einem monotheistischen System muss alles genau stimmen, denn göttliche Strafen wie Katastrophen oder Seuchen treffen immer das ganze Kollektiv. Wir optimieren also unsere Erklärungen so lange, bis wir sie logisch kohärent finden und sie uns über alle Zweifel erhaben erscheinen. Sie werden deshalb nicht einfacher – im Gegenteil, wie man anhand der Regeln für Ernährung, Opfer und korrekte Priestergewänder sehen kann. Natürlich schafft eine wissenschaftlich fundierte Weltanschauung, die ohne jeden Rückgriff auf übernatürliche Agenten auskommt, einen effektiveren Rahmen, um die Ereignisse um uns herum zu interpretieren. Aber solange deren Erklärungen noch nicht zur Verfügung standen, mussten andere Heuristiken herhalten, um die Menschen vor den Katastrophen, Kriegen und Krankheiten dieser Welt zu schützen. Andernorts vertrauten die Herrscher auf Priester, die Omen aus den Eingeweiden der Opfertiere, aus dem Vogelflug oder dem Lauf der Sterne gewannen. Dagegen war der Monotheismus durch seine systematische Methode der Beobachtung und Interpretation aller Phänomene von Krankheiten bis hin zu sozialen Ungleichheiten und ihre Projektion auf eine einzige die Natur und Gesellschaft bestimmende Macht effektiver und trug seinen Teil zur Entstehung der Wissenschaft bei. Die moderne Wissenschaft hat Gott als Erklärungsmodell für die empirisch zu beobachtenden Ereignisse der Welt abgelöst. Der Glaube an eine göttliche Macht kann sich nur dort behaupten, wo uns noch sichere Erklärungen fehlen: zum Beispiel für die Zeit nach dem Tod oder vor dem Urknall. Aber die Wissenschaft hat keine Alternative zum ersten intuitiv-introspektiven Ansatz zu bieten: für unsere emotionale Bewertung der Ungerechtigkeit, die wir in einer Gesellschaft, die sich in den letzten 10.000 Jahren bis zur Unkenntlichkeit verändert hat, überall um uns herum sehen. Für diesen moralischen Aspekt bleibt die Religion eine Quelle des Trostes, auch wenn die Glaubensinhalte verändert werden mussten.

  Wie aus Zorn Liebe wird: die Evolution Gottes 

209

Die erstaunliche Karriere des christlichen Gottes Bis jetzt haben wir uns auf die Tora konzentriert, die fünf Bücher Mose. Obwohl sie auf teils älteren Überlieferungen beruhen, wurden diese Texte in der Hauptsache im sechsten und fünften vorchristlichen Jahrhundert niedergeschrieben. Später wurde manches überarbeitet, neue Bücher wurden hinzugefügt, vor allem dann aber durch die Geschichte jenes jüdischen Propheten mit Namen Jesus von Nazareth in den ersten Jahrzehnten der neuen Zeitrechnung ergänzt, die zum christlichen Neuen Testament wurden. Er begründete als Sohn Gottes einen neuen Monotheismus. Dieser kumulative Prozess weist ein markantes Merkmal auf: Kontinuität. Neue Geschichten bauen auf früheren Geschichten auf. Da die Wirklichkeit nur selten den Vorhersagen dieses Erklärungsmodells entsprach, musste es beständig an die Wirklichkeit angepasst werden. Aufgrund einer menschlichen Tendenz, die als confirmation bias bekannt ist, neigen wir dazu, alle Beobachtungen abzuwerten oder sogar zu ignorieren, die nicht zu unseren Erwartungen passen. Stattdessen richten wir unsere ganze Aufmerksamkeit auf alles, was unsere Ansichten bestätigt. Das hat zur Folge, dass wir alte Ideen, wenn sie nicht mehr zu den Tatsachen passen, modifizieren, statt sie aufzugeben und von vorne zu beginnen. Diese Voreingenommenheit ist natürlich nicht auf die Religion beschränkt; sie kann aber das Phänomen erklären, warum kulturelle Regeln oder Werte oft weiterbestehen, obwohl sie Praktiken legitimieren, die längst ihren Nutzen verloren haben. Es ist faszinierend, die schrittweisen Veränderungen der Natur des monotheistischen Gottes durch die Bibel hindurch zu verfolgen. In der Tora bestraft Gott mit „gerechter Vergeltung“ (Max Weber) im Diesseits und ist völlig transparent in seinem Handeln. Alles, was wir tun müssen, ist, seine Vorlieben und Abneigungen zu respektieren, und wir werden von seinem Zorn verschont bleiben und in einem Land leben, in dem Milch und Honig fließen. Aber weil die Erfahrung lehrte, dass auch guten Menschen schlimme Dinge zustießen, kamen die Religionsgelehrten zu dem Schluss, dass Gott negative Dinge nicht als Strafe, sondern als Prüfung schickte, um die Glaubensfestigkeit seiner Anhänger zu testen. Doch da es moralisch bedenklich war, wenn er die Menschen selbst quälte, machten der Teufel und seine Dämonen Karriere. So konnte Gott im Neuen Testament zu dem werden, was wir heute den „lieben Gott“ nennen, während der Teufel fortan mit aller Inbrunst bekämpft werden durfte. Aufs engste damit verbunden war das Problem, dass gottgefälliges Benehmen nur allzu offensichtlich nicht im Hier und Jetzt belohnt wurde. Durch die ganze Hebräische Bibel hinweg finden wir nur wenige, teils widersprüchliche Aussagen über das Jenseits. Erst als die Menschen seit den

210 

C. van Schaik und K. Michel

Makkabäeraufständen um 150 v. Chr. begannen, als Märtyrer ihr Leben für den Glauben zu opfern, entstand der Glaube an das Jenseits als dem Ort, an dem sich Gottes Gerechtigkeit tatsächlich erfüllte. Durch die Übernahme vieler Elemente der griechischen Philosophie in das Christentum gewann der Monotheismus erheblich an intellektueller Überzeugungskraft. Gott wurde zum absolut Guten und allmächtig. Zugleich passte sich das Christentum aber auch an die Bedürfnisse der menschlichen Natur an – auf Kosten des reinen Monotheismus. Es führte viele übernatürliche Akteure wie Engel und Teufel ein; Jesus wurde zum Teil der Heiligen Dreifaltigkeit und Maria zur Mutter Gottes. Sie füllte damit die weibliche Lücke, die seit dem Zurückdrängen der alten Religionen klaffte. Die Heiligen standen als persönliche Vermittler in allen Lebenslagen zur Verfügung. Weil das Christentum (anders als das rabbinische Judentum oder der Islam) sein Glaubenssystem öffnete, um es stärker den Bedürfnissen der menschlichen Natur anzupassen, hatte es für jeden etwas zu bieten; es erscheint intuitiv einsichtig und geradezu natürlich, befriedigte aber auch den Intellekt. Das ist sein Erfolgsrezept. Die vielleicht attraktivste Seite Jesu war, dass er kompromisslos die Bedeutung der Hauptinteressen der menschlichen Natur vertrat: Solidarität untereinander, vor allem aber mit den Schwachen, Gleichheit, Abscheu vor Ungerechtigkeit und Reichtum. Wir können berechtigterweise argumentieren, dass Jesus die alten Ideale der Jäger und Sammler hochhielt, die auf das Beste mit unserer Natur harmonieren. Er zog mit einem Gefolge herum, in dem Männer und Frauen gleichberechtigt waren und in dem auf Privatbesitz verzichtet wurde. Lebensmittel wurden geteilt. Jesus kritisierte die Reichen. Er wollte nicht wie ein Anführer behandelt werden, sondern wusch seinen Jüngern die Füße. Kurz gesagt, er hat, ohne es zu wissen, die perfekte nomadische Jäger-Sammler-Gesellschaft neu erschaffen, die Art von Welt, in der wir uns zu Hause, aufgehoben fühlen, in der wir wahres Glück erreichen – materiell arm vielleicht, aber sozial reich und zufrieden. Da überrascht es nicht, dass selbst der bekennende Atheist Richard Dawkins ein Loblied auf den Nazarener verfasste: „Atheisten für Jesus“. In all diesen Verwandlungen, wie sie die Bibel dokumentiert, sehen wir einen Prozess, in dem das Glaubenssystem Stück für Stück besser an die Gegebenheiten der Realität, vor allem aber an die Bedürfnisse der menschlichen Natur angepasst wird. Dieser Prozess ist ein zentrales Prinzip der kulturellen Evolution: Je mehr ein Glaube mit der menschlichen Natur harmoniert, desto länger wird er bestehen.

  Wie aus Zorn Liebe wird: die Evolution Gottes 

211

Und so führte uns die kulturelle Evolution in einer Kreisbewegung, die etwa tausend Jahre währte, von unserem natürlichen, intuitiven Glauben an universelle übernatürliche Akteure über die Ära des strikten intellektuellen Monotheismus bis hin zum modernen Christentum. Die einzige, bittere Ironie dabei ist, dass das Christentum, das als Religion der Armen und Unterdrückten begann und so frauenfreundlich war, sich bald in eine Institution verwandelte, die sich auf die Seite der Männer und Mächtigen stellte. Wie das kam? Die Bibel, die als ein Tagebuch der Schwachen in Jerusalem in der jüdischen Welt begonnen hatte, geriet in Rom in die Fänge der Macht. Die Autoren Carl van Schaik und Kai Michel haben zu diesem Thema ein Buch verfasst „Das Tagebuch der Menschheit: Was die Bibel über unsere Evolution verrät“ [201].

Wachsende Vielfalt durch Konkurrenz und Effizienz Die Sozialstruktur moderner Gesellschaften Stefan Hradil

Das Phänomen Naturforscher registrierten in den vergangenen Jahrzehnten eine ständige Reduzierung der Artenvielfalt auf der Erde. Sozialforscher dagegen kommen spätestens seit der Industrialisierung zu dem Schluss, dass die sozialen Erscheinungen in entwickelten Gesellschaften immer vielgestaltiger werden: Es finden sich immer unterschiedlichere Ausbildungs- und Verwaltungseinrich­ tungen, Gesetze, Unternehmen und Produktionsstätten, Familienformen, religiöse Vergemeinschaftungen, politische Parteien und Lager, soziale Bewegungen, „Szenen“, Cliquen etc. Die wachsende Heterogenität entwickelter Gesellschaften zeigt sich auch dann, wenn Gegenbewegungen berücksichtigt werden: Immer wieder sterben gesellschaftliche Erscheinungen aus (beispielsweise der Beruf des Setzers oder das Verbot der Homosexualität) und international gleichartige Phänomene (zum Beispiel Bachelor- und Master-Universitätsabschlüsse, Kleidermoden, Kettenläden, multinationale Konzerne) verdrängen traditionelle auf der ganzen Welt. In der Soziologie werden diese Tendenzen bezeichnenderweise „McDonaldisierung“ [202] genannt. Aber am Trend zu wachsenden Unterschieden in entwickelten Gesellschaften ändert dies wenig. In der sozialwissenschaftlichen Terminologie bezeichnet man die wachsende g­ esellschaftliche S. Hradil (*) Institut für Soziologie der, Johannes-Gutenberg-Universität Mainz, Mainz, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_22

213

214 

S. Hradil

Vielgestaltigkeit mit den Begriffen soziale Differenzierung, soziale Pluralisierung und Individualisierung. Hierbei werden soziale Differenzierung vor allem solche Auffächerungstendenzen genannt, die unterschiedlichen Aufgabenstellungen dienen. Beispiele für solche Spezialisierungen finden sich in großer Zahl: neue Berufe im IT-Bereich, Firmen die sich auf die Zulieferung bestimmter Automobilteile (Kolbenringe, elektronische Assistenten etc.) spezialisiert haben, Wissenschaftler mit einem neuen Spezialgebiet etc. Soziale Pluralisierungen entstehen aus dem Wollen vieler Menschen. Beispiele finden sich in der Auffächerung sozialer Milieus (siehe später), von Lebensstilen (bezüglich Kleidung, Musik, Medien etc.) und privaten Lebensformen. Ihre Pluralisierung zeigt sich unter ander in der wachsenden Zahl unverheirateter Paare, Alleinerziehender oder -lebender. In vielen Großstädten besteht heute schon mehr als die Hälfte aller Haushalte aus nur einer Person. Auch die Alleinlebenden werden immer unterschiedlicher: Viele haben einen ständigen Partner, die meisten leben partnerlos [203]. Wachsende Ressourcen (Wohlstand, Bildung, soziale Sicherheit, Mobilität etc.) verschaffen immer mehr Menschen in entwickelten Gesellschaften die Möglichkeit, sich aus herkömmlichen Rollen zu befreien. Besonders gut zu sehen ist dies an Frauen, die überkommene Rollen als Hausfrau und Mutter allenfalls noch in Teilen übernehmen. Sie wollen und können ihre Biografie zu immer größeren Teilen selbst gestalten. Beruf, Partner- oder Mutterschaft werden immer mehr durch eigene Entscheidung gestaltet, nacheinander oder zeitgleich angeordnet. Dies wird von Frauen auch zunehmend erwartet. Mit wachsender Freiheit fallen den Einzelnen aber auch das Risiko und die Verantwortung zu, wenn die gewählte Biografie scheitert. Diese Erscheinungen, die keineswegs nur Frauen betreffen, werden als Individualisierung bezeichnet [204].

Die wachsende Vielfalt der Sozialstruktur Die wachsende gesellschaftliche Vielfalt zeigt sich auch in der Sozialstruktur, also an den großen Gruppen, aus denen sich Gesellschaften zusammensetzen. Besonders klar wird das in der ungleichen Sozialstruktur – anhand der großen Gruppen, die in bestimmter Hinsicht über beziehungsweise unter anderen stehen. Die historische Entwicklung dieses gesellschaftlichen Höher und Tiefer lässt sich vereinfacht als Übergang von der vorindustriellen Stände-, über die frühindustrielle Klassen- und die industrielle Schichtengesellschaft hin zu einer postindustriellen Gesellschaft sozialer Lagen und Milieus s­kizzieren. Diese

  Wachsende Vielfalt durch Konkurrenz und Effizienz 

215

Bezeichnungen beziehen sich auf den jeweils vorherrschenden Strukturtypus, der freilich kaum je in reiner Form existierte. So gibt es auch in postindustriellen Gesellschaften neben Lagen und Milieus noch deutlich erkennbare Strukturen sozialer Schichtung und auch sozialer Klassen (zum Folgenden Hradil [205, 206], S. 36 ff.). Stände waren die typischen Gruppierungen agrarischer Gesellschaften. Menschen wurden in Stände hineingeboren und blieben dort in der Regel lebenslang. Stände unterschieden sich durch ungleiche Rechte, ungleiches Ansehen und – häufig nicht nur materiell, sondern auch rechtlich – erzwungene ungleiche Lebensweisen. So hatten unfreie Bauern Abgaben zu entrichten, und es war ihnen durch den Schollenzwang verboten, das Gebiet ihres Grundherrn zu verlassen; Adelige hingegen lebten steuerfrei und konnten oft Abgaben auferlegen. Die wichtigsten Stände in Mitteleuropa waren Adelige, Bürger und Bauern, wobei diese Gruppen in sich vielfach ständisch untergliedert waren. Klassen gelangten im Laufe privatwirtschaftlich organisierter Industrialisierung zu sozialstruktureller Dominanz. In Deutschland vollzog sich dieser Prozess im Wesentlichen während des 19. Jahrhunderts. Klassen unterscheiden sich nicht durch ungleiche Rechte, sondern durch das Ausmaß ihres Besitzes (an Fabriken, Handelsunternehmen etc.) und die dadurch gegebenen Macht- und Erwerbsmöglichkeiten. Oft wurden in politischer Absicht nur die beiden Klassen der Besitzenden und der Besitzlosen unterschieden [207], aber eine empirisch genauere Analyse macht viele Abstufungen sichtbar ([208], S. 177 ff.). Im weiteren Lauf der Industrialisierung verdienen immer mehr Menschen ihren Lebensunterhalt nicht durch Besitz und Selbstständigkeit, sondern durch unselbstständige Erwerbsarbeit. Höhere und niedrigere Qualifikationen, berufliche Stellungen und Einkommen gewinnen daher innerhalb dieser „Lohnabhängigen“ immer größere Bedeutung. Schließlich dominieren (durch diese drei Kriterien definierten) Soziale Schichten die Struktur sozialer Ungleichheit. In der Regel werden eine untere beziehungsweise Arbeiterschicht, eine Mittelschicht und eine obere Schicht auseinandergehalten. Diese Gruppierungen unterscheiden sich nicht nur durch ihre äußeren Lebensbedingungen und Lebenschancen, sondern auch durch ihre inneren Haltungen und Mentalitäten. In Deutschland vollzogen sich diese Schichtungsprozesse im Wesentlichen in den ersten zwei Dritteln des 20. Jahrhunderts. In geschichteten Gesellschaften sollen nicht länger die familiäre Herkunft oder ererbtes Vermögen, sondern es soll nur die individuelle Leistung über die Schichtzugehörigkeit entscheiden. Alle Gruppen sollen die gleichen Chancen haben, leistungsfähig und erfolgreich zu werden. Allerdings wurden diese Ziele nur allmählich und bis heute unvollkommen verwirklicht.

216 

S. Hradil

Die Einkommensabstände innerhalb des Gefüges sozialer Schichtung sind vom Ersten Weltkrieg bis in die 1970er-Jahre geringer geworden, die Mittelschicht nahm zu. Seither wächst aber die finanzielle Ungleichheit, besonders stark in den oberen Einkommensbereichen, und die Größe der Mittelschicht stagniert. Die Schichten rücken also auseinander. Wo im Erwerbsleben nicht länger industrielle Produktionen, sondern Dienstleistungen vorherrschen  – wie in Deutschland seit den 1970er-Jahren – verdrängt die postindustrielle die industrielle Gesellschaft; in ihr wachsen die Unterschiede und Ungleichheiten der sozialen Lagen und der sozialen Milieus. Als Lage bezeichnet man die typische Kombination der Lebensbedingungen einer sozialen Gruppe, Milieus sind Gruppen Gleichgesinnter. So werden Lehrer und Kleinunternehmer zwar beide zur Mittelschicht gezählt, ihre Lage ist aber sehr verschieden. Der Inhaber eines kleinen IT-Unternehmens ist selbstständig und verdient oft mehr als ein Lehrer. Dessen soziale Stellung ist nicht von Unsicherheit geprägt, wohl aber die des Kleinunternehmers. Hinzu kommt, dass immer mehr Menschen soziale Lagen außerhalb des Schichtgefüges einnehmen, das ja auf die Erwerbssphäre beschränkt ist: etwa Rentner, Studierende oder Arbeitslose. Diese Menschen befinden sich teils in wesentlich schlechteren oder besseren Lagen als andere Menschen. Die Unterschiede sozialer Milieus lassen sich zum Beispiel durch die Haltungen von Lehrern verdeutlichen: „Krawattenlehrer“ zählen zum konservativ-­ bürgerlichen Milieu, „Turnschuhlehrer“ zum sozial-ökologischen Milieu. Dessen ungeachtet werden beide wegen ihrer gleichen Stellung und Einkommen der gleichen Schicht zugerechnet. Innerhalb der Arbeiter-, der Mittel- und der Oberschicht gehen also die Werthaltungen, Einstellungen und Verhaltensweisen der Menschen auseinander. Erst recht wächst die mentale Vielfalt der Menschen, die sich (wie Hausfrauen, Rentner, Studierende, Arbeitslose) nicht im Erwerbsleben befinden, sich also nicht ohne Weiteres einer sozialen Schicht zugeordnen lassen. Für die Politik, die Sozialisation von Kindern und Heranwachsenden, für den Konsum und viele andere Praxisfelder ist die Pluralisierung von Milieus von großer Bedeutung. Wie die wachsende Vielfalt sozialer Lagen, so zeigt auch die Mannigfaltigkeit sozialer Milieus sowohl ein Nebeneinander von (horizontalen) Unterschieden als auch ein Übereinander von (vertikalen) Ungleichheiten. Spätestens bei der Wahl von Gästen, des Stadtviertels und des Partners zeigt sich, dass das Milieu des traditionalen Bürgertums die Mitglieder des hedonistischen Milieus nicht unbedingt für einen adäquaten Umgang hält. Die einen bemühen sich, solide zu wirtschaften und stellen die Arbeit über das

  Wachsende Vielfalt durch Konkurrenz und Effizienz 

217

Vergnügen. Für die anderen steht die unmittelbare Bedürfnisbefriedigung im Vordergrund, und es wird schon mal mehr ausgegeben als eingenommen.

Die Folgen Seit mehr als einem Jahrhundert beobachten und analysieren die Sozialwissenschaften die gesellschaftlichen Entwicklungen hin zur wachsenden sozialen Differenzierung, Pluralisierung und Individualisierung. Ein guter Teil aller sozialwissenschaftlichen Arbeiten ist diesen Fragen gewidmet, auch schon der soziologischen Klassiker (zum Beispiel [209, 210, 211]). Die sozialwissenschaftlichen Anstrengungen waren auch deshalb so groß, weil die Auswirkungen wachsender gesellschaftlicher Vielgestaltigkeit kaum zu überschätzen sind. Alle Menschen, die in entwickelten Gesellschaften leben, begegnen ihnen im Alltag. Schlagwörter wie „Orientierungslosigkeit“ und „neue Unübersichtlichkeit“ künden hiervon ebenso wie die nahezu tägliche Aufdeckung neuer Lebensstile und Gruppierungen. Die Folgen wachsender gesellschaftlicher Heterogenität werden höchst ambivalent bewertet. Einerseits feiert man die wachsenden Freiheiten und Chancen infolge zunehmender Pluralisierung und Individualisierung. Auch die positiven Folgen der funktionalen Differenzierung  – so der wachsende Wohlstand, mehr Bildung und ein längeres Leben in Gesundheit – werden dankbar registriert. Andererseits beklagen viele, dass das Leben in komplexen Gesellschaften immer komplizierter und anspruchsvoller wird, dass Ein­ engungen bis hin zum „stahlharten Gehäuse“ [212] damit verbunden sind, dass die gesellschaftliche Integration schwieriger wird und die Gefahren der Desintegration, der (selbst)gefährdenden Anomie (Normlosigkeit) und der „Zerlegung“ von Gesellschaften zunehmen.

Determinanten Will man die Ausdifferenzierung, Pluralisierung und Individualisierung erklären, so stößt man auf eine Fülle von einzelnen Bestimmungsgründen. Sie erscheinen kaum weniger vielgestaltig als die zu erklärenden Gegenstände. Unter anderem wurde geltend gemacht, dass technischer Wandel zur Spezialisierung führe, dass die Steigerung verfügbaren Wissens die Ausdifferenzierung des Bildungs- und Forschungswesens nach sich ziehe, dass die Bildungsexpansion und die Demokratisierung neue soziale Bewegungen

218 

S. Hradil

aufkommen lassen, dass wachsender Wohlstand und demografischer Wandel zur Fülle neu entstehender privater Lebensformen beitrage, etc. Erklärungsversuche, die sich auf die Nennung einzelner Determinanten beschränken, mögen für die Praxis wichtige Hinweise liefern. Dennoch leiden Erklärungen durch Einzelfaktoren an geringer Erklärungskraft: So bleibt im Dunkeln, ob sie notwendig oder ersetzbar sind, ob sie zureichen oder weiterer Faktoren bedürfen, wie sich das Zusammenwirken mehrerer Determinanten gestalten muss, um gesellschaftliche Auffächerungsprozesse hervorzubringen. Somit bleibt auch unklar, wieso die skizzierten Faktoren in einem Fall starke, in anderen Fällen kaum Differenzierungswirkungen entfalten. So finden wir zum Beispiel in Frankreich, wo die Wissensbestände sicher nicht mehr zugenommen haben als in Deutschland, ein differenzierteres Bildungssystem als hierzulande.

Theorien Erklärungen können erst dann befriedigen, wenn sie zu einer Theorie weitergeführt werden. Auf dieser Basis erlangen Determinanten, etwa die technologische Entwicklung, die demografischen Strukturen, die Demokratisierung, die Wissensvermehrung etc., erst ihren Stellenwert und können, insoweit sie gestaltbar sind, zu Instrumenten gestaltenden Handelns werden. Dann wird auch deutlich, dass Theoriebildung keine akademische Gedankenspielerei ist, sondern – wie ein häufig zitierter Satz besagt – nichts praktischer ist als eine gute Theorie. Nun stellen sich sozialwissenschaftlichen Theorien Schwierigkeiten entgegen, die naturwissenschaftliche Theorien nicht kennen – unter anderem deswegen, weil die Elemente von Gesellschaften keine von Randbedingungen und Gesetzmäßigkeiten völlig abhängigen Objekte, sondern auch Subjekte darstellen: Menschen mit ihrem Eigensinn, die im Prinzip so oder auch anders handeln können und dies auch häufig tun. So kommen auch häufig historische Abläufe zustande, die sich nur dann erklären lassen, wenn auch das Handeln von einzelnen Menschen erklärend einbezogen wird. Freilich stellen gesellschaftliche Abläufe keinesfalls immer  – vermutlich auch nicht in ihrer Mehrzahl – das gewollte Ergebnis menschlichen Handelns dar. Wenn zum Beispiel heute ein erfolgreicher Bewerber glaubt, er habe seine Stelle seinem guten Ausbildungsabschluss, dem wohlformulierten Bewerbungsschreiben und der gekonnten Präsentation zu verdanken, seinem Handeln also, so mag das zum Teil durchaus richtig sein. Indessen hätte er die

  Wachsende Vielfalt durch Konkurrenz und Effizienz 

219

gleiche Stelle mit der gleichen Bewerbung vor 20 Jahren, als die Arbeitslosigkeit noch doppelt so hoch war wie heute, vielleicht nicht erhalten.

Strukturen Das letzte Beispiel zeigt das Gegenüber von Struktur und Handeln, mit dem die einzelnen Akteure genauso zurechtkommen müssen wie Soziologen. Das Handeln der Einzelnen ist insofern nur scheinbar autonom: Sie haben zwar viele Handlungsoptionen, aber diese sind, von den Individuen oft unerkannt, doch häufig dem „Gegenwind“ oder „Rückenwind“ ausgesetzt, also den Einwirkungen struktureller Gegebenheiten. Dies zeigt sich nicht nur bei der Stellensuche, deren Erfolgsaussichten stark von Arbeitsmarktstrukturen geprägt werden. Es wird beispielsweise auch an den Karriere- und Lebenschancen der Einzelnen deutlich, die ganz wesentlich eine Frage demografischer Strukturen sind: Wer in einer Zeit niedriger Geburtenraten geboren ist, befindet sich – lässt man nicht-demografische Struktureinflüsse einmal unberücksichtigt – in seinem gesamten Leben in Situationen, in denen Menschen knapp sind. In Ausbildungseinrichtungen sind die Klassen klein und die Förderungschancen groß; auf dem Arbeitsmarkt und im Berufsleben gibt es nur wenige Mitbewerber, entsprechend gut sind die Karrierechancen; im Alter müssen sich nur wenige Rentner die Beiträge zur Rentenversicherung teilen. Wer jedoch in einer Zeit hoher Geburtenraten geboren ist, dem stellen sich alle genannten Situationen und Stationen umgekehrt dar. Diese Beispiele zeigen, dass Strukturen zwar durch das massenhafte Handeln einzelner Menschen entstanden sind wie durch Geburten, Bildungsentscheidungen, Berufseintritte oder ähnliche Entscheidungen, gleichwohl aber den Einzelnen und ihrem Tun als quasi objektive Gegebenheiten gegenüberstehen, die – erkannt oder nicht – die Handlungsergebnisse stark beeinflussen. Wer also über demografische, familiäre und Bildungsstrukturen, über Arbeitsmarkt- und Berufsstrukturen sowie über Strukturen der sozialen Ungleichheit und der sozialen Sicherung Bescheid weiß, der kennt nicht nur das Gefüge der Sozialstruktur, er weiß auch viel über das Leben und Handeln der Menschen. Deshalb werden soziale Strukturen auch als „Gerippe“ der Gesellschaft bezeichnet [213]. Gesellschaftsstrukturen zu analysieren, ist daher ein wirksames Mittel, die unübersehbare Fülle menschlichen Handelns und zwischenmenschlicher Konstellationen ohne allzu großen Informationsverlust auf wenige (strukturelle) Bestimmungsgründe zu reduzieren. Das hilft Sozialforschern und

220 

S. Hradil

informierten Bürgern gleichermaßen, „den Wald vor lauter Bäumen nicht aus dem Blick zu verlieren“. Auch die diesem Beitrag zugrunde liegende Diagnose, dass entwickelte Gesellschaften immer vielgestaltiger werden, lässt sich nur mithilfe des Strukturkonzepts formulieren. Dadurch werden Einzelfälle ebenso ausgeblendet wie Übergangserscheinungen im zeitlichen Längs- und Querschnitt.

Die Modernisierungstheorie Mithilfe des Strukturbegriffs gelingt es auch, Theorien zu formulieren, die viele prägende Faktoren einbeziehen und dennoch komplexe Erscheinungen auf einfache Ursachen zurückführen. Dies soll anhand „der“ Modernisierungstheorie gezeigt werden. Hierbei wird von zahlreichen und durchaus wesentlichen Unterschieden zwischen verschiedenen Modernisierungstheorien der vergangenen 200 Jahre abgesehen. Nicht nur „die“ Modernisierungstheorie, auch ihre Darstellung in diesem Beitrag beruht also auf einer weitgehenden Strukturierung und Vereinfachung. Im Folgenden wird unter „der“ Modernisierungstheorie eine Zusammenfassung funktionalistischer Theorien (zum Beispiel [214, 215]) unter Rückgriff auf soziologische Klassiker (zum Beispiel [209, 212, 216]) verstanden. Aus neueren Theorien wie etwa die „Multiple Modernities“ von Shmuel N. Eisenstadt [217] oder Ulrich Becks Theorie der „Reflexiven Modernisierung“ [204] werden Argumente zur Kritik funktionalistischer Modernisierungstheorien bezogen. Letztere entstanden in den USA in der optimistischen Zeit des Aufschwungs nach dem Zweiten Weltkrieg. Wie alle funktionalistischen Theorien stellen sie die Beiträge bestimmter Gegebenheiten zum Funktionieren und Zusammenhalt der Gesellschaft dar. Sie sind also Integrationstheorien, die unter anderem von Konflikten in der Gesellschaft absehen. Dieser Typus von Modernisierungstheorien wurde gewählt, weil (1) nur er beansprucht, Modernisierung und damit verbundene wachsende Vielfalt in allen Gesellschaften der Welt zu erklären, (2) er dem Verständnis von Modernisierung in den Köpfen vieler Menschen sehr nahe kommt, (3) er einen wesentlichen Teil von Modernisierung durchaus trifft (vgl. [218]) und (4) heute gerade die wissenschaftliche Kritik hieran sich als sehr erklärungskräftig erweist (siehe später). Diese Modernisierungstheorie besagt, dass Modernisierungsvorgänge im Kern auf Konkurrenzprozessen beruhen. Durch sie setzen sich innerhalb und zwischen Gesellschaften im Laufe der Zeit die effizienteren Strukturen durch. Dadurch lassen sich die jeweils verfolgten Anliegen  – es kann sich dabei

  Wachsende Vielfalt durch Konkurrenz und Effizienz 

221

genauso um humanitäre Bestrebungen wie um Mord und Totschlag handeln – mit weniger Aufwand beziehungsweise mit gegebenem Aufwand besser erreichen. Als Kern der Modernisierung gilt also Rationalisierung. Inwiefern änderten sich dabei gesellschaftliche Strukturen? Aus Sicht der Modernisierungstheorie wurde in vormodernen Gesellschaften versucht, die jeweiligen Anliegen durch wenige Typen gesellschaftlicher Einrichtungen zu verwirklichen, die jeweils vielen Zwecken dienten. So haben die Menschen auf relativ ähnlichen Bauernhöfen nicht nur zusammengelebt, sondern auch Nahrung und Werkzeuge produziert, notwendige Fertigkeiten gelernt, Alte, Kranke und Kinder gepflegt etc. Die prinzipiell ähnlichen Burgen der Herrschenden dienten zugleich ihrem Schutz, der Machtausübung, der Repräsentation, dem Steuereinzug, als Wohnstätte, der Herstellung von Waffen und vielem mehr. Nach Maßgabe von Modernisierungstheorien führten dann Rationalisierungsprozesse dazu, verschiedenartige Baulichkeiten zu errichten, die als Schlösser, Finanzbehörden, Schmieden, Festungen etc. dienten und zusammen genommen die genannten Funktionen weit besser erfüllten als zuvor die Burgen. In ähnlicher Weise wurden die Aufgaben, die einstmals in Bauernhöfen erfüllt wurden, im Laufe der Zeit auf spezialisierte Einrichtungen wie Krankenhäuser, Schulen, Schweinemästereien, Pflegedienste etc. übertragen. Diese Spezialisierungen erzielten in der Summe weit bessere Resultate. Die vielen unterschiedlichen, jeweils spezialisierten Elemente entwickelter Gesellschaften können erst in Zusammenarbeit gute Ergebnisse erzielen. So kann eine Fabrik, die Kolbenringe herstellt, erst in enger Zusammenarbeit mit zahlreichen weiteren Produktionsstätten ein Auto bauen. Dies zeigt, dass die unterschiedlichen Einrichtungen in modernen Gesellschaften enger miteinander verzahnt sein müssen und höheren Kommunikationsaufwand erfordern als die einander relativ ähnlichen Elemente traditionaler Gesellschaften. Bauerhöfe und Burgen waren relativ autark – Schweinemastbetriebe und Fa­ briken zu Herstellung von Kolbenringen sind es nicht. Schon der soziologische Klassiker Herbert Spencer diagnostizierte daher die gesellschaftliche Modernisierung als eine Entwicklung von der „unverbundenen Gleichartigkeit“ hin zur „verbundenen Ungleichartigkeit“ ([216], § 223). Infolge gesellschaftlicher Konkurrenz und wachsender funktionaler Differenzierung entstehen nach Ansicht von Modernisierungstheoretikern typische Eigenschaften moderner Gesellschaften. Hierzu zählen unter anderem • • • •

Schulen und weitere Bildungseinrichtungen, hochentwickelte Technologien, Marktwirtschaft, Massenwohlstand und Massenkonsum,

222 

• • • • • • •

S. Hradil

durch Leistung legitimierte soziale Schichtung, offene Schichtungssysteme, in denen Auf- und Abstiege möglich sind, eine rational arbeitende Bürokratie, Nationalstaaten, Konkurrenzdemokratien mit einem Repräsentativsystem, generell gültige Werte und (Rechts-)Normen sowie soziale Absicherungen.

Durch diese Merkmale moderner Gesellschaften, vor allem durch immer mehr Wohlstand, Absicherung, Bildung, Aufstiegsmöglichkeiten und Demokratisierung, wachsen die gesellschaftliche Individualisierung und Pluralisierung. Die Menschen lösen sich aus den herkömmlichen Formen der Familie und sozialer Schichten. Sie individualisieren sich und entwickeln dabei, wenn auch oft nur zeitweilig und widerruflich, vielfältige Lebensformen, Lebensstile und soziale Milieus.

Stimmt die Modernisierungstheorie? Die soeben skizzierte Modernisierungstheorie weist attraktive Eigenschaften auf. Sie erklärt erstens die Entwicklung einer Gesellschaft, darunter auch ihre wachsende Vielgestaltigkeit, aus einem sehr einfachen Mechanismus heraus. Das macht sie, wenigstens auf den ersten Blick, leicht begreiflich. Zweitens wird mehr oder minder die gesamte Entwicklung einer Gesellschaft erklärt. Nach den Vorstellungen von Modernisierungstheoretikern gibt es nämlich innerhalb der Modernisierung einer Gesellschaft keine nur teilweise Modernisierung. Denn die moderneren Sektoren üben einen Modernisierungsdruck auf die weniger modernen aus [215]. (In China gibt es derzeit keine Konkurrenzdemokratie, wohl aber die meisten anderen Modernisierungserscheinungen. Es wird sich zeigen, ob diese partielle Modernisierung im Gegensatz zu modernisierungstheoretischen Prognosen Bestand hat.) Die herkömmliche Modernisierungstheorie behauptet drittens, dass diese Mechanismen in allen Gesellschaften der Welt wirksam seien. Denn die Entwicklung moderner Gesellschaften ziehe durch den Konkurrenzdruck, den sie ausüben, die Entwicklung der weniger modernen nach sich. Gesellschaften, die sich diesem Sog verschließen, seien nicht konkurrenzfähig. Ihnen bleibt nur der Untergang oder die Randständigkeit. Schließlich ist viertens die dargestellte Modernisierungstheorie nicht nur eine faktische, sondern auch eine normative Theorie. Ihr zufolge ist Modernisierung

  Wachsende Vielfalt durch Konkurrenz und Effizienz 

223

nicht nur ein zwangsläufiger und mehr oder minder linear verlaufender Prozess, er hat auch vorteilhafte Auswirkungen für die Menschen. Modernisierung wird also theoretisch mit Fortschritt gleichgesetzt. Modernisierungstheorien bieten daher Einwirkungsmöglichkeiten an, die Wohlstand, Bildung, Gesundheit etc. der Menschen mehren, und vermitteln das Gefühl, für eine humane Entwicklung aller, auch der weniger entwickelten Gesellschaften eintreten zu können. Zusammengenommen enthält die Modernisierungstheorie also sehr weitreichende Erklärungs- und Gestaltungsansprüche und bietet zugleich suggestive Einfachheit. Das provoziert die schlichte Frage: Trifft die Modernisie­rungstheorie zu? Zahlreiche kritische Analysen und empirische Studien prüften dies. Das Ergebnis: Große Teile der Modernisierung werden in der Tat durch Konkurrenz- und Rationalisierungsprozesse vorangebracht werden. Es gibt aber auch einiges zu kritisieren [219]: Die Modernisierungstheorie läuft Gefahr, ethnozentrisch zu argumentieren. Entwicklungen in westlichen Ländern werden häufig unbesehen als Modernisierung und damit zur notwendigen und wünschenswerten Entwicklungstendenz erklärt. Die Bedeutung unmoderner Strukturen wird unterschätzt. Die Modernisierungstheorie erklärt nicht, wieso traditionale, nicht sonderlich effektive gesellschaftliche Strukturen häufig hartnäckig überleben. Damit geraten aber auch gesellschaftliche Konflikte zwischen modernen und traditionalen Gesellschaften oder zwischen deren Sektoren aus dem Blick. Die Modernisierungstheorie tendiert dazu, Gegenmodernisierungen zu übersehen oder kleinzureden. Damit bleiben die Niedergänge und Zusammenbrüche mancher Gesellschaften (Libyen, Afghanistan, Somalia, Tschad) ebenso unberücksichtigt wie die massiven Konflikte um (zum Beispiel islamistisch motivierte) Restaurationstendenzen. Modernisierungstheorien unterschlagen, dass die Modernisierung entwickelter Länder weniger moderne Gesellschaften oft in ihrer Modernisierung behindert oder gar ausbeutet. Aus dadurch anhaltenden oder wachsenden Modernisierungsabständen speist sich ein großer Teil der Migration in moderne Länder. Dort entsteht somit weitere Heterogenität in Gestalt neuer ethnischer Milieus. Diese Form der Pluralisierung wird also durch Modernisierung durchaus gefördert, aber – anders als Modernisierungstheoretiker meinen – durch eine im internationalen Vergleich nur teilweise oder stark verzögert stattfindende Modernisierung.

224 

S. Hradil

Fazit Modernisierung schafft Vielfalt. Aber Vielfalt stärkt ihrerseits auch Modernisierung. Differenzierte, pluralisierte und individualisierte Strukturen nähren Toleranz und Demokratie, vermitteln gegenseitige Anregungen und fördern Konkurrenz. Diese Prozesse sind ein Motor stetig weiterer Modernisierung. Das zeigt sich nicht zuletzt in der Sozialstruktur fortgeschrittener Gesellschaften: In ihnen wachsen systematisch die Bemühungen um wachsende Chancen- und Leistungsgerechtigkeit, um mehr vertikale Mobilität und um neue Aufstiegsmöglichkeiten. Freilich wird das Leben durch diese neuen Anregungen, vermehrten Freiheiten und intensivierten Wettbewerbe auch mühsamer und riskanter. Denn auch Abstiege werden häufiger, Verlierer bleiben auf der Strecke, wirkliche und vermeintliche Bedrohungen wachsen. Wie die Erfolge einer populistisch vereinfachenden Politik zeigen, die Mannigfaltigkeit in vieler Hinsicht weder kennt noch anerkennt, bringt so die Modernisierung ihre Gegenbewegungen immer wieder neu hervor.

Komplexität und Bewusstsein Ein Erklärungsversuch für die Emergenz von Bewusstsein und die Wahrnehmung, über eine spirituelle Dimension zu verfügen Wolf Singer

Die Evolution komplexer Systeme Der Baum des Lebens mit seinen vielfältigen Verzweigungen versinnbildlicht die Erkenntnis, dass die Evolution im Laufe von Jahrmillionen aus Urformen lebender Systeme eine ungeheure Vielfalt von Arten hervorgebracht hat. Diese Diversifizierung wird auf das Zusammenwirken von zwei Prozessen zurückgeführt: die Erzeugung von Variabilität durch Mutationen des Erbgutes und die Selektion der am besten an die ökologischen Nischen angepassten Varianten. Parallel zu dieser Entwicklung von Spezialisten für die Besiedlung unterschiedlicher Lebensräume nahm die Komplexität der Organismen zu. Hierfür bieten sich mehrere Erklärungsmöglichkeiten an. Naheliegend ist, dass die Herausbildung spezieller Anpassungsstrategien – vor allem die Erhöhung der Autonomie der Organismen – durch komplexe Organfunktionen begünstigt wird. Flossen, Beine und Flügel beruhen auf wesentlich komplexeren Aggregaten als die Zilien („wellenschlagenden Füßchen“) von Bakterien und erschließen damit wesentlich effektivere Optionen für Mobilität. Aber auch diese hoch differenzierten Organe zur Fortbewegung taugen nur, wenn sie koordiniert gesteuert werden und wenn sensorische Systeme die nötigen Informationen über das Woher und Wohin liefern. Über coevolutive Prozesse kam es deshalb gleichzeitig zu einer Verfeinerung kognitiver und exekutiver W. Singer (*) Max-Planck-Institut für Hirnforschung und Ernst-Strüngmann Institute for Neuroscience, Frankfurt/Main, Deutschland E-Mail: [email protected] © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0_23

225

226 

W. Singer

Funktionen, die eine Erhöhung der Komplexität der Nervensysteme ­bedingte. In aller Regel gehen solche Anpassungsstrategien aber nicht nur mit einer Zunahme der Komplexität von Organfunktionen einher, sondern auch mit erhöhter Spezialisierung. Dies birgt Gefahren in sich, wenn sich Umweltbedingungen verändern. Wer Kiemen hat, ist verloren, wenn Flüsse versiegen und Seen austrocknen. Ein weiterer Grund für die auffällige Komplexitätszunahme könnte demnach in Strategien zu suchen sein, welche die Resilienz der Organismen gegenüber Veränderungen erhöhen, wobei die Ursachen für diese Veränderungen sowohl von Störungen im Organismus selbst als auch von Umweltereignissen herrühren können. Gegen die Unterbrechung vitaler Stoffwechselvorgänge durch Infektionen, Verletzungen und Nahrungsentzug kann sich wappnen, wer parallele metabolische Stoffwechselvorgänge zum Energiegewinn vorsieht. Dies aber bedingt, die Komplexität molekularer Interaktionspfade im Zellstoffwechsel gewaltig zu erhöhen. Eine effektive Strategie, die Anpassungsfähigkeit an Veränderungen zu vergrößern, ist, unterschiedliche Fähigkeiten vorzuhalten. Wer Lungen und zugleich Kiemen ausbildet und zudem Flossen, die sich auch eignen, sich an Land fortzubewegen, braucht Trockenzeiten nicht zu fürchten, benötigt aber wiederum komplexe Steuerungssysteme, um die verschiedenen Funktionen zu koordinieren. Der Resilienz dient auch möglichst viel Unabhängigkeit von Umweltbedingungen. Den Unbillen der Witterung und den oft extremen Temperaturschwankungen zwischen Tag und Nacht begegnet besser, wer die Körpertemperatur konstant halten kann. Dies jedoch erfordert sehr komplexe Interaktionen zwischen metabolischen und sensorischen Regelkreisen. Autonomer und damit weniger ausgeliefert ist auch, wer ein möglichst zutreffendes Modell der jeweiligen Umwelt konstruieren und speichern kann, um daraus Voraussagen abzuleiten und Probehandeln zu ermöglichen. Dies aber erfordert nicht nur ein differenziertes Sensorium, sondern auch neuronale Systeme, die sinnvolle Interpretationen der einlaufenden Sinnessignale vornehmen, deren Ergebnisse im Verhaltenskontext bewerten und die Ergebnisse dieser kognitiven Akte speichern können. Spätestens bei der Ausbildung leistungsfähiger kognitiver Systeme dürfte sich erwiesen haben, dass die effizienteste Strategie für mehr Resilienz die Erhöhung der Komplexität von Nervensystemen ist. Anders als bei allen sonstigen Organfunktionen führt hier die Verfeinerung von Funktionen nicht zu vermehrter Spezialisierung und den damit verbundenen Anfälligkeiten, sondern zu erhöhter Flexibilität, Anpassungsfähigkeit und sogar verbesserter Fehlertoleranz.

  Komplexität und Bewusstsein 

227

Zunächst mag es nicht plausibel erscheinen, dass mehr Komplexität die Störanfälligkeit von Systemen zu mindern vermag, ist doch die naheliegende und auch in den meisten technischen Systemen angewandte Strategie die Erhöhung der Redundanz durch Verdoppelung wichtiger Funktionseinheiten. Es erweist sich jedoch, dass komplexe Systeme mit starker Vernetzung eine nicht-lineare Dynamik aufweisen, die diese zur Selbstorganisation befähigt. So lässt sich durch Funktionsverlagerung der Ausfall von Teilfunktionen kompensieren. Alle höher entwickelten Nervensysteme besitzen solche Eigenschaften, und auch bei der Entwicklung komplexer technischer Systeme wird zunehmend auf die Selbstorganisationsfähigkeiten hoch vernetzter, distributiv organisierter Systeme gesetzt. Durch die Steigerung der Komplexität von Nervensystemen lassen sich also nicht nur kognitive und exekutive Funktionen verbessern, sondern es lässt sich zugleich die Störanfälligkeit der Systeme verringern. Vor allem in der evolutionär rezenten Großhirnrinde sind Verschaltungsprinzipien realisiert, die solche Selbstorganisationsprozesse unterstützen.

Die Großhirnrinde, ein komplexes System Eine ganz besondere Eigenschaft der in der Großhirnrinde verwirklichten Prinzipien zur Informationsverarbeitung ist, dass diese sich für die Bewältigung scheinbar sehr unterschiedlicher Aufgaben einsetzen lassen: Beispiele sind die Verarbeitung und Erkennung von Mustern, die kurz- und langfristige Speicherung beliebiger Informationen, die Planung zukünftiger Aktionen, die Abwägung von Handlungsoptionen, die Programmierung von Bewegungsabläufen und beim Menschen die Interpretation und Produktion von Sprachsignalen. Diese Leistungen werden von verschiedenen Netzwerken realisiert, an denen sich unterschiedliche Hirnrindenareale in jeweils wechselnden Konstellationen beteiligen. Die verschiedenen Areale weisen jedoch eine sehr ähnliche interne Verschaltung auf, und das wiederum bedeutet, dass sie nach ganz ähnlichen Prinzipien arbeiten: Dass die einen für visuelle Musterverarbeitung und die anderen für die Steuerung von Bewegungen zuständig sind, ergibt sich im Wesentlichen daraus, dass die jeweiligen Areale ihre Eingangssignale von verschiedenen Quellen erhalten und ihre Verarbeitungsergebnisse unterschiedlichen Abnehmern zur Verfügung stellen. Bei niederen Wirbeltieren wie zum Beispiel den Reptilien, in deren Gehirnen erstmals kortikale Strukturen auftauchen, sind die Informationsflüsse noch relativ überschaubar. Signale der verschiedenen Sinnesorgane werden an die jeweiligen sensorischen Hirnrindenareale geleitet, die ihre Ergebnisse

228 

W. Singer

dann auf kurzem Wege an die motorischen Areale weitergeben. Dort werden die entsprechenden Handlungsentwürfe verfertigt und die Befehle an die Effektoren koordiniert. Zwischen diesen parallelen Verarbeitungspfaden gibt es nur wenige Interaktionen. Die in einer Sinnesmodalität erlernten Reaktionen können deshalb nur sehr begrenzt auf andere Modalitäten generalisiert werden. In den höher entwickelten Gehirnen der Säuger, und besonders ausgeprägt in Primatengehirnen, kommen jedoch viele Hirnrindenareale hinzu, die ihre Eingangssignale nicht mehr von den Sinnesorganen beziehen oder mit Effektoren verbunden sind, sondern die vorwiegend mit den bereits vorhandenen Hirnrindenarealen kommunizieren. So lassen sich die in den verschiedenen sensorischen Arealen erarbeiteten Ergebnisse miteinander vergleichen und bewerten, bevor sie an motorische Areale oder weitere Areale höherer Ordnung weitergegeben werden. Letztere finden sich vorwiegend im Praefrontalund Schläfenlappen und sind besonders stark bei Menschenaffen und Menschen ausgeprägt. Diese Areale unterziehen somit die Ergebnisse hirninterner Prozesse den gleichen Operationen wie die sensorischen Areale bei der Verarbeitung von Signalen aus der Umwelt. Durch diese Iteration von sich ähnelnden Verarbeitungsschritten werden hirninterne Zustände schließlich selbst zu Objekten kognitiver Prozesse – und dies hat weitreichende Konsequenzen für die Ausbildung höherer Hirnleistungen: Die Möglichkeit, bereits hoch verarbeitete Informationen aus den verschiedenen Sinnessystemen zu vergleichen, versetzt in die Lage, Gleiches im scheinbar Verschiedenen zu erkennen und ist Voraussetzung für Abstraktions- und Generalisierungsvermögen. Diese Fähigkeiten wiederum sind unabdingbar für die Entwicklung symbolischer Kodierungsstrategien und damit Voraussetzung für Kommunikationsprozesse, die sich symbolischer Repräsentationen bedienen. Die Möglichkeit, hirninterne Zustände zu Objekten kognitiver Operationen höherer Ordnung zu machen, eröffnet die Option, „Protokoll zu führen“ über das, was im eigenen Gehirn vorgeht.

Metakognition und Bewusstsein Diese metakognitiven Prozesse sind vermutlich die Grundlage für die Fähigkeit höher entwickelter Gehirne, Vorgänge in der Außenwelt und im Körper nicht nur wahrzunehmen und darauf reflexhaft zu reagieren, sondern sich dieser Wahrnehmungen und der daraus gezogenen Schlussfolgerungen gewahr zu werden, Vergleiche mit gespeicherten Inhalten vorzunehmen, zu entscheiden, worauf die Aufmerksamkeit gerichtet werden soll, und Handlungen von

  Komplexität und Bewusstsein 

229

komplexen Abwägungsprozessen abhängig zu machen, in die Bewertungen früherer Erfahrungen mit eingehen. Wir verbinden diese Fähigkeiten gemeinhin mit Funktionen, die wir dem Bewusstsein zuschreiben. Operational definieren wir als bewusste Prozesse all jene, über die wir berichten können, weil wir uns ihrer gewahr sind, und grenzen sie dadurch von unbewussten Verarbeitungsstrategien ab. Generell gilt, dass Vorgänge im Gehirn dann „bewusst“ verarbeitet werden, wenn sie mit Aufmerksamkeit belegt werden. In diesem Fall werden die jeweiligen Verarbeitungsergebnisse im sogenannten episodischen oder deklarativen Gedächtnis abgelegt. Aus diesen Speichern können sie dann unter willkürlicher Kontrolle ausgelesen und für weitere bewusste Verarbeitungsprozesse herangezogen oder in Sprache gefasst und mitgeteilt werden. Fraglos besitzen auch alle höher entwickelten Tiere diese kognitiven Fähigkeiten, auch wenn Tiere nicht in Worte fassen können, was ihnen durch den Kopf geht. Die Gehirne aller Säugetiere  – allen voran die der nicht-­ menschlichen Primaten – verfügen über alle Funktionen, die zur bewussten Verarbeitung von Information benötigt werden: Mechanismen, Aufmerksamkeit zu steuern und Großhirnrindenareale flexibel zu vernetzen, kognitive Prozesse zu iterieren und das episodische Gedächtnis zu verwalten. Insofern gilt wahrscheinlich auch für die Gehirne von Tieren, dass eine Unterscheidung zwischen bewusster und unbewusster Informationsverarbeitung möglich ist. Wir haben jedoch kaum die Möglichkeit, im Einzelfall festzustellen, ob eine bestimmte Verhaltensreaktion bewusst oder unbewusst erfolgt.

Metakognition als Fitnessfaktor Untersuchungen am Menschen ergeben, dass die meisten Steuerungsprozesse, die uns durch den Alltag bringen, unbewusst ablaufen. Welchen evolutionären Vorteil bieten also jene metakognitiven Funktionen, die Grundlage bewusster Prozesse sind? Es gilt also zu klären, wodurch sich bewusste von unbewussten Vorgängen unterscheiden. Berichtet werden kann nur, was bewusst ist; das wurde bereits erwähnt. Doch dies dürfte Tieren zunächst keinen Selektionsvorteil gebracht haben. Die ungemein wichtige Rolle der Mitteilbarkeit bewusster Prozesse für die kulturelle Evolution des Menschen wird in späteren Abschnitten behandelt. Ein weiteres Merkmal bewusster Verarbeitungsprozesse ist jedoch, dass beliebige Inhalte unter der Kontrolle von Aufmerksamkeit miteinander verknüpft werden können: unmittelbar von den verschiedenen Sinnessystemen vermittelte Wahrnehmungen, im Arbeitsgedächtnis zwischengespeicherte

230 

W. Singer

Informationen und im episodischen Gedächtnis abgelegte Erinnerungen. Dies ist überaus nützlich und verdankt sich dem Umstand, dass alle in den verschiedenen Arealen der Großhirnrinde erarbeiteten Ergebnisse in einem einheitlichen Datenformat vorliegen und sich aufgrund des hohen Vernetzungsgrades zwischen den Arealen in beliebigen Konstellationen miteinander verrechnen lassen. So zeigen Untersuchungen der neuronalen Korrelate von bewussten Verarbeitungsprozessen, dass bei bewusster Verarbeitung immer viele Großhirnrindenareale untereinander Information austauschen. Dies lässt sich daran erkennen, dass sie ihre Aktivitäten, gesteuert von „Aufmerksamkeitsmechanismen“, synchronisieren – die Voraussetzung dafür, Informationen effektiv und selektiv auszutauschen. Es bilden sich weit verteilte funktionelle Netzwerke aus, die den jeweiligen Aufgaben angepasst sind und deren Konstellationen rasch wechseln können. Diese Option zur selektiven, aber in hohem Grade flexiblen Verknüpfung von Informationen dürfte einer der Selektionsvorteile von „bewusster“ Verarbeitung sein. Hinzu kommt, dass dieser versatile Verarbeitungsmodus offenbar problemlos erweitert und vervollkommnet werden kann, ohne den Fährnissen gesteigerter Spezialisierung ausgesetzt zu sein. Es scheint zu genügen, stetig neue Großhirnrindenareale hinzuzufügen und diese mit den bereits bestehenden nach bestimmten Regeln zu verbinden, um neue Funktionen zu verwirklichen. Vermutlich ist dies der Grund, warum die Evolution seit der „Entdeckung“ der Großhirnrinde fast nur noch in die Vermehrung dieser Hirnstruktur „investiert“ hat. Diese Gründe mögen die biologische Evolution komplexer Gehirne und der von ihnen hervorgebrachten kognitiven und exekutiven Funktionen hinreichend erklären. Sie reichen jedoch nicht, um das eigentümliche Verhältnis von Bewusstsein und Sprache und die uns rätselhaft erscheinende immaterielle Qualität von Bewusstseinsinhalten zu verstehen.

 ie immateriellen Konnotationen von D Bewusstsein Unsere besondere Fähigkeit zur Abstraktion und symbolischen Kodierung ist der hohen Komplexität unserer Hirnrinde geschuldet. Wir besitzen ein Netzwerk von Arealen mit besonders hohem Vernetzungsgrad, die bereits hoch verarbeitete (abstrahierte) Informationen von anderen Arealen aufnehmen, in symbolische Repräsentationen umsetzen und diese über Gesten und Lautfolgen äußern können  – unser Sprachsystem. Warum aber hat dieses in der

  Komplexität und Bewusstsein 

231

Geschichte der biologischen Evolution einzigartige System nur Zugang zu Informationen, die auf der Plattform des Bewusstseins verfügbar sind? Die Antwort hat eine zirkuläre Konnotation. Wir definieren Inhalte als bewusste, wenn sie sprachlich gefasst werden können, und setzen  – vermutlich zu Unrecht – bewusste Verarbeitung mit der Möglichkeit gleich, Inhalte begrifflich zu fassen und zu verhandeln. Nachdenken und innere Monologe erscheinen uns unabdingbar mit Bewusstsein verbunden. Ein Grund für den unleugbar engen Zusammenhang zwischen bewusster Verarbeitung und sprachlicher Mitteilbarkeit könnte sein, dass nur die hoch verdichteten und abstrakten Verarbeitungsergebnisse Zugang zu Sprachnetzwerken haben, die in Arealen erarbeitet werden, die ihrerseits das Substrat für metakognitive Prozesse sind. Obgleich diese Interpretation mit Verschaltungsprinzipien der Hirnrinde kompatibel wäre, muss sie jedoch zunächst als ungeprüfte Hypothese stehen bleiben. Aber selbst wenn sich naturalistische Erklärungen für die Evolution neuronaler Strukturen finden lassen, die Metakognition, bewusste Verarbeitung und die Kommunikation der Ergebnisse metakognitiver Prozesse unterstützen, bleibt die Frage, die auch als das hard problem adressiert wird, als das „schwierige Problem“ der Bewusstseinsforschung – die Frage nach dem ontologischen Status der immateriellen, subjektiven Konnotationen von Bewusstseinsinhalten, der Qualia, dem subjektiven Erlebnisgehalt der Wahrnehmungsobjekte, der idiosynkratischen Empfindungen, der mentalen und spirituellen Dimension, an der wir uns als bewusste Wesen teilhaftig erleben. Lassen sich auch hierfür naturalistische Erklärungen finden, oder müssen wir hier auf andere, metaphysische Bezugssysteme verweisen? Betreten wir bei diesem Versuch das Territorium metaphysischer Erklärungsmodelle, oder müssen wir gar auf die nicht widerlegbare Vermutung des ontologischen Dualismus zurückgreifen, sind materielle und immaterielle zwei einander ausschließende Formen von Entitäten?

Ein naturalistischer Erklärungsversuch Ich will den Versuch wagen, eine Erklärung für die immateriellen Qualitäten von Bewusstseinsinhalten zu finden, die ohne metaphysische Annahmen auskommt. Dies erfordert aber, die kognitiven Prozesse einzelner Gehirne nicht mehr isoliert zu betrachten, sondern sie in das sozio-kulturelle Umfeld einzubetten, in dem sie sich entwickeln. Im Zentrum steht dabei die Hypothese, dass auch die Selbstwahrnehmung Ergebnis eines konstruktivistischen

232 

W. Singer

Prozesses ist, der auf Vorannahmen, auf apriorischem Wissen beruht, genauso wie die Wahrnehmung der Außenwelt. In den vergangenen Jahrzehnten wurden überzeugende neurophysiologische und psychophysische Belege dafür erbracht, dass die Art, wie wir die Welt um uns wahrnehmen, das Ergebnis eines konstruktivistischen Prozesses ist, der von Vorwissen, sogenannten priors, über die Struktur der Welt getragen wird. Wie groß der Anteil von priors für die Strukturierung dessen ist, was wir wahrnehmen, wird deutlich, wenn man sich vergegenwärtigt, wie viel Vorwissen über die Struktur von Welt notwendig ist, um zum Beispiel aus der kontinuierlichen Verteilung elektromagnetischer Wellen, die in der Netzhaut des Auges in neuronale Erregung umgesetzt werden, den Reichtum der visuell erfassbaren Welt zu rekonstruieren. Es bedarf hierzu beträchtlichen Vorwissens darüber, was Objekte ausmacht, wie sie sich im dreidimensionalen Raum zueinander verhalten und vieles mehr. Um dann diese Objekte zu erkennen, bedarf es zudem des Abgleichs mit gespeicherter Information über typische Merkmalskonstellationen und deren unterschiedliche Erscheinungsformen. Ein Großteil dieses Wissens wurde im Lauf der Evolution erworben und ist in genetisch festgelegten neuronalen Verschaltungen gespeichert. Dieses Wissen wird durch frühe Prägung und lebenslanges Lernen ergänzt, wodurch angeborene Verschaltungen strukturell und funktionell weiter modifiziert werden. Der Grund, warum wir alle die Welt auf ähnliche Weise wahrnehmen ist, dass wir uns in ähnlichen Umwelten entwickelt haben und deshalb über ähnliche priors zur Interpretation von Sinnessignalen verfügen. Weil wir alle zu sehr ähnlichen Wahrnehmungen kommen und uns die konstruktivistischen Prozesse, die diese Wahrnehmungen erzeugen, verborgen bleiben, sind wir davon überzeugt, die Welt sei so, wie wir sie wahrnehmen. Und selbst wenn uns psychophysische Experimente und die Ergebnisse der Hirnforschung deutlich vor Augen führen, dass das Wahrgenommene lediglich das Produkt von Konstruktionen ist, halten wir an dieser Überzeugung fest.

 oziale Realitäten als Priors für die S Selbstwahrnehmung Ich schlage nun vor, dass auch die Selbstwahrnehmung und das aus ihr resultierende Selbstmodell Ergebnis einer Konstruktion ist, die auf einer Fülle impliziter Vorannahmen beruht – nur dass hier nicht nur die Bedingungen der vorkulturellen Welt die priors vorgeben, sondern dass diese zusätzlich durch Anpassung an unser sozio-kulturelles Umfeld geprägt sind. Durch die

  Komplexität und Bewusstsein 

233

kulturelle Evolution haben Menschen der vorgefundenen Wirklichkeit, in der sich die biologische Evolution vollzog, neue Realitäten hinzugefügt, für die John Searl den Begriff der „sozialen Realitäten“ geprägt hat. Diese Realitäten sind immateriell, aber sehr wirkmächtig und konstitutiv für das Menschsein. Sie kamen in die Welt, als Menschen damit begannen, ihre hochentwickelten kognitiven Fähigkeiten einzusetzen, um sich über ihre Wahrnehmungen und Befindlichkeiten auszutauschen. Menschen können sich verabreden, ihre Aufmerksamkeit gemeinsam auf die immateriellen „Objekte“ zu richten, die in sozialen Interaktionen erfahrbar werden, diese als gemeinsam erlebte anerkennen und mit symbolischen Beschreibungen belegen. Eine um das Lagerfeuer vereinte Gemeinschaft wird die Erfahrung machen, dass es immaterielle, aber durchaus benennbare Qualitäten gibt wie Großzügigkeit und Geiz, Freude und Trauer, Fairness und Ungerechtigkeit, Friedfertigkeit und Aggressivität, Abneigung und Liebe, Loyalität und Verrat. Menschen sind zudem in der Lage, eine „Theorie des Geistes“ zu entwickeln, sie können sich vorstellen, was im je Anderen vorgeht, wenn er sich in einer bestimmten Situation befindet, auch wenn der Beobachtete diese inneren Vorgänge nicht zur Schau stellt. Dies befähigt zur Perspektivenübernahme und damit zur Selbstzuschreibung des jeweils Wahrgenommenen. Auf diese Weise bekommen auch die eigenen Regungen und die Wahrnehmungen der „neuen Realitäten“ einen Namen und können kommuniziert werden. Es entsteht eine neue, sich rasch ausweitende Dimension immaterieller Realitäten, die genauso konkret erfahren werden können wie die dingliche Welt. Inhalte von Glaubenssystemen und die aus ihnen abgeleiteten moralischen Imperative gehören zu diesen sozialen Realitäten ebenso wie die Konzepte von Intentionalität, Freiheit, Wille, Verantwortlichkeit, Gewissen und Schuld. In Ritualen, in Kult- und Kunstobjekten werden diese nicht greifbaren Wirklichkeiten für alle konkretisiert und erfahrbar gemacht. Sie werden zu einem festen Bestandteil der Umwelt, in die sich Menschen hineinentwickeln. Und so müssen sich die Menschen auch an die Bedingungen dieser selbst geschöpften, immateriellen Welt anpassen, um bestehen zu können. Ich vermute nun, dass diese Wirklichkeiten ebenfalls zu priors werden, die wir benötigen, um die von sozialen Interaktionen herrührenden Signale zu interpretieren und zu Wahrnehmungen zu verarbeiten, deren Objekte jetzt aber immaterielle, relationale Konstrukte sind. Unser Weltmodell wird um diese immateriellen Objekte und deren Wechselbeziehungen erweitert. Die neuen priors weisen zwar kulturspezifische Unterschiede auf, sind sich jedoch in fundamentalen Eigenschaften hinreichend ähnlich, um allen Menschen die Wahrnehmung zu vermitteln, an einer immateriellen, geistigen oder

234 

W. Singer

mentalen Dimension teilzuhaben. Aufgrund der Fähigkeit, die an anderen gemachten Beobachtungen zu spiegeln und sich die beobachteten Eigenschaften selbst zuzuschreiben, wird sich auch das Selbstmodell und damit die Selbstwahrnehmung unter dem Einfluss der neu entstandenen priors verändern – was durch intentionale Erziehung weiter verstärkt wird. Diese kulturbedingten Wahrnehmungen könnten der Grund dafür sein, dass wir uns als einer immateriellen, mentalen, geistigen Dimension teilhaftig erfahren. Da wir von den Vorgängen in unserem Gehirn, die zu diesen Wahrnehmungen führen, keine Kenntnis haben und unserer Alltagserfahrung die impliziten kulturellen priors genauso wenig zugänglich sind wie die priors, die uns die Wahrnehmung der dinglichen Welt vermitteln, haben wir keine Möglichkeit, die Wahrnehmung einer geistigen, immateriellen Dimension als Konstruktion zu verstehen. Wir halten das im Inneren Wahrgenommene für real, und diese Wahrnehmung bleibt unwidersprochen. Und so verwundert es nicht, dass wir die Inhalte, die in unserem Bewusstsein aufscheinen und die wir als benennbare Realitäten erfahren, dieser neuen immateriellen Dimension zurechnen. Da uns zugleich nicht ersichtlich ist, wie diese immateriellen Wirklichkeiten aus den materiellen neuronalen Prozessen im Gehirn entstehen können, neigen wir dazu, sie einer ontologisch anderen Ebene zuzuordnen, sie in den Bereich metaphysischer Dimensionen zu verschieben oder sogar einen ontologischen Dualismus zwischen Geist und Materie anzunehmen. Aus dieser durchaus naheliegenden Projektion, vermute ich, erwachsen die Konflikte, denen wir bei dem Versuch begegnen, das subjektive Erleben von Intentionalität, Freiheit und den Qualia bewusster Wahrnehmung mit den neuronalen Prozessen in Verbindung zu bringen, die diese Phänomene hervorbrachten und uns zugleich zur Wahrnehmung dieser Konstrukte befähigen. Die Art, wie wir uns und Andere wahrnehmen, in ihrer Subjektivität, Freiheit und Intentionalität entspricht, wie alle Wahrnehmungen, einer nicht hinterfragbaren Wirklichkeitserfahrung. Sollte diese Interpretation zutreffen, hätten wir es mit einem kontinuierlichen, evolutionären Prozess zu tun, in dem es aufgrund stetiger Komplexitätszunahme der Systeme zu mehreren Phasenübergängen gekommen ist, die sich in der Emergenz neuer Qualitäten ausdrücken. Dies ist eine wohlbekannte Eigenschaft komplexer Systeme, die naturalistischen Beschreibungen zugänglich ist. Allerdings sind für die Beschreibung der emergenten Eigenschaften jeweils verschiedene Sprachspiele einzusetzen. Die stetige Zunahme der Komplexität von neuronalen Netzwerken führte zu immer mächtigeren Strategien der Informationsverarbeitung, die dann die hoch differenzierten kognitiven und exekutiven Leistungen menschlicher Gehirne hervorbrachten. Diese

  Komplexität und Bewusstsein 

235

emergenten Funktionen können aber nicht mehr in der Sprache der Neurowissenschaften beschrieben werden, sondern müssen in Begriffssystemen der Verhaltenswissenschaften gefasst werden. Durch die zunehmenden Brücken zwischen Neuro- und Verhaltenswissenschaften einschließlich der Psychologie bereitet uns der stete Wechsel zwischen diesen aufeinander bezogenen Beschreibungsebenen jedoch kaum mehr Schwierigkeiten. Die nächste Stufe der Komplexitätszunahme resultierte dann aus den hochentwickelten Kommunikationsmöglichkeiten von Menschen. Dank dieser können Menschen komplexe soziale Netzwerke ausbilden, die dann ihrerseits zur Emergenz neuer Qualitäten führen, den sozialen Realitäten. Diese werden in den Sprachspielen der Humanwissenschaften benannt, die sich unabhängig von naturalistischen Beschreibungssystemen entwickelt haben und bislang sehr wenige Verbindungen zu diesen aufweisen. Wenn aber zutreffen sollte, dass wir es mit einem kontinuierlichen evolutionären Prozess hin zu immer komplexeren Netzwerken zu tun haben, die aufeinander bezogen sind und immer neue Qualitäten hervorbringen, dann sollte auch hier eine Annäherung möglich sein. Denn wir hätten es mit einer Abfolge von Phasenübergängen zu tun, die auf ähnlichen Prinzipien beruhen. In neuronalen Netzwerken bestehen die Knoten aus Nervenzellen und die emergenten Eigenschaften äußern sich als Verhalten und kognitive Leistungen. In den sich im Laufe der kulturellen Evolution herausgebildeten sozialen Netzwerken bestünden die Knoten entsprechend aus kognitiven Agenten und die emergenten Qualitäten wären die oben skizzierten sozialen Realitäten mit all ihren Konsequenzen für die Konstruktion unseres Selbstmodells. Da sich die kognitiven Eigenschaften der Menschen, die diese Kultur tragenden Netzwerke ausgebildet haben, den neuronalen Netzwerken verdanken, die sie mit sich herumtragen, sollten sich auch für den bislang letzten Phasenübergang der Evolution, für den Übergang von der biologischen zur kulturellen Evolution, Brücken schlagen lassen. Vielleicht gelingt es dann, die Natur- und Kulturwissenschaften einander anzunähern und eine durchgängige Erklärung dafür zu finden, warum wir uns zu Recht als einer immateriellen, geistigen, mentalen und spirituellen Dimension teilhaftig empfinden, ohne metaphysische Hilfskonstruktionen in Anspruch nehmen zu müssen. Experimentelle Ergebnisse und weitere Ausführungen findet der Leser in der Fachliteratur [220–228].

Literatur

1. Nicolai, H. (2017), Gravity’s quantum side, CERN Courier, Vol. 57, No. 1. 2. Kiefer, C. (2007), Quantum Gravity, Oxford University Press, Oxford. 3. Blumenhagen, R., Lüst, D., Theisen, S. (2012), Basic Concepts of String Theory, Springer Verlag, Berlin, Heidelberg, New York. 4. Kleinschmidt, A., Nicolai, H. (2010), E10: Eine fundamentale Symmetrie der Physik? Physik in unserer Zeit 41, no. 3, 134–140. 5. Ellis, G.F.R., Meissner, K.A., Nicolai, H. (2018), The physics of infinity, Nature Physics 14, 770–772. 6. Huggett, N. (1999), Space from Zeno to Einstein, MIT Press, Cambridge. 7. Stein, H. (2002), Newton’s Metaphysics. In: I. B. Cohen and G. E. Smith (eds), The Cambridge Companion to Newton, pp. 256–307, Cambridge University Press, Cambridge. 8. DiSalle, R. (2006), Understanding Space-Time, Cambridge University Press, Cambridge. Rynasiewicz, R. (2004), Newton’s Views on Space, Time, and Motion, The Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/entries/ newton-stm/. 9. Schueller, V. (Hrsg., 1991), Der Leibniz-Clarke Briefwechsel, Akademie Verlag, Berlin. 10. Earman, J. (1989), World Enough and Space-time, MIT Press, Cambridge. 11. Dainton, B. (2001), Time and Space, Acumen Publishing, Slough, Bucking­hamshire. 12. Einstein, A. (1916), Die Grundlage der allgemeinen Relativitätstheorie, Annalen der Physik 49, 769. Wiederabgedruckt und mit detaillierter Annotation versehen in Vol. 6, Doc. 30 in den „Gesammelten Werken Albert Einsteins“. Online erhältlich unter https://einsteinpapers.press.princeton.edu/vol6-doc/311.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0

237

238 Literatur

13. Norton, J. (2007), Einstein for everyone, Nularbor Press, Pittsburgh. Open access unter https://www.pitt.edu/~jdnorton/teaching/HPS_0410/chapters/general_ relativity_pathway/index.html 14. Lehmkuhl, D. (2014), Why Einstein did not believe that General Relativity geometrizes gravity. Studies in History and Philosophy of Modern Physics 46, 316–326. Open access unter https://www.sciencedirect.com/science/article/pii/ S1355219813000695 15. Janssen, M. (2015), No Success like Failure: Einstein’s Quest for General Relativity, 1907–1920, The Cambridge Companion to Einstein, Cambridge University Press, Cambridge. 16. Schrödinger, E. (1935), The Present Status of Quantum Mechanics, Die Naturwissenschaften 23, 1. 17. Einstein, A., Podolsky, B., Rosen, N. (1935), Can quantum-mechanical description of physical reality be considered complete? Phys. Rev. 47, 777. 18. Bell, J. (1964), On the Einstein Podolski Rosen Paradox, Physics. 1, 195. 19. Aspect, A., Grangier, P., Roger, G. (1982), Experimental Realization of Einstein-Podolsky-Rosen-Bohm Gedankenexperiment: A New Violation of Bell’s Inequalities, Phys. Rev. Lett. 49, 91. 20. Hensen, B. et  al. (2015), Loophole-free Bell inequality violation using electron spins separated by 1.3 kilometres, Nature 526, 682. 21. Rosenfeld, W. et al. (2017), Event-Ready Bell Test Using Entangled Atoms, Phys. Rev. Lett. 119, 010402. 22. Ma, X.-S. et al. (2012), Quantum teleportation over 143 kilometres using active feed-forward, Nature 489, 269. 23. Al-Khalili, J., McFadden, J. (2015), Der Quantenbeat des Lebens, Ullstein (Berlin). 24. Liddle, A.  R. (2009), Einführung in die moderne Kosmologie, Wiley-­ VCH, Weinheim. 25. Bartelmann, M. (2001), Kosmologische Inflation, Phys. Bl. 57/9, 41. 26. Guth, A. H. (1981), The Inflationary Universe: A Possible Solution to the Horizon and Flatness Problems, Phys. Rev. D 23, 347. 27. Penzias, A. A., Wilson, R. W. (1965), A Measurement of excess antenna temperature at 4080-Mc/s, Astrophys. J. 142, 419. 28. Mukhanov, V. F., Chibisov, G. V. (1981), Quantum fluctuations and a nonsingular universe, J. of Experimental and Theoretical Phys. Letters 33, 532. 29. Hawking, St. (2001), Das Universum in der Nußschale. Hoffmann und Kampe, Hamburg. 30. Wetterich, Chr. (2013), Universe without expansion, Phys. Dark Univ. 2, 184. 31. Christenson, J. Cronin, J., Fitch, V., Turlay R. (1964), Evidence for the 2𝜋 Decay of the K02-Meson, Phys. Rev. Lett. 13, 138. 32. Kleinknecht, K. (1976), CP Violation and K0 Decays, Ann. Rev. Nucl. Sci. 26, 1. 33. Wolfenstein, L. (1964), Violation of CP Invariance and the Possibility of Very Weak Interactions, Phys. Rev. Lett. 13, 562.

 Literatur 

239

34. Kobayashi, M., Maskawa, T. (1973), CP Violation in the RenormalizableTheory of Weak Interaction, Progr. Theor. Phys. 49, 652; s. auch [35]. 35. Kleinknecht, K. (1985), Quark Mixing In Weak Interaction, Phys. Bl. 41, 410. 36. Burkhardt, H. et al. (NA31-Kollaboration, 1988), First Evidence for Direct CP Violation, Phys. Lett. B206, 169. 37. Barr, G. D., et al. (NA31-Kollaboration, 1993), A New Measurement of Direct CP Violation in the Neutral Kaon System, Phys. Lett. B317, 233. 38. Batley, J. R., et al. (NA48-Kollaboration, 2002), Precision measurement of direct CP violation in the decay of neutral kaons into two pions, Phys. Lett. 544B, 97. 39. Worcester, E. (KTeV-Collaboration, 2008), The Final Measurement of Epsilon-prime/Epsilon from KTeV Fermilab-Seminar, Chicago, 25. Februar 2008. 40. Abouzaid, E. et al. (kTeV-Collaboration, 2011), Precise Measurements of Direct CP Violation, CPT Symmetry, and Other Parameters in the Neutral Kaon System, Phys. Rev. D83, 092001. 41. Buras, A. J., Jamin, M., Lautenbacher M. E. (1993), The Anatomy of ɛ′ /ɛ Beyond Leading Logarithms with Improved Hadronic Matrix Elements, Nucl. Phys. B408, 209. 42. Ciuchini, M., Franco, E., Martinelli, G., Reina, L. (1993), ɛ′ /ɛ at the Next-­to-­ Leading Order in QCD and QED, Phys. Lett. B301, 263. 43. Bertolini, S., Fabbrichesi, M., Eeg, J. O. (2000), Theory of the CP Violating Parameter ɛ′/ɛ, Rev. Mod. Phys. 72, 65. 44. Pich, A. (2004), ɛ′ /ɛ in the standard model: Theoretical Update, 32nd International Conference on High Energy Physics, 16–22 Aug. 2004. Beijing, China, hep- ph/0410215. 45. Buras, A. J., Jamin, M. (2004), ɛ′ /ɛ at the NLO: 10 Years Later, JHEP 0401,048. 46. Aaij, R. et al. (LHCb-Collaboration, 2017), Measurement of matter-­antimatter differences in beauty baryon decays, Nature Phys. 13, 391. 47. Gershon, T., Gligorov, V. V. (2017), CP violation in the B system, Rept. Prog. Phys. 80, 046201. 48. Buchmüller, W., Wyler, D. (2001), CP violation, neutrino mixing and the baryon asymmetry, Phys. Lett. B 521, 291; T2K presents hint of CP violation by neutrinos, T2K report, http://t2k-experiment.org/2017/08/2tk-2017-cpv/. 49. Cheng, Ta-Pei, Li, Ling-Fong (2000), Gauge Theory of Elementary Particle Physics: Problems and Solutions, Oxford University Press. 50. Janka, H.-T. (2011), Supernovae und kosmische Gammablitze, Herausgeber: Burkert, A., Lesch, H., Heckmann, N., Hetznecker, H., Springer Verlag, Heidelberg. 51. Burbidge, E. M., Burbidge, G. R., Fowler, W. A., Hoyle, F. (1957), Synthesis of the elements in stars, Rev. Mod. Phys. 29, 547. 52. Cameron, A. G. W. (1957), Nuclear reactions in stars and nucleosynthesis, AEC Report, CRL-41; Pub. Astr. Soc. Pacific 69, 201. 53. Iliadis, C. (2007), Nuclear Physics of Stars, Wiley-VCH, Weinheim.

240 Literatur

54. Cameron, A.  G. W. (1982), Elemental and nuclidic abundances in the solar system. In: Essays in Nuclear Astrophysics, ed. C. A. Barnes et al., Cambridge University Press, p. 23. 55. Rolfs, C. E., Rodney, W.S. (1988), Cauldrons in the Cosmos, Chicago University Press. 56. Pagel, B. E. J. (2009), Nucleosynthesis and Chemical Evolution of Galaxies, Cambridge University Press. 57. Janka, H.-T. (2011), Supernovae und kosmische Gammablitze  – Ursachen und Folgen von Sternexplosionen, Spektrum Akademischer Verlag, Heidelberg. 58. Suess, H.  E., Urey H.  C. (1956), Abundance of the Elements, Rev. Mod. Phys. 28, 53. 59. Abbott, B. P. et al. (2017), Gravitational Waves and Gamma-Rays from a Binary Neutron Star Merger, Astrophys. Journal 848, L13. 60. Martinez-Pinedo, G., Metzger, B.  D., Thielemann, F.-K. (2017), Der Beginn einer Multi-Messenger-Ära, Physik Journal 16, 20. 61. Pearson, J. M. (1986), Nuclear Physics – Energy and Matter, Adam Hilger, Bristol and Boston. 62. Martinez-Pinedo, G., Sonnabend, K. (2009), Wir sind alle Sternenstaub, TU Darmstadt/Wissenschaftsmagazin forschen Nr. 1, 24. 63. Käppeler, F., Gallino, R., Bisterzo, S., Aoki, W. (2011), The s-process: Nuclear physics, stellar models, and observations, Rev. Mod. Phys. 83, 157. 64. Thielemann, F.-K. et al. (2011), What are the astrophysical sites for the r–process and the production of heavy elements? Prog. Part. Nucl. Phys. 66, 346. 65. Lattimer, J.  M., Schramm, D.  N. (1974), Black-Hole-Neutron-Star Collisons, Astrophys. Journal 192, L145. 66. Eichler, D., Livio, M., Piran, T., Schramm, D. N. (1989), Nucleosynthesis, Neutrino Bursts and γ–Rays from Coalescing Neutron Stars, Nature 340, 126. 67. Metzger, B. D. et al. (2010), Electromagnetic counterparts of compact object mergers powered by the radioactive decay of r–process nuclei, Mon. Not. R. Astron. Soc. 406, 2650. 68. Thielemann, F.-K., persönliche Mitteilung von Januar 2018. 69. Reifarth, R., Wiescher, M. (2016), Research on the Origin of the Stable, Proton-Rich Isotopes, Nucl. Phys. News 26, No. 4, 14. 70. Erler, J. et al. (2012), The limits of the nuclear landscape, Nature 486, 509. 71. Andre, P., Ward-Thompson, D., Barsony, M. (1993), Submillimeter continuum observations of rho Ophiuchi A: The candidate protostar VLA 1623 and prestellar clumps, Astrophys. J. 406, 122. 72. Bovaird, T., Lineweaver, C. H. (2013), Exoplanet Predictions Based on the Generalised Titius-Bode Relation, Mon. Not. Roy. Astron. Soc. 435, 1126. 73. Planck, M. (1901), On the Law of Distribution of Energy in the Normal Spectrum, Annalen Phys. 4, 553. 74. Davis, R. (1994), A Review of the Homestake Solar Neutrino Experiment, Prog. Part. Nucl. Phys. 32, 13.

 Literatur 

241

75. Kaether, F., Hampel, W., Heusser, G., Kiko, J., Kirsten, T. (2010), Reanalysis of the GALLEX solar neutrino flux and source experiments, Phys. Lett. B 685, 47 (2010). 76. Nakamura, K., Petcov, S. T. (2016), Neutrino Mass, Mixing, and Oscillations. In: C. Patrignani et al. [Particle Data Group], Review of Particle Physics, Chin. Phys. C 40, 100001. 77. Tandberg-Hansen, E. (1974), Solar Prominences, D.  Reidel Publishing Company, Dordrecht, Holland. 78. Odenwald S. T., Green, J. L. (2009), Solare Superstürme, Spektrum der Wissenschaft, März 2009, S. 24. 79. Schröder, K. P., Smith, R. C. (2008), Distant future of the Sun and Earth revisited, Mon. Not. Roy. Astron. Soc. 386, 155. 80. Bahlburg, H., Breitkreuz, Chr. (2012), Grundlagen der Geologie. Springer Spektrum, 4. Auflage, 423 S., Berlin/Heidelberg. 81. Frisch, W., Meschede, M. (2005), Plattentektonik, Kontinentverschiebung und Gebirgsbildung. Wissenschaftliche Buchgesellschaft, 5. Aufl., 196 S., Darmstadt, 2013. 82. Rothe, P. (2008), Die Erde. Alles über Erdgeschichte, Plattentektonik, Vulkane, Erdbeben, Gesteine und Fossilien. Konrad Theiss-Verlag, 3. Auflage, 224 S., Darmstadt 2015. 83. Dodd, M. S., Papineau, D., Grenne, T., Slack, J. F., Rittner, M., Pirajno, F., O‘Neil, J., Little, C. T. S. (2017), Evidence for early life in Earth‘s oldest hydrothermal vent precipitates, Nature 543, 60. 84. Tashiro, T., Ishida, A., Hori, M., Igisu, M., Koike, M., Méjean, P., Takahata, N., Sano, Y., Komiya, T. (2017), Early trace of life from 3.95 Ga sedimentary rocks in Labrador, Canada, Nature 549, 516. 85. Weiss, M. C., Sousa, F. L., Mrnjavac, N., Neukirchen, S., Roettger, M., Nelson-Sathi, S., Martin, W. F. (2016), The physiology and habitat of the last universal common ancestor, Nature Microbiol. 1, Art. No. 16116. 86. Martin, W.F., Zimorski, V., Weiss, M.C. (2017), Wo lebten die ersten Zellen – und wovon? BIUZ 47, 186. 87. Russell, M. J., Hall, A. J., Cairns-Smith, A. G., Braterman, P. S. (1988), Submarine hot springs and the origin of life, Nature 336, 117. 88. Amend, J. P., Shock, E. L. (1988), Energetics of amino acid synthesis in hydrothermal ecosystems, Science 281, 1659. 89. Proskurowski, G., Lilley, M. D., Seewald, J. S., Früh-Green, G. L., Olson, E. J., Lupton, J. E., Sylva, S. P., Kelly, D. S. (2008), Abiogenic hydrocarbon production at Lost City hydrothermal field, Science 319, 604–607 (2008). 90. Lane, N. (2015), The vital question. Why is life the way it is, Profile Books, London. 91. Huber, C., Wächtershäuser G. (1988), Peptides by activation of amino acids with CO on (Ni,Fe)S surfaces: implications for the origin of life, Science 281, 670.

242 Literatur

92. Schuabb, C., Kumar, N., Pataraia, S., Marx, D., Winter, R. (2017), Pressure modulates the self-cleavage step of the hairpin ribozyme, Nature Commun. 8, Art. Nr. 14661. 93. Nelson-Sathi, S., Sousa, F. L., Roettger, M., Lozada-Chávez, N., Thiergart, T., Janssen, A., Bryant, D., Landan, G., Schönheit, P., Siebert, B., McInerney, J. O., Martin, W. F. (2015), Origins of major archaeal clades correspond to gene acquisitions from bacteria, Nature 517, 77. 94. Judson, O.  P. (2017), The energy expansions of evolution, Nature Ecol. and Evol. 1, 1. 95. Bresch, C. (2010), Evolution, Schattauer GmbH, Stuttgart. 96. Arthur, W. (2011), Evolution  – A developmental approach, Wiley-Blackwell, Hoboken, New Jersey. 97. Futuyma, D.J. (2005), Evolution, Sinauer Associates, Sunderland, Massachusetts. 98. Kimura, M. (1987), Die Neutralitätstheorie der molekularen Evolution, Verlag Paul Parey, Berlin und Hamburg. 99. Minelli, A. (2018), Plant Evolutionary Developmental Biology – The evolvability of the phenotype, Cambridge University Press. 100. Theißen, G., Becker, A., Di Rosa, A., Kanno, A., Kim, J. T., Münster, T., Winter, K. U. and Saedler, H. (2000), A short history of MADS-box genes in plants, Plant Molecular Biology 42, 115. 101. Theißen, G. (2006), The proper place of hopeful monsters in evolutionary biology, Theory in Biosciences 124, 349. 102. Theißen, G. (2010), Homeosis of the angiosperm flower: Studies on three candidate cases of saltational evolution, Palaeodiversity 3, Supplement, 131. 103. Wagner, G. P. (2014), Homology, genes and evolutionary innovation, Princeton University Press. 104. Anderson, J. S., Sues, H.-D. (eds., 2007), Major transitions in vertebrate evolution, Indiana University Press, Bloomingtion, Indianapolis. 105. Carroll, S. B. (2005), Endless forms most beautiful. The new science of Evo Devo and the making of the animal kingdom. W. W. Norton, New York. 106. Carroll, S. B. (2006), The making of the fittest. DNA and the ultimate forensic record of evolution. W. W. Norton, New York. 107. Carroll, S. B., Grenier, J. K., Weatherbee, S. D. (2001), From DNA to diversity. Molecular genetics and the evolution of animal design. Blackwell, Oxford. 108. Gould, S.J. (1989), Wonderful Life. The Burgess Shale and the Nature of History. W. W. Norton, New York [Deutsch: Zufall Mensch. Das Wunder des Lebens als Spiel der Natur, Hanser, München 1991]. 109. Minelli, A. (2009), Forms of becoming. The Evolutionary Biology of Developmental. Princeton University Press, Princeton. 110. Minelli, A. (2009), Perspektives in Animal phylogeny and Evolution, Oxford University Press, Oxford.

 Literatur 

243

111. Valentine, J.  W. (2004), On the origin of phyla. The University of Chicago Press, Chicago. 112. Senut, B. et  al. (2001), First hominid from the Miocene (Lukeino Formation, Kenya), Comptes Rendus de l’Académie de Sciences 332, 137. 113. White, T.D., Suwa, G., Asfaw, B. (1994), Australopithecus ramidus, a new species of early hominid from Aramis, Ethiopia, Nature 371, 306. 114. Haile-Selassie, Y. (2001), Late Miocene hominids from the Middle Awash, Ethiopia, Nature 412, 178. 115. Brunet, M. et al. (2002), A new hominid from the Upper Miocene of Chad, Central Africa, Nature 418, 145. 116. Schrenk, F., Kullmer, O., Sandrock, O. (2004), An Open Source Perspective of Earliest Hominid Origins. In: Collegium Anthropologicum 28, 113. 117. Niemitz, C. (2004), Das Geheimnis des aufrechten Gangs. Unsere Evolution verlief anders, C.H. Beck, München. 118. Berger, L. et  al. (2010), Australopithecus sediba: A New Species of Homo-Like Australopith from South Africa, Science 328, 195. 119. Wrangham, R. (2009), Feuer fangen. Wie uns das Kochen zum Menschen machte – eine neue Theorie der menschlichen Evolution, DVA, München. 120. Berger, L. et al. (2015), Homo naledi, a new species of the genus Homo from the Dinaledi Chamber, South Africa, eLife 2015;4:e09560, https://doi.org/10.7554/ eLife.09560. 121. Krause, J., Fu, Q., God, J.M., Viola, B., Shunkov, M.V., Derevianko, A.P., Pääbo, S. (2010), The complete mitochondrial DNA genome of anunknown hominin from southern Siberia. Nature 464, 894. 122. Brown, P. (2005), A new small-bodied hominin from the Late Pleistocene of Flores, Indonesia, Nature 431,1057. 123. Hershkovitz, I. et  al. (2018), The earliest modern humans outside Africa, Science 359, 459. 124. Henke, W., Hardt, T. (2011), The Genus Homo: Origin, Speciation and Dispersal. In: S. Condemi, G.-C. Weniger (Eds.), Continuity and Discontinuity in the Peopling of Europe: One Hundred Fifty Years of Neanderthal Study, Vertebrate Paleobiology and Paleoanthropology (pp.  17–19), Dordrecht: Springer Science+Business Media B.V. 125. Stringer, C. (2016), The origin of evolution of Homo sapiens, Phil. Trans. R. Soc. B. 371: https://doi.org/10.1098/rstb.2015.0237. 126. Darwin, C. (1982), Die Abstammung des Menschen. Mit einer Einführung von C. Vogel. Alfred Kröner Verlag, Stuttgart. 127. Altner, G. (Hrsg. 1982), Der Darwinismus, die Geschichte einer Theorie. Darmstadt, WBG. 128. Henke, W. (2015), Historical Overview of Paleoanthropological Research. In: Henke, W., Tattersall, I. (eds.), Handbook of Paleoanthropology, 2nd edition, vol. 1, Principles, Methods, and Approaches (pp. 1–56), Springer, Berlin, Heidelberg, New York.

244 Literatur

129. Huxley, H. (1862), Evidence as to Man’s Place in Nature, Williams & Norgate, London. 130. Henke, W., Rothe, H. (2003), Menschwerdung. S. Fischer, Frankfurt. 131. Güntürkün, O., Hacker, J. (Hrsg., 2014), Geist – Gehirn – Genom – Gesellschaft, Nova Acta Leopoldina NF Nr. 405, Band 120, Halle (Saale). 132. Henke, W., Herrgen, M. (2012), Menschwerdung als evolutionsökologischer Prozess. In: Lang, A., Marinkovič, P. (Eds.), Bios – Cultus – (Im)mortalitas. Zur Religion und Kultur – Von den biologischen Grundlagen bis zu Jenseitsvorstellungen. Beiträge des interdisziplinären Kolloquiums vom 10.–11. März 2006 und 24.–25. Juli 2009  in der Ludwig-Maximilians-Universität München, (S. 25–60), Marie Leidorf Verlag, Rhaden/Westf. 133. Henke, W., Tattersall, I. (eds., 2015), Handbook of Paleoanthropology. Vol. I–III, p. XLIII, 2624. Springer, Berlin, Heidelberg, New York. 134. Vollmer, G. (2003), Wieso können wir die Welt erkennen? Neue Beiträge zur Wissenschaftstheorie. S. Hirzel, Stuttgart. 135. Vollmer, G. (2017), Im Lichte der Evolution. Darwin in Wissenschaft und Philosophie, S. Hirzel, Stuttgart. 136. Rothe, H., Henke, W. (2006), Stammbäume sind wie Blumensträuße – hübsch anzusehen, doch schnell verwelkt. In: Preuß, D., Hoßfeld, U., Breidbach, O. (Hrsg.), Anthropologie nach Haeckel, (S. 149–183), Franz Steiner, Stuttgart. 137. Henke, W. (2010), Zur narrativen Komponente einer theoriegeleiteten Paläoanthropologie. In B.  Engler (Hrsg.): Erzählen in den Wissenschaften. Positionen, Probleme, Perspektiven. 26. Kolloquium (2009) der Schweizerischen Akademie der Geistes- und Sozialwissenschaften (S. 83–104), Academic Press, Fribourg (CH). 138. Simpson, G.G. (1963), Biology and the Nature of Science. Science 139, 81. 139. Henke, W. (2009), Paläoanthropologische Modelle der Menschwerdung. Prinzipien – Methoden – Befunde. In: Borrmann, S., Rager, G. (Hrsg.), Kosmologie, Evolution und Evolutionäre Anthropologie. Neue Erkenntnisse der Forschung und ihre Beurteilung durch Philosophie und Theologie. Grenzfragen Band 34 (S. 167–222), Karl Alber, Freiburg, München. 140. Gamble, C., Gowlett, J., Dunbar, R. (2015), Evolution, Denken, Kultur. Das soziale Gehirn und die Entstehung des Menschlichen, Springer, Heidelberg. 141. Tomasello, M. (2002), Die kulturelle Entwicklung des menschlichen Denkens, Suhrkamp, Frankfurt/M. 142. Voland, E. (2008), Was für eine Frage? In: Ganten, D., Gerhardt, V., Heilinger, J.  C., Nida-Rümelin, J. (Hrsg.), Was ist der Mensch? (S. 245–248), W. de Gruyter, Berlin. 143. Wynn, T., Coolidge, F.L. (2013), Denken wie ein Neandertaler, Philipp von Zabern, Mainz. 144. Duncker, H.-R. (2000), Die Kulturfähigkeit des Menschen. Vorstellungen einer evolutionsbiologischen Anthropologie, Spiegel der Forschung 17. JG/Nr. 2 Oktober 2000.

 Literatur 

245

145. Duncker, H.-R. (Hrsg., 2006), Beiträge zu einer aktuellen Anthropologie (S. 245–248), Franz Steiner, Stuttgart. 146. Henke W. (2015), Mindreading and Symbolism in Human Evolution. The Upper Paleolithic Period. In: Půtová, B., Soukop, V. (eds.), The Genesis of Creativity and the Origins of Mind (pp. 76–97), Karolinum, Praha. 147. Haidle, M. N. (2015), Modeling the Past: Archeology. In: Henke, W., Tattersall, I. (eds.), Handbook of Paleoanthropology, Vol.1, Principles, Methods, and Approaches (pp. 845–872), Springer, Berlin, Heidelberg, New York. 148. Herrmann, B. (2016, 2. Auflage), Umweltgeschichte. Einführung in Grundbegriffe, Springer, Heidelberg. 149. Lieberman, D.  E. (2013), Unser Körper. Geschichte, Gegenwart, Zukunft, S. Fischer, Frankfurt. 150. Burgis, T. (2015), Der Fluch des Reichtums. Warlords, Konzerne, Schmuggler und die Plünderung Afrikas, Westend, Frankfurt/Main. 151. Koch-Hillebrecht, M. (1978), Der Stoff, aus dem die Dummheit ist. Eine Sozialpsychologie der Vorurteile, Verlag C. H. Beck, München. 152. Herrgen, M. (2010), Anthropologie und Darwinismus. Der Mensch zwischen Selbstfindung und Selbsterzeugung. In: Vogelsang, F., Meisinger, H. (Hrsg.), Über Darwin hinaus?! Die unabgeschlossene Geschichte des naturwissenschaftlichen Fortschritts, S. 97–110, Evangelische Akademie im Rheinland, Bonn. 153. Kanitscheider, B. (2014), Normen, Fakten und Brückenprinzipien. Ethik und evolutionärer Naturalismus. In: Neukamm, M. (Hrsg.), Darwin heute. Evolution als Leitbild in den modernen Wissenschaften, S. 213–262, Darmstadt, WBG. 154. Floss, H., Hussain, S. T. in Druck (2018), Substantiating the saltationist view of Aurignacian emergence in Central and Western Europe: a reassessment of qualitative and quantitative arguments. In: Early symbolic culture, Special Session Hugo-­ Obermaier-­Tagung, Heidenheim, 2015. 155. Leroi-Gourhan, A. (1965), Préhistoire de l’art occidental, Mazenod, Paris. 156. Higham, Th., Basell, L., Jacobi, R., Wood, R., Bronk Ramsey, Chr., Conard, N. J. (2012), Testing models for the beginnings of the Aurignacian and the advent of figurative art and music: The radiocarbon chronology of Geißenklösterle, Journal of Huma Evolution, Vol. 62, 664. 157. Floss, H. (2014), A new type of society creates a new type of objects. Aurignacian ivory sculptures from the Swabian Jura (Southern Germany). In: Corchón, S., Menéndez, M. (Hrsg.), Cien años de arte rupestre paleolítico. Centenario del descubrimiento de la cueva de la Peña de candamo (1914–2014), Salamanca 2014, 53. 158. Floss, H. (2015), Different! European Upper Palaeolithic art: a cultural heritage of Outstanding Universal Value. In: Sanz, N. (Hrsg.), Human Origin Sites and the World Heritage Convention in Eurasia, Heads 4, Vol. II, 103. 159. Floss, H. (2015), Le plus ancien art mobilier: les statuettes aurignaciennes en ivoire du Jura souabe (sud-ouest de l’Allemagne). In: F. Bon und R. White (Hrsg.),

246 Literatur

The Aurignacian Genius, art, technology and society of the first modern humans. Proceedings of the Congress New York, N.Y.U. April 2013, Palethnologie, 322. 160. Floss, H. (2017), Homo metaphysicus. Zu den Ursprüngen von Kunst, Religion und Musik. In: F.  Duerr, E.  Seidl (Hrsg.), Ursprünge (origins). Schriften des Museums der Universität Tübingen 15, 64–77. 161. Rauer, C., in Vorb. (2018), Homo Cultus. Vom Ursprung des Menschen. Merve-Verlag, Leipzig. 162. Delluc, B., Delluc, G. (1991), L’art pariétal archaïque en Aquitaine. Ed. CNRS, 28. Suppl. à Gallia Préhistoire. 163. Riek, G. (1934), Die Eiszeitjägerstation am Vogelherd im Lonetal, Vol. 1, Die Kulturen, Heine Verlag, Tübingen. 164. Conard, N.  J. (2003), Palaeolithic ivory sculptures from southwestern Germany and the origins of figurative art, Nature 426, 830. 165. Floss, H. (2007), L’art mobilier aurignacien du Jura souabe et sa place dans l’art paléolithique – Die Kleinkunst des Aurignacien auf der Schwäbischen Alb und ihre Stellung in der paläolithischen Kunst. In: Floss, H., Rouquerol, N. (Dir.) 2007: Les chemins de l’Art aurignacien en Europe – Das Aurignacien und die Anfänge der Kunst in Europa. Colloque international, Aurignac 2005, Éditions Musée-­ forum Aurignac 4, 2007. 166. Floss, H., Conard, N.  J. (2010), L’art mobilier du Jura souabe. In: Otte, M. (Hrsg.), Les Aurignaciens, Èditions Errance, 201. 167. Conard, C. J., Floss, H. (2013), Early figurative art and musical instruments from the Swabian Jura of southwestern Germany and their implications for human evolution. Sachs-Hombach, K., Schirra, J. (Hrsg.), Origins of pictures. Anthropological discourses in Image Science, 172, Halem, Cologne. 168. Chauvet, J.-M., Brunel-Deschamps, E., Hillaire, Chr. (1995) Grotte Chauvet. Altsteinzeitliche Höhlenkunst im Tal der Ardèche. Mit einem Nachwort von J. Clottes. Speläo 1, Thorbecke Verlag, Ostfildern. 169. Clottes, J. (2001), La Grotte Chauvet: L’art des origines. Seuil, Paris. 170. Valladas, H., Clottes, J., Geneste, J.-M. (2004), Chauvet, la grotte ornée la mieux datée du monde, Pour la science (Temps et datations special issue) 42, 82. 171. Floss, H. (2016), Geisterstunde! Hinweise auf apotropäische Praktiken im Jungpaläolithikum Europas. In: Bosinski, G., Strohm, H. (Hrsg.), Höhlen, Kultplätze, Sakrale Kunst. Kunst der Urgeschichte im Spiegel sprachdokumentierter Religionen, 189, Verlag Wilhelm Fink, Paderborn. 172. Wehrberger, K. (1994), Der Löwenmensch. Ulmer Museum (ed.), Der Löwenmensch. Tier und Mensch in der Kunst der Eiszeit, 1994, p. 29–45. 173. Floss, H. (2009), Kunst schafft Identität. Das Aurignacien und die Zeit der ersten Kunst. In: Conard, N.J., Floss, H., Barth, M., Serangeli, J. (Dir.), Eiszeit, Kunst und Kultur, Grosse Landesausstellung Baden-Württemberg, 248–257. 174. Hussain, S. T., Floss, H. (2015), Regional ontologies in the Early Upper Palaeolithic: the place of mammoth and cave lion in the ‘belief world’ (Glaubenswelt) of the

 Literatur 

247

Swabian Aurignacian. In: Bueno-Ramírez, P., Bahn P.  G. (Hrsg.): Prehistoric Art as Prehistoric Culture. Studies in Honor of Professor Rodrigo de Balbín-­ Behrmann, 45, Archaeopress, Oxford. 175. Hussain, S. T., Floss, H. (2015), Sharing the world with mammoths, cave lions and other beings: linking animal-human interactions and the Aurignacian „belief world“, Quartär 62, 85. 176. Badisches Landesmuseum Karlsruhe (Hrsg., 2007), Vor 12.000 Jahren in Anatolien. Die ältesten Monumente der Menschheit. Begleitbuch zur Ausstellung im Badischen Landesmuseum. Theiss, Stuttgart. 177. Becker, J. (2009), Vom Dorf zur Stadt in Mesopotamien. Grundzüge der kulturellen Entwicklung vom 7. bis 4. Jahrtausend v. Chr., S. 19. In: K. Schmidt/ ArchaeNova e.V. (Hrsg.), Erste Tempel-Frühe Siedlungen. 12000 Jahre Kunst und Kultur, Isensee Verlag, Oldenburg 2009. 178. Cunliffe, B. (2015), 10000 Jahre: Geburt und Geschichte Eurasiens, Theiss, Darmstadt. 179. Cauvin, J. (2000), The Birth of the Gods and the Origins of Agriculture. Cambridge, University Press. 180. Crüsemann, N., van Ess, M., Hilgert, M., Salje, B. (Hrsg., 2013), Uruk: 5000 Jahre Megacity. Begleitband zur Ausstellung im Pergamonmuseum – Staatliche Museen zu Berlin, in den Reiss-Engelhorn-Museen Mannheim. Imhof Verlag, Petersberg. 181. Hodder, J (2015), The Vitalities of Çatalhöyük. In: ders. (Hrsg.): Religion at work in a Neolithic society. Cambridge University Press. 182. Kaiser, O. (Hrsg., 2004), Texte aus der Umwelt des Alten Testaments. 18 Lieferungen in drei Bänden, Gütersloher Verlagshaus Gerd Mohn, Gütersloh. 183. Matthews, R. (2000), The early prehistory of Mesopotamia. 50,000–4,500 BC. Brepols, Turnhout. 184. Mithen, St. (2003), After the Ice. A Global Human History 20000–5000 BC. Weidenfeld & Nicolson, London. 185. Nunn, A. (2011), Der Alte Orient. Geschichte und Archäologie. Theiss, Stuttgart. 186. Parzinger, H. (2014), Die Kinder des Prometheus. Eine Geschichte der Menschheit vor der Erfindung der Schrift. C.H. Beck, München. 187. Roaf, M. (1991), Bildatlas der Weltkulturen, Mesopotamien. Christian Verlag, München. 188. Schmidt, K. (2006), Sie bauten die ersten Tempel. C. H. Beck, München. 189. Selz, G. (2005), Sumerer und Akkader. C. H. Beck, München. 190. Eibl-Eibesfeldt, I. (1997), Die Biologie des menschlichen Verhaltens. Grundriß der Humanethologie. Seehamer, Weyarn. 191. Eibl-Eibesfeldt, I., Sütterlin, Chr. (1992), Im Banne der Angst. Zur Natur- und Kunstgeschichte menschlicher Abwehrsymbolik. Piper, München. 192. Finkelstein, I., Silberman, N. A. (2002), The Bible Unearthed: Archaeology’s New Vision of Ancient Israel and the Origin of Its Sacred Text. Touchstone, New York.

248 Literatur

193. von Glasenapp, H. (1926), Brahma und Buddha. Die Religionen Indiens in ihrer geschichtlichen Entwicklung. Deutsche Buchgemeinschaft, Berlin. 194. Meuli, K. (1946), Griechische Opferbräuche. In: Phyllobolia (Festschrift Peter von der Mühll), pp.  185–288. Basel, Switzerland. Reprint: in Karl Meuli. Gesammelte Schriften, vol. 2. Basel, Switzerland: Schwabe, S. 907–1021 (1975). 195. Warburg, A. (2010), Werke in einem Band. Auf der Grundlage der Manuskripte und Handexemplare herausgegeben und kommentiert von Martin Treml, Sigrid Weigel und Perdita Ladwig, Suhrkamp, Berlin. 196. Wunn, I. (2006), Karl Meuli’s „Griechische Opferbräuche“ – towards an Ethology of Religion. Scientific Annals, School of Geology, Aristotle University of Thessaloniki (AUTH) Special volume, Thessaloniki, S. 293. 197. Wunn, I. (2017), Barbaren, Geister, Gotteskrieger. Wie wir uns die Evolution der Religionen vorstellen müssen. Springer Spektrum, Heidelberg. 198. Wunn, I., Grojnowski, D. (2016), Ancestors, Territoriality, and Gods. A Natural History of Religion. Berlin, Springer, Heidelberg [and others]. 199. Wunn, I., Urban, P., Klein, C. (2015), Götter, Gene, Genesis. Die Biologie der Religionsentstehung. Springer Spektrum, Heidelberg. 200. Wunn, I., Klein, C., Urban, P. (2014), Religionsethologie – die biologischen Wurzeln religiösen Verhaltens. In: ZfR 22, 98. 201. van Schaik, C., Michel, K. (2016), Das Tagebuch der Menschheit. Was die Bibel über unsere Evolution verrät. Rowohlt Verlag, Reinbeck bei Hamburg. 202. Ritzer, G. (1993), The McDonaldization of Society. Thousand Oaks, CA. 203. Hradil, St. (1995), Die „Single-Gesellschaft“. C. H. Beck München. 204. Beck, U. (1986), Die Risikogesellschaft. Suhrkamp, Frankfurt am Main. 205. Hradil, St. (1987), Sozialstrukturanalyse in einer fortgeschrittenen Gesellschaft. Von Klassen und Schichten zu Lagen und Milieus. Leske und Budrich, Opladen. 206. Hradil, St. (2001), Soziale Ungleichheit in Deutschland. 8. Aufl., VS Verlag, Wiesbaden. 207. Marx, K., Engels, F. (1848), Manifest der Kommunistischen Partei. J.E.  Burkhard, London (1848). 208. Weber, M. (1922), Wirtschaft und Gesellschaft, Mohr. Tübingen (1922). 209. Durkheim, É. (1893), De la division du travail social. Félix Alcan, Paris. 210. Simmel, G. (1900), Die Philosophie des Geldes. Duncker & Humblot, Leipzig. 211. Elias, N. (1939), Über den Prozeß der Zivilisation. 2 Bände, Haus zum Falken, Basel. 212. Weber, M. (1904/05), Die protestantische Ethik, in: Archiv für Sozialwissenschaften und Sozialpolitik, Bd. XX und XXI (I.: Das Problem; II.: Die Berufsethik des asketischen Protestantismus). 213. Hradil, St. (2006), Die Sozialstruktur Deutschlands im internationalen Vergleich. VS Verlag, Wiesbaden. 214. Talcott Parsons, An Outline of the Social System. In: Parsons, T. et  al. (eds.): Theories of Society, 2 vol., Gyan Books Pvt. Ltd., Dehli (1961).

 Literatur 

249

215. Parsons, T. (1964), Evolutionary Universals in Society, American Sociological Review 29, 339. 216. Spencer, H. (1877), Die Prinzipien der Sociologie. E. Schweizerbart’sche Verlagshandlung, Stuttgart. 217. Eisenstadt, Sh.N. (2000), Multiple Modernities. Daedalus, London. 218. Zapf, W. (Hrsg., 1969), Theorien des sozialen Wandels. Kiepenheuer & Witsch, Köln/Berlin. 219. Berger, J. (1996), Was behauptet die Modernisierungstheorie wirklich – und was wird ihr nur unterstellt? In: Leviathan. Bd. 24, Nr. 1, 45. 220. Singer, W. (2017), Conscious processing. Unity in time rather than in space. In: Schneider S, Velmans M (eds), The Blackwell Companion to Consciousness. Second Edition, John Wiley & Sons Ltd., Chichester, UK, pp 607. 221. Singer, W. (2016), The ongoing search for the neuronal correlate of consciousness. In: Metzinger T, Windt JM (eds), Open Mind. Philosophy and the Mind Sciences in the 21st Century, vol 2. Mind Group; MIT Press, Frankfurt am Main; Cambridge (MA), London, 1503–1532, (2016). 222. Singer, W. (2004), Selbsterfahrung und neurobiologische Fremdbeschreibung. Zwei konfliktträchtige Erkenntnisquellen, Deutsche Zeitschrift für Philosophie 52(2), 235. 223. Singer, W. (2005), Wann und warum erscheinen uns Entscheidungen als frei? Ein Nachtrag, Deutsche Zeitschrift für Philosophie 53(5), 707. 224. Melloni, L. Molina, C. Pena, M. Torres, D. Singer, W. Rodriguez, E. (2007), Synchronization of neural activity across cortical areas correlates with conscious perception, The Journal of Neuroscience 27(11), 2858. 225. Melloni, L. Singer, W. (2010), Distinct characteristics of conscious experience are met by large-scale neuronal synchronization. In: Perry E, Collerton D, LeBeau F, Ashton H (eds), New Horizons in the Neuroscience of Consciousness, John Benjamins, B.V., Amsterdam, pp 17. 226. Aru, J., Bachmann, T. Singer, W. Melloni, L. (2012), Distilling the neural correlates of consciousness, Neuroscience and Biobehavioral Reviews 36(2): 737–746 (2012). 227. Singer, W. (2017), Freiheitserfahrung als soziale Realität? In: Thurner M (ed) Freiheit. Begründung und Entfaltung in Philosophie, Religion und Kultur. Eugen-­Biser-­Lectures, vol Band 3, Vandenhoeck & Ruprecht GmbH & Co. KG, Göttingen, pp 125. 228. Singer, W. Ricard, M. (2017), Jenseits des Selbst. Dialoge zwischen einem Hirnforscher und einem buddhistischen Mönch. Suhrkamp Verlag, Berlin.

Stichwortverzeichnis

Stichworte verweisen auf ihr erstes Auftreten in einem Artikel A

B

Abraham 189 Acetyl-CoA-Weg 115 Adenin 112, 118 Äther 17 Ahnenverehrung 180, 206 Alb, Schwäbische 2, 171 Altsteinzeit 183 Ammoniak 100, 112 Andromedanebel 31, 66 Antimaterie 44, 53 Antineutrino 56, 84 Antiquark 8, 56 Archaeen 110 Aristoteles 2, 17, 66 Asteroid 97, 109 Atmosphäre 4, 91, 98, 111 Atom 5, 8, 20, 26, 34, 44, 55 Atomkern 5, 8, 26, 34, 58, 67, 77, 90 ATP (Adenosintriphosphat) 112, 119 Aurignacien 172 Australopithecus (Südaffe) 148

Bakterium 110, 117, 129, 225 Baryon 56. Siehe auch Tabelle 1 Bell, John 28 Besso, Michele 21 Beta(ß)-Zerfall 83 Bewusstsein 154, 167, 225 Big Bang 7, 77. Siehe auch Urknall Biomembran 114 Bohr, Niels 29 Brahe, Tycho 66 Braidwood, Robert 183 C

Çatal Höyük 184, 194 Çayönü 180 Chandrasekhar, Subrahmanyan 70 Chauvet 174 Childe, Gordon 179 Chondrit 78 Christentum 190, 210

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 E. Klempt (Hrsg.), Explodierende Vielfalt, https://doi.org/10.1007/978-3-662-58334-0

251

252 Stichwortverzeichnis

Chromosom 118, 129 Clarke, Samuel 20 CMB (Cosmic ray background) 35. Siehe auch Hintergrundstrahlung CP-Verletzung 61 CroMagnon-Mensch 159 Cytosin 118

Erdzeitalter 138 Eukaryot 110, 117, 130 Evolution 3, 12, 83, 109, 117, 127, 135, 156, 159, 172, 189, 201, 189, 201, 225 kulturelle 168, 201, 229 religiöse 200 Expansion des Universums 5, 14, 33, 45, 55, 65

D

de Laplace, Pierre Simon 11, 26 Descartes, René 17, 159 de Sitter, Willem 54 Desoxyribose 118 Deutsches Archäologisches Institut 181 Dionysos 196 Dirac, Paul A. M. 11, 56 DNA (Desoxyribonucleinsäure) 112, 118, 129, 144, 156, 162 Doppelhelix 118 Dualismus 159, 202, 231 Dunbar-Zahl 166

E

Eichboson 7 Eigenzeit 45 Einstein, Albert 8, 17, 26, 43, 53, 75, 93 Elektromagnetismus 7 Elektron 5, 8, 21, 27, 34, 44, 56, 68, 78, 90 Energie, dunkle 14, 33, 50, 75 Energie, freie111 Entwicklungsbiologie, evolutionäre 127, 140 Enzyme 120 Epigenetik 122, 162 Erde 9, 17, 43, 54, 66, 82, 91, 97, 109, 118, 136, 168, 177, 196, 205, 213 Erdkruste 99, 114

F

Faraday, Michael 10 Feuerring, pazifischer 106 Fluktuation 5, 38, 45. Siehe auch Vakuumfluktuation Friedmann, Alexander 54 Fruchtfliege 120

G

Galaxie 13, 31, 43, 54, 66, 79 Galilei, Galileo 9 Genaustausch 115 Gluon 5, 8, 44, 80 Göbekli Tepe 2, 180 Goldschmidt, Richard 131 Gorilla 191 Gould, Steven Jay 130, 137 Granulen 95 Gravitation 7, 19, 32, 45, 53, 68, 79, 90 Gravitationswelle 12, 41, 70, 79 GRN (gene regulatory networks) 140 Guanin 118 H

Halbmond, fruchtbarer 179, 192 Halbwertszeit 12, 74, 85, 164 Heisenberg, Werner 11, 29, 38, 56 Helium 8, 67, 77, 90, 100

 Stichwortverzeichnis 

Higgs-Boson 46, 63 Higgs-Feld 49 Hintergrundstrahlung 8, 27, 44, 55 Homöoboxgen 132 Homo sapiens 2, 89, 136, 150, 159, 172, 191 Hubble, Edwin 54 Hume, David 203 I

Individualisierung 214 Inflation 7, 33, 44, 60, 80 Inflaton 38, 45 Intelligent Design 109, 127, 160 Islam 2, 109, 190, 210, 223 Isotop 69, 77 Israel 25, 156, 197, 223 J

Jerf el-Ahmar 183 Jericho 179, 194 Jerusalem 197, 211 Juda 190, 207 Judentum 190, 210 Jungpaläolithikum 172, 192 Jupiter Gottheit 196 Planet 9, 96, 112 K

Kambrische Explosion 98, 131, 136 Katalyse 81, 122 Kenyon, Kathleen 180 Kepler 18, 66 Kernkraft 7, 58, 68, 87. Siehe auch Wechselwirkungen Klon 122 Kohlenstoff 69, 78, 93, 100 Komet 100 Konstante, kosmologische 14 Kontinentalplatten 113

253

Kopernikus, Nikolaus 9 Kreationismus 160 Kreationisten 127 L

Leibniz, Gottfried Wilhelm 17 Lepenski Vir 194 Lepton 1, 7, 56, 80. Siehe auch Tabelle 1, S. 57 Leroi-Gourhans, André 172 LHC (Large Hadron Collider) 12, 63 Lichtgeschwindigkeit c 21, 32, 44 Linné, Carl von 143, 159 Lithosphäre 101 Löwenmensch vom HohlensteinStadel 2, 176 Lorentz, Hendrik Antoon 21 Lost city 114 LUCA (Last Universal Common Ancestor) 110, 134 M

Mars 91, 97 Martin, William 115 Materie, dunkle 14, 33, 51, 55 Maxwell, James Clark 21 Mayr, Ernst 143 Menschenaffe 147, 160, 228. Siehe auch Hominiden Meson 8. Siehe auch Tabelle 1, S. 57 Meteorit 78, 97, 109, 128 Methan 100 Mikrowellenhintergrund 34, 55. Siehe auch CMB (cosmic ray background) Milchstraße 31, 66, 90 Miller, Stanley 112 Mitochondrien 119, 156 Modernisierungstheorie 220 Molar 149 Mond 10, 26, 37, 97, 177 Mondfinsternis 10

254 Stichwortverzeichnis

Monolatrie 205 Monotheismus 189, 201 Mureybet 183 Mutagenese 120 Mutation 110, 124, 128, 141, 163, 225 Myon 56, 94 N

Natufian-Kultur 179 Neandertaler 155, 166, 172 Neolithikum 167, 180, 193 Neolithische Revolution 4, 167, 179 Neptun (Planet) 10, 91 Neutrino 8, 56, 68, 79, 89. Siehe auch Tabelle 1, S. 57 Neutron 8, 58, 68, 78, 93 Nevalı Çori 183 Newton, Isaac 10, 17, 26, 45 Nukleon 8, 74, 78 Nukleotid 118 O

Olivin 98, 112 Ontogenese 117 Organismus 3, 110, 117, 128, 140, 149, 160, 203, 225 P

Parallaxe 66 Parameter, verborgene 27 Penzias, Arno 55 Photon 8, 27, 44, 55, 80, 93 Photosynthese 100 Phylogenese 114, 117 Piaget, Jean 203 Planck-Ära 7 Planck, Max 11, 92 Planet 5, 9, 18, 31, 68, 91, 97, 109, 134, 163

Planetesimale 97 Plastiden 120 Plattentektonik 97, 203 Pluralisierung 214 Pluto 10 Podolsky, Boris 28 Portmann, Adolf 165 Positron 8, 44, 56, 74, 92 Primat 147, 161, 173, 191, 228 Prokaryot 110, 117 Protein 112, 119, 129, 148 Proton 5, 8, 34, 56, 68, 78, 90 Ptolemäus, Claudius 9 Q

Quantencomputer 12 Quantenfeldtheorie 8 Quantenkryptographie 12, 29 Quantenmechanik 11, 28, 56, 70 Quantentheorie 11, 29, 92 Quark 1, 7, 44, 56, 80. Siehe auch Tabelle 1, S. 57 Quark-Gluon Plasma 8 R

Raucher schwarzer 113 weißer 113 Raumzeit 13, 17, 41, 45 Reheating 7, 38 Relativitätstheorie allgemeine 8, 17, 28, 32, 43, 53, 75 spezielle 17 Religion 127, 173, 189, 201 Reproduzierbarkeit 8 Resilienz 226 Ribozyme 120 RNA (Ribonukleinsäure) 112, 118, 129 Rosen, Nathan 28 Russel, Mike 123

 Stichwortverzeichnis  S

Schimpanse 149, 160, 191 Schmidt, Klaus 181 Schrödinger, Erwin 11, 27 Schwäbische Alb 2, 171 Schwarzes Loch 12, 68, 85 Searl, John 233 Selektion 110, 125, 202 Natürliche 3, 128, 143, 160, 225 Serpentinisierung 112 Singularität 13, 43 Sonne 5, 9, 18, 31, 44, 53, 66, 77, 89, 97, 111, 177 Sonnenfinsternis 10 Soziale Differenzierung 214 Sozialstruktur 213 Spin 27, 56 Stammbaum 115, 139, 147, 164, 191 Standardmodell in der Kosmologie 31 in der Physik 8, 60 Supernova 5, 65, 79, 90 T

Tell 180 Thor 196 Thymin 118 Transkription 118, 132 Translation 117

Uranus 10 Uratmosphäre 98, 100 Urknall 7, 33, 44, 77 Urkraft 7 Urozean 98, 110 Ursuppe 8, 112

V

Vakuumfluktuation 39 Vakuum (-zustand) 9, 39, 45 Venus Gottheit 185 Planet 91, 96 vom Hohlen Fels 192 von Willendorf 192 Verschränkung 12

W

Wasserstoff 5, 8, 34, 59, 67, 77, 90, 100, 112 Wechselwirkung 1, 26 elektromagnetische 58 Gravitations- 22 schwache 61, 81, 93 starke 93 superschwache 61 Wegener, Alfred 104 Wilson, Robert 35, 55

U

Universum 5, 7, 17, 31, 43, 53, 65, 77, 117, 189 Unschärferelation 38

Z

Zellkern 110, 117, 129 Zeus 196

255