Biologie und Mathematik [1. Aufl. 2019] 978-3-662-59479-7, 978-3-662-59480-3

Mit ihrer Vielzahl von erstaunlichen Phänomenen und ihrer komplexen Verwobenheit unterschiedlichster Skalen ist die Biol

1,192 51 5MB

German Pages XV, 306 [315] Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Biologie und Mathematik [1. Aufl. 2019]
 978-3-662-59479-7, 978-3-662-59480-3

Table of contents :
Front Matter ....Pages I-XV
Geschichte und Struktur der Biologie (Jürgen Jost)....Pages 1-28
Evolutionsbiologie (Jürgen Jost)....Pages 29-101
Molekularbiologie und genetische Steuerung (Jürgen Jost)....Pages 103-134
Zellbiologie (Jürgen Jost)....Pages 135-149
Physiologie (Jürgen Jost)....Pages 151-171
Entwicklungsbiologie und Musterbildung (Jürgen Jost)....Pages 173-180
Ethologie (Verhaltensforschung) (Jürgen Jost)....Pages 181-188
Ökologie (Jürgen Jost)....Pages 189-202
Neurobiologie und Kognitionstheorie; neuronale Netze als Modelle der Kognition und als maschinelle Lernverfahren (Jürgen Jost)....Pages 203-240
Die Perspektive der Systembiologie (Jürgen Jost)....Pages 241-263
Zusammenfassung und Ausblick (Jürgen Jost)....Pages 265-271
Back Matter ....Pages 273-306

Citation preview

Jürgen Jost

Biologie und Mathematik

Biologie und Mathematik

Jürgen Jost

Biologie und Mathematik

Jürgen Jost Max-Planck-Institut fur Mathematik in den Naturwissenschaften Leipzig, Deutschland

ISBN 978-3-662-59479-7 ISBN 978-3-662-59480-3  (eBook) https://doi.org/10.1007/978-3-662-59480-3 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Springer Spektrum © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Verantwortlich im Verlag: Stefanie Wolf Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Vorwort

Halt, warum nicht „Mathematik und Biologie“? Steht die Königin der Wissenschaften, die Erforschung der tiefstliegenden Strukturen, die Grundlage jeder ernsthaften Naturwissenschaft, im Rang etwa hinter der Käfersammelei, oder deren modernisierter Variante, der weitgehend automatisierten und demnächst sicherlich auch vollständig kommerzialisierten Gensequenzierung? Nun, diese Frage ist provokant, aber völlig falsch gestellt. Wenn es um mehr gehen soll, als für die Differentialgleichung, aus der man schon jedes Epsilon herausgequetscht hat, noch irgendwo eine mehr oder weniger beliebige, allenfalls halbwegs plausible Anwendung zu finden, so muss man sich zunächst auf die Erfahrungswissenschaft einlassen, und zwar nicht nur auf die von ihr zusammengetragenen Resultate, sondern vor allem auch auf ihre grundlegenden Konzepte. Wenn es also zu einem fruchtbaren und sinnvollen Dialog zwischen Biologie und Mathematik kommen soll, so können nicht die in der Mathematik bislang entworfenen Strukturen und entwickelten Methoden im Vordergrund stehen, sondern es müssen zuerst die für die Biologie wichtigen Fragestellungen erfasst werden. Vor allem stellt aber die in der eingangs aufgeworfenen Frage verwandte Charakterisierung eine völlige Verkennung der Biologie als Wissenschaft dar. Aber auch der entgegengesetzte Ansatz, nämlich die Auffassung der Biologie als einer Variante der Physik, der Naturwissenschaft par excellence, an deren Abstraktionsgrad, Methoden und Standards sich jede andere Naturwissenschaft zu messen hätte, ignoriert die Autonomie der Biologie als eigenständiger Wissenschaft mit einem eigenen Gegenstandsbereich. Die Physik erzielt ihre Erfolge aus ihrem Reduktionismus, aus ihrer Fähigkeit, die Phänomene der Wirklichkeit auf immer grundlegendere und abstraktere – und damit quasi automatisch auch immer tiefere Mathematik erfordernde – Strukturen zurückzuführen, bis hin zu der in der Superstringtheorie sich andeutenden „Theorie von Allem“. Die Biologie dagegen ging von dem lange Zeit kaum hinterfragten Phänomen des Lebens aus. Daher bewegte sie sich traditionell im Spannungsfeld zwischen dem ganzheitlichen Erfassen, so leidenschaftlich beispielsweise von Goethe vertreten, und der zergliedernden Analyse des Einzelphänomens, zwischen der rein deskriptiven morphologischen Klassifikation der Formen und Gestalten des Lebendigen und der V

VI

Vorwort

kausalen physiologischen Erklärung der Vorgänge, zwischen dem Lebewesen als aus dem Zusammenwirken verschiedenartiger Teile entstehender Einheit und der Untersuchung spezifischer Moleküle oder Reaktionen in einer Zelle. Die moderne Molekularbiologie hat es erstmals ermöglicht, auf wissenschaftliche Weise über den Ursprung des Lebens zu spekulieren, und hat gleichzeitig dieses für die Biologie bislang konstitutive Konzept reduzierbar, zergliederbar gemacht und damit aufgelöst. Derart verunsichert, versucht man nun in manchen Bereichen der Biologie, insbesondere der Ökologie, als Ersatz einen neuen Begriff von „System“ zu entwickeln, wobei hier aber wohl noch eine tiefer eindringende theoretische Analyse geleistet werden muss. Gleichzeitig gelingt es den sich auerordentlich schnell entwickelnden experimentellen Techniken der Biologie, immer umfangreichere und genauere Daten zu sammeln und immer komplexere Vorgänge einer naturwissenschaftlichen Untersuchung und Modellierung zugänglich zu machen, bis hin zu den beim Denken und Fühlen im Gehirn ablaufenden neurophysiologischen Prozessen. Während Biologielernende und -lehrende oft Probleme mit dem abstrakten und stringenten Formalismus der Mathematik haben, trifft man umgekehrt auch als Mathematiker auf einige Schwierigkeiten, wenn man sich ernsthaft mit der Biologie auseinandersetzen will. Dies beginnt schon mit dem völlig unterschiedlichen Verlauf der Geschichte der beiden Fächer. Auch wenn wir uns vielleicht manchmal über die Schwierigkeiten, die die alten Babylonier, Ägypter, Inder und Chinesen mit manchen elementaren Rechenoperationen hatten, oder über die umständliche und ungeeignete Zahlenschreibweise der Römer wundern, so erkennen wir doch schon in der griechischen Antike mathematische Leistungen von bleibendem Wert. Und seit dem Beginn der Neuzeit ist die Geschichte der Mathematik für uns eigentlich eine Geschichte des stetigen Fortschritts. Dagegen erscheinen die bis zur Mitte des 19.Jahrhunderts dominierenden Vorstellungen der Biologie heutzutage – zunächst einmal – nicht nur als falsch, sondern meist sogar als grundsätzlich verfehlt, grotesk und absurd. Andererseits war in den letzten anderthalb Jahrhunderten der Fortschritt der Biologie rasant, und er scheint sich immer weiter zu beschleunigen, so dass die gründlichen mathematisch Denkenden vielleicht Schwierigkeiten bekommen, jede neue Wendung der Biologie gedanklich mitzuvollziehen. Was heute noch als Lehrbuchweisheit in der Biologie galt, ist vielleicht morgen schon obsolet. (Überhaupt gibt es in der Biologie viel weniger gute Lehrbücher als in der Mathematik, und man kann dort auch weniger unumstößliche Gewissheiten als vielmehr selektive Interpretationen von Datenmaterial finden, die sich oftmals in den verschiedenen Büchern auch noch deutlich voneinander unterscheiden.) Dies macht sich sogar in den Schulen bemerkbar. Während sich beispielsweise die Inhalte des Mathematikunterrichtes in den Gymnasien kaum schneller verändern als diejenigen des Lateinunterrichtes, muss das Biologiecurriculum für die Oberstufe oftmals innerhalb weniger Jahre völlig neu konzipiert werden. Und wir vermissen vielleicht auch die akzeptierte Vorgehensweise der Physik, wo die Resultate sorgfältig konzipierter Experimente im Kontext klar formulierter Theorien bewertet und verstanden werden können, wenn plötzlich mit einer neuen Technologie

Vorwort

VII

riesige Datensätze erhoben werden, deren Bedeutung ohne einen geeigneten theoretischen Rahmen erst einmal völlig unklar bleibt. Und auch die unter mathematisch Forschenden beliebte platonische Philosophie der ewigen Wahrheiten ist für die Biologie völlig ungeeignet und stellt dort ein Erkenntnishindernis dar. Unter solchen Umständen muss das vorliegende Werk also erst einmal Verständnis für die Fragestellungen, Methoden und theoretischen Konzepte der Biologie wecken. Die Sicht auf die Biologie ist vielleicht auch zu lange von dem Popperschen Wissenschaftsverständnis geprägt worden, das als wissenschaftliche Arbeitsweise nur die Erstellung von Hypothesen gelten lässt, aus denen falsifizierbare Prognosen abgeleitet werden können, die dann anschließend nach rigorosen Kriterien überprüft werden sollen, und deswegen insbesondere die Darwinsche Theorie aus dem Kreis der Wissenschaft ausschließen will. Nun ist es tatsächlich nicht das primäre Ziel der Evolutionsbiologie, falsifizierbare Hypothesen aufzustellen. Es geht viel mehr um die Erklärung rezenter Erscheinungsformen des Lebendigen aus unterschiedlichen Reproduktionsraten in Vorgängerpopulationen. Im Übrigen wäre auch das Erstellen anhand von Faktenmaterial überprüfbarer Hypothesen sicher nicht das Ziel der Mathematik. Wie in der Evolutionsbiologie geht es für uns mathematisch Forschende um das Erklären und Verstehen, und nicht um das Prognostizieren. Natürlich ist die Theorie von Popper zur Begründung der Vorgehensweise der physikalischen Wissenschaften nicht ungeeignet, auch wenn der permanente Versuch der Falsifizierung von Hypothesen wohl kaum der tatsächlichen Arbeitspraxis der meisten physikalisch Forschenden entspricht. Die Evolutionsbiologie ist in gewissem Sinne eine historische Wissenschaft, wie beispielsweise auch die Kosmologie, insofern als sie gegenwärtige Zustände aus Prozessen in der Vergangenheit erklären will. Insofern ist eine wesentliche Frage der Biologie diejenige nach dem „Warum?“. Und die Beantwortung dieser Frage gelingt ihr sogar in vieler Hinsicht besser als der Physik. Während die Physik auf Fragen wie „Warum gab es den Urknall?“ oder „Warum beträgt der Wert der Lichtgeschwindigkeit ca. 300.000 km/sec, und nicht etwa das Doppelte?“ (wobei zur Vereinfachung des Argumentes mal die Beziehungen zwischen Maßeinheiten und Lichtgeschwindigkeit weggelassen werden) keine schlüssigen Antworten liefert, kann die Biologie durchaus etwas zu so schwierigen Fragen „Warum gibt es das menschliche Auge?“ sagen, indem sie die Evolution des Auges über lichtempfindliche Schichten in einfacher gebauten Organismen zurückverfolgt und gleichzeitig die genetischen Mechanismen der Steuerung des Aufbaus komplexer Funktionsorgane entschlüsselt. Auch der grundlegenden Frage „Warum gibt es überhaupt Leben?“ kann man sich mit wissenschaftlichen Methoden nähern, indem man Modelle für die Entstehung und Stabilisierung autokatalytischer chemischer Reaktionsprozesse in der Ursuppe aufstellt. Die wesentliche Frage, welcher der beiden grundlegenden Aspekte des Lebens, Stoffwechsel oder Fortpflanzung, zuerst entstand, wird auf die entsprechenden biochemischen Trägermoleküle, also Proteine (in der älteren Literatur „Eiweiße“ genannt) oder DNS (Desoxyribonucleinsäure; im Englischen DNA), verlagert. Als mögliche Antwort zeichnet sich vielleicht ab, dass das Leben mit RNS (Ribonucleinsäure; englisch RNA) angefangen hat. RNS vermittelt heute zwischen DNS und Proteinen, hat aber gleichzeitig sowohl Möglichkeiten

VIII

Vorwort

der Selbstreplikation als auch der metabolischen Reaktion. Diese sind zwar jeweils weniger stabil oder leistungsfähig als bei DNS bzw. Proteinen, aber dafür kann die RNS eben beides. Allerdings handelt es sich hierbei wohl eher um Vorstufen des Lebens, und der Begriff des „Lebens“ selbst wird dadurch notwendigerweise etwas unscharf, wie oben schon thematisiert. – Jedenfalls bewegt sich die heutige Biologie im Spannungsfeld der Fragen nach dem „Warum?“ – die Domäne der Evolutionsbiologie – und dem „Wie?“, wo die Molekularbiologie in den letzten Jahrzehnten phantastische Fortschritte gemacht hat. Die Brücke zwischen diesen beiden Zugangsweisen ist allerdings manchmal etwas brüchig. Was kann nun in dieser Situation die Mathematik in die Biologie einbringen und für die Biologie leisten? Eine abstrakte Klärung der Grundbegriffe oder die Bereitstellung konkreter Methoden beispielsweise zur numerischen Lösung schwieriger Differentialgleichungen oder zur statistischen Auswertung unübersichtlicher Datensätze? In gewisser Weise beides, und ich werde in diesem Essay argumentieren, dass die in der aufgestellten Alternative implizit enthaltene Trennung von reiner und angewandter Mathematik, zwischen abstrakten Strukturen und konkreten Verfahren, zwischen Schreibtisch und Supercomputer, weder für die Biologie fruchtbar noch für die Mathematik zuträglich ist. Jedenfalls möchte ich nicht nur darlegen, wo mathematisches Denken und mathematische Methoden in der Biologie angewandt worden sind oder, wichtiger, möglicherweise eingesetzt werden können, sondern auch bei mathematisch Forschenden Verständnis für die eigentlichen Fragestellungen der Biologie wecken. Manches in der Biologie wirkt sehr befremdlich auf Leute, die in den formalen Wissenschaften ausgebildet sind. Während wir wohl zugeben müssen, dass in der Mathematik und auch in der Physik sehr viel belangloses Zeug publiziert wird, so ist doch das meiste davon zumindest formal richtig, in der Mathematik sicher noch mehr als in der Physik, wegen unserer geringeren Publikationsfrequenz und des sorgfältigeren Begutachtungsprozesses. Aber in den öffentlichen Diskussionen haben die Physikerinnen und Physiker fast immer die sachlichen, logisch schlüssigen und wissenschaftlich fundierten Argumente auf ihrer Seite. In den theoretischen Diskussionen in der Biologie werden dagegen nicht selten logisch nicht wirklich stichhaltige Argumente vorgebracht. Insbesondere in öffentlichen Diskussionen zwischen Biologen und Nichtbiologinnen muss man manchmal verwundert feststellen, dass beide (oder in manchen Debatten auch noch mehr) Seiten puren Unsinn verzapfen, wenn es beispielsweise um Themen wie das Verhältnis von Veranlagung und Umwelt („nature vs. nurture“ im Englischen) oder Erziehung oder gar um die Frage geht, inwieweit Geschlechterrollen biologisch determiniert oder kulturell konstruiert sind, oder auch allgemeiner um das Wesen der menschlichen Sexualität. (Es soll hier aber in keiner Weise bestritten werden, dass biologisches Fachwissen für viele aktuelle gesellschaftliche Fragen, z. B. im Bereich des Umweltschutzes, unabdingbar ist und eine entscheidende und positive Rolle in den diesbezüglichen Diskussionen spielen sollte.) Auch werden biologische Theorien häufig durch politische Ideologien ausgebeutet. Inwieweit formalwissenschaftlich Ausgebildete

Vorwort

IX

solche Debatten versachlichen und solchen ideologischen Vereinnahmungen entgegentreten können, soll hier allerdings weitgehend dahingestellt bleiben. In dem vorliegenden Essay werden zumeist nur innerbiologische Fragestellungen und Argumentationslinien kritisch analysiert. Vor allem sollen aber die Möglichkeiten der mathematischen Formalisierung biologischer Sachverhalte ausgelotet werden. Schon allein dies kann oftmals zu einer deutlichen Versachlichung beitragen. Und dass es keine einfache Alternative zwischen Veranlagung und Umwelt gibt, sondern dass bei der Herausbildung eines Lebewesens innere Anlagen und äuere Einflüsse in oft komplementärer Weise ineinandergreifen, kann auch durch informationstheoretische Konzepte formalisiert und quantifiziert werden. Aber zurück zur Konzeption des vorliegenden Buches. Weil, wie im ersten Kapitel genauer erläutert wird, die Biologie im Gegensatz zur Mathematik als Wissenschaft nicht methodisch, sondern inhaltlich bestimmt ist, werde ich die nachfolgenden Ausführungen nicht nach methodischen, sondern nach inhaltlichen Gesichtspunkten strukturieren, auch wenn dies bedingt, dass ein und derselbe mathematische Ansatz an verschiedenen Stellen auftreten wird, wie beispielsweise die Reaktions-Diffusions-Gleichungen bei der genetischen Steuerung, der Physiologie, der Ökologie und der Neurobiologie. Dieses Vorgehen wird dadurch begünstigt, dass ich bei mathematisch ausgebildeten Lesern und Leserinnen davon ausgehen kann, dass die grundlegenden mathematischen Ansätze bekannt sind.1 Eine systematischere Darstellung der mathematischen Methoden habe ich in Jost (2014) vorgelegt. Aus offensichtlichen Gründen kann meine Präsentation in diesem Rahmen nicht vollständig und umfassend, sondern nur selektiv sein,2 wobei ich trotzdem hoffe, dass sie einigermaßen repräsentativ ist. Jedenfalls enthält dieser Text nicht nur Darstellungen, Zusammenfassungen und häufig auch Kritik von schon Bekanntem, sondern auch einige neue Ideen, Resultate und Anregungen, beispielsweise die Idee, die Feuerfolgen von Neuronen durch ihren Wassersteinabstand miteinander zu vergleichen. Vor allem entwickele ich auch eine allgemeine Perspektive, biologische Evolution als fortschreitende Entwicklung der Kontrolle von Prozessen zu verstehen. Um meinen – hoffentlich vielen – Leserinnen und Lesern den für sie oftmals fremden, vielleicht stellenweise sogar befremdlichen Stoff näherzubringen, habe ich einen etwas aufgelockerten Schreibstil versucht. Da wir uns hier nicht in Amerika befinden,

1Eine

Schwierigkeit für einen Mathematiker, dem in seiner Ausbildung eingebläut worden ist, stets alle Voraussetzungen präzise und vollständig anzugeben und nur Behauptungen zu vertreten, die keine Ausnahmen zulassen, ist, dass es in der Biologie bei praktisch allem, was man schreibt, Einschränkungen, Präzisierungen, Ausnahmen, Gegenbeispiele gibt, die man unmöglich alle aufführen kann. Das hieraus resultierende Unbehagen kann ich nur auf die diesen Text Lesenden übertragen. 2Insbesondere zitiere ich auch meist nur relativ willkürlich ausgewählte Repräsentanten eines Themas, anstatt den Versuch zu unternehmen, eine vollständige oder wenigstens ansatzweise ausgewogene Literaturliste zu erstellen.

X

Vorwort

muss ich mich wohl für die daraus resultierenden Simplifizierungen und Übertreibungen oder auch Flapsigkeiten entschuldigen. Für viele neue biologische Fachbegriffe war mir keine deutsche Übersetzung bekannt, und so habe ich an mehreren Stellen einfach neue deutsche Ausdrücke geschaffen. Und da man sich aus guten Gründen möglichst geschlechtsneutral ausdrücken sollte, habe ich versucht, einigermaen systematisch Partizipialkonstruktionen zu verwenden, weil die Pluralformen von substantivierten Partizipien im Wesentlichen die einzigen geeigneten geschlechtsneutralen grammatischen Formen der deutschen Sprache sind. Schließlich darf ich noch darauf hinweisen, dass ich in den (sehr umfangreichen) Index nur historische Persönlichkeiten, aber keine lebenden Wissenschaftlerinnen oder Wissenschaftler aufgenommen habe.

Danksagung

Viele der vorgestellten Einsichten sind durch Zusammenarbeit und – oftmals kontroverse – Diskussionen mit biologisch oder mathematisch Forschenden und anderen wissenschaftlich Tätigen angeregt worden; insbesondere möchte ich Fatihcan Atay, Nihat Ay, Anirban Banerjee, Philippe Bastiaens, Frank Bauer, Nils Bertschinger, Pierre-Yves Bourguignon, Carina Curto, Ralf Der, Peter Dittrich, Andreas Dress, Luu Hoang Duc, Marzieh Eidi, Manfred Eigen, Bernhard Englitz, Walter Fontana, Boris Gutkin, Ivo Hofacker, Julian Hofrichter, Danijela Horak, Sanjay Jain, Marco Jost, Frank Jülicher, Alihan Kabalak, François Képès, Markus Kirkilionis, Konstantin Klemm, Ilona Kosiuk, David Krakauer, Michael Lachmann, Manfred Laubichler, Wilmer Leal, Wei Li, Xianqing Li-Jost, Gabriele Lohmann, Stephan Luckhaus, Rostislav Matveev, Raffaella Mulas, Beáta Oborny, Dieter Oesterhelt, Eckehard Olbrich, Philipp-Jens Ostermeier, John Pepper, Benoît Perthame, Sonja Prohaska, Johannes Rauh, Udo Reichl, Christian Reidys, Guillermo Restrepo, Thimo Rohlf, Rudolf Rübsamen, Areejit Samal, Emil Saucan, Klaus Scherrer, Susanne Schindler, Peter Schuster, Matteo Smerlak, Elena Smirnova, Olaf Sporns, Bärbel und Peter Stadler, Angela Stevens, Bernd Sturmfels, Omri Tal, Tat Dat Tran, Henry Tuckwell, Leo van Hemmen, Ying Wang, Günter Wagner, Melanie Weber, David Wolpert, Marius Yamakou und vielen anderen danken. Einige der Abbildungen sind von Ronald Kriemann erstellt worden. Die Abbildung im Abschn. 5.4 wurde mir von Leo van Hemmen zur Verfügung gestellt. Ihm und Manfred Laubichler möchte ich auch für hilfreiche Kommentare zu meinem Manuskript danken. Besonders wesentlich für mich waren und sind die über viele Jahre geführten Gespräche mit Olaf Breidbach, durch die sich mir ein weites Spektrum biologischer und konzeptioneller Fragestellungen und Ideen erschlossen hat. Olaf Breidbach ist im Jahre 2014 an einer schweren Erkrankung verstorben. Möge dieser Text auch dazu dienen, einige der von ihm entwickelten Ideen, Konzepte und Einsichten weiterleben zu lassen.

XI

XII

Danksagung

Einige meiner nachstehend diskutierten eigenen Forschungsbeiträge sind durch die Stiftung Volkswagenwerk, die Klaus Tschira Stiftung und den ERC Advanced Grant FP7-267087 unterstützt worden, und ich möchte mich hier für die großzügige Förderung bedanken. Ich danke auch dem Santa Fe Institute, wo ein Teil dieses Buches geschrieben worden ist, auch wenn dies in einer Sprache erfolgt ist, die dort nicht allgemein verstanden wird.

Inhaltsverzeichnis

1

Geschichte und Struktur der Biologie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1 Klassifikation und Evolution. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Die verschiedenen Teile der Biologie . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.3 Konzepte und Kontroversen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2 Evolutionsbiologie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.1 Konzeptionelle Aspekte. Konkurrenz zwischen Individuen, Genen und Stammbäumen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.2 Evolutionär stabile Strategien. Konkurrenz zwischen Artgenossen. . . . . 40 2.3 Gruppenselektion. Konkurrenz zwischen Individuen vs. Konkurrenz zwischen Gruppen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 2.4 Der Kampf der Geschlechter. Konkurrenz zwischen Fortpflanzungsstrategien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 2.5 Das Wechselspiel zwischen Lebewesen und ihrer Umwelt. Konkurrenz mit dem Rest der Welt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 2.6 Evolutionäre und genetische Algorithmen. . . . . . . . . . . . . . . . . . . . . . . . 61 2.7 Populationsgenetik und statistische Gesetzmäßigkeiten. . . . . . . . . . . . . 68 2.8 Das komplexe Wirkgefüge verschiedener Faktoren. . . . . . . . . . . . . . . . . 78 2.9 Stammbäume. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 2.10 Erblichkeit und Merkmale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 3

Molekularbiologie und genetische Steuerung . . . . . . . . . . . . . . . . . . . . . . . . 103 3.1 Biochemische Grundlagen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 3.2 Genetische Grundgesetze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 3.3 Molekularbiologische Aspekte des Genbegriffs . . . . . . . . . . . . . . . . . . . 112 3.4 Genotyp und Phänotyp; neutrale Becken. Das Beispiel der sekundären RNS-Strukturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117 3.5 Gegenreihung und Homologie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 3.6 Die Entstehung des Lebens. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

XIII

XIV

Inhaltsverzeichnis

4 Zellbiologie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 4.1 Biochemische Kinetik. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 4.2 Metabolische Flüsse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 4.3 Verschiedene Zeitskalen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 4.4 Regulations- und Steuerungsnetzwerke. . . . . . . . . . . . . . . . . . . . . . . . . . 146 5 Physiologie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 5.1 Das Neuronenmodell von Hodgkin und Huxley. . . . . . . . . . . . . . . . . . . 152 5.2 Das FitzHugh-Nagumo-System als Vereinfachung des Hodgkin-Huxley-Systems. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 5.3 Das Immunsystem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163 5.4 Sinnesphysiologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 5.5 Die Koordination biologischer Rhythmen. . . . . . . . . . . . . . . . . . . . . . . . 170 6

Entwicklungsbiologie und Musterbildung. . . . . . . . . . . . . . . . . . . . . . . . . . . 173 6.1 Der Turingmechanismus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174 6.2 Phasenübergänge und Bifurkationen. . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 6.3 Natur und Umwelt. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177

7

Ethologie (Verhaltensforschung). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 7.1 Chemotaxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 7.2 Schwarmbildung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 7.3 Kollektive Intelligenz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187

8 Ökologie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 8.1 Interagierende Populationen und gekoppelte Differentialgleichungen. . . 189 8.2 Modelle mit diskreter Zeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 8.3 Modelle mit diskreten Agenten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194 8.4 Symbiosen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 8.5 Soziale Insekten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 8.6 Systemtheoretische Perspektiven. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 9

Neurobiologie und Kognitionstheorie; neuronale Netze als Modelle der Kognition und als maschinelle Lernverfahren. . . . . . . . . . . . . . . . . . . . . . . . 203 9.1 Neuronale Netze als komplexe Systeme . . . . . . . . . . . . . . . . . . . . . . . . . 203 9.2 Neuronale Netze. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 9.3 Stochastische Prozesse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217 9.4 Neuronales Lernen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 9.5 Die Feuermuster von Neuronen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232

Inhaltsverzeichnis

XV

10 Die Perspektive der Systembiologie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 10.1 Moleküle und Daten. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242 10.2 Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 10.3 Das Connectom: Das Netzwerk des Gehirns. . . . . . . . . . . . . . . . . . . . . . 257 10.4 Evolution und Kontrolle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259 11 Zusammenfassung und Ausblick. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265 Literatur. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273 Stichwortverzeichnis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 293

1

Geschichte und Struktur der Biologie

Um die Möglichkeiten und Chancen für mathematische Ansätze in der Biologie auszuloten, müssen wir also zunächst einmal den Gegenstandsbereich der Biologie bestimmen und herausarbeiten, wie die Biologie an diesen Gegenstandsbereich herangeht. Dies kann hier allerdings nur in sehr knapper Form durchgeführt werden.

1.1

Klassifikation und Evolution

Als eigentlicher Begründer der Biologie als Wissenschaft wird üblicherweise Aristoteles (384–322 v. Chr.) angesehen. Aristoteles konnte scharfsinnige Einzelbeobachtungen mit einem qualitativen Verständnis von Strukturen und der Entwicklung abstrakter Konzepte verbinden. Die qualitative Vorgehensweise des Aristoteles kann auch heute noch für das Befassen mit biologischen Fragestellungen anregend sein, siehe R. Thom (1990). Die Einzelergebnisse des Aristoteles sind dagegen heutzutage überholt. Nach landläufiger Auffassung gilt dies nicht unbedingt für eine andere grundlegende Leistung in der Geschichte der Biologie, nämlich das Klassifikationssystem von Carl Linné (latinisiert zu Linnaeus, [1707– 1778]). Zwar hat dieses System im Laufe der Zeit vielfältige Modifikationen erfahren, und in unserer Zeit ist die vergleichende, Gemeinsamkeiten suchende morphologische Betrachtung durch die molekularbiologische Bestimmung genetischer Unterschiede als Grundlage der Systematik ersetzt worden, aber dies hat auch zu einer Bestätigung weiter Teile des Linnéschen Systems geführt. Bekanntlich haben Charles Darwin (1809–1882) und Alfred Wallace (1823–1913) dann die heute noch akzeptierte kausale Erklärung dieses Systems geliefert (wobei Wallace aber im Gegensatz zu Darwin vor der Konsequenz zurückgeschreckt ist, auch den Menschen in die Abstammungslehre einzubeziehen). Dies sollte allerdings nicht einen grundlegenden konzeptionellen Unterschied verdecken. Die Klassifkationssysteme des 17. und 18. Jahrhunderts wollten eine (von Gott) vorgegebene statische Ordnung der Natur rekonstruieren. Insbesondere die Vorgänger von Linné im 17. Jahrhundert © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_1

1

2

1 Geschichte und Struktur der Biologie

entwickelten systematische Raster von Kästchen oder Schubladen, für die sie dann Bewohner suchten. Reale Lebewesen wurden dann als Abweichungen von einem Idealtyp aufgefasst. Darwin dagegen konzeptionalisierte die beobachtete Vielfalt und Diversität der Lebensformen als Resultat eines historischen, zufallsgetriebenen Prozesses. Die bewundernswerte und staunenerregende Effizienz vieler biologischer Formen und Prozesse wird durch das Überleben der Tüchtigsten erklärt. Der oft gegen die Evolutionstheorie erhobene Vorwurf, dass es sich um eine reine Tautologie handle, die nicht widerlegbar und somit unwissenschaftlich sei, insofern nämlich, als Tüchtigkeit gerade durch Überleben definiert sei, erfasst allerdings nicht das Wesentliche der Evolutionstheorie, dass nämlich die jetzt beobachtete Vielfalt der Lebensformen auf Ausleseprozesse in der Vergangenheit zurückgeführt wird, dass also rezente Formen durch Variationen in Vorgängerpopulationen erklärt werden und die Biologie hierdurch eine historische Dimension gewinnt und insbesondere auch die Paläontologie einbeziehen kann. Unterschiedliche Vorkommenshäufigkeiten der Vertreter verschiedener Arten in der Gegenwart werden durch unterschiedliche Fortpflanzungsraten der Vorgängerpopulationen über längere Zeiträume hinweg erklärt, also im Grunde durch die einfache mathematische Tatsache, dass sich zwei exponentielle Wachstumsvorgänge, also beispielsweise Lösungen linearer Differentialgleichungen, mit unterschiedlichen Wachstumsraten auch exponentiell auseinanderentwickeln1 . Was noch hinzukommt, ist, dass eine biologische Art (Spezies) nicht einfach durch einen typischen Vertreter repräsentiert werden kann, sondern dass es sich um eine Population handelt, deren Mitglieder sich zwar hinsichtlich bestimmter Merkmale, die dann für die Klassifikation genutzt werden können, von Individuen anderer Arten unterscheiden, dass aber diese Population aus genetisch und phänotypisch nicht identischen Individuen besteht und die Merkmalsausprägungen eine bestimmte Variation und Spannbreite besitzen, oftmals mit unscharfen Randzonen (s. z. B. Mayr 1969, 1982, 2013). In diesem Sinne sind Arten also eher statistisch zu erfassen. Überhaupt ist es ein zentraler Punkt der Evolutionstheorie, dass Arten sich zeitlich verändern, aussterben oder sich aufspalten können, und dies verhindert manchmal eine klare Abgrenzung von Arten. Hier ergeben sich also wesentliche Probleme für jedes statische Klassifikationssystem. Was Darwin und Wallace dagegen seinerzeit nicht befriedigend erklären konnten, war, wie Unterschiede zwischen Lebewesen zustande kommen, an denen die Selektion2 angreifen kann. Die schon vorher von Lamarck verwandte Theorie der Vererbung erworbener Fähigkeiten ließ sich nicht halten, und so musste die Biologie einige Jahrzehnte warten, bis die vielleicht tiefste Entdeckung in der Geschichte der Biologie, nämlich die 1 Allerdings wird dieser Punkt anscheinend in der Literatur nicht immer richtig verstanden, wenn z. B. über die Darwinsche Evolution von Ökosystemen oder Neuronengruppen geschrieben wird. Die Darwinsche Evolution benötigt neben der Konkurrenz ums Überleben auch einen Mechanismus, durch den sich bessere Anpassung in einen höheren Fortpflanzungserfolg oder eine größere Wachstumsrate überträgt. 2 Das Wort „Selektion“ hat durch diese Theorie eine Bedeutungsumkehr erfahren. Während „Selektion“ ursprünglich eine gezielte Auswahl bedeutete, handelt es sich nun um einen absichtslosen natürlichen Prozess. Dies kommt noch in den frühen deutschen Übersetzungen des Werkes von Darwin zum Ausdruck, in denen es „Natürliche Zuchtwahl“ hieß.

1.1 Klassifikation und Evolution

3

Vererbungslehre3 von Gregor Mendel (1822–1884), der Gemeinschaft der Biologen bekannt wurde.4 Auch wenn biologische Unterschiede oft graduell zu sein scheinen, so hat Mendel sie doch auf zugrundeliegende diskrete Einheiten, die Gene, zurückgeführt, die sich beim Übergang zwischen den Generationen verändern, mutieren können. Die Mendelsche Theorie brauchte aber nach ihrer Wiederentdeckung noch einige Zeit, bis sie sich durchsetzte, denn wenn man wie Francis Galton (1822–1911) die Verteilung einer phänotypischen Eigenschaft wie der Körpergröße betrachtet, so sieht man etwas, was annähernd wie eine Normalverteilung aussieht, und man denkt dann eher an den Zentralen Grenzwertsatz als an eine diskrete Kombinatorik.

3 Die Vorgeschichte erscheint aus heutiger, von der Konzeption Mendels geprägter Sicht etwas skurril.

Aristoteles hatte Fortpflanzung und Vererbung beim Menschen durch die Vermischung von Körperflüssigkeiten von Mann und Frau erklärt. Das war zwar biologisch so nicht richtig, aber vom Prinzip her nicht völlig verkehrt. Zu den ersten Entdeckungen, die mit dem im 17. Jahrhundert entwickelten Mikroskop gemacht wurden, gehörten bezeichnenderweise die Spermienzellen in der Samenflüssigkeit. Theoretisch führte diese biologische Entdeckung zu einem konzeptionellen Rückschritt, indem nun nämlich postuliert wurde, dass die Nachkommen schon in den Spermienzellen präformiert seien. (Fußnote zur Fußnote: Allerdings, und hier gelangen wir in die Windungen der Geschichte der Biologie, stellte dies wiederum einen Fortschritt gegenüber Vorstellungen von spontaner Erzeugung von Lebewesen oder einer allgemeinen Lebenskraft dar. S. hierzu beispielsweise die Debatte zwischen Leibniz und Stahl (Duchesneau und Smith 2016) und auch die Ausführungen in Jost 2018.) Dies hatte aber die logische Konsequenz, dass mit den Nachkommen auch wiederum deren Spermien und damit eine unendliche Kette zukünftiger Menschen schon alle in einer einzigen Samenzelle angelegt sein mussten. Außerdem wurde die Rolle der Frau dann auf den passiven Nährboden für die in den männlichen Samen vorgebildeten Stammhalter reduziert. Als Gegenthese wurde daher postuliert, dass Frauen im Innern ihres Körpers Eier trügen, auch wenn diese damals noch nicht physisch identifiziert (dies gelang erst im 19. Jahrhundert) oder medizinisch erschlossen werden konnten, und dass die Spermien nur die Rolle hätten, den Entfaltungsprozess des Eies zu induzieren. Auch wenn dies nun umgekehrt die Rolle der Männer auf die reine Auslösung eines Prozesses, an dem sie sonst nicht weiter beteiligt waren, reduzierte, waren auch manche Frauen mit dieser Theorie nicht glücklich, weil sie sich dadurch auf eine Stufe mit Hennen gestellt sahen. Selbst die offensichtliche Tatsache, dass Nachkommen typischerweise Merkmale beider Elternteile tragen, konnte die Diskussion um diese beiden Theorien zunächst nicht stoppen. Auch die monströsen Fehlbildungen, die man damals gerne in Raritätenkabinetten zur Schau stellte, ließen sich übrigens mit diesen Theorien nicht in Einklang bringen. – Die Tatsache, dass eine durch ein neues technisches Werkzeug, wie seinerzeit das Mikroskop, ermöglichte Entdeckung, wenn sie nicht richtig verstanden wird, die Forschung auf einen völlig verfehlten Weg führen kann, sollte aber vielleicht auch heutigen wissenschaftlich Forschenden zu denken geben. 4 Gemäß der landläufigen Geschichte der Biologie wurden die Mendelschen Gesetze im Jahre 1900 unabhängig durch die drei Botaniker Carl Correns (1864–1933), Hugo de Vries (1848–1935) und Erich von Tschermak-Seysenegg (1871–1962) wiederentdeckt (wobei allerdings der Beitrag des Letzteren später in Zweifel gezogen wurde), und dies wird als Wendepunkt der modernen Genetik angesehen. Wie aber eine Analyse (Simunek et al. 2011, 2012, 2017) der Korrespondenz von Erich von Tschermak-Seysenegg mit seinem Bruder Armin von Tschermak-Seysenegg (1870–1952) gezeigt hat, waren diesen beiden die Mendelschen Ergebnisse schon vorher bekannt.

4

1 Geschichte und Struktur der Biologie

Der Neodarwinismus konnte dann aber in der Mitte des 20. Jahrhunderts die moderne Synthese der Theorien von Darwin und Mendel entwickeln. Diese Synthese bestand im Wesentlichen darin, dass die Mendelschen Erbgesetze in die Darwinsche Theorie eingefügt wurden, wobei letztere den Primat behielt. Grundlegende Theorieelemente blieben die Betonung der funktionalen Anpassung auf der Grundlage ungerichteter Mutationen statt beispielsweise durch Embryonalentwicklungsgesetze bestimmter struktureller Einschränkungen und Kanalisationen, und die Annahme, dass die Selektion kontinuierlich auf der Basis genetischer Veränderungen mit phänotypisch beinahe unmerklich kleinen Auswirkungen wirkt, anstatt durch große sprunghafte Änderungen oder katastrophenartige Massensterben. Dies war auch die Periode des ersten fruchtbaren Zusammenwirkens von Biologie und Mathematik in der Populationsgenetik, wo mit mathematischen Methoden die Ausbreitung von Genen in Populationen modelliert werden konnte. Allerdings sind dann weite Teile der theoretischen Evolutionsbiologie konzeptionell über diese Stufe nicht mehr hinausgekommen und haben insbesondere die in der molekularen Genetik erzielten spektakulären Einsichten nicht weiter rezipiert. Dies hat zu der beklagenswerten Situation5 geführt, wo einerseits Argumentationssketten in der Evolutionsbiologie, die beispielsweise der Erklärung von Sozialverhalten gewidmet sind, häufig im Lichte der Molekularbiologie absurd simplifizierende Annahmen verwenden, wie diejenige, dass auch komplexe Verhaltensketten direkt der Situation an einem einzigen Genort entsprechen, während andererseits z. B. bei Ansätzen und Methoden, die moderne molekulargenetische Daten zur Rekonstruktion evolutionärer Abläufe einsetzen, die darwinistische Evolutionstheorie überhaupt keine Rolle spielt, weil nämlich nur Mutationen, aber keinerlei Selektionseffekte betrachtet werden. Diese Aussage bedarf allerdings einiger Qualifizierungen (s. z. B. Li 1997). Zunächst werden bei den molekulargenetischen Daten, die zur Stammbaumrekonstruktion verwandt werden, gerade diejenigen ausgewählt, die nichtkodierenden Teilen des Genoms entsprechen, wo also die Annahme der selektiven Neutralität wohl relativ gut gerechtfertigt ist. Außerdem geht man davon aus, dass sich selektive Effekte oftmals gerade in einer geringeren Mutationsrate einzelner Abschnitte zeigen und daher die entsprechenden Teile des Genoms gerade durch ihre größere Übertragungstreue identifiziert werden können, denn das, was für den Erfolg eines Phänotyps wichtig ist, kann eben ohne negative Auswirkungen nicht ohne Weiteres verändert werden, oder, mit anderen Worten, Mutanten sind benachteiligt und können sich daher nicht durchsetzen.6 Möglicherweise führt die Vernachlässigung von Selektionseffekten zu einem systematischen Fehler bei der Interpretation molekulargenetischer Vergleichsdaten zwischen verschiedenen Spezies, aber anscheinend ist dieser Fehler nicht so groß, dass er bei den heutigen Anforderungen an Präzision schon signifikant wäre. Eine gewisse Rechtfertigung für das Vorgehen der Molekulargenetiker liegt hierbei in der auf der Grundlage molekulargenetischer Befunde entwickelten Theorie von Motoo Kimura (1924–1994) (Kimura 1983), dass die meisten genetischen Mutationen, sofern sie nicht direkt schädlich, lethal für 5 zu der es natürlich auch Ausnahmen gibt. 6 Allerdings gibt es auch den umgekehrten Effekt, wo Selektionsdruck gerade eine höhere Veränderungsrate bewirken kann.

1.1 Klassifikation und Evolution

5

ihre Träger sind, überhaupt keinen direkten Einfluss auf die Tüchtigkeit ihrer Träger haben, sondern für die Selektion neutral sind. Aber ist diese Theorie nur die aggressiv formulierte Arbeitshypothese der Molekularbiologen, die sich nicht mehr von den Käfersammlern in ihre Arbeit hineinreden lassen möchten, oder erzwingt die molekulargenetische Faktenlage einen grundsätzlichen Paradigmenwechsel in der Evolutionsbiologie? Zufällige genetische Drift und mutationsgetriebene Änderungen auf der molekularen Ebene sind anscheinend wesentlich wichtiger als selektionsgetriebene Anpassungen auf der Ebene der Organismen, und das Tempo der Evolution wird durch Mutationsraten und nicht durch Umweltveränderungen bestimmt (für Genaueres sei verwiesen auf Li 1997). Daher ist die Kopplung zwischen genetischer Mutation und individueller Selektion wesentlich weniger eng, als es sich die Vertreter des Neodarwinismus vorgestellt haben. Dies hat insbesondere zu einem genaueren Verständnis des Unterschiedes von Genotyp, also der genetischen Struktur eines Individuums, und Phänotyp, dem Erscheinungsbild des Individuums, an dem die Selektion angreifen kann, geführt. Das dahinterstehende Modell scheint allerdings noch etwas naiv zu sein, und die Entwicklung besserer konzeptioneller Ansätze zum Verständnis des Verhältnisses von Genotyps und Phänotyp, oder, in vielleicht besserer Formulierung, des mehrstufigen und hochgradig mehrdeutigen und durch externe Umwelteinflüsse und Rückkopplungseffekte modifizierten Übergangs von der linearen Sequenz der DNS über die dreidimensional gefaltete Struktur erst der RNS und dann der Proteine zur Funktion im Stoffwechselprozess einzelner Zelle und deren Zusammenwirken in einem Organismus ist gerade eine der großen Herausforderungen an die Theorie, bei der mathematisches Denken wichtige Einsichten vermitteln kann. Hierzu jedoch später mehr. Vielleicht ist inzwischen etwas passiert, was in der Wissenschaftsgeschichte mehrmals vorgekommen ist, dass nämlich eine an sich geniale und tiefe Entdeckung, hier die Aufstellung der Vererbungsgesetze durch Gregor Mendel, nach einiger Zeit zu einem Fortschrittshindernis wird, weil sie nämlich den Blick auf eigentlich komplexere Gesetzmäßigkeiten auf einer tieferen Ebene verstellt. Wenn es nun nach der neodarwinistischen Synthese der Mitte des 20. Jahrhunderts noch einmal zu einem nach der heutigen Erkenntnislage plausiblen Ansatz zur Vereinheitlichung der Biologie kommen sollte, so müsste wohl jedenfalls diesmal der Primat bei der Molekularstatt der Evolutionsbiologie liegen. Hierzu jedoch gleich noch mehr. Auch in der Evolutionsbiologie und Paläontologie gibt es natürlich neue theoretische Ansätze. So bezweifelt die Theorie der unterbrochenen Gleichgewichte (punctuated equilibria) von Eldredge und Gould (1972/1989), dass die Evolution immer so graduell und in so kleinen Schritten verläuft, wie man sich das gewöhnlich vorgestellt hat, und postuliert stattdessen, dass es nach drastischen Umbrüchen in der Umwelt zu einer schnellen Entwicklung ausstrahlender Lebensformen und in plötzlich isolierten kleinen Teilpopulationen zu einer raschen Entwicklung neuer Variationen kommen kann und dass dies die dominanten Mechanismen in der Evolution sind.

6

1.2

1 Geschichte und Struktur der Biologie

Die verschiedenen Teile der Biologie

Unsere Wissenschaft, die Mathematik, lässt sich eher methodisch als inhaltlich charakterisieren. Während der Gegenstandsbereich der Mathematik in Algebra, Geometrie und Analysis zerfällt, sind sich die mathematisch Forschenden in ihrer Denkweise weitgehend einig, und dies konstituiert die Einheit der Wissenschaft und ermöglicht auch die fruchtbare Verbindung und Wechselwirkung der drei genannten Gegenstandsbereiche. Die Biologie ist dagegen durch ihren Gegenstandsbereich bestimmt, ‘ò β´ιoς , das Leben. Leben allerdings ist nicht durch eine einzige grundlegende Eigenschaft charakterisiert. Wesentlich sind vielmehr mindestens zwei, nämlich Stoffwechsel und Fortpflanzung/Vererbung, und manchmal werden auch noch Reizbarkeit und Beweglichkeit hinzugezählt, und bei höheren Lebewesen sind auch Entwicklung und Verhalten wichtige Aspekte. Daher gibt es auch mindestens zwei grundlegende Einheiten oder Bausteine, nämlich die Zelle und das Gen. Hinzu kommt noch auf einer höheren Ebene die Art als Fortpflanzungsgemeinschaft. Und es erhebt sich dann die Frage nach dem Status des Individuums, des Lebewesens. Ist ein Lebewesen nur ein zusammenhängendes Gebilde aus Zellen, ein temporärer Behälter für an die nächste Generation weitergereichte Gene oder ein Mitglied einer sich reproduzierenden Population? Nichtsdestoweniger ist es aber der Biologie gelungen, die Einheitlichkeit ihres Gegenstandsbereichs, des Lebens, aufzuweisen. Die Information für den Aufbau von Zellen, die dann entweder wie bei den Bakterien oder den Archäa isoliert leben oder sich zu mehrzelligen Organismen zusammensetzen, ist in der DNS gespeichert7 und wird von dort sowohl als RNS abgelesen und dann in Proteine übersetzt als auch über Zellteilungen an Tochterzellen weitergegeben und bei geschlechtlicher Vermehrung mit der genetischen Information des Partners in den Nachkommen rekombiniert. Die Proteine sind räumlich gefaltete Ketten, die typischerweise aus einigen hundert Aminosäuren bestehen, von welchen es 20 verschiedene gibt. Und die Zellen gewinnen ihre Energie durch Phosphorilierungen in Reaktionen, die entweder durch Licht wie in der Photosynthese der Pflanzen oder durch andere Moleküle ausgelöst und ermöglicht werden. Die Biologie wird im Gegensatz zur Mathematik nicht von einer einheitlichen und verbindlichen Methodik getragen. Allerdings könnte sich dies in der näheren Zukunft grundlegend ändern, und gerade bei diesem Prozeß könnte es auch große Chancen für die Mathematik geben. Schon in der zweiten Hälfte des 20. Jahrhunderts hat sich in der Biologie ein fundamentaler Wandel vollzogen, indem nämlich die eher morphologisch beschreibende Untersuchung der Feinstruktur von Zellen durch das Eindringen von Methoden einer anderen Wissenschaft, nämlich der Chemie, durch eine funktionale Analyse ersetzt worden ist. Allgemein bekannt ist auch einer der größten Triumphe der Biologie, nämlich die Entschlüsselung des Mechanismus der Speicherung und Übertragung der Erbinformation in dem aus vier jeweils paarig kombinierten Bausteinen zusammengesetzten Doppelstrang der DNS durch Watson und Crick (1953; s. auch Nickelsen 2017). Die in der DNS kodierte 7 mit der wohlverstandenen Ausnahme der RNS-Viren, die allerdings keine selbständigen Zellen

bilden.

1.2

Die verschiedenen Teile der Biologie

7

Information wird dann über die RNS in Anweisungen zur Synthese von Proteinen übersetzt. Die detaillierte biochemische Analyse der genetischen Information konnte jedoch erst in jüngerer Zeit durch ein internationales Großprojekt (oder, genauer, durch zwei miteinander konkurrierende Großprojekte) bewältigt werden. Dies eröffnet nun die faszinierende Möglichkeit, in den nächsten Jahren bei einzelnen Genen (oder präziser, DNS-Abschnitten – auf die begriffliche Klärung werden wir noch eingehen) im Detail zu verstehen, wie ihre Struktur und ihr Zusammenwirken die Synthese spezifischer Proteine steuert. Hierbei stellt sich u. a. das Problem der Bewältigung und übersichtlichen Behandlung riesiger Datenmengen, zu welchem Zwecke sogar ein neues akademisches Fach, die Bioinformatik, ins Leben gerufen wurde. Wesentlich ist vor allem auch, dass Gene nicht isoliert, sondern in Wechselwirkung mit anderen Genen operieren. Viele von diesen Reaktionsvorgängen lassen sich durch gekoppelte Differentialgleichungen und/oder stochastische Ansätze modellieren. Noch wichtiger als mathematische Verfahren in diesen Bereichen sind aber wohl neue konzeptionelle Ansätze zum Verständnis komplexer Wechselwirkungen auf mehreren Skalen. Daher sollte die Mathematik auch einen konstitutiven Beitrag zur Bioinformatik leisten können. Gene speichern aber nicht nur Erbinformation und sind daher Baupläne für die Entwicklung individueller Lebewesen, sondern sie können auch mutieren, d. h. bei der Fortpflanzung kann die genetische Information verändert werden. Auch dieser Prozess lässt sich heute nicht mehr nur phänomenal fassen, sondern ebenfalls biochemisch funktional verstehen. Daher liegt nun eine molekularbiologische Begründung der Evolutionsbiologie ebenfalls in Reichweite. Hierdurch würden die beiden bislang separaten Begründunsstränge der Biologie, nämlich der evolutionär argumentierende und der biochemisch funktional analysierende, vereinigt, zumindest im Prinzip, und zwar dann unter Dominanz des letzteren. Auch hierbei stellen sich faszinierende mathematische Probleme. Trotz dieser bedeutenden Fortschritte werden und sollten sich aber die beiden angesprochenen Forschungs- und Argumentsstränge der Biologie nicht vollständig vereinheitlichen lassen. Schließlich besteht zwischen beiden eine grundlegende Asymmetrie. Zellbiologie lässt sich nur auf der Basis eingehender Detailstudien vorantreiben, seien diese wie im 19. Jahrhundert histologisch beschreibend oder wie seit der Mitte des 20. Jahrhunderts molekularbiologisch funktional analysierend. Für evolutionsbiologische Argumente braucht man dagegen die physische Realisierung von Genen überhaupt nicht zu kennen. Es reicht völlig aus, zu wissen, dass es diskrete, nicht weiter zerlegbare Erbeinheiten gibt, die auf Nachkommen übertragen werden und die Ausprägung von deren Eigenschaften steuern, sich bei dieser Übertragung aber gelegentlich verändern, mutieren können. Gene sind also diskrete Träger vererbbarer Eigenschaften. Dies stellt eine erhebliche Simplifizierung dar, denn jedes biologische Gen ist typischerweise an der Entwicklung von mehreren Eigenschaften beteiligt, und umgekehrt hängt fast jede Eigenschaft von mehr als einem Gen ab. (Es ist ein Zeichen der Genialität von Mendel, dass er für seine Untersuchungen eine Eigenschaft isolieren konnte, die von genau einem Gen gesteuert wird.) Außerdem liegt hier sowieso keine strikte Kausalbeziehung vor, sondern die Herausbildung von Eigenschaften wird durch komplex rückgekoppelte und teilweise durch externe Stimuli

8

1 Geschichte und Struktur der Biologie

in Gang gesetzte Signaltransduktions- und Genregulationsnetzwerke gesteuert. Nichtsdestoweniger lassen sich auf dieser grob simplifizierenden Annahme Gen = vererbbare Eigenschaft Argumentationsketten von großer Stichhaltigkeit und praktischer Erklärungskraft aufbauen. Wissenschaftstheoretisch liegt hier ein Musterbeispiel eines emergenten Phänomens vor, also eines Phänomens, dessen Eigengesetzlichkeit ohne Rückgriff auf eine tiefer liegende Ebene verstanden werden kann 8 (s. Jost et al. 2010 für eine abstrakte Perspektive.) Im Hinblick auf die skizzierten neuen Entwicklungen wird sich die Biologie daher nun wohl noch intensiver als bisher mit der Herausforderung einer gedanklichen Balance zwischen Reduktion auf immer tiefere Ebenen und Emergenz als aus sich selbst heraus zu verstehender Eigengesetzlichkeit konfrontiert sehen. Vielleicht ist dies überhaupt das Grundproblem der Biologie als Wissenschaft.9 Diese Frage ist natürlich alt. Aber es stellt sich nicht nur die Frage, wie Leben aus einem physikalisch-chemischen Substratum entsteht, sondern auch, ob das überhaupt grundsätzlich möglich ist. Der Vitalismus, der im 20. Jahrhundert insbesondere von Hans Driesch vertreten wurde, verneinte Letzteres und postulierte einen nicht weiter reduzierbaren Lebenstrieb. Aus dem Versuch, die Biologie konzeptionell als eigenständige und in sich stimminge und kohärente Wissenschaft zu entwickeln, insbesondere im deutschen Sprachraum von dem frühen Driesch (1911) und Reinke (1901) vorangetrieben, zu einer Zeit als auch die ersten biologischen Versuchsanstalten als eigenständige Forschungseinrichtungen mit einer entsprechenden Organisation gegründet wurden (s. Laubichler 2006 für eine Darstellung dieser Entwicklung aus heutiger Perspektive), entwickelte sich so die These von der nicht reduzierbaren Eigengesetzlichkeit der Biologie. Zumindest der Zweig der Biologie, der sich mit der Evolution, also der Entstehung und Entwicklung des Lebens beschäftigt, hat, wenn auch strikt naturwissenschaftlich orientiert, doch auch eine wesentlich historische Komponente.10 Insofern müssen evolutionshistorische Erklärungsschemata sich gegenüber solchen behaupten, die universelle physikalische Gesetzmäßigkeiten heranziehen, wie das (zwar mathematisch ansprechende, aber konzeptionell völlig überholte) von d’Arcy Thompson (1860–1948) (d’Arcy Thompson 1917), 8 Vielleicht ist also somit die oben beklagte Diskrepanz zwischen Populations- und Molekulargenetik

letztendlich überhaupt nicht so beklagenswert, und das Problem kann einfach dadurch gelöst werden, dass man terminologisch sorgfältig zwischen dem Gen als konkretem biochemischem Objekt einerseits und dem Gen als abstraktem Träger einer vererbbaren Eigenschaft andererseits unterscheidet. 9 Angesichts dieses Problems stellt sich dann auch regelmäßig die Frage, inwieweit mathematische Modellierungen in der Biologie legitim sind, angesichts der Tatsache, dass aufgrund der Komplexität des Lebendigen jedes mathematische Modell zwangsläufig eine starke Idealisierung beinhaltet. Im Gegensatz zu physikalisch Forschenden, die bei Bedarf einfach ihren Gegenstandsbereich reduzieren können und so eine Theorie der Fallgesetze aufstellen dürfen, die den Luftwiderstand unberücksichtigt lässt, sich dafür aber mathematisch elegant formulieren lässt, sind biologisch Forschende auf den Gegenstandsbereich des Lebendigen festgelegt und in ihrer Theoriebildung wesentlich weniger frei, weil es nicht in ihrem Belieben steht, bestimmte Aspekte des Lebendigen als unwesentlich zu deklarieren. 10 Dies allein grenzt allerdings die Biologie noch nicht von allen anderen Naturwissenschaften ab, denn auch die Geologie und die Kosmologie betrachten ihren Gegenstandsbereich als geschichtlich geworden.

1.2

Die verschiedenen Teile der Biologie

9

welches systematische Gestalttransformationen zur Erklärung der Formbildung heranzieht, oder der neuere Ansatz von Brown et al. (1997), der die Allgemeingültigkeit von Skalierungsgesetzen zur Erklärung biologischer Größenverhältnisse benutzt. (Allerdings gelten Skalierungsgesetze für biologisches Wachstum mit einem Exponenten von etwa ,73 noch wesentlich allgemeiner, vom Embryonalwachstum bis hin zu Ökosystemen, als der Erklärungsansatz von Brown et al. 1997 reicht, s. Hatton et al. 2015.) Von fundamentaler Bedeutung für die konzeptionelle Diskussion in der Biologie ist heute das Verständnis von Selbstorganisationsprozessen, und die solchen Prozessen zugrundeliegenden Gesetzmäßigkeiten sind nicht auf die Biologie bezogen, sondern universeller Natur, auch wenn oftmals Beobachtungen aus der Biologie entsprechende theoretische Entwicklungen in Gang gesetzt haben. Selbstverständlich liegen hier auch besonders interessante Ansatzmöglichkeiten für die Mathematik, und dies wird auch in unseren Ausführungen eine wichtige Rolle spielen. Darüberhinaus müssen aber auch in evolutionsbiologischen Ansätzen historischer Ursprung und aktuelle funktionale Verwendung von biologischen Formen und Mechanismen unterschieden werden, denn auch stammesgeschichtlich alte Formen und Mechanismen können von ihren Trägern für neue Zwecke verwandt werden, wie beispielsweise Stephen J. Gould (1941–2002) (Gould 2002) betont.11 Umgekehrt kann nur ein solches Prinzip oftmals komplexe Strukturen mit spezialisierten Funktionen erklären, ohne dass man funktionslose und damit evolutionsbiologisch nicht plausible Zwischenschritte annehmen muss. So dienten Federn wohl ursprünglich der Wärmeregulierung und ermöglichten erst später den Vögeln das Fliegen. In abstrakter Formulierung ist die Biologie eine Wissenschaft des Werdens, für die von den Wissenschaften des Seins – wie es große Teile der Physik, der Philosophie oder auch der Mathematik sind – entwickelten Denkweisen nicht adäquat sind. Mit den Methoden der Logik lässt sich nur aus Prämissen etwas ableiten, aber nicht die Entstehung von etwas Neuem erklären. Die Modelle der Physik, die Begriffe der Philosophie oder die Strukturen der Mathematik müssen, um für die Biologie relevant und nützlich zu sein, Entstehen, Werden und Entwicklung erfassen. Mathematisch lässt sich Strukturentstehung nur durch nichtlineare Wechselwirkungen erfassen, und wir werden daher in diesem Buch auch einige solche mathematische Konzepte wie nichtlineare dynamische Systeme oder Reaktions-Diffusionsgleichungen sehen. Aber auch die Biologie selber bewegt sich dabei im Spannungsfeld zwischen der Anpassung an beliebige und sich wandelnde äußere Gegebenheiten, eines „Alles ist möglich (sofern nur genügend viel Zeit vorhanden ist)“ und der Entfaltung strukturell schon vorgegebener und dadurch wesentlich eingeschränkter Variationsmöglichkeiten. Das Erstere ist das populäre (Miss)Verständnis des Darwinismus, das andere ist die intellektuelle Gegenposition, die, wenn auch selten in reiner Form vertreten, sich beispielsweise durch die Überlegungen von Geoffroy St. Hilaire, Owen oder Gould hindurchzieht, die wir im Abschn. 1.3 kennen lernen werden. Wir wissen heute auch durch die Suchverfahren der statistischen Physik oder des maschinellen Lernens, dass, auch wenn eine 11 Eine systematische Analyse des Zweckbegriffes mit einer sorgfältigen Unterscheidung der evolu-

tionären und der systemtheoretischen Aspekte findet sich in Toepfer (2004).

10

1 Geschichte und Struktur der Biologie

abstrakte Lösung für ein Problem existieren mag, diese doch in Situationen mit einer großen Anzahl von Freiheitsgraden möglicherweise nicht in begrenzter Zeit oder mit begrenzten Ressourcen aufgefunden werden kann. Insbesondere haben Versuche, in Computersimulationen „Künstliches Leben“ zu züchten, bisher nur ein begrenztes Repertoire an evolvierten Anpassungstricks erzeugen können, s. z. B. Adami et al. (2000), Bedau et al. (1998, 2000), Banzhaf et al. (2016), Inden und Jost (2015, 2018), Lehman und Stanley (2011). Geschickte strukturelle Vorgaben helfen oft dabei, die (natürliche oder künstliche) Evolution in die richtige Richtung zu lenken und günstige Lösungen zu finden. Andererseits ist aber in der Geschichte des Lebens auch überraschend Neues entstanden. Allerdings ist dies nicht aus dem Nichts geschehen, sondern ebenfalls aus günstigen strukturellen Vorbedingungen. Eine wesentliche Leistung des Lebens, wie es sich auf der Erde entwickelt hat, scheint gerade darin zu liegen, Strukturen mit großem und vielfältigem Entwicklungspotential hervorzubringen, von den Bauplänen der verschiedenen Tier- und Pflanzenstämmen über die genetischen Regulations- und Kontrollmechanismen bis hin zur Lernfähigkeit höherer Lebewesens. Und derzeit versucht auch der als „Evo-Devo“ (wobei Devo für Development [Entwicklung] steht), Entfaltung in der Individualentwicklung und Evolvierbarkeit miteinander zu verknüpfen. Vieles davon werden wir im Laufe dieses Buches sehen, und am Ende werden wir im Abschn. 10.4 noch einmal Bilanz ziehen. Wie schon erwähnt, können auch Reizbarkeit und Beweglichkeit als Kennzeichen des Lebendigen angesehen werden. Hiermit kommen wir in den Bereich der Neurobiologie. Allerdings reicht der Anspruch der Neurobiologie wesentlich weiter, nämlich bis zur biologischen Erklärung der Kognition. Auch wenn wir beispielsweise die nicht neuronalen Reizbarkeitsmechanismen bei Pflanzen außer Acht lassen, ist es ein weiter Weg von den simplen Vermeidungsreflexen bei Nacktschnecken bis zum visuellen System eines Primaten, ganz zu schweigen von spezifisch menschlichen kognitiven Fähigkeiten wie dem Sprachvermögen. So ist es vielleicht nicht verwunderlich, dass die Neurobiologie bisher noch keine der Zelle oder dem Gen vergleichbare fundamentale Grundeinheit isolieren konnte. Zwar sind die elektrochemischen Übertragungsmechanismen zwischen den einzelnen Nervenzellen, den Neuronen, sehr detailliert untersucht worden, aber es ist noch nicht klar, in welchem Aspekt der in Gehirnen ablaufenden elektrochemischen Prozesse tatsächlich der Schlüssel für das Verständnis der Kognition liegt. Der neuronale Kode ist noch unbekannt. Insbesondere benutzt die Neurobiologie zwar auch Methoden aus anderen Bereichen der Biologie, aber eine grundlegende Vereinheitlichung, wie sie oben für die anderen Bereiche der Biologie skizziert wurde, zeichnet sich hier (noch?) nicht ab. Überhaupt lässt sich fragen, inwieweit die Kognitionsforschung als Teilgebiet der Biologie behandelt werden sollte, anstatt ein eigenständiges Gebiet der Wissenschaft zu konstituieren. Jedenfalls werden wir in diesem Buch nur einige neurobiologische Grundlagen und deren mathematische Modellierung besprechen, aber nicht weiter auf die eigentlichen Themen der Kognition eingehen. Auch das Gebiet der „Künstlichen Intelligenz“ können wir nicht weiter besprechen, auch wenn es dort durch die Entwicklung sogenannter „Tiefer neuronaler Netzwerke“ spektakuläre Fortschritte gegeben hat. Diese Netzwerke imitieren eine wichtige neurobiologische Struktur,

1.3 Konzepte und Kontroversen

11

dass nämlich der Säugerneocortex aus mehreren Schichten besteht. Bei uns gibt es 6 Schichten, aber in den künstlichen Netzen können es durchaus mehr als Hundert sein. Der Erfolg dieser Netze beruht darauf, dass man herausgefunden hat, wie man sie effizient trainieren kann. Die Wirkungsweise ist allerdings im Detail noch nicht richtig verstanden. Auch bleiben andere Aspekte des Säugerhirns unberücksichtigt, insbesondere dass dort die verschiedenen Schichten und Areale meist reziprok gekoppelt sind, während die künstlichen Netze die Aktivität nur von einer Schicht zur nächsthöheren leiten. Auch ist die zeitliche Dynamik erheblich einfacher, insofern als die künstlichen Neuronen nicht feuern, sondern nur kontinuierliche Zustände errechnen und weiterleiten. Und auch wenn die künstlichen neuronalen Netzen bei vielen spezialisierten Aufgaben vor allem wegen ihrer oft um ein Vielfaches größeren Rechenkraft und ihres größeren Datenzugriffs dem Menschen inzwischen überlegen sind, haben diese bisher noch nicht die Fähigkeit erworben, Daten Bedeutungen zuzuweisen, mit denen auf einer höheren Ebene im Modus des „Verstehens“ gedacht werden kann. Und es ist derzeit unklar, wie so etwas prinzipiell erreicht werden kann.

1.3

Konzepte und Kontroversen

Wer nun nach den vorstehenden Ausführungen endlich einmal eine mathematische Formel sehen will, sollte den nachfolgenden Abschnitt überspringen. Und auch wer in der Mathematikgeschichte nur ein Hobby für alternde Professoren oder eine Sammlung von Anekdoten aus dem Leben bekannter Mathematiker zur Auflockerung von Anfängervorlesungen12 sieht oder für wen sich die Mathematikgeschichte auf (oftmals von Lokalpatriotismus durchtränkte) Hagiographien bedeutender Mathematiker reduziert, wird für diesen Abschnitt vielleicht nicht viel Verständnis aufbringen. Dieser Abschnitt ist weder lustig noch formal, sondern trocken und verbal und auch noch ziemlich lang – formalere Behandlungen vieler der hier angeschnittenen Themen werden dann im Hauptteil dieses Werkes vorgestellt. Jedenfalls will ich mich an dieser Stelle etwas ernsthafter und systematischer als in den vorstehenden einleitenden Bemerkungen mit der Problematik und Entwicklung der wesentlichen biologischen Begriffe und Vorstellungen auseinandersetzen. Es handelt sich also um eine Ideen- und nicht um eine Entdeckungsgeschichte. Aus der umfangreichen Literatur will ich hier die folgenden Werke herausgreifen: die Gedanken Jacob (1972) des bedeutenden Molekularbiologen François Jacob, das intellektuelle Vermächtnis Gould (2002) des originellen und ikonoklastischen Evolutionsbiologen Stephen Jay Gould, die kritische Studie Amundson (2005) des Wissenschaftshistorikers Ron Amundson und schließlich die umfangreiche, von Ilse Jahn herausgegebene Biologiegeschichte Jahn (2000) sowie das eindrucksvolle dreibändige Historische Wörterbuch der Biologie von Georg Toepfer (2011). 12 Wer übrigens nach so etwas sucht, wird in der Biologie viel reichhaltigeres und interessanteres Material als in der Mathematik finden. Insbesondere gab es in der Geschichte der Biologie auch eine Reihe von handfesten Skandalen.

12

1 Geschichte und Struktur der Biologie

Bis ins 18. Jahrhundert hinein und teilweise noch darüber hinaus gab es noch viele phantastische Vorstellungen von Spontanzeugungen und Transmutationen, und daher war die im 18. Jahrhundert von Linné und anderen durchgesetzte Vorstellungen von biologischen Arten (Spezies) als fester, unwandelbarer Typen zunächst einmal ein großer Fortschritt. Eine Spezies wurde dabei in den Bilddarstellungen nicht durch einen realen Vertreter, sondern durch einen idealen Typus repräsentiert. Die Verhältnisse der verschiedenen Arten wurden dann in einem hierarchischen Klassifikationssystem erfasst. Dies stellte natürlich die Frage nach dem Realgehalt der den Spezies übergeordneten Klassifikationsbegriffe, wie Gattungen, Klassen oder Stämme. Johann Wolfgang von Goethe (1749–1832) beispielsweise suchte nach der Urform der Pflanze, die sich durch verschiedene Metamorphosen in den tatsächlichen Pflanzen ausprägte (s. Breidbach 2006 für eine profunde Analyse). Er suchte deswegen auch nach den strukturellen Verbindungsgliedern zwischen verschiedenen Arten und war in diesem Kontext sehr stolz auf seine Entdeckung des Zwischenkieferknochens beim Menschen. In Frankreich dagegen gab es eine scharfe Kontroverse zwischen Georges Cuvier (1769–1832) und Étienne Geoffroy St.-Hilaire (1772–1844) (s. Appel 1987 für eine eingehende Darstellung). Cuvier versuchte, die biologische Gestalt eines Lebewesens als Vertreters einer Art aus deren Existenzbedingungen abzuleiten, also als abgestimmte Anpassungen an die jeweiligen Lebensbedingungen. Mit diesem Ansatz konnte er beispielsweise aus der Analyse eines fossilen Zehenknochens, welche Aufschluss über Fortbewegung und Nahrungsbeschaffung gab, also aus der Ableitung einer Funktion aus einer Form und der Einbettung dieser Funktion in die Lebensweise eines Organismus, ein Chalicotherium (einen Säuger aus dem Pleistozän) rekonstruieren, und weil sich dann diese Rekonstruktion als ziemlich richtig erwies, als später ein vollständigeres Skelett gefunden wurde, war seine Reputation gesichert. (Ein – allerdings nicht auf Cuvier zurückgehendes – Beispiel mag den Ansatz verdeutlichen: Der Teufel muss ein Pflanzenfresser sein, denn seine Hufe und Hörner sind für eine solche Ernährungsweise typische Merkmale. Und falls, wie in manchen Darstellungen, sein Huf gespalten ist, dann ist er sogar ein Wiederkäuer.) Jede Spezies wies also für Cuvier ihre eigene funktionale Organisation als Anpassung an ihre spezifischen Lebensbedingungen auf, und Spezies waren für ihn daher zwar geschaffen, aber dann unveränderlich, und die höheren Klassifikationsbegriffe waren für ihn rein nominal. Spezies konnten zwar durch Katastrophen aussterben und durch neue ersetzt werden, und durch die Untersuchung solcher Abfolgen begründete Cuvier die Paläontologie, aber es gab für ihn keine Evolution.13 Gerade wegen der auf eine Funktion ausgerichteten, außerordentlich subtilen und geradezu perfekten Abstimmung der gesamten Anatomie eines Organismus, also wegen seiner ganzheitlichen Auffassung eines Lebewesens, gab es für Cuvier keinen Spielraum für Veränderungen, und Evolution war daher unmöglich. Daher wird als sein wesentlicher Gegenspieler oft Jean-Baptiste Lamarck (1744–1829) angesehen. Lamarck postulierte eine kontinuierliche lineare Höherentwicklung der Lebewesen im Laufe 13 Von der Arbeits- und Denkweise Cuviers kann man sich eine gute Vorstellung im Pariser Muséum d’Histoire Naturelle verschaffen. Eine Zusammenfassung der Überlegungen Cuviers findet sich in Cuvier (1830/2009).

1.3 Konzepte und Kontroversen

13

der Zeit dadurch, dass diese jeweils in neuen Habitaten geeignete Anpassungen erwarben und diese dann an ihre Nachkommen weitergaben. Der eigentliche intellektuelle Gegner von Cuvier war aber Geoffroy St.-Hilaire. Es ging dabei um das Verhältnis von Struktur und Funktion. Im Gegensatz zu Cuvier suchte Geoffroy nach den zugrundeliegenden gemeinsamen Bauplänen, insbesondere der Vertebraten (Wirbeltiere) und Arthropoden (Gliedertiere, also Insekten, Krebse und Spinnen). Die von ihm postulierten strukturellen Entsprechungen zwischen den Vertebraten und den Arthropoden14 wurden lange als unhaltbar verworfen, haben aber durch die Entdeckung von diesen beiden und anderen Stämmen, die sich spätestens im Kambrium, also vor ca. 500 Mio. Jahren, voneinander getrennt haben, gemeinsamen genetischen Entwicklungskontrollmechanismen jüngst eine neue Aktualität gewonnen. Während Cuvier also funktional dachte, dachte Geoffroy strukturell. Aus den Überlegungen von Goethe, Geoffroy und anderen entstand die Morphologie (das Wort stammt übrigens von Goethe), die vergleichende Wissenschaft der biologischen Gestalten und Strukturen. Fundamentale Konzepte hierbei sind die Analogie, also die Funktionsgleichheit strukturell unterschiedlicher Teile oder Organe, und die Homologie, die strukturelle Entsprechung von Teilen oder Organen bei möglicherweise unterschiedlicher äußerer Form und Funktion.15 Es gibt mehrere Typen von Homologien: • Seriell: Wiederholung struktureller Einheiten in einem Lebewesen, z. B. die Wirbel von Vertebraten • Speziell: Entsprechung von Körperteilen zwischen verschiedenen Arten, z. B. die Vordergliedmaßen verschiedener Vertebraten • Dynamisch: Muster von Formveränderungen im Wachstums- und Reifungsprozess von der befruchteten Eizelle zum adulten Organismus, Ableitung von Körperteilen verschiedener Organismen aus der gleichen embryonalen Grundform. Der Homologiebegriff wurde wesentlich durch Richard Owen (1804–1892) geprägt, den wissenschaftlichen Gegner Darwins. Das Konzept der dynamischen Homologie stammt von Karl Ernst von Baer (1792–1876), der die Embryologie begründete (s. von Baer 1828– 1888/1999). Für von Baer lag die Einheitlichkeit eines Typs in seinem Wachstumsgesetz und nicht wie bei Cuvier in den funktionalen Erfordernissen des adulten Organismus. Für die Bedeutung des Konzeptes in der modernen Biologie verweisen wir z. B. auf Walgraef (1997). In der Debatte zwischen Cuvier und Geoffroy gab es keinen wirklichen Sieger, zumindest im Urteil der Nachwelt (seinerzeit behielt zunächst Cuvier die Oberhand, wohl auch wegen 14 Diese Entsprechungen bestanden in einer Vertauschung von dorsal und ventral (Rücken- und Bauch-

seite) und außen und innen. Insekten lebten im Innern ihrer Wirbelsäule und waren daher gewissermaßen auf den Rippen laufende Vertebraten, oder umgekehrt waren die Vertebraten auf dem Rücken laufende Insekten. 15 Es ist möglicherweise überflüssig, darauf hinzuweisen, dass der biologische Begriff der Homologie nichts mit dem mathematischen Begriff gleichen Namens zu tun hat.

14

1 Geschichte und Struktur der Biologie

seines überlegenen politischen Geschicks, aber als er dann plötzlich starb, wendete sich das Blatt zugunsten Geoffroys). Dies war anders in derjenigen zwischen Richard Owen und Charles Darwin in England. Owen war ein strukturell denkender Morphologe, und er suchte durch Analyse von Homologien nach Archetypen, Urformen. Anpassungen verdeckten diese Homologien und waren daher für die eigentliche biologische Forschung störend. Für Darwin dagegen waren die Anpassungen von Lebewesen an ihre Umwelt zentral, und Strukturen stellten Einschränkungen oder Hindernisse für mögliche Anpassungen dar, und Homologien waren nur passive Überbleibsel in Genealogien von sich verzweigenden Spezies. Darwins Theorie enthielt zwei wesentliche Punkte: 1. Unterschiedliche gute Anpassungen schlagen sich in unterschiedlichen Fortpflanzungsraten nieder, was zum berühmten Überleben der Tüchtigsten durch natürliche Auslese führt. 2. Die verschiedenen Arten sind durch Differenzierungsprozesse aus gemeinsamen Vorgängern entstanden. Die Evolution lässt sich in einem Stammbaum darstellen. Owens Archetyp wird durch den gemeinsamen Vorfahren ersetzt. Damit die Evolution wirken kann, muss es also eine Strukturübertragung an die Nachkommen mit kleinen Modifikationen (Mutationen) geben, die, einmal aufgetaucht, dann auch wieder an die Nachkommen weitergegeben werden, und etwas unterschiedliche Organismen müssen auch unterschiedliche Fortpflanzungsraten haben, zumindest im statistischen Mittel. Ein wesentliches neues Element bei Darwin und Wallace, der unabhängig von Darwin die Grundgedanken der Evolutionstheorie gefunden hatte, war die Rolle des Zufalls. Der strukturerhaltende Mechanismus in Darwins Theorie war die Vererbung. Während die Generation von Cuvier noch ihr Anschauungsmaterial im Wesentlichen aus Zoologischen oder Botanischen Gärten und naturkundlichen Sammlungen bezog, reisten Darwin und Wallace, wie schon Alexander von Humboldt vor ihnen, in der Welt herum und studierten das Nebeneinander und die Konkurrenz von Lebewesen in ihrer natürlichen Umwelt (die Galapagosinseln im Falle von Darwin und die indonesische Inselwelt bei Wallace). Insbesondere konnte ihnen das Studium der Verbreitung verschiedener Arten und auch höherer Taxa wichtige Aufschlüsse liefern. Darwin zog zur Unterstützung seiner Theorie neben sehr vielfältigen biologischen Beobachtungen und Untersuchungen ein eindrucksvolles und weites Spektrum empirischer Befunde heran, von der durch Charles Lyell begründeten Geologie als Lehre der aus rezenten Gesteinsschichtungen zu erschließenden Erdveränderungen und der mit dieser wesentlich verknüpften Paläontologie, für die Entsprechungen zwischen Gesteinsschichtungen an verschiedenen Orten dann zumindest eine relative Datierung ermöglichen, bis hin beispielsweise zu systematischen Analysen der Erfolge von Taubenzüchtern bei der Hervorbringung neuer Rassen. Darwin wollte also im Gegensatz zu Owen nicht primär Strukturen, sondern Veränderungen erklären, war also eher an den Unterschieden als an den Gemeinsamkeiten zwischen Lebewesen interessiert. Die Selektion arbeitet nämlich differentiell, d. h. sie greift an Unterschieden an. Der natürliche

1.3 Konzepte und Kontroversen

15

Auswahlprozess beruht auf Unterschieden im Körperbau, die dann zu Leistungsdifferenzen im unbarmherzigen Kampf ums Dasein führen. Die entscheidende Frage für die Verbindung der beiden darwinschen Theorieelemente war nun, wie vererbbare Unterschiede entstehen können. Dies konnte Darwin nicht beantworten. Und er packte diese Frage auch falsch an. Die Taubenzüchter, die Darwin so genau beobachtete, paarten möglichst gleichartige Individuen, um neue Rassen zu erzeugen und zu stabilisieren. Gregor Mendel (der mit Bohnen statt mit Tauben arbeitete) dagegen kreuzte systematisch verschiedenartige Individuen, um zu sehen, welche Eigenschaften sich in den Nachkommen durchsetzen. Seine große Entdeckung und geniale Idee war, dass sich die Eigenschaften der Eltern nicht kontinuierlich mischen, sondern dass die Eigenschaften der Nachkommen aus der Kombinatorik diskreter Elemente entstehen, welche dann später Gene genannt wurden. Und zwar trägt jedes Individuum in sich geschlechtlich vermehrenden Populationen an jedem Locus zwei Allele (Varianten des jeweiligen Gens), jeweils ein Exemplar von jedem der beiden Elternteile. Jedes Allel steht für eine bestimmte Ausprägung einer Eigenschaft, also beispielsweise für die Blütenfarbe weiß oder rot. Wenn die beiden Allele gleich sind, zeigt der Organismus die durch sie kodierte Eigenschaft. Wenn die beiden verschieden sind, kommt es entweder zu einer Mischung (rosa), oder eines der beiden setzt sich gegenüber dem anderen durch (beispielsweise rot). Mendel beobachtete in seinen Experimenten das Letztere und fand dadurch den Schlüssel zum Verständnis des Vererbungsmechanismus. Die diskreten Einheiten, deren Existenz Mendel nachgewiesen hatte, können dann mutieren, und dadurch entstehen diskrete, und nicht graduelle, Unterschiede (z. B. könnte plötzlich die Blütenfarbe gelb erscheinen). Die Gene waren zunächst rein hypothetische Einheiten, und dies erleichterte die Entwicklung einer entsprechenden mathematischen Theorie, der Populationsgenetik, während die physikalische Realisierung dieser Einheiten erst von der modernen Biochemie aufgeklärt werden konnte. Die Populationsgenetik spielte dann auch eine wesentliche Rolle in der sog. Neodarwinistischen Synthese, der Zusammenfassung der Theorien von Darwin und Mendel. Ein wichtiger Aspekt, der insbesondere von Ernst Mayr (1904–2005), einem der Architekten dieser Synthese, herausgearbeitet wurde, war, dass eine Spezies nun nicht mehr als ein Typ, sondern als eine Population von untereinander paarungsfähigen, aber genetisch nicht identischen Individuen aufgefasst wurde (s. z. B. Mayr 1982), also als ein rekombinierbarer Genpool. Als Erklärungsziel der Theorie traten demzufolge die adulten Formunterschiede zurück gegenüber Veränderungen in der genetischen Zusammensetzung von Populationen. Auch wenn die neodarwinistische Synthese in vieler Hinsicht erfolgreich war, ergaben sich nun einige wesentliche konzeptionelle Probleme, insbesondere: 1. Ein Gen hat eine doppelte Rolle: Einerseits ist es eine diskrete Erbeinheit, und andererseits ist es für die Ausprägung einer bestimmten phänotypischen (d. h. am Organismus sichtbaren) Eigenschaft verantwortlich. 2. Die Entwicklungsbiologie war nicht Bestandteil der Synthese. Die wesentliche biologische Frage, wie sich ein Organismus aus einer befruchteten Eizelle entwickelt, wurde also nicht erfasst.

16

1 Geschichte und Struktur der Biologie

Diese beiden Probleme sind nicht unabhängig voneinander. Das Konzept des Gens führte daher zu wesentlichen neuen Einsichten in das Verhältnis von Vererbung und Entwicklung. Vorher waren die konkurrierenden theoretischen Prinzipien die Präformation und die Epigenesis. Die Präformationstheorie sah in der Individualentwicklung die Entfaltung einer schon im Embryo vorhandenen Struktur. Das Genkonzept modifiziert diesen Ansatz insofern, als es jetzt nicht mehr um die Entfaltung einer schon vorhandenen Struktur, sondern um vererbte Regeln zum Aufbau einer neuen (aber mit derjenigen der Eltern im Wesentlichen identischen) Struktur im Wechselspiel mit der Umwelt geht. Die epigenetische Theorie dagegen meinte, dass der anfänglich strukturlose Embryo seine Gestalt erst im Laufe der Entwicklung bekam, mit der Hilfe einer speziellen Lebenskraft. Zwar glaubt man im Zeitalter der Molekularbiologie nicht mehr an eine solche Lebenskraft, aber dass ein Organismus für seine Entwicklung auf vielfältige äußere Faktoren angewiesen ist, ist ein wichtiger Punkt. Insbesondere braucht das, was er vorgefertigt aus seiner Umwelt beziehen kann, nicht mehr in seinem Genom kodiert zu werden. Der Extremalfall sind die Viren, die mit einem minimalen Genom von den komplexen Strukturen ihrer Umwelt zehren. Diese Komplementarität ist auch für allgemeine komplexitätstheoretische Überlegungen wichtig, aber das führt hier vielleicht zu weit ab. Die Evolutionstheorie hat bekanntlich spektakuläre weltanschauliche Konsequenzen, wegen derer sie auch heute noch vielen Angriffen ausgesetzt ist. Die Evolutionstheorie erfasst auch zwei der wesentlichen biologischen Grundkonzepte, das Gen als Erbeinheit und die Art als Fortpflanzungsgemeinschaft. Für die Entwicklung der Biologie als empirischer Wissenschaft war aber vielleicht ein drittes Grundkonzept noch wichtiger, die Zelle als Einheit des Stoffwechsels. Zwar hatte man schon im 17. Jahrhundert mit dem Mikroskop in bestimmten biologischen Materialien Zellen entdeckt, aber die Zelle als biologische Grundeinheit wurde erst im 19. Jahrhundert erkannt. In der Nachfolge von Descartes hatte man Lebewesen noch als Maschinen angesehen. Als dieser Ansatz nicht wirklich weiterführte, postulierte man im 18. Jahrhundert eine spezifische Lebenskraft. In der romantischen Naturphilosophie zu Beginn des 19. Jahrhunderts (hier ist für die Biologie besonders Lorenz Oken [1779–1851] zu nennen, der übrigens auch viele wichtige biologische Begriffe schuf, u. a. auch das Wort „Biologie“ selbst) verlagerte sich das Augenmerk von den Formen der Lebewesen auf die Organisation des Lebenden. Dies lieferte eine wichtige Anregung für die nachfolgende Generation empirischer Naturwissenschaftler, auch wenn diese die spekulativen Höhenflüge der Naturphilosophie ablehnten. Die von Matthias Jakob Schleiden (1804–1881) und Theodor Schwann (1810–1882) begründete Zelltheorie sah den Organismus durch das Zusammenwirken von in homogenen Verbünden, den Geweben, organisierten, prinzipiell gleichartigen Grundeinheiten, den Zellen, funktionieren und durch Zellteilungen wachsen. Die Lebenseigenschaft wird nun nicht mehr einer mysteriösen Kraft, sondern der Zelle zugeschrieben, die durch eine spezifische Anordnung von Molekülen die dem Leben zugrundeliegenden Prozesse ausführen kann. Allerdings konnte die Zytologie, die Zelllehre, im 19. Jahrhundert im Wesentlichen nur durch mikroskopische Untersuchungen an Zellschnitten, die Histologie, Strukturen beschreiben und durch spezi-

1.3 Konzepte und Kontroversen

17

elle Färbemethoden Zellbestandteile identifizieren.16 Zwar wurden während dieser Zeit, zu der auch ein rapider Aufschwung der Chemie stattfand, schon mittels Extrakten die in Zellen vorkommenden Substanzen bestimmt und die zwischen diesen ablaufenden Reaktionen analysiert, aber die Synthese wurde noch nicht systematisch beherrscht, und die wesentlichen chemischen Makromoleküle, also die Proteine, entzogen sich den damaligen Methoden. Man erkannte die Rolle der durch Enzyme gesteuerten Katalyse, aber die Kluft zwischen Labor und Lebewesen konnte nicht geschlossen werden. So erfasste die damalige Chemie nur bestimmte Aspekte des Stoffwechsels, während die chemische Analyse der Zellsteuerung und damit die Erklärung der von den Histologen gefundenen Strukturen erst in der zweiten Hälfte des 20. Jahrhunderts durch die moderne Biochemie und Molekularbiologie gelang. Dass systematisch die Methoden einer anderen Wissenschaft, der Chemie, in der Biologie eingesetzt wurden, rief oftmals den vehementen Protest traditioneller Biologen hervor, die meinten, dass dadurch die Spezifik ihres Gegenstandsbereiches, des Lebens, aus dem Blick geräte. Heutzutage scheint sich wieder etwas Ähnliches abzuspielen, wenn plötzlich informatikgetriebene Hochdurchsatzmethoden die traditionellen, sorgfältigen chemischen Einzelanalysen der Biochemie ablösen. Viele biochemisch und biologisch Forschende sind entsetzt, wenn nun einfach mal kurzerhand die gesamte in einem Tropfen Meerwasser enthaltene DNS sequenziert wird. – Andererseits kann man inzwischen auch mit den in der physikalischen Forschung entwickelten spektroskopischen Techniken nicht mehr nur wie mittels chemischer Verfahren Reaktionen zwischen Biomolekülen feststellen, sondern diese Prozesse auch auf der atomaren Ebene beobachten. Der bedeutende Fortschritt der Zellbiologie in der zweiten Hälfte des 19. Jahrhunderts hatte auch für die Evolutionsbiologie Folgen, auch wenn diese beiden Entwicklungsstränge in vieler Hinsicht getrennt blieben. Die Entdeckung der Keimbahn bedeutete für August Weismann (1834–1914) eine biologische Trennung der nur über die Keimzellen ablaufenden Vererbung und der in der Genese der somatischen Zellen durch fortgesetzte Zellteilungen stattfindenden Individualentwicklung, und damit die endgültige Zurückweisung der lamarckistischen Vorstellungen. Hieraus haben manche Evolutionsbiologen sehr weitreichende Konsequenzen gezogen, die unten kritisch diskutiert werden. Weismann und Wilhelm Roux (1850–1924) vertraten eine Mosaiktheorie der Entwicklung, was besagt, dass sich die einzelnen Körperteile unabhängig voneinander intrinsisch getrieben entwickeln. Die regulative Theorie der Entwicklung meint dagegen, dass die Ausprägung der Körperteile durch die Position der Vorgängerzellen im Embryo bestimmt wird. Theodor Boveri (1862–1915) vermutete, dass die unterschiedlichen Entwicklungen der Zellen in einem Embryo durch einen Konzentrationsgradienten getrieben werden und deswegen positionsabhängig sind. Tatsächlich weiß man heute, dass beides vorkommt. Allerdings kann die Mosaiktheorie für sich alleine nicht korrekt sein. Alle Körperzellen eines Organismus17 tragen nämlich, wie man durch die Molekularbiologie weiß, das gleiche vollständige 16 Dies erklärt übrigens auch die Wurzel „Chrom“ (aus dem griechischen Wort für Farbe) in den Chromosomen. 17 Das Immunsystem bildet eine Ausnahme, die an dieser Stelle allerdings nicht relevant ist.

18

1 Geschichte und Struktur der Biologie

Genom in ihrer DNS. Wenn man mal zur Vereinfachung die epigenetische Vererbung18 außer Betracht lässt, gibt es also keinen intrinsischen Grund, warum sich eine Zelle anders als eine andere entwickeln soll, warum also die eine eine Gehirn- und die andere eine Muskel- oder Leberzelle wird. Dies ist das Problem der Zelldifferenzierung. Hans Driesch (1867–1941) stellte als erster fest, dass in der frühen Embryonalentwicklung Zellen totipotent sein können, sich also, wenn an die geeignete Stelle gesetzt, in beliebige Zelltypen des Organismus ausdifferenzieren können. Im Laufe der durch iterierte Zellteilungen ablaufenden Entwicklung verlieren die Zellen immer mehr dieses Potential, bis sie schliesslich soweit vorgeprägt sind, dass der Typ vollständig festgelegt ist. Das Verständnis dieser Vorgänge ist wichtig für die heutige Diskussion über Stammzellen. Hans Spemann (1869–1941) entwickelte dann das wichtige Konzept des Organisators, eines Bereichs im Embryo, der bei dessen Entwicklung die Differenzierung anderer Bereiche auslöst, steuert und miteinander verknüpft. Es ist nun aber nicht etwa so, dass es in der Entwicklung eine zentrale Steuereinheit gibt, die den Rest kontrolliert, sondern es findet eine durch Wechselwirkungen zwischen Zellen und externe Faktoren beeinflusste Kombinatorik der Genregulation statt. Das ist jedenfalls weit von der naiven Vorstellung entfernt, dass jede phänotypische Eigenschaft wie beispielsweise die Augenfarbe durch ein einzelnes Gen bestimmt und zum Ausdruck gebracht wird. Die ursprüngliche Idee, dass ein Gen eine vererbbare Einheit ist, die eine phänotypische Eigenschaft kodiert, ist also zu einfach. Was aber ist dann ein Gen, und vor allem, wie ist es physisch in der Zelle realisiert oder repräsentiert? Mit dieser Frage werden wir uns in Abschn. 3.3 ausführlich befassen. Hier geht es erst einmal um eine Zusammenfassung der Geschichte (eine gute Darstellung ist beispielsweise Morange 1998). Die Gene wurden zunächst in bestimmten Zellbestandteilen, den Chromosomen, lokalisiert. Chromosomen waren greifbare physikalische Objekte; bedeutete dies, dass Gene ebenfalls (nichts weiter als) physikalische Objekte waren? Thomas Hunt Morgan (1866–1945) konnte dann durch geschickte Kreuzungsexperimente an Fruchtfliegen Drosophila melanogaster, die dadurch zum Modellorganismus der Genetik wurden, die Positionen der einzelnen Gene genauer kartieren. Insbesondere entdeckte Morgan das Phänomen der Rekombination durch Kreuztausch, dass also ein Chromosomenabschnitt eines Elternteils mit dem komplementären Abschnitt des anderen zu einem Chromosom eines Kindes zusammengefügt werden kann. Je häufiger Gene bei Kreuzungen rekombinierten, umso weiter mussten sie voneinander entfernt liegen, und es stellte sich heraus, dass die Relation streng linear war, ohne irgendwelche Verzweigungen. Man stellte sich die Genen wie an Schnüren, den Chromosomen, aufgereihte Perlen vor. Das Ineinandergreifen von Vererbung bei Kreuzungen, Mutationen und Rekombinationen wurde dadurch klar. Dass Gene aber tatsächlich nicht nur operationale Einheiten, sondern physikalische Objekte waren, wurde erst dadurch akzeptiert, dass Hermann Muller 1927 durch Röntgenbestrahlung Mutationen auslösen konnte. Dies erregte das Interesse der Quantenphysiker, und einer 18 Dies bedeutet, etwas vereinfacht ausgedrückt, dass die Eizelle nicht nur das mütterliche Genom, sondern auch noch eine Reihe anderer Faktoren, und zwar auch solche mit regulativer Funktion, auf den Nachwuchs überträgt.

1.3 Konzepte und Kontroversen

19

von ihnen, Max Delbrück (1906–1981), wurde dann zu einem Pionier der Genetik.19 1935 findet sich in Timoféef-Ressovsky et al. (1935) schon der bemerkenswerte Satz „Ein Gen ist ein Atomverband, der als Einheit unterhalb der Ebene der Zelle existiert.“ Als Physiker suchte Delbrück ein einfacheres replizierendes System als die Frucht- oder Taufliege Drosophila melanogaster von Morgan und fand dies in Bakteriophagen, Viren, die Bakterien befallen. Durch Untersuchung von Häufigkeitsverteilungen konnten Delbrück und S. Luria dann beispielsweise nachweisen, dass Bakterien Resistenz gegen Phagen durch zufällige Mutationen gewinnen und an ihre Nachkommen weitergeben, anstatt durch den Kontakt mit Phagen erworbene Anpassungen weiterzureichen. Damit galt die alte Vorstellung von Lamarck der Vererbung erworbener Eigenschaft endgültig als widerlegt. Die grundlegenden Fragestellungen, die damals in die Reichweite der molekularbiologischen Forschung gerieten, regten den Physiker Erwin Schrödinger zu seinem Buch „What is Life?“ Schrödinger (1944) an, welches wiederum für eine Reihe von Physikern, die sich der Biochemie zuwenden wollten, sehr inspirierend war,20 z. B. für Francis Crick. Schrödinger wies darauf hin, dass Lebewesen in dreierlei Hinsicht dem Zweiten Hauptsatz der Thermodynamik, dass die Entropie in einem geschlossenen System stets wächst, zu widersprechen scheinen: 1) durch die Wiedergabetreue bei der genetischen Vererbung, 2) durch die Entfaltung eines komplexen Organismus aus einer einzigen Zelle und 3) durch die Fähigkeit von Organismen, ihren Stoffwechsel aufrecht zu erhalten, anstatt sich zu zersetzen. Der erste Punkt war der seinerzeit wirkungsmächtigste, und nach seiner Ansicht musste daher ein Gen eine Art von aperiodischem Kristall sein. Der physikalisch gedachte Ansatz von Delbrück konnte während dieser Zeit auch durch chemische Analysen der relevanten Substanzen komplementiert werden, also durch biochemische Methoden. Wichtig für die weitere Entwicklung war jedenfalls das Wechselspiel zwischen strukturbiologischen Methoden (im Wesentlichen der Röntgenkristallspektroskopie) und biochemischen Verfahren, insbesondere Formen der Sequenzanalyse, und zwar zunächst von Aminosäureketten, beginnend mit der Aufdeckung der Sequenz des Insulins durch F. Sanger. Chromosomen sind ein komplexes Konglomerat von Proteinen, die aus Aminosäuren bestehen, und Nukleinsäuren, und lange Zeit dachte man, dass Gene in den chemisch agilen Aminosäuren materialisiert seien. Dies wurde beispielsweise auch durch W. Stanleys Herausarbeitung der Struktur des Tabakmosaikvirus nahegelegt. Dieser Virus befällt Tabakpflanzen, und Stanley konnte durch Kristallisation seine Proteinstruktur aufdecken und diese dann in Ultrazentrifugen und mittels Elektronenmikroskopen genauer untersuchen (s. die Analyse in Creager 2002). Zur allgemeinen Überraschung konnte dann aber O. Avery 1944 die biochemisch sehr reaktionsträgen Nukleinsäuren, genauer die DNS, als Träger der Gene 19 Hier stelle ich im Wesentlichen die Standardhistoriographie der Geburt der Molekularbiologie dar.

Die Zuschreibung der zentralen Rolle an Max Delbrück ist nicht unwidersprochen geblieben, vgl. z. B. die Diskussion in Creager (2010). 20 So lautet zumindest die Standardhistoriographie. Möglicherweise wird aber der Einfluss von Schrödingers Buch überschätzt.

20

1 Geschichte und Struktur der Biologie

identifizieren. Endgültig bestätigt wurde dies 1953 durch Hershey und Chase, die, indem sie DNS und Proteine verschieden radioaktiv markierten, nachweisen konnten, dass Bakteriophagen nur ihre DNS in die Bakterien injizieren, die sie befallen und in denen sie dann die Herstellung neuer Viren induzieren, während die Strukturproteine nur der Ankopplung an die Oberfläche der Bakterie dienen und draußen bleiben. Die DNS ist nach Watson und Crick eine gewundene Doppelschleife, und bei der Zellteilung wird an jede Tochterzelle einer der Stränge übergeben, der sich dann durch Komplementierung wieder zu einem Doppelstrang vervollständigt, so dass sich der Vorgang wiederholen kann. Diese Entdeckung ist von konzeptioneller Bedeutung, denn • Dreidimenionsale Gebilde können nicht kopiert werden, weil das Innere nicht zugänglich ist. Die zu übertragende Information muss also in ein- oder zweidimensionalen Strukturen kodiert sein. Und wenn der Kopiervorgang nicht wie in einem Fotokopierer simultan ablaufen kann, sondern ein sukzessiver, immer nach dem gleichen Schema ablaufender Prozess ist, so eignet sich eine eindimensionale Struktur am besten. • Es gibt zwei unterschiedliche Arten der Übertragung genetischer Information. Zum einen muss die Information bei der Zellteilung vollständig und dauerhaft in die beiden Tochterzellen übertragen werden. DNS muss in DNS überführt werden, und dies wird dadurch möglich, dass die genetische Information in dem Doppelstrang eben doppelt vorhanden ist. Für die Übersetzung in funktionale Zellbestandteile muss die Information dagegen von der dabei nicht veränderten DNS in ein anderes, nicht permanentes Molekül, die RNS, übergeben werden. Hierzu reicht ein Strang, und da die beiden Stränge zwar die äquivalente Information enthalten, diese aber komplementär kodiert ist, darf dabei sogar nur einer der beiden abgelesen werden. Jeder DNS-Strang ist eine aus vier verschiedenen „Buchstaben“ gebildete Kette, und die Gene wurden dann mit spezifischen, aus diesen Buchstaben gebildeten „Wörtern“ in dieser Kette identifiziert. Dabei ist weniger die Lokalisation in der Kette als die Identität und Reihenfolge der Buchstaben wichtig. Nach dem genetischen Kode, den Crick postulierte und der dann von M. Nirenberg und H. Matthaei entschlüsselt wurde, kodiert ein Triplet, also eine zusammenhängende Gruppe aus drei Nukleotiden für eine Aminosäure, also eines der Elemente, aus denen sich Proteine zusammensetzen. Da es 4 Nukleotide gibt, es 64 verschiedene Triplets, und da es nur 20 verschiedene Aminosäuren gibt, ist der Kode redundant. DNS-Abschnitte werden dabei zunächst als RNS abgelesen und von dieser dann in Aminosäureketten übersetzt. Ein Gen würde dann also einem Protein entsprechen, oder genauer einem Polypeptid, einer zusammenhängenden Aminosäurekette, denn Proteine können aus mehreren Polypeptiden zusammengesetzt sein. Ein Protein gewinnt seine Funktion allerdings nicht als lineare Kette, sondern als ein räumliches Gebilde, zu welchem sich eine solche Kette zusammenfaltet. Crick (1958) formulierte das Zentrale Dogma der Molekularbiologie, dass Information von Nukleinsäuren in Proteine transferiert wird, aber nicht in umgekehrter Richtung (und

1.3 Konzepte und Kontroversen

21

auch nicht mehr aus Proteinen in andere Proteine). Nach der Entdeckung der RNS spezifizierte Watson dies später als gerichteten Informationstransfer von der DNS über die RNS in die Proteine. Und das Dogma wird dann meist so formuliert, dass Information von der DNS durch Replikation in andere DNS, durch Ablesung (Transskription) in RNS und dann durch Übersetzung (Translation) von der RNS in Proteine übertragen werden kann, aber kein Informationsfluss in umgekehrter Richtung stattfinden kann. Für die Vererbung ist die gerade skizzierte Vorstellung – einigermaßen – angemessen, aber bei der Entwicklung und der Funktion der einzelnen Zellen ist die Situation allerdings verwickelter. Daher hat es auch von sehr verschiedenen Seiten Widerspruch gegeben, insbesondere durch Betonung der Tatsache, dass Gene nicht isoliert wirken, sondern immer nur in einem weiteren Kontext, der durch das gesamte Genom und äußere Faktoren gegeben ist. Wir wollen die molekularbiologischen Aspekte dieser Problematik hier nur kurz anreißen, weil sie weiter unten in Abschn. 3.3 in formalerer Weise wieder aufgegriffen wird. Wie kann überhaupt ein Gen eine Eigenschaft kodieren? Nun, wie gerade dargelegt, kann eine bestimmte Buchstabensequenz im obigen Sinne ein Protein kodieren. Die Proteine sind die aktiven Zellbestandteile, die für die Funktion der Zelle verantwortlich sind und dadurch dann phänotypische Eigenschaften hervorrufen. Hieraus wird man wohl, wie gerade dargelegt, den Schluss ziehen wollen, dass ein Gen also eine Sequenz ist, die ein Protein kodiert. Ein Protein wird aber in einem Übersetzungsvorgang aus einer mRNS-Sequenz (die Terminologie wird in 3.1 erklärt), und eine solche mRNS-Sequenz wird typischerweise in einem komplexen Regulationsvorgang aus verschiedenen aus der DNS abgelesenen Sequenzen zusammengesetzt, wobei die Zwischenprodukte nicht nur das Endprodukt kodieren, sondern gleichzeitig noch verschiedene Handlungsanweisungen für diesen Regulationsvorgang tragen. Und die DNS enthält nicht nur Sequenzen, aus denen dann später die proteinkodierenden mRNSen gebildet werden, sondern auch solche, die rein regulatorische Elemente bestimmen. Nur ein kleiner Prozentsatz der DNS besteht aus Abschnitten, die an der Kodierung von Proteinen beteiligt sind. Neben den regulatorischen Abschnitten gibt es noch andere Bereiche, deren Funktion noch unbekannt ist und vielleicht primär in der räumlichen Organisation der DNS besteht.21 Und viele der Proteinen führen gar keine selbständige Zellfunktion aus, sondern regulieren die Aktivierung anderer Gene, beispielsweise als Transkriptionsfaktoren, welche die Ablesung bestimmter DNS-Abschnitte steuern. Diese Transkriptionsfaktoren docken an spezifische DNS-Motive an, die in der Nähe kodierender Abschnitte liegen und ermöglichen, verstärken oder unterdrücken dadurch deren Ablesung. Es entstehen dadurch aus mehreren Komponenten gebildete Regulationseinheiten, wie das von François Jacob (1920–2013) und Jacques Monod (1910–1976) entdeckte Operon (Jacob und Monod 1961). Und damit eine Zelle eine bestimmte Funktion, beispielsweise als Leberzelle, erfüllen kann, muss eine spezifische Kombination von hunderten von Genen aktiv sein, während die Aktivität der meisten anderen Gene unterdrückt werden muss. Während man die Aktivierung einzelner Gene oft schon ziemlich genau verstehen kann, gibt es bei der Koordination der Regula21 Solche Bereiche werden oft als „junk DNA“, also Gerümpel-DNS, bezeichnet. Der meist gezogene

Schluss, dass diese Bereiche nur eine funktionslose Erblast darstellen, ist allerdings voreilig.

22

1 Geschichte und Struktur der Biologie

tion von Gruppen von Genen noch viele offene Fragen. Vor diesem Hintergrund wird auch klar, dass es mit der – spektakulären – Entschlüsselung des menschlichen Genoms, d. h. der Identifikation der Reihenfolge der ca. 3 Mrd. Buchstaben unserer DNS, noch lange nicht getan ist, wenn man die Wirkungsweise einer Zelle verstehen will. Schon die Tatsache, dass man dabei auf eine Zahl von nur noch knapp 20.000 Genen geführt wird, während der menschliche Körper sicherlich mindestens eine halbe Million verschiedene Proteine herstellen kann, zeigt, dass da mit der Begrifflichkeit etwas nicht stimmen kann. Und auch der Ansatz, phänotypische Unterschiede oder Defekte mit unterschiedlichen Buchstaben an einer spezifischen Position in der DNS zu korrelieren, führt wohl in vielen Fällen zu keinem tieferen Verständnis, auch wenn in der Presse mal wieder die genetische Entschlüsselung einer weiteren Volkskrankheit bejubelt wird. Und solche phänotypischen Unterschiede oder Defekte lassen sich oftmals gar nicht an spezifischen DNS-Positionen festmachen, sondern hängen von Details des Regulationsvorganges ab. Von noch allgemeineren Aspekten, wie der räumlichen Organisation des Genoms und der Zelle oder der Rolle komplementärer externer Faktoren, soll hier gar nicht gesprochen werden, auch wenn uns diese im Laufe der nachfolgenden Kapitel noch wiederholt begegnen werden. Die vorstehend angerissene Analyse des Genkonzeptes verwandelt in gewisser Weise die Diskussion über das Verhältnis von Struktur und Funktion in eine solche über das Verhältnis von Information und Funktion. Hierbei wird auch die Sachlage mathematisch fassbarer gemacht, weil Information ein klar definiertes mathematisches Konzept ist. Als Funktion wird jetzt allerdings paradoxerweise eine biochemische Struktur angesehen, nämlich das Protein, welches dabei zunächst als lineare Kette von Aminosäuren aufgefasst wird. Seine biologische Funktion ergibt sich aber erst aus seiner dreidimensionalen Struktur, die sich in einem Faltunsgprozess aus Affinitäten oder Abstoßungen zwischen Untereinheiten bildet. Das präzise mathematische Verständnis dieses Faltungsprozesses, wie sich also aus der linearen Sequenz die dreidimensionale Struktur ergibt, ist bisher noch nicht gelungen. Es besteht dabei auch die Frage, inwiefern dies überhaupt ein autonom ablaufender – und damit im Prinzip mathematisch beschreibbarer – Prozess ist oder ob er wesentlich von dem zellulären Medium abhängt (es gibt beispielsweise bestimmte Proteine, die Chaperone, die anderen bei der Faltung helfen; allerdings besteht die wesentliche Funktion dieser Chaperone wohl eher darin, zu verhindern, dass verschiedene Sequenzen miteinander verkleben, statt sich individuell zu falten). Aber noch einmal zurück zu der grundlegenden Frage nach dem Verhältnis von Struktur und Funktion, die sich eigentlich schon seit Plato und Aristoteles durch die gesamte Diskussion zieht. Wir hatten schon gesehen, dass entweder Strukturen als Anpassungshindernisse oder Anpassungen als Strukturverwischungen angesehen werden können. Das ist natürlich nicht wirklich hilfreich, und um weiterzukommen, wollen wir erst einmal den Begriff der Anpassung, der Adaptation, analysieren. Die historische Sicht sieht ein Merkmal als eine Anpassung an, wenn es in der Vergangenheit zu Fitnessvorteilen für die Vorfahren der jetzigen Träger geführt hat. Viele populationsgenetisch Argumente bevorzugen dagegen eine kausale Sichtweise, wo eine Ausprägung eines Merkmals in der jeweiligen Population

1.3 Konzepte und Kontroversen

23

zu Fitnessvorteilen gegenüber andersartigen Individuen führt, wenn sich also eine höhere erwartete Anzahl von Nachkommen ergibt. Als Mathematiker sieht man nun sofort, dass dies insofern problematisch ist, als nicht klar ist, worauf denn diese Erwartung bedingt wird. Vermutlich kann man wohl sinnvollerweise nur darauf bedingen, dass die Situation so bleibt, wie sie schon gewesen ist. Wenn aber alles so bleibt, wie es schon gewesen ist, so muss es auch schon Fitnessvorteile in der Vergangenheit gegeben haben, so dass die kausale Sichtweise sich nicht wirklich von der historischen abheben kann. Dies wird erst dann anders, wenn man Adaptationen nicht mehr als Anpassungen an eine statische Umwelt auffasst, sondern in den Blick nimmt, dass Populationen sich mit einer sich ebenfalls ständig verändernden Umwelt auseinandersetzen müssen. Selektion würde nur dann die Herstellung originalgetreuer Kopien begünstigen, wenn es keine Verbesserungsmöglichkeiten gäbe, aber eine Population muss typischerweise irgendwie mit einer variierenden Umwelt Schritt halten, um nicht unterzugehen. Es gibt zwar in dieser Hinsicht eine Reihe von Untersuchungen zur Koevolution, beispielsweise von Parasiten und ihren Wirten, wo der Evolutionsdruck für die Parasiten darin besteht, sich an die Evolution der Wirte anzupassen, die umgekehrt darauf gerichtet ist, die Parasiten loszuwerden. Es gibt da auch einige nette spieltheoretische Modelle. Aber wirklich systematisch und konsequent ist dies in der theoretischen Biologie wohl noch nicht durchdacht worden. In diesem Kontext muss auch die Rolle des Zufalls thematisiert werden, denn der Zufall ist ein zentrales Element der darwinschen Theorie. Wie wir als mathematisch Ausgebildete wissen, mitteln sich unter geeigneten Bedingungen in (im mathematischen Limes unendlich) großen Populationen stochastische Fluktuationen aus, und die Dynamik der Wahrscheinlichkeiten kann durch deterministische, nach Kolmogorov oder Fokker-Planck benannte Gleichungen erfasst werden. In kleinen Populationen spielt dagegen, wie von Sewall Wright (1889–1998) hervorgehoben, der zufällige genetische Drift die entscheidende Rolle, was die Stochastik heutzutage sehr detailliert analysieren kann. Ein wichtiger Gedanke, der zu einer klareren Trennung zwischen den historischen Entstehungsgründen und den Bedingungen für den aktuellen Nutzen führt,22 wurde dann von Gould und Vrba (s. Gould 2002 für eine umfassende Diskussion) in die Debatte eingebracht. Strukturen sind für sie nicht etwa Anpassungshindernisse, sondern stellen gerade einen Vorrat von Möglichkeiten bereit, die vielleicht ursprünglich nur als Nebenprodukt einer anderen Anpassung entstanden sind, dann aber für eine neuartige Verwendung eingesetzt werden können. Eine schon vorhandene Struktur, die dann für eine neue Funktion herangezogen werden kann, nennen sie Exaptation. Es gibt hierzu vielfältige morphologische Beispiele. So sind die Gliedmaßen und die Atmungsorgane der landlebenden Wirbeltiere aus Vorgängerstrukturen bei Fischen entstanden, die völlig anderen Zwecken dienten. Wie schon erwähnt, entwickelte wohl eine Gruppe von Dinosauriern Federn zur Wärmeregulierung, und die Federn werden nun von den von diesen abstammenden Vögeln zur Aerodynamik des Fluges eingesetzt. Vor allem ist aber in der letzten Zeit klargeworden, dass es auf der molekularen Ebene viele genetische Mechanismen gibt, die günstig für neue Zwecke kooptiert oder 22 Diese Unterscheidung wurde übrigens zuerst von Friedrich Nietzsche (1844–1900) klar erfasst.

24

1 Geschichte und Struktur der Biologie

usurpiert werden können. Ein besonders wichtiges Beispiel bilden die Hoxgene, die flexibel die Herausbildung verschiedenartiger Körperstrukturen steuern können (für eine eingehendere Diskussion z. B. Merks 1997). So sind beispielsweise heute die vorderen und hinteren Gliedmaßen von Vertebraten oft homologer als bei ihren Vorfahren, weil die Steuermechanismen noch ähnlicher geworden sind. Wichtige evolutionäre Ereignisse, insbesondere in der Evolution der Vertebraten, waren die Verdopplungen großer Gengruppen, welche dann Material für viele neue Funktionen bereitstellten.23 Für Darwin mussten die Variationen häufig, klein und ungerichtet sein. Die modernen Entdeckungen zeigen aber, dass es in der Evolution durchaus sowohl großräumige Umstrukturierungen des Genoms wie die genannten Verdopplungen wie auch, wie unten besprochen wird, drastische Änderungen in der Ontogenie gab. Biologen, die wie Richard Goldschmidt (1878–1958), der von „hoffnungsvollen Monstern“ sprach, Makromutationen als wesentliche Schritte der Evolution ansahen, wurden seinerzeit von ihren Kollegen belächelt. Auch wenn phänotypische Veränderungen sich wohl tatsächlich meist nur in kleinen Schritten vollziehen, kann die Situation beim Genotyp und in der Ontogenie durchaus anders aussehen. Und dass Strukturen latente Entwicklungsmöglichkeiten bereitstellen, ermöglicht wohl auch das von Eldredge und Gould postulierte, auf einer evolutionären Zeitskala sehr schnelle Ausstrahlen von Lebensformen in bisher nicht explorierte Habitate, insbesondere nach geologischen Umbrüchen oder großflächigen Aussterbeereignissen. (Die Theorie stützt sich auf die paläontologische Beobachtung, dass neue Fossilientypen typischerweise ziemlich plötzlich und unvermittelt auftreten und sich dann bis zu ihrem Aussterben weitgehend unverändert halten.) Es ist daher falsch, Strukturen als Anpassungshindernisse anzunehmen. Vielmehr stellen Strukturen ein schon vorselegiertes und organisiertes Material bereit, mit dem mögliche Adaptationen wesentlich effizienter gefunden werden können als durch wahlloses Durchsuchen eines hochdimensionalen, aber strukturlosen Möglichkeitsraumes.24 Dies knüpft nicht nur an eine allgemeine systemtheoretische Einsicht an, was hier allerdings nicht vertieft werden kann, sondern liefert auch Impulse für effiziente biologische inspirierte Suchverfahren in anderen Anwendungsbereichen. Schließlich gibt es auch Anhaltspunkte dafür, dass auf der molekularen Ebene wirkende interne Faktoren, wie die räumliche Organisation des Genoms oder selektive Reparaturmechanismen, Variationen selektiv begrenzen oder kanalisieren können. Dies heißt Orthogenesis und stellt die Darwinsche Annahme der Ungerichtetheit von Variationen in Frage. Überhaupt stellt sich in der theoretischen Diskussion die Evolvierbarkeit als eine wichtige Eigenschaft heraus, welche die Evolution in gewissem Sinne reflexiv macht.

23 Die wichtige evolutionäre Rolle von Genverdopplungen wurde vor allem von Ohno (1928–2000) (Ohno 1970) herausgearbeitet. Es können aber nicht nur einzelne Gene verdoppelt werden, sondern wohl manchmal auch ganze Gengruppen oder sogar große Teile des Genoms auf einen Schlag. Dies war möglicherweise bei der Entwicklung der Vertebraten aus einfachen Strudeltieren der Fall, oder auch bei der Entstehung der erfolgreichsten Fischgruppe, der eigentlichen Knochenfische (Teleosten), s. Amores et al. (1998), Crow et al. (2006). 24 Es gibt hier interessante Parallelen zum Maschinellen Lernen, s. z. B. Jost (2017b).

1.3 Konzepte und Kontroversen

25

In diesem Zusammenhang hat in jüngster Zeit die Entwicklungsbiologie wichtige neue konzeptionelle Beiträge geleistet. In der englischsprachigen Literatur heißt das Evo-Devo, wobei „Devo“ für „Development“ steht. Der wesentliche Gedanke (der sich eigentlich auch schon bei von Baer, Ernst Haeckel [1834–1919] [s. z. B. Olsson et al. 2017, Niklas und Kutschera 2017] und anderen Biologen des 19. Jahrhunderts findet) ist, dass man nicht statische Strukturen, sondern den Prozess der Individualentwicklung, die Ontogenie, betrachten sollte, wenn man evolutionäre Änderungen verstehen will. Denn Veränderungen kommen auf molekularer Ebene dadurch zustande, dass die Kombinatorik der genetischen Steuerungsregeln modifiziert wird. Kleinste Änderungen in der Embryonalentwicklung können große Konsequenzen für das ausgereifte Individuum haben. Wiederum geht es hier nicht um beliebige Mutationen, die typischerweise lethale Konsequenzen haben, sondern um eine Reorganisation erprobter Bestandteile und Prozesse. Insbesondere kann die Reihenfolge, in welcher Körperteile entwickelt werden, einen großen Einfluss auf die Gestalt des ausgereiften Individuums haben. Bei Insekten können verschiedene Entwicklungsschritte entweder im Larvenoder im adulten Stadium ausgeführt werden, und jedes der beiden kann im Prinzip zugunsten des anderen stark reduziert oder beinahe ganz eliminiert werden. Evo-Devo fasst (wie schon von Baer) Homologien als Ausdruck gemeinsamer Entwicklungsprozesse auf. Das Homologiekonzept kann also morphologisch, genetisch oder entwicklungsmäßig aufgefasst werden, mit möglicherweise unterschiedlichen Resultaten im Einzelfall. Selbst ein genetisches Homologiekonzept ist aber knifflig, weil oftmals die ontogenetische Entwicklung phylogenetisch unabhängig entstandener Strukturen durch gemeinsam ererbte genetische Kontrollmechanismen, die Hoxgene, gesteuert wird. So ist den verschiedenen Tierstämmen zwar nicht die Anatomie des Auges gemeinsam, denn während die Arthropoden Facettenaugen haben, verwenden die Vertebraten und die Cephalopoden (Kopffüßer) Linsenaugen, aber die genetischen Kontrollmechanismen sind die gleichen (für Einzelheiten vgl. Friedrich (2006), Kardon et al. (2004) und die dort zitierte Literatur). Das entsprechende Hoxgen namens Pax-6 einer Maus kann in einer Fliege daher die Ausbildung eines Fliegenauges induzieren, und umgekehrt, wie Walter Gehring (1939–2014) in eindrucksvollen Experimenten zeigte (s. z. B. Gehring 1998). Die Mausgene können sogar, wie auch die Hoxgene der Fliege selbst, auch an anderen Körperstellen, z. B. an den Fühlern oder Beinen, wenn sie dort experimentell aktiviert werden, die Ausbildung von Fliegenaugen induzieren (die dann allerdings nicht funktional sind, weil es keine Nervenverbindungen zum Gehirn gibt).25 Ich muss noch einmal auf den Begriff der Art, der Spezies zurückkommen. Für die Systematiker und Naturgeschichtler des 18. Jahrhunderts war eine Art durch gemeinsame Merkmale gekennzeichnet, die sie von anderen Arten unterschieden, nach dem aristotelischen Schema von Gattung und spezifischer Differenz. Insofern ist die Unterteilung der biologischen Vielfalt in diskrete Arten unproblematisch und natürlich. Arten stellen auch 25 Tatsächlich ist die Sachlage noch etwas komplizierter. Was evolutionär bewahrt wird, sind weniger spezifische Gene als vielmehr die Struktur von Steuerungsnetzwerken, die dann flexibel verschiedene Genprodukte als relativ unspezifische Auslöser für spezifische Mechanismen verwenden könner. Siehe die Ausführungen von G. Wagner (2014), der von Merkmalsidentiätsnetzwerken spricht.

26

1 Geschichte und Struktur der Biologie

die Mechanismen bereit, mit denen die jeweiligen Merkmale unverändert auf zukünftige Generationen übertragen werden können. Hybride verschiedener Arten, wie beispielsweise Maultiere, sind daher sinnvollerweise steril. Mit Darwin wird dies alles problematisch. Wenn alles Leben von gemeinsamen Vorfahren abstammt, stellt sich die Frage, warum es überhaupt eine diskrete Einteilung in Arten statt ein Kontinuum von Lebensformen mit graduellen Übergängen gibt. Und wenn Arten evolvieren, können sie auch nicht mehr durch unverändert an die Nachkommen weitergegebene Merkmale charakterisiert werden. Und wenn es in der Evolution nach Darwins Vorstellungen nur kleine, praktisch graduelle Veränderungen gibt, kann man eigentlich keinen genauen Zeitpunkt festmachen, ab dem aus einer alten eine neue Art entstanden ist. Oder abstrakter: Wie lässt sich der kontinuierliche Prozess der Evolution mit der diskreten Struktur des Artensystems in Einklang bringen? Nun wird heutzutage daher eine Art als ein gemeinsamer Genpool, also ein Reservoir, aus welchem jeweils neue Genkombinationen gebildet werden können, oder als eine Fortpflanzungsgemeinschaft, die also ständig ihren genetischen Vorrat durchmischt und sich dadurch genetisch einigermaßen homogen hält, aber von anderen solchen Gemeinschaften reproduktiv isoliert ist,26 angesehen und nicht mehr als eine typologische Klasse. Insbesondere können Arten polymorph sein, also Individuen mit unterschiedlichen Eigenschaften enthalten. Allerdings ergibt dies Schwierigkeiten bei der Interpretation von Fossilien, also paläontologischer Daten. Denn bei vielen Arten unterscheiden sich männliche und weibliche Vertreter (sog. Geschlechtsdimorphismus) oder Larven und adulte Individuen so sehr voneinander, dass man sie mit morphologischen Mitteln nicht als Mitglieder einer Fortpflanzungsgemeinschaft identifizieren kann. Umgekehrt kann auch nicht festgestellt werden, ob sich ein Fossil mit einem vielleicht einige Millionen Jahre älteren, aber gleich aussehenden erfolgreich hätte paaren können. Und das Kriterium der Abstammungsgemeinschaft reicht nicht aus, da sich ja eine Art in mehrere Tochterarten aufspalten kann. Wie eine solche Aufspaltung passieren kann und wie sich Reproduktionsschranken herausbilden können, sind dann wichtige Fragen. Die experimentelle biologische Foschung konzentriert sich häufig auf bestimmte Modellorganismen, die nach ihrer universellen Verfügbarkeit, leichten Haltung und experimentellen Zugänglichkeit für die jeweilige Fragestellung ausgewählt werden. Dadurch werden die Resultate der verschiedenen Gruppen vergleichbar, weil sie mit dem gleichen Organismus arbeiten, und man hofft gleichzeitig, dass die für einen solchen Organismus gewonnenen Resultate weitere, idealerweise universelle oder zumindest auch auf den Menschen zutreffende Gültigkeit besitzen. In diesem Sinne redet man dann z. B. vom Mausmodell. Die wichtigsten Modellorganismen sind das Bakterium Escherichia coli, die Hefe Saccharomyces cerevisiae als einfacher (einzelliger) Eukaryont, der Nematode Caenorhabdities elegans der aus 959 Zellen besteht, von denen 302 Neuronen sind (also ein erheblich höherer Prozentsatz als beim Menschen), und bei dem man, weil dies so wenige sind, die neuronale Entwicklung und Verschaltung im Detail untersuchen kann, die Seegurke Strongylocentrotus purpuratus für die Embryonalentwicklung und die Genregulierung, die Ackerwinde 26 Hierdurch wird übrigens die Anwendbarkeit des Artbegriffs auf sich geschlechtlich fortpflanzende

Populationen eingeschränkt.

1.3 Konzepte und Kontroversen

27

Arabidopsis thaliana als einfach zu untersuchende Pflanze, die schon erwähnte Taufliege Drosophila melanogaster als Modellorganismus sowohl für die Genetik (in den beschriebenen Untersuchungen von Morgan und seiner Schule) als auch für die Entwicklungsbiologie, der Zebrafisch Danio rerio als ein Wirbeltier, dessen Embryonalentwicklung sich sehr schnell vollzieht und experimentell gut zugänglich ist, der Afrikanische Klauenfrosch Xenopus laevis und das Huhn Gallus gallus als weitere Vertebraten und schließlich die Maus Mus musculus als leicht zu haltender und zu züchtender Säuger. In den Neurowissenschaften arbeitet man neben Ratten zur Untersuchung von Lernen und allgemeinem Verhalten und Katzen zur Untersuchung des Sehsystems insbesondere auch mit den sehr lernfähigen Rhesusaffen Macaca mulatta, um der menschlichen Kognition möglichst nahe zu kommen. In der Konzeptionsgeschichte der Biologie gibt es noch eine wichtige Nebenströmung, nämlich die Verwendung allgemeiner physikalischer Gesetze als übergreifender Erklärungsprinzipien, wie oben schon erwähnt. Zwar ist dies nie systematisch als abstraktes Prinzip entwickelt, aber es gibt vielfältige Beispiele, wie die dynamischen morphologischen Transformationen von d’Arcy Thompson (1917), die universellen Skalengesetze von Brown et al. (1997), die in jüngster Zeit sehr populären allgemeinen Netzwerkanalysen, deren Methodik wir im Abschn. 10.2 vorstellen werden, und das noch allgemeinere Selbstorganisationsparadigma. Der in der Biologie vielleicht einflussreichste Beitrag (vgl. z. B. Murray 2002 zu Letzterem) ist der Turingmechanismus Turing (1952), der Musterbildung mittels bestimmter partieller Differentialgleichungen vom Reaktions-Diffusions-Typ modelliert und den wir im Abschn. 6.1 mathematisch beschreiben werden. In der Praxis gibt es aber trotzdem wesentliche Unterschiede zwischen der Physik und der Biologie. Diese liegen nicht nur darin begründet, dass die Physik universelle Gesetze sucht, während die Biologie eine Wissenschaft des Werdens und damit auch des Neuen und des Speziellen ist. Auch in der Physik sind Modelle zwar universell konzipiert, aber in der Praxis nicht unbedingt auch universell anwendbar. So kann man mit der Schrödingergleichung kleine Atome wie das Wasserstoffatom gut beschreiben, aber bei größeren Atomen wird die Berechnung so kompliziert, dass sie praktisch nutzlos ist. Man muss daher geeignete Approximationen vornehmen, und die Physik ist dabei sehr erfolgreich. In der Biologie trifft man nun auch auf Situationen, in denen eine detaillierte Beschreibung, beispielsweise durch ein System gekoppelter partieller Differentialgleichungen zwar möglich und auch rechnerisch handhabbar ist, aber eine wesentlich gröbere Modellierung, beispielsweise durch einen diskreten booleschen Automaten, qualitativ und quantitativ richtigere Ergebnisse liefert. Man möchte zwar nicht glauben, dass das prinzipiell so ist, aber die Tatsache, dass der Einbau immer präziserer Details in die Modelle nicht unbedingt zu besseren Resultaten führt, sollte einen zumindest etwas skeptisch gegenüber systembiologischen Versuchen machen, beispielsweise eine Säugerzelle in all ihren Einzelheiten im Computer zu simulieren. Natürlich ergeben sich hier allgemeine mathematische Fragen beispielsweise der Stabilität von Modellen, aber in der Praxis ist noch sehr viel ungeklärt. Vielleicht liegt gerade hierin eine wesentliche Herausforderung für die mathematische Modellierung in der Biologie.

28

1 Geschichte und Struktur der Biologie

Und zum Abschluss dieser Einleitung ein hierzu etwas komplementärer Aspekt. In der Geschichte der Biologie hat es einige Konzeptionen gegeben, die in klarer Weise wichtige biologische Sachverhalte zusammenfassen und dadurch die spätere Forschung wesentlich stimulieren und ausgerichten konnten, die aber im Laufe dieser Forschung dann als zu grob und zu vereinfachend erkannt wurden. Wichtige Beispiele sind die Mendelschen Erbgesetze, das Zentrale Dogma der Molekularbiologie oder das Neuronenmodell von McCulloch und Pitts (1943), das Neuronen als einfache Recheneinheiten auffasst, die Inputs gewichtet aufsummieren und bei Überschreiten einer Schwelle in Output übertragen.

2

Evolutionsbiologie

2.1

Konzeptionelle Aspekte. Konkurrenz zwischen Individuen, Genen und Stammbäumen

Wir wollen hier die radikale Variante der modernen Evolutionstheorie diskutieren, wie sie von Williams (1992) eingeführt und insbesondere unter Berufung auf August Weismann, welcher den Begriff der Keimbahn eingeführt hatte, in den Schriften von Dawkins weiterentwickelt und popularisiert worden ist (siehe z. B. Dawkins 1992, 1996). Auch wenn die argumentative Struktur des Nachfolgenden in eine andere Richtung gehen wird, sei hier bemerkt, dass die Weismannschen Konzeptionen im Lichte der heutigen Biologie deswegen etwas irreführend sind, weil sich die Gametenentwicklung in den Eltern vor der Embryonalentwicklung der befruchteten Eizelle vollzieht. Ein Individuum wird nicht etwa ausschließlich durch die Verschmelzung der elterlichen Gene bei der Befruchtung bestimmt, sondern auch wesentlich durch die Struktur der Gameten, insbesondere, aber nicht nur, der mütterlichen Eizelle. Man spricht hier von epigenetischer Vererbung, s. Jablonka und Lamb (2005). Wir kommen nun zur angesprochenen Variante der Evolutionstheorie. Unter einem Gen wird in den genannten und vielen anderen Schriften nicht etwa eine konkrete biochemische Struktur verstanden, die beispielsweise im Labor sequenziert und analysiert werden kann, sondern ein abstraktes vererbbares Eigenschaftsquantum. Ein Gen ist somit eine diskrete und nicht weiter zerlegbare Grundeinheit.1 Seine Träger, in denen es repräsentiert ist, sind individuelle Lebewesen. Ein Gen ist umso erfolgreicher, je mehr Träger es besitzt, und seine 1 Dies entspricht nicht ganz der biochemischen Realität. Tatsächlich werden die Chromosomenab-

schnitte, die gemeinhin als Gene bezeichnet werden, bei geschlechtlicher Fortpflanzung durch Überkreuzung aufgespalten und rekombiniert. Nahe beieinander liegende Abschnitte haben allerdings eine relativ große Chance, gemeinsam weitergegeben zu werden. Unter Würdigung dieser Tatsachen © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_2

29

30

2 Evolutionsbiologie

Fitness lässt sich dadurch messen, wieviele Nachkommen, die das gleiche Gen tragen, ein Träger produzieren kann. Es herrscht ein gnadenloser Verdrängungswettbewerb, in welchem sich nur die fittesten Gene behaupten können. (Die vorstehend verwandte, leicht metaphorische Sprache ist durchaus typisch für evolutionstheoretische Darstellungen, und die dabei mitschwingenden Konnotationen haben einige empörte Kritik hervorgerufen, die aber häufig durch diese Sprechweise begünstigte Fehlinterpretationen mit der logischen Struktur der Theorie verwechselt haben, und möglicherweise ist diese zu Fehldeutungen anregende Sprechweise auch manchmal von den Theoretikern bewusst gesucht worden, um Kritiker aus einer bestimmten Richtung zu provozieren und dann leichter bloßstellen und entlarven zu können. Aber dies mag dahingestellt bleiben, und ich vertraue auf die erfreuliche Fähigkeit von mathematisch Ausgebildeten, den grundlegenden logischen Gehalt unabhängig von irgendwelchem sprachlichen Nebensinn zu erfassen. Nichtsdestoweniger werde ich in die nachfolgende Darstellung auch einige, wie ich hoffe, sachlich fundierte Kritik einfließen lassen.) Ein Lebewesen ist dabei nur ein Werkzeug oder ein Trick von Genen, um Kopien ihrer selbst herzustellen, nichts weiter. (Bei der sexuellen Fortpflanzung erzeugen zwei Individuen gemeinsam Nachwuchs, und diese beiden Individuen unterscheiden sich an einigen Genorten, indem sie dort verschiedene Allele tragen. Ein Gleichgewicht kann nur dann eintreten, wenn jeder der beiden Partner an jedem Genort eine fünfzigprozentige Chance hat, sich durchzusetzen; dieses Gleichgewicht ist offensichtlich stabil. Die evolutionären Aspekte der Geschlechterbeziehung werden uns noch wiederholt als Beispiel dienen. Ein weiterer Punkt ist hierbei, dass von den beiden zusammentreffenden Allelen in einem Nachkommen meist nur eines ausgeprägt wird, also dominant ist, während das andere im Phänotyp nicht sichtbar, also rezessiv ist. Ein rezessives Gen kann aber genauso gut wie ein dominantes weitervererbt werden, und daher spielt dieser Unterschied für die vorgestellte Argumentationsstruktur überhaupt keine Rolle.) Nun trägt ein Lebewesen nicht nur ein einzelnes Gen, sondern eine größere Anzahl, und diese beeinflussen sämtlich den Fortpflanzungserfolg. Wenn ein Einziges in dem Sinne versagt, dass es zu einer lethalen Eigenschaft führt, werden damit auch alle anderen um ihren Erfolg gebracht. Insbesondere setzt die Selektion nicht direkt am Gen, sondern am Lebewesen an, ein Punkt, auf den wir unten bei der Diskussion über das Verhältnis von Genotyp und Phänotyp zurückkommen müssen. Die Gene werden also voneinander abhängig, und es werden daher solche Eigenschaften, d. h. Gene begünstigt, die sich mit erfolgreichen anderen verbünden können, oder die in Kombination mit spezifischen anderen Genen fortpflanzungsbegünstigend wirken. Dieser Mechanismus kann aber auch parasitäre Gene propagieren, die sich an andere Gene anheften, welche besonders tüchtige Lebewesen hervorrufen, ohne selbst zu dieser Tüchtigkeit beizutragen (diese Trittbrettfahrer stellen auch ein kniffliges Problem für die unten diskutierten genetischen Algorithmen dar). Es kommt eben nur darauf an, in der nächsten Generation besonders zahlreich repräsentiert zu sein.

definiert Dawkins (1996, S. 69) ein Gen als eine „genetische Einheit, die klein genug ist, um eine Vielzahl von Generationen zu überdauern und in Form vieler Kopien überall verbreitet zu sein“.

2.1 Konzeptionelle Aspekte. Konkurrenz zwischen Individuen, Genen …

31

Soweit ist alles einfach und stimmig. Wir wollen aber nun das Kriterium für den Erfolg, die Fitness, infragestellen und außerdem eine mathematische Dualität aufzeigen, die auch zu einer etwas anderen Bewertung der Rolle des Lebewesens führt. Wir beginnen die Argumentation mit dem Beispiel des Geschlechterverhältnisses. Schon Darwin wunderte sich darüber, warum es bei den meisten Arten gleich viele weibliche und männliche Individuen gibt, obwohl eine Art mit mehr Weibchen eine höhere Vermehrungsrate erzielt könnte, da Männchen leicht mehrere Weibchen begatten und hierdurch ihre Nachkommenschaft vergrößern können. Es stellt sich also das Problem, evolutionstheoretisch zu begründen, warum ein ausgewogenes Geschlechterverhältnis ein stabiles Gleichgewicht darstellt, wie auch die anzutreffenden Ausnahmen zu erklären. Dies wurde von Ronald Fisher (1890–1962)2 in den 30er Jahren des 20.Jahrhunderts gelöst. Wir werden auf die mathematische Formulierung der Theorie von Fisher unten zurückkommen und wollen hier zunächst nur den Kerngedanken diskutieren. Dieser besteht darin, dass in einer Population mit beispielsweise einer Überzahl von Weibchen jedes Individuum, welches mehr männliche als weibliche Kinder hervorbringt, hierdurch zwar nicht unbedingt mehr Kinder als andere hat, aber dafür mehr Enkel erwarten kann, da männliche Kinder, weil ihr Geschlecht in Unterzahl ist, selbst mehr Nachwuchs als weibliche Kinder produzieren können. Der für uns hier zunächst wichtige Punkt ist, dass in diesem Beispiel der evolutionäre Erfolg, die Fitness, korrekterweise nicht durch die Zahl der Kinder, sondern durch die Zahl der Enkel gemessen werden muss. (Um im Kontext zu bleiben, sollte man genauer natürlich nicht von der Fitness von Individuen, sondern von derjenigen von geschlechtsbestimmenden Genen reden, aber dies tut der logischen Struktur des nachstehend ausgeführten Argumentes keinen Abbruch. Als kleine Übung sollte ein(e) Leser(in) dies sorgfältig durchdenken; der oben bemerkte Punkt, dass die Unterscheidung zwischen dominanten und rezessiven Allelen keine Rolle spielt, ist zwar hier nicht direkt relevant, sollte aber in die richtige Richtung weisen.) Wenn man dieses Argument verallgemeinert, sollte man allgemein ein Gen, dessen Träger zwar zunächst viele Nachkommen (oder mehr Nachkommen als konkurrierende Gene) erzeugen, die sich aber dann gegenseitig massakrieren oder auffressen oder sich das Futter streitig machen oder leicht eine ansteckende Krankheit aufeinander übertragen, die sie alle ausrottet, oder in einer veränderten Umwelt nicht zurechtkommen oder aus anderen Gründen selbst nur wenig oder gar nicht fortpflanzungsfähig sind, nicht als erfolgreich ansehen. Das Kriterium für den Erfolg wäre also dann, wieviele Träger nach mehreren Generationen übrigbleiben. Wieviele Generationen sollte man aber dann berücksichtigen? Das lässt sich natürlich nicht entscheiden, und als Ausweg bleibt nur, zu einem gegebenen Zeitpunkt, also z. B. jetzt, festzustellen, wieviele Träger eines Gens es gibt. Die Fitness eines Gens hängt also dann vom Zeitpunkt der Messung ab. Nimmt man die Messung heute vor, so hätten

2 R. Fisher hat nicht nur wesentliche Beiträge zur theoretischen Evolutionsbiologie geleistet, sondern

auch die parametrische Statistik begründet. Er wird uns in dem Abschn. 2.7 zur Populationsgenetik wieder begegnen.

32

2 Evolutionsbiologie

alle Dinosauriergene die Fitness Null, weil die Dinosaurier inzwischen ausgestorben sind.3 Diese logische Konsequenz wird allerdings von den Evolutionstheoretikern nicht gezogen.4 Herausgestellt wird dafür gewöhnlich, dass man mit der vorgestellten Argumentationsstruktur sehr gut die Verwandtenselektion erklären kann, eine Idee, die von W. Hamilton (1936–2000) (Hamilton 1964) entwickelt wurde. Hier geht es um Individuen, die sich selbst aufopfern, um das Leben ihrer Verwandten zu retten, oder zumindest Nachteile für sich selbst in Kauf nehmen, aber dadurch ihre Verwandten begünstigen. Sofern es sich bei diesen Verwandten nicht um eigene Nachkommen handelt, scheint dies zunächst paradox zu sein. Die Erklärung besteht darin, dass eine bestimmte, vom Grad der Verwandtschaft abhängige Wahrscheinlichkeit dafür besteht, dass auch die geretteten Verwandten genau dasjenige Gen tragen, das zur Opferwilligkeit führt, und sich dieses Gen somit auf indirekte Weise, indem es also mehrere andere Träger rettet, effizienter fortpflanzt, als wenn es zum Überleben des betreffenden Individuums, dafür aber zum Untergang seiner Verwandten geführt hätte.5 Wir werden die mathematische Struktur unten an einem Beispiel vorstellen. Auf eine gewisse Tücke dieses Argumentes werden wir bei der Diskussion des Konzeptes der evolutionär stabilen Strategien zurückkommen. Wenn wir die gerade formulierten Einwände einmal außer Acht lassen, so hatten wir die Fitness eines Gens durch die Anzahl seiner Träger bewertet. Es kommt also darauf an, in wievielen Individuen es präsent ist, oder genauer, wieviele weitere Träger ein solches Individuum als Nachkommen hervorbringen oder allgemeiner durch sein Wirken in ihrer Fortpflanzung unterstützen kann. Ein Individuum ist also in dieser Sichtweise nur eine Ansammlung von Genen, die sich allein zum Zwecke einer effizienten Vermehrung vorübergehend in diesem Individuum zusammengeschlossen haben. Dies lässt sich aber dualisieren, indem man ein Gen definiert als die Menge der Individuen, in denen es präsent ist. Entsprechend kann man dann von der Fitness eines Individuums reden als der Anzahl von Kopien seiner Gene, die in seinen Nachkommen (oder Verwandten) präsent sind. Ein Individuum ist also dann erfolgreich, wenn es viele seiner Gene weitervererben oder auf andere Weise wie in der Verwandtenselektion für deren Ausbreitung sorgen kann. Die vorstehende Struktur berücksichtigt zwei wesentliche Komponenten der Evolution, und zwar die Stabilisierung von Eigenschaften durch Fortpflanzung und Vererbung und die Selektion zwischen verschiedenen Eigenschaften, wobei das Wort „Eigenschaft“ hier wieder synonym mit „Gen“ gebraucht wird. Nun gibt es aber noch eine dritte, 3 Wenn wir zugunsten des Argumentes unberücksichtigt lassen, dass die Vögel von den Dinosauriern

abstammen. 4 Es ergibt sich hier auch der Nachteil, dass man dann die Fitness eines Lebewesens nicht mehr zum Zeitpunkt seines Lebens oder wenigstens seines Lebensendes bewerten kann. Daher müssen wir unten bei der Diskussion von Fitnesslandschaften anders vorgehen. 5 Es ist auch eine alternative Betrachtungsweise möglich (cf. Hamilton 1964; Cavalli-Sforza und Feldman 1978): Ein solches altruistisches Gen kann sich deswegen ausbreiten, weil ein Träger eine größere Chance besitzt, in den Genuss der altruistischen Handlung eines Verwandten, der das gleiche Gen trägt, zu gelangen. Diese duale Betrachtungsweise führt natürlich (unter geeigneten Voraussetzungen) zu den gleichen Ergebnissen.

2.1 Konzeptionelle Aspekte. Konkurrenz zwischen Individuen, Genen …

33

gleichermaßen wesentliche Komponente, nämlich die Variation oder Veränderung von Eigenschaften durch Mutationen. Bekanntlich sind nur Veränderungen von Genen, nicht aber andersartige Veränderungen von Individuen vererbbar, und genau dies ist der Grund, warum die Evolutionstheorie das Gen und nicht das Lebewesen zu ihrem grundlegenden Begriff gemacht hat. Es stellt sich nun die Frage, wie dieser Aspekt in der Fitnessfunktion berücksichtigt werden kann. Wie ist die Fitness eines Gens zu bewerten, welches irgendwann in einem Lebewesen zu einem neuen Gen mutiert, das effizienter als sein Vorgänger ist und daher das ursprüngliche Gen in der Population verdrängt? Hat das ursprüngliche Gen dann die Fitness Null, oder ist es gerade besonders fit, weil es einen erfolgreichen Abkömmling hervorgebracht hat? Die erste Option wirkt zunächst wenig einleuchtend, aber die zweite führt auf eine eigentümliche Schwierigkeit. Wir hatten nämlich gerade ein Gen nicht als ein konkretes, in einem individuellen Träger identifiziertes Makromolekül aufgefasst, sondern, mathematisch gesprochen, als eine Klasse von physisch gleichen solchen Makromolekülen (und zwar bei Unterdrückung aller biochemischen Einzelheiten). Die Mutation findet aber nicht an der Klasse statt, sondern nur an einem ihrer Repräsentanten. Daher lassen sich die Folgen einer solchen Mutation auch nicht der Fitness der Klasse als Ganzes zuordnen. Dies Problem stellt sich nicht, wenn wir uns statt auf Gene auf Individuen beziehen und die Fitness eines Individuums durch die Anzahl seiner Nachkommen (vielleicht mit einem Faktor 1/2 pro Generation bei geschlechtlicher Vemehrung) messen. Das Klümpchen Schleim in der Ursuppe, von dem wir alle abstammen, hätte dann also eine außerordentlich hohe Fitness, auch wenn sich praktisch alle seine Gene in der Zwischenzeit verändert haben. Aber schließlich soll die Definition der Fitness ja gerade zum Ausdruck bringen, dass das, was sich effizienter als andere reproduziert, genau deswegen das numerische Übergewicht bekommt und als erfolgreich angesehen wird. Aber auch jetzt ergeben sich Schwierigkeiten. Ein Gedankenbeispiel: Eineiige Zwillingsschwestern in einer Rotte von Hominiden6 , genetisch also gleich. Die eine verschlägt es in eine andere Rotte, und beide pflanzen sich dann in ihren jeweiligen Rotten fort. Die beiden Rotten gehen getrennte Wege. In der einen entwickelt sich eine bestimmte Mutation, die die weitere Entwicklung in Richtung auf die Menschwerdung vorantreibt, und die Schwester in dieser Rotte wird dadurch zur Stammmutter aller heute lebenden Menschen. In diesem Sinne hat sie also eine enorme Fitness. Die andere Rotte dagegen erfährt diese Mutation nicht, pflanzt sich vielleicht für einige Generationen in ihrem Habitat fort und stirbt dann aus. Also Fitness = Null für die andere Schwester. Das sieht konsistent aus, aber leider sind die Schwierigkeiten damit nicht behoben, denn jetzt wird das Problem der Verwandtenselektion schwieriger. Um dies zu verdeutlichen, variieren wir das Szenarium. Statt in eine aussterbende Rotte verschlagen zu werden, wird eine der Schwestern durch einen Unfall unfruchtbar und hilft dann ihrer anderen Schwester bei der Aufzucht von deren Kindern, und wir nehmen an, dass die obige entscheidende Mutation bei einem dieser Kinder auftaucht und dass gerade dieses Kind nur aufgrund der uneigennützigen Hilfe der unfruchtbaren Schwester überlebt. Wie ist jetzt die Fitness dieser Schwester zu bewerten? Das ist nicht so leicht zu entscheiden, und man kann sich weitere 6 nach lateinisch „homo“, Mensch.

34

2 Evolutionsbiologie

Szenarien ausdenken, in denen die Schwesternhilfe wesentlich indirekter ist. (Dagegen wäre es kein Problem, dem „Gen für uneigennützige Hilfe“ (wenn zum Zwecke der Argumentation an dieser Stelle eine derart drastische Simplifizierung erlaubt ist) hier eine hohe Fitness zuzuerkennen, wenn sich die Hilfsbereitschaft vererbt.) Hamilton (1964) hat zu diesem Problem als Ausweg den Begriff der inklusiven Fitness vorgeschlagen.7 Nach Hamilton kann sich eine Eigenschaft durchsetzen, wenn die durch sie hervorgerufene zusätzliche Anzahl an überlebenden Nachkommen von Verwandten des betreffenden Individuums, multipliziert mit dem jeweiligen Verwandtschaftsgrad, größer als der Verlust an eigenen Nachkommen ist. Die inklusive Fitness eines Lebewesens misst dann die Anzahl der eigenen Nachkommen zuzüglich zu dem Beitrag zur wie vorher gewichteten Nachkommenschaft von Verwandten (vgl. (2.3.11)). Das Problem hierbei ist allerdings, dass die Kosten und Nutzen, die hier gegeneinander abgewogen werden, sich nicht notwendigerweise additiv verhalten müssen.8 Zur Verdeutlichung betrachten wir wieder ein Gedankenbeispiel (welches nicht etwa das Konzept der inklusiven Fitness entwertet, sondern nur dessen Grenzen aufzeigen will, indem es bewusst dessen Voraussetzungen verletzt und insbesondere nicht zwei Verhaltenstypen in der gleichen Umwelt, also die Situation, für die das Konzept entwickelt worden ist, sondern einen Typus in zwei verschiedenen Umwelten betrachtet). Eine Population eng verwandter Lebewesen lebe in ständiger Furcht vor einem gefährlichen Räuber, der im Erfolgsfall auf einen Streich einen großen Teil der Population vertilgen kann. Die Population möge jedoch ein wirkungsvolles Warnsystem entwickelt haben. Wenn dann ein Mitglied im Falle der Gefahr seine Gruppe rechtzeitig warnt, so rettet es durch diese Aktion das Leben vieler seiner Verwandten und gewinnt so eine sehr hohe inklusive Fitness9 . Nichtsdestoweniger wird ein bestimmter Teil der Population dem Räuber zum Opfer fallen. Wenn nun die betreffende Gruppe in eine neue Umwelt auswandert, wo es diese Räuber nicht mehr gibt, so kann jedes Mitglied im Durchschnitt mehr Nachkommen als vorher aufziehen, aber die inklusive Fitness sinkt möglicherweise, weil der Fitnessgewinn durch die lebensrettenden Warnrufe nun wegfällt. (Wir sollten aber an dieser Stelle darauf hinweisen, dass das Konzept der inklusiven Fitness dazu entwickelt worden ist, den evolutionären Erfolg verschiedener Verhaltensweisen in einer festen Umwelt und nicht etwa, wie wir es hier tun, den Erfolg eines Individuums oder einer Population in verschiedenen Umwelten zu vergleichen.) Ein etwas 7 Der wesentliche Gedanke findet sich schon bei Haldane (1892–1964) (Haldane 1955). 8 Von der Seite der Populationsgenetik ist auch der Einwand erhoben worden, dass man zur Untersu-

chung der Verbreitung und Selektion von phänotypischen Eigenschaften nicht die Ausbreitung von Genen, sondern diejenige von Genotypen betrachten muss. Mit den formalen Methoden der Populationsgenetik (vgl. Abschn. 2.7) lassen sich dann nicht nur additive, sondern auch multiplikative Beziehungen zwischen Kosten und Nutzen analysieren. Außerdem lassen sich dann die verschiedenen Gleichgewichtstypen für die Verteilungen der Genotypen in der Population besser erfassen. Man vgl. die instruktive Diskussion in Cavalli-Sforza und Feldman (1978), Maynard Smith (1980), Feldman und Cavalli-Sforza (1981). 9 Dies ist so nicht völlig korrekt, da die Verwandten vielleicht vielen Räuberangriffen ausgesetzt sind und daher eine einzelne gelungene Rettung nur einen kleinen Beitrag zur Überlebenswahrscheinlichkeit leistet.

2.1 Konzeptionelle Aspekte. Konkurrenz zwischen Individuen, Genen …

35

anderes Problem stellt sich, wenn mehrere Gruppenmitglieder zusammenwirken, um ein anderes aufzuziehen oder zu retten. Dann ist es vielleicht schwierig, die jeweiligen Beiträge zu quantifizieren und die inklusive Fitness zu messen. Also doch zurück zur Fitness von Genen? Es scheint dann nur die Option zu verbleiben, einem Gen, welches durch eine seiner Mutanten eliminiert wird, die Fitness Null zuzuschreiben. Was ist aber dann beispielsweise mit einem Virus, der gerade deswegen erfolgreich ist, weil er außerordentlich schnell mutiert? Allgemeiner ist wohl gerade die Evolvierbarkeit, also die Fähigkeit, als Antwort auf neue Herausforderungen durch genetische Veränderungen geeignete Strukturen hervorzubringen, der Schlüssel zum evolutionären Erfolg von Stammlinien. Man könnte nun versuchen, diese Aporie dadurch aufzulösen, dass man sich noch weiter von dem biochemischen Substrat entfernt und unter einem Gen wirklich nur noch eine abstrakte – aber weiterhin vererbbare! – Eigenschaft versteht. Beispielsweise wäre die Mutationsfähigkeit dann eine solche Eigenschaft, auch wenn es sich hierbei sicher nicht mehr um ein Gen im biochemischen Sinne handelt, obwohl sich natürlich auch hier eine biochemische Basis identifizieren lässt. Ein Mathematiker hat nun kein Problem damit, Definitionen frei zu wählen; inwieweit dies aber auch für die Biologie legitim ist, kann an dieser Stelle nicht entschieden werden. Es scheint jedoch einen besseren Ausweg zu geben (Jost 2003). Wir fassen hierzu ein Lebewesen als Ahnen eines Stammbaumes auf (welcher trivial sein kann, da ein Lebewesen sterben kann, ohne Nachkommen zu hinterlassen) und bewerten seine Fitness, oder diejenige des Stammbaumes, als  r g(i) , (2.1.1) Nachkommen i

wobei 0 < r ≤ 1 ein noch festzulegender Proportionalitätsfaktor ist und g(i) die Anzahl der Generationen ist, die i von dem Ahnen trennt, und die Summe sich bis zum Zeitpunkt der Messung, oder besser, auf eine festgesetzte Anzahl von Generationen erstreckt10 . Der Ahn selber wird formal als sein eigener Nachkomme mitgezählt, mit g = 0, und daher ist die Fitness immer mindestens 1. Falls ein Nachkomme über mehr als eine Abstammungslinie mit dem Vorfahren zusammenhängt, so wird jede Abstammungslinie gezählt. Beispielsweise erhält ein Enkel, der aus der Paarung zweier Kinder entsteht, das doppelte Gewicht wie ein Enkel, der nur von einem Kind des Ahnen abstammt. Diese Fitnessfunktion lässt sich aus einigen einfachen Axiomen herleiten, siehe Jost (2003). Diese Fitnessfunktion ermöglicht uns nun die Formulierung einer evolutionären Gleichgewichtsbedingung, die die aufgewiesenen Nachteile der inklusiven Fitness von Hamilton vermeidet: 10 Eine bis in die unendliche Zukunft erstreckte Summe würde neben allen konzeptionellen Schwierigkeiten auch zu dem Problem führen, dass das Ergebnis in vielen Fällen unendlich ist. Allerdings ließe sich die unten entwickelte Gleichgewichtsbedingung manchmal trotzdem anwenden, da die Unterschiede zwischen einer Stammlinie und einer Unterlinie nach Abzug eines gemeinsamen unendlich werdenden Terms endlich werden können, wie aus vielfältigen anderen mathematischen Zusammenhängen vertraut ist.

36

2 Evolutionsbiologie

Ein Gleichgewicht besteht dann, wenn kein Unterstammbaum die eigene Fitness erhöhen kann, ohne die Fitnesswerte der elterlichen Stammbäume um mindestens den gleichen Betrag zu senken, und umgekehrt. In dieser Gleichgewichtsbedingung wird also der Beitrag eines Nachkommen zur Fitness eines Ahnen mit demjenigen Faktor skaliert, mit dem er selbst in dessen Fitnessfunktion eingeht. Ein numerisches Beispiel möge dies verdeutlichen: Es sei r = 1/2 in einer sich geschlechtlich fortpflanzenden Population, und ein Kind des Ahnen gebe ein eigenes Kind zugunsten zweier Geschwisterkinder auf. Dann ist der eigene Fitnessverlust = 1/2, der Fitnessgewinn für jeden Elternteil = 1/4, da netto ein zusätzlicher Enkel besteht, und somit herrscht ein Gleichgewicht. „Gleichgewicht“ bedeutet hier, dass die Situation indifferent ist, dass also der Nachfahre die altruistische Handlung genausogut vornehmen wie unterlassen kann. Würde seine Handlung dagegen zur Entstehung von mehr als zwei zusätzlichen Geschwisterkindern führen, so sollte er sie durchführen, bei weniger als zweien dagegen unterlassen. Der hier gewählte Faktor r = 1/2 ließe sich bei einer sich geschlechtlich vermehrenden Art als genetischer Verwandtschaftsgrad auffassen, und entsprechend könnte man bei einer sich ungeschlechtlich vermehrenden Art r = 1 wählen. Dies könnte man noch dadurch verfeinern, dass man noch die Mutationsrate berücksichtigt und r jeweils entsprechend kleiner wählt, um auch wirklich die genetische Verwandtschaft zu erfassen. Man könnte allerdings auch argumentierten, dass es auf den Reproduktionsprozess als solchen ankommt, also nur auf die jeweiligen Nachkommenzahlen unabhängig von der genauen genetischen Verwandtschaft, denn diese Zahlen sind das Einzige, das man letztlich zählen kann, und dass man daher stets r = 1/2 bzw. r = 1 wählen sollte. Im Prinzip ließe sich sogar experimentell entscheiden, bei welchem Wert von r sich langfristig das Gleichgewicht einpendelt, aber weil die Mutationsrate üblicherweise sehr gering ist, ist dies vielleicht eine nicht sehr realistische Möglichkeit. Unsere Gleichgewichtsbedingung sagt allerdings noch nichts über die Stabilität eines Gleichgewichtes aus. Auf diesen Aspekt werden wir daher noch zurückkommen müssen. Das vorstehende Konzept beruht nun allerdings auf der Annahme einer deterministischen Regelmäßigkeit. In manchen Situationen stellt dies zumindest über einen nur wenige Generationen währenden Zeitraum eine sinnvolle Approximation dar. Ein Beispiel wäre die Konditionierung von Erstgeborenen, auf eigenen Nachwuchs zu verzichten, um stattdessen den Eltern bei der Aufzucht von zwei zusätzlichen Geschwistern zu helfen. Im Allgemeinen lässt sich die biologische Fortpflanzung aber nicht als deterministischer Prozess beschreiben, sondern muss als stochastischer Prozess konzeptionalisiert werden. Es gibt dann also nur einen bestimmten Erwartungswert für den Reproduktionserfolg einer bestimmten Strategie. Wenn man, wie oben zunächst vorgeschlagen, die Konzepte nur retrospektiv anwendet, als die Fitness von Ahnen rezenter Populationen bewertet, so darf man nicht vergessen, dass der Erfolg nicht nur von der Güte der verfolgten Reproduktionsstrategie, sondern auch wesentlich von einer Vielzahl zufälliger Umwelteinflüsse abhängt. (Allerdings dürfen wir auch wiederum nicht vergessen, dass die Selektion zu einem systematischen Trend führt.) Alternativ können wir daher in die Zukunft blicken und versuchen, den zukünftigen

2.1 Konzeptionelle Aspekte. Konkurrenz zwischen Individuen, Genen …

37

Reproduktionserfolg jetzt vorhandener Strategien abzuschätzen. Dann können wir aber erstens nicht mit einzelnen Individuen arbeiten, sondern nur mit Typen, um Zufälle auszumitteln, müssen uns zweitens darüber im Klaren bleiben, dass es langfristig systematische, nicht prognostizierbare Veränderungen der Umwelt gibt, so dass eventuelle Limesbildungen zu unendlicher Zeit eine sehr fragwürdige Idealisierung darstellen, und müssen als Konsequenz das Instrumentarium der stochastischen Prozesse einsetzen. In vielen Fällen ist es eine sinnvolle Annahme, dass es sich um einen stationären Markovprozess handelt, dass also die erwartete Verteilung der nächsten Generation nur von der Zusammensetzung der jetzigen abhängt. Bestimmte Phänomene, beispielsweise dass mehrere Generationen bei der Aufzucht des Nachwuchses zusammenwirken können, erfordern natürlich gewisse leichte Verallgemeinerungen. In manchen Fällen lässt sich auch die Theorie der Verzweigungsprozesse (siehe z. B. Kimmel und Axelrod 2002) anwenden. Wir betrachten wieder das Beispiel der Geschwisterhilfe; im altruistischen Fall möge der älteste Sprössling eines Wurfs auf eigene Nachkommen verzichten, um seine Geschwister bei der Aufzucht zusätzlicher Nachkommen zu unterstützen. Betrachten wir als grundlegende Einheit jetzt nicht mehr das Individuum, sondern den Wurf, und vernachlässigen wir im Moment den Aspekt der sexuellen Fortpflanzung, so haben wir einen multivariaten Verzweigungsprozess vorliegen, bei dem jeder Wurf je nach Typ j Nachkommenswürfe des eigenen oder eines anderen Typs i mit einer bestimmten erwarteten Häufigkeit m i j erzeugt. Nach dem Satz von Perron-Frobenius hat die Matrix M dieser Häufigkeiten im irreduziblen Fall einen einfachen, betragsgrößten, positiven Eigenwert λ, der die asymptotische Wachstumsrate des Prozesses und dessen zugehöriger Eigenvektor (mit nichtnegativen Komponenten) das asymptotische Verhältnis der Typenhäufigkeiten angibt, zumindest im Falle λ > 1, denn andernfalls stirbt der Prozess mit Wahrscheinlichkeit 1 aus. Wir nehmen das einfachste Beispiel, wo es nur zwei Typen von Würfen, einen mit einem altruistischen Mitglied und einen nichtaltruistischen, gibt. Dann ist  1 1 (2.1.2) (m 11 − m 22 )2 + m 12 m 21 . λ = (m 11 + m 22 ) + 2 4 Typ 1 sei der altruistische, 2 der andere. Es gelte m 12 = 0, d. h. aus einem nichtaltruistischen Wurf kann kein altruistischer mehr entstehen. Gilt dann m 11 > m 22 , so ist λ = m 11 , und der entsprechende Eigenvektor ist proportional zu   m 11 − m 22 . m 21

(2.1.3)

(2.1.4)

Die nichtaltruistischen Würfe bleiben also nur deswegen mit einem nichttrivialen Anteil präsent, weil sie von den anderen durch Irrtum oder aus anderen Gründen erzeugt werden. Das ist natürlich nicht besonders tiefsinnig, und das Beispiel soll auch nur dazu dienen,

38

2 Evolutionsbiologie

zu erläutern, welche mathematischen Konzepte hier eingesetzt werden können. Man kann dies dann mit den Methoden der mathematischen Populationsgenetik verbinden, um zu berechnen, wie sich bei sexueller Vermehrung in dieser Situation ein das altruistische Verhalten hervorrufendes Allel ausbreiten kann. Schließlich kann man noch wie in Olofsson (1996) den zugrundeliegenden Prozess auf der Ebene der Individuen mit einem Verzweigungsprozess mit gleichen Marginalverteilungen für die Individuen vergleichen, in unserem Fall, wo sich die Individuen nach genau einer Zeiteinheit fortpflanzen, also einem GaltonWatson-Prozess. Die Erwartungswerte für die Population ändern sich dann nicht, wohl aber möglicherweise die Verteilung und die Aussterbenswahrscheinlichkeit. Wir wollen noch einmal auf die konzeptionelle Reduktion der Fortpflanzung auf das Gen als nicht weiter zerlegbare Grundeinheit zurückkommen. Wir hatten uns schon überlegt, dass die Bewertung von Mutationen zu einer Schwierigkeit für diesen Ansatz führt. Genauer hatten wir dabei Punktmutationen betrachtet, bei den also ein einzelnes Gen verändert wird. Es gibt aber auch noch weitere Typen von Mutationen. Wie wir unten noch genauer darstellen werden, ist die Erbinformation als lineare Folge von Basenpaaren auf Chromosomen angeordnet. Für unsere Zwecke genügt im Moment die Betrachtung eines einzelnen Chromosoms, so dass wir also eine eindimensionale Kette von Basenpaaren vorliegen haben. Gene sind dann bestimmte zusammenhängende Abschnitte dieser Kette, die als Ganzes in Proteine oder andere funktionale Zellbestandteile übersetzt werden. Neben den Veränderungen dieser Kette durch Punktmutationen, die durch Austausch eines Basenpaares gegen ein anderes die Funktion eines Gens ändern, gibt es auch noch Mutationen durch Deletionen, also Elimination eines Abschnittes der Kette, beispielsweise eines bestimmten Gens, durch Verdopplungen von Abschnitten und durch Inversionen, also durch Veränderungen der linearen Struktur durch Ausschneiden und Wiedereinsetzen in umgekehrter Richtung eines Abschnittes. Verdopplungen spielen in der Evolution eine wesentliche Rolle, weil dann einer der beiden zunächst redundanten Abschnitte frei mutieren kann, solange durch die Bewahrung des anderen die kodierte Funktion sichergestellt wird. Dies ermöglicht die evolutionäre Exploration neuer Strukturen, ohne bewährte Funktionen aufgeben zu müssen. Diesen Aspekt wollen wir aber an anderer Stelle genauer verfolgen. Auch mit den Deletionen wollen wir uns nicht weiter aufhalten, auch wenn diese die Verfechter des eigennützigen Gens zu der Absurdität zwingen, einen Vergleich zwischen der Fitness des ursprünglichen und des weggefallenen Gens zu ziehen und dann von einer „eigensüchtigen“, weil sich möglicherweise erfolgreich fortpflanzenden Deletion zu reden (s. Dawkins 1999, p. 164). Bleiben also die Inversionen, und mit diesen wollen wir nun die Reduktion auf das Gen als allein relevante konzeptionelle Ebene aushebeln. Genauer geht es uns darum, dass nicht nur die Zusammensetzung des Genoms aus den einzelnen Genen relevant ist, sondern dass auch strukturelle Beziehungen zwischen verschiedenen Genen eine wesentliche Rolle spielen. Eine analoge Tatsache zeigt sich schon in einer wesentlich einfacheren Situation, nämlich beim Phänomen der Isomerie in der Chemie. Hier hängen die chemischen Eigenschaften eines Moleküls nicht nur davon ab, aus welchen Atomen es zusammengesetzt ist, also von seiner Strukturformel, sondern auch von den zwischen ihnen bestehenden

2.1 Konzeptionelle Aspekte. Konkurrenz zwischen Individuen, Genen …

39

Bindungen und der räumlichen Anordnung dieser Atome. Ob Kohlenstoffatome in einer linearen Kette oder einem Ring angeordnet sind, macht einen großen Unterschied in den chemischen Eigenschaften aus. Ein anderes, über dieses hinausgehendes (weil von externen Faktoren abhängiges) Beispiel ist, dass spiegelsymmetrische Formen eines Moleküls in bestimmten Umgebungen, die keine solche Symmetrie aufweisen, ganz unterschiedliche Reaktionsfähigkeiten aufweisen können. Hierbei handelt es sich um Eigenschaften des Moleküls, die nicht direkt auf die Eigenschaften der individuellen Atome reduzierbar sind. Analog spielt auch die räumliche Anordnung der Gene eine wesentliche Rolle, und zwar sogar auf zwei verschiedenen Ebenen. Auf der Ebene des Individuums beeinflusst diese Anordnung die Transkription, also die Übertragung in Zellfunktionen, da die Transkription eines Gens auch von seinen Nachbargenen beeinflusst wird. Der Reproduktionserfolg eines Individuums kann daher letztendlich nicht nur davon abhängen, welche Gene es besitzt, sondern auch davon, wie diese Gene in seinem Genom angeordnet sind. Wenn wir dies unberücksichtigt lassen, ergibt sich immer noch ein wesentlicher Effekt auf der Ebene der Art (Spezies)11 . Bei der sexuellen Fortpflanzung werden nämlich, wie unten noch genauer erläutert, die linearen Ketten der Reproduktionspartner zerschnitten und komplementäre Teile zum Nachkommengenom zusammengefügt. Je näher nun zwei Gene in der linearen Kette zusammenliegen, umso geringer ist die Wahrscheinlichkeit, dass sie durch einen solchen Schnitt getrennt werden, d. h. mit umso größerer Wahrscheinlichkeit werden sie gemeinsam an den Nachkommen weitergegeben. Daher ist es günstig, funktional zusammengeh¨rende Gene möglichst nahe beieinander anzuordnen, damit der entsprechende funktionale Komplex in den Nachkommen erhalten bleibt. Die räumliche Anordnung der Gene wird nun aber gerade durch Inversionen im Genom verändert, und eine Spezies kann daher einen evolutionären Vorteil dadurch gewinnen, dass durch Inversionen das Genom geschickt angeordnet wird. Als ein Beispiel für eine solche Analyse sei Pepper (2002) genannt. Eine allgemeine Perspektive der Genomstruktur ist beispielsweise von Danchin und Noria 2004 entwickelt worden. Auf molekularbiologischer Ebene sind auch noch weitere Aspekte der räumlichen Organisation des Genoms wichtig. Képès und Vaillant (2003) postulierten eine spiralenförmige (solenoidale) Anordnung des Genoms, damit Genomabschnitte, deren linearer Abstand ein Vielfaches der Periodenlänge der Spirale ist, gemeinsam transkribiert werden, weil sie dann in räumlicher Nähe auf der Spirale liegen. Daher sollten funktional zusammengehörige Gene entsprechend periodisch angeordnet werden. Genauere statistische Analysen haben zwar dieses Modell nicht bestätigt, aber es ist hilfreich zur Erläuterung des allgemeinen Prinzips. Tatsächlich ist es so (Rao et al. 2014), dass das Genom Schleifen bildet. Diese Schleifen werden durch bestimmte Proteine zusammengeschnürt, die an spezifische Motive auf der DNS binden. Für die Bildung einer Schleife sind zwei derartige Motive erforderlich. Diese beiden Motive müssen entgegengesetzt orientiert sein und sich sozusagen entgegenblicken. Allgemeine Prinzipien der topologischen und geometrischen Organisation des Genoms werden in Boi (2011) diskutiert. 11 Zum Artbegriff siehe Breidbach und Jost (2004).

40

2 Evolutionsbiologie

Eine tiefer eindringende konzeptionelle Analyse des Verhältnisses von Gen, Individuum und Spezies stellt eine interessante Herausforderung an das formal orientierte Denken dar. Die Konzentration auf das Gen als grundlegenden evolutionären Baustein kann, auch wenn dies logisch nicht zwingend ist, leicht den Blick dafür verstellen kann, dass das Genom hochgradig strukturiert ist und es beispielsweise Steuerungsgene gibt, die nicht direkt eine Eigenschaft kodieren, sondern die Aktivierung anderer Gene im Entwicklungsprozess steuern und koordinieren. Wir werden daher im Kap. 3 einen anders ansetzenden Genbegriff diskutieren.

2.2

Evolutionär stabile Strategien. Konkurrenz zwischen Artgenossen

Im Vorstehenden haben wir Gleichgewichte bei Interessenkonflikten zwischen Verwandten analysiert. Wir wollen nun Gleichgewichte bei Interaktionen zwischen nicht weiter verwandten Mitgliedern der gleichen Art untersuchen. Dabei werden wir wie zuvor die genetische Rekombination bei der Vermehrung und die möglicherweise hochgradig nichtlineare Wechselwirkung zwischen verschiedenen Genen außer Acht lassen. Zudem idealisieren wir die Situation dahingehend, dass wir eine unendlich große und in dem Sinne homogene Population annehmen, dass für jedes einzelne Individuum die Erwartungswerte für die verschiedenen Verhaltenstypen, im Nachfolgenden als Strategien bezeichnet, der anderen Populationsmitglieder die gleichen sind. Insbesondere gibt es außer den Erwartungswerten auch keine zusätzlichen Informationen darüber, welche von mehreren möglichen Strategien ein Opponent anwenden wird, und man kann diesem beispielsweise nicht ansehen, wie er sich in einer Auseinandersetzung verhalten wird. Der Ausgangspunkt der Überlegungen ist die Beobachtung, dass eine bestimmte Verhaltensweise oder Strategie dann vorteilhaft sein kann, wenn man davon ausgehen kann, dass die anderen Mitglieder der Population eine andere Strategie benutzen, deren Schwachstellen man ausnutzen kann, dass aber die eigene Strategie dann ihre Vorteile verlieren kann, wenn sich alle anderen genauso verhalten. Ein schon angesprochenes Beispiel ist die Geschlechtsbestimmung des Nachwuchses; wenn alle anderen nur Töchter produzieren, ist es von enormem Vorteil, Söhne zu erzeugen, weil man dann viele Enkel erwarten kann, aber wenn alle anderen ebenfalls Söhne erzeugen, ist es nachteilig, dies selbst ebenfalls zu tun, und man sollte sich lieber um Töchter bemühen12 . Ein anderes, in der Literatur meist 12 Dieses Problem lässt sich auch unter einem anderen interessanten Gesichtspunkt betrachten. Es

liegt nämlich hier eine Situation vor, in der es vorteilhaft ist, in der Minderheit zu sein. Weil dies aber für jeden anderen Teilnehmer genauso gilt und es nicht möglich ist, dass sich mehr als die Hälfte in der Minderheit befindet, kommt es auf die Entwicklung effizienter Strategien an, durch die man durch geeignete Vorwegnahme des Verhaltens der anderen vermeidet, zur Mehrheit zu gehören. Der Evolution ist es nun gelungen, im Unterschied zu den meisten spieltheoretischen Szenarien hierfür eine weitgehend stabile Lösung zu finden. – Von einer ökonomisch motivierten Perspektive aus sind solche Minderheitsspiele intensiv studiert worden, s. z. B. Challet et al. (2005), Coolen (2005).

2.2 Evolutionär stabile Strategien. Konkurrenz zwischen Artgenossen

41

vorangestelltes Beispiel ist die Alternative zwischen aggressiven und nachgiebigen Strategien, beispielsweise bei Paarungskämpfen. Wenn die anderen nur bereit sind, Schaukämpfe durchzuführen, aber lieber weglaufen, wenn es ernst wird, so wird eine aggressive Strategie, die jeden Kampf solange eskalieren lässt, bis der Opponent entweder aufgibt oder einer der beiden Kämpfer ernsthaft verletzt ist, im Vorteil sein, aber wenn alle derart aggressiv sind, dass in Zweikämpfen immer einer zu ernstem Schaden kommt, so kann es vorteilhaft sein, lieber wegzulaufen und zu warten, bis die anderen sich gegenseitig kampfunfähig gemacht haben. Keine der beiden reinen Strategien ist also stabil, und im Gleichgewicht wird man ein bestimmtes Mischungsverhältnis der Strategien erwarten. Diese Mischung kann nun darin bestehen, dass die Population aus Vertretern der beiden reinen Strategien in diesem Mischungsverhältnis besteht, oder auch, dass jedes einzelne Individuum jede der Strategien mit einer bestimmten Wahrscheinlichkeit verwendet, die dann dem Anteil an der Mischung entspricht. Wichtig ist nur, dass jedes einzelne Individuum beim Zusammentreffen mit einem anderen jede der Strategien mit einer bestimmtem Wahrscheinlichkeit erwarten kann. Insbesondere wird vorausgesetzt, dass man es dem anderen nicht vorher ansehen kann, welche Strategie er verwenden wird, sondern allenfalls die jeweiligen Wahrscheinlichkeiten „kennt“. Zum Zwecke der Formalisierung der vorstehenden Überlegungen haben Maynard Smith (1920–2004) und Price (1922–1975) (siehe Maynard Smith 1982) den Begriff der evolutionär stabilen Strategie eingeführt, den wir nun besprechen wollen, wobei wir insbesondere Hofbauer und Sigmund (1998) heranziehen werden. Eine evolutionär stabile Strategie ist dadurch charakterisiert, dass, wenn sie von allen Mitgliedern einer Population verfolgt wird, sich keine abweichenden Mutanten unter dem Einfluss natürlicher Auslese in dieser Population ausbreiten können. Hierbei wird wie üblich davon ausgegangen, dass sich stets diejenigen Strategien mit der höchsten Fitness auf Kosten der anderen ausbreiten. Im evolutionstheoretischen Kontext wird natürlich meist davon ausgegangen, dass diese Ausbreitung durch biologische Fortpflanzung stattfindet, aber das Argumentationsschema ist beispielsweise auch auf kulturelle Ausbreitung durch Lernprozesse anwendbar. Wir bezeichnen nun die Fitness eines Individuums mit der Strategie I in einer Population der Zusammensetzung Q mit W (I , Q); im Moment kommt es nicht genau darauf an, wie diese Fitness bestimmt wird. Weiterhin schreiben wir p J + (1 − p)I für eine Population, in der der Anteil der Strategie J p und derjenige der Strategie I 1 − p beträgt. Eine Population vom Typ I ist dann evolutionär stabil, wenn bei Einführung einer neuen Strategie J mit einem genügend kleinen Anteil  die Strategie I der Strategie J überlegen ist, also W (J ,  J + (1 − )I ) < W (I ,  J + (1 − )I ) f¨ur alle J  = I

(2.2.1)

und alle genügend kleinen  > 0. Nehmen wir noch die Linearität W (K , p J + (1 − p)I ) = pW (K , J ) + (1 − p)W (K , I ) f¨ur alle I , J , K

(2.2.2)

42

2 Evolutionsbiologie

an, so lässt sich (2.2.1) aufspalten in die Gleichgewichtsbedingung W (J , I ) ≤ W (I , I ) f¨ur alle J  = I

(2.2.3)

und die Stabilitätsbedingung falls f¨ur ein J  = I W (J , I ) = W (I , I ), so ist W (J , J ) < W (I , J ),

(2.2.4)

d. h. in dieser Situation ist die Strategie I der Strategie J gegenüber dieser Strategie J vorzuziehen. Gilt die obige Linearität auch bzgl. der ersten Variablen, so wird (2.2.1) äquivalent zu W ( J + (1 − )I ,  J + (1 − )I ) < W (I ,  J + (1 − )I ) (J  = I ) (2.2.5) für alle genügend kleinen  > 0 oder, anders ausgedrückt, W (K , K ) < W (I , K )

(2.2.6)

für alle K  = I aus einer genügend kleinen Umgebung von I . Die vorstehenden Bedingungen sind den in der Spieltheorie geläufigen Nashbedingungen sehr ähnlich. Die obige Gleichgewichtsbedingung ist nämlich genau die Nashbedingung für ein Spiel, bei dem die Spieler ihre Strategie aus dem gegebenen Repertoire auswählen, um ihre Fitness, d. h. ihren Gewinn, zu optimieren. Würden wir in der Gleichgewichtsbedingung die strenge Ungleichung fordern, so hätten wir die strikte Nashbedingung. Die evolutionär stabile Strategie liegt also zwischen der einfachen und der strikten Nashbedingung. Im Unterschied zur Spieltheorie betrachten wir allerdings hier nicht ein einzelnes, vielleicht nur einmal stattfindendes Spiel, sondern wir analysieren eine sich regelmäßig wiederholende Situation. Eine Strategie ist also evolutionär stabil, wenn Mutanten, sofern sie nur anfänglich genügend selten sind, sich nicht weiter ausbreiten können. Dies impliziert nicht notwendigerweise, dass, wenn die von der gesamten Bevölkerung gewählte Strategie nur genügend wenig von einer solchen evolutionär stabilen Strategie abweicht, sich dann jene zu dieser hinbewegt. MaW, eine evolutionär stabile Strategie ist stabil gegenüber (möglicherweise großen) Abweichungen durch einen kleinen Teil der Population, aber nicht unbedingt gegenüber kleinen Abweichungen durch einen großen Teil der Population. Dies zeigt das folgende Beispiel von Eshel (1996): Die reinen Strategien seien durch reelle Zahlen s, t beschrieben, die Fitness solcher Strategien sei gegeben durch W (t, s) = t(2cs − t) + c0 ,

(2.2.7)

mit Konstanten c, c0 , und die Fitness für gemischte Strategien ergebe sich hieraus linear entsprechend dem Mischungsverhältnis. Die Fitnessfunktion nimmt nun für jedes s als

2.2 Evolutionär stabile Strategien. Konkurrenz zwischen Artgenossen

43

Funktion von t ein striktes globales Maximum bei t = cs an. Daher ist t = 0 eine evolutionär stabile Strategie, denn es ist W (r , 0) < W (0, 0) f¨ur alle r  = 0, und wegen der Linearität gilt diese Ungleichung dann auch für alle gemischten Strategien. Ist nun c > 1, und verfolgt die gesamte Population die Strategie s > 0, beliebig nahe an 0, so ist es für jeden von Vorteil, seine eigene Strategie zu erhöhen, zumindest vom Wert s auf den Wert cs. Entsprechend zahlt sich für s < 0 eine Erniedrigung nach cs aus. Die Population bewegt sich also von der evolutionär stabilen Strategie weg, sobald sie durch eine kleine (aber die gesamte Population betreffende) Störung diese Strategie verlassen hat. Natürlich lässt sich der Stabilitätsbegriff verschärfen, um dies Phänomen auszuschließen, aber wir wollen es an dieser Stelle bei dieser kleinen Warnung belassen. Wichtiger ist nämlich wohl, dass die dem Begriff zugrundeliegende Stabilitätsanalyse auch ihre Gültigkeit verliert, wenn die Evolution durch die nichtlineare Wechselwirkung mehrerer Gene getrieben wird. MaW, hier ist die Fitness einer Strategie, also eines Phänotyps bewertet worden, ohne zu berücksichtigen, wie dieser Phänotyp aus einem Genotyp entsteht, welcher allein die vererbbaren Eigenschaften kodiert. Dies können wir aber natürlich erst dann genauer diskutieren, wenn wir das Verhältnis zwischen Genotyp und Phänotyp geklärt haben. Auch ist das Schema nur auf evolutionär genügend lange Zeiträume anwendbar, damit die erforderlichen Mutationen auch tatsächlich auftreten können. Eshel (1996) schlägt hierzu vor, eine Strategie intern stabil zu nennen, wenn sich in dem in der Population vorhandenen Genom keine Strategie findet, die sich auf Kosten der ersteren von einem kleinen Teil der Population ausbreiten kann, und sie als extern stabil zu bezeichnen, wenn sie auch bei möglichen Mutationen – wobei „möglich“ hier bedeutet, dass sie einer vorher spezifizierten Menge entstammen, da man sinnvollerweise nicht mit beliebigen Mutationen Überlegungen anstellen kann – in dem benannten Sinne stabil sind. Die interne Stabilität bezieht sich also auf evolutionär kurze Zeiträume und ist daher ein Begriff, der in den Bereich der Populationsgenetik fällt, während die externe Stabilität längere Zeiträume betrifft. Allerdings besteht immer noch das Problem, dass, auch wenn man Mutationen in die Analyse einbezieht, man nicht vorhersagen kann, in welcher Reihenfolge solche Mutationen eintreten, und der schließlich erreichte Gleichgewichtszustand wird typischerweise wesentlich von dieser Reihenfolge abhängen. Wenn man die dynamischen Aspekte dieses Gleichgewichtsbegriffes diskutieren will, so kann man die durch die Fitnessfunktion getriebene Dynamik betrachten. Dies lässt sich folgendermaßen als ein System von gewöhnlichen Differentialgleichungen darstellen: Wir gehen von N Grundstrategien aus und stellen jede hieraus kombinierbare Strategie durch das jeweilige Mischungsverhältnis dar, d. h. durch einen Punkt in dem Simplex  N −1 = { p = ( p1 , ..., p N ) : pi ≥ 0,

N  i=1

pi = 1},

(2.2.8)

44

2 Evolutionsbiologie

und nehmen an, dass die relativen Änderungen der relativen Häufigkeiten der einzelnen Strategien, xx˙ii , für ein x = (x1 , ..., x N ) ∈ S N durch den Unterschied zwischen der Fitness  xi f i (x) des f i (x) der jeweiligen Strategie und der durchschnittlichen Fitness f¯(x) = Populationsvektors x gegeben sind, also x˙i = xi ( f i (x) − f¯(x)), i = 1, ...N .

(2.2.9)

Gleichgewichte entsprechen dann gerade den Fixpunkten dieser Dynamik, also denjenigen x ∈ S N , für die x˙i = 0 für i = 1, ..., N , also f i (x) = f¯(x) f¨ur alle i mit xi  = 0.

(2.2.10)

Die evolutionäre Stabilität eines Fixpunktes bedeutet dann, dass die Dynamik von Anfangswerten in der Nähe asymptotisch in diesen Fixpunkt hineinläuft. In vielen Beispielen ist die Fitnessfunktion durch eine quadratische Auszahlungsform gegeben, d. h. A = (ai j )i, j=1,...,N und die Fitness der Strategie i, die auf die Strategie j trifft, ist ai j , und der Strategiemix x ∈ S N hat dann gegenüber y ∈ S N die Fitness  x Ay = i, j xi ai j y j . In diesem Fall wird unsere obige Replikatorgleichung zu x˙i = xi ((Ax)i − x Ax),

(2.2.11)

und durch die Transformation yi =

xi yi , also xi =  N xN j=1 y j

(2.2.12)

wird diese Replikatorgleichung in die Lotka-Volterra-Gleichung y˙i = yi (ri +

N −1 

bi j y j ) (i = 1, ..., N − 1)

(2.2.13)

j=1

mit ri = ai N − a N N und bi j = ai j − a N j transformiert. Für eingehendere mathematische Analysen verweisen wir auf Hofbauer und Sigmund (1988, 1998), Ay et al. (2017). Diese Gleichungen werden in Abschn. 8.1 wieder auftauchen, dort allerdings nicht zur Modellierung der Ausbreitung von genetischen Varianten in einer Population, sondern zur Beschreibung der Interaktion verschiedener Populationen. Wie wir noch öfter sehen werden, kann ein abstraktes mathematisches Modell zur Beschreibung und Analyse verschiedenartiger biologischer Sachverhalte eingesetzt werden. Schließlich spielen spieltheoretische Modelle auch in der Ethologie eine Rolle, s. Kap. 7.

2.3 Gruppenselektion. Konkurrenz zwischen Individuen vs. Konkurrenz …

2.3

45

Gruppenselektion. Konkurrenz zwischen Individuen vs. Konkurrenz zwischen Gruppen

Wir kommen nun zu einem unter Evolutionsbiologen heftig umstrittenen Thema, nämlich der Frage, ob es neben der akzeptierten Verwandtenselektion auch noch eine Gruppenselektion gibt oder überhaupt geben kann. Genauer geht es darum, ob sich eine Eigenschaft durchsetzen oder wenigstens ausbreiten oder, noch schwächer, zumindest erhalten kann, die zwar ihre individuellen Träger benachteiligt, aber ihrer Gruppe zugute kommt. In der Politik wird dies bekanntlich von verschiedenen Ideologien gerne bejaht. Das Problem, das sich aber hier wie in der Evolutionsbiologie stellt, ist, dass innerhalb einer solchen Gruppe mit altruistischen Mitgliedern sich Egoisten ausbreiten können, die zwar vom altruistischen Verhalten ihrer Genossen profitieren, selbst aber dieses individuell nachteilige Verhalten nicht pflegen und sich deswegen besser vermehren. Anders formuliert: Im Zweifelsfall kommt der individuelle Vorteil vor dem Gruppenwohl. Es gibt also zwei auf verschiedenen Ebenen ansetzende, aber einander widerstreitende Tendenzen, und es scheint, als ob sich die auf der niedrigeren Ebene wirkende durchsetzen müsse. Nun, als Mathematiker oder Mathematikerin erkennt man natürlich, dass dies nicht zwangsläufig so sein muss, sondern in einem Modell von gewissen Parametern abhängt, woraus sich dann für die Biologie die Frage nach den realistischen Wertebereichen dieser Parameter ergibt. Wir wollen den Mechanismus an einem – für manche vielleicht sogar realistischen – Beispiel diskutieren (und die Formalisierung dieses Beispiels als leichte Übung stellen): Die Wissenschaftsministerin verlangt, dass an einer Universität der Frauenanteil in der Professorenschaft erhöht wird. Die einzelnen Fakultäten befolgen dies in ihrer Berufungspolitik, und tatsächlich wird ausnahmslos an allen Fakultäten der Frauenanteil erhöht. Nun ermittelt man den Frauenanteil an der gesamten Professorenschaft der Universität und stellt fest, dass dieser gesunken ist. Wie ist das möglich? Der Grund ist, dass aufgrund ministerieller Sparpolitik alle Fakultäten geschrumpft sind, und zwar ausgerechnet, und dies ist der entscheidende Punkt, diejenigen am stärksten, die den höchsten Frauenanteil haben. Statt nun aber triumphierend die Widersprüchlichkeit der Wissenschaftspolitik zu konstatieren, können wir das Phänomen auch so interpretieren, dass eine Eigenschaft, die individuell in jeder Fakultät bei Neuberufungen von Vorteil ist, in der Universität für diese Fakultät zum Nachteil gerät (wenn wir hier zum Zwecke der Argumentation eine kausale Verkettung unterstellen – Männerbünde in den Universitätsgremien?). Statt nun aber vielleicht die für Mathematiker beunruhigende Konsequenz zu ziehen, dass Fakultäten mit einem geringen Frauenanteil besonders stark schrumpfen sollten, stellen wir lieber fest, dass das Beispiel numerisch nur dann funktioniert, wenn nicht nur die Professorenschaft als Ganzes schrumpft, sondern auch die absolute Anzahl von Professorinnen abnimmt. In einer – heutzutage vielleicht nicht ganz so leicht vorstellbaren – Situation, wo die Fakultäten wachsen, können aber auch zwar sowohl der Frauenanteil in jeder einzelnen Fakultät wie auch die Gesamtzahl der Frauen in der Universität steigen, aber trotzdem der Anteil der Frauen in der Universität sinken, wenn die frauenärmsten Fakultäten am schnellsten wachsen.

46

2 Evolutionsbiologie

Das vorstehende Beispiel funktioniert deswegen, weil in ihm das Phänomen des Schmarotzers nicht vorkommen kann (zumindest wenn man die Universitätspolitik nicht in allen Einzelheiten modellieren möchte), und wir wenden uns daher nun einem biologisch plausibleren Modell zu, wie es von Pepper und Smuts (1999) untersucht wurde. Auf die Methodik werden wir unten in Abschn. 8.3 eingehen; hier interessiert zunächst der abstrakte Sachverhalt. Es gebe eine Tierart, in der zwei Strategien vorkommen. Die Vertreter der einen Strategie beuten jede Futterquelle, die sie finden, bis zur Erschöpfung aus und gewinnen dadurch die Energie, um viele Nachkommen zu produzieren, denen sie ihre Strategie vererben. Eine Gruppe solcher Individuen unterliegt aber der Gefahr, wegen Erschöpfung aller Nahrungsquellen in ihrem Revier aus Futtermangel zugrundezugehen. Die Vertreter der anderen Strategie gehen behutsamer vor und lassen von jeder Nahrungsquelle immer noch genügend übrig, damit diese sich wieder regenerieren kann, und vermehren sich deswegen langsamer, aber eine Gruppe, in der solche Individuen dominieren, kann langfristig überleben. Das Modell muss nun aber, um biologisch von Interesse zu sein, zwei Aspekte berücksichtigen, die sich daraus ergeben, dass die Vertreter beider Strategien zur gleichen Art gehören. Erstens wird keine der Gruppen strategisch einheitlich sein, und daher besteht innerhalb jeder Gruppe die Tendenz, dass sich die ökologisch verantwortungslosen Individuen auf Kosten der anderen ausbreiten. Dies wird allerdings dadurch ausbalanciert, dass Gruppen, in denen verantwortungslose Individuen überhandnehmen, aussterben. Zum zweiten kann es Wanderungen zwischen den Gruppen geben. Wenn eine Gruppe alle Nahrungsquellen in ihrem Revier erschöpft hat, werden die Mitglieder ausschweifen und, wenn sie Glück haben und nicht vorher verhungern, auf eine andere Gruppe stoßen, die noch Nahrung zur Verfügung hat, und sich dieser Gruppe anschließen und sich – und damit auch ihre Strategie – dort vermehren. Daher hängt das Ergebnis wesentlich von der räumlichen Verteilung der Nahrungsquellen ab. In den Simulationen von Pepper und Smuts (1999) stellt sich heraus, dass bei bestimmten Werten der in der vorstehenden verbalen Skizze angedeuteten Parameter das verantwortungsvolle Verhalten sich zwar nicht völlig durchsetzt, aber in der Population mit einer bestimmten Häufigkeit erhalten bleibt, während es bei anderen Parameterwerten ausstirbt. Natürlich lässt sich dies leicht mathematisch formalisieren, was sicher eine reizvolle Übung ist, hier aber nicht weiter verfolgt werden soll. Besonders relevant wird die Frage der Gruppenselektion bei den sozial lebenden Insekten, cf. Wilson (1973). Hier findet zwar auch eine Selektion von genetisch determinierten Verhaltensweisen statt, wovon wir konkrete Beispiele oben bei der Diskussion des Ansatzes von Hamilton kennengelernt haben, aber in vieler Einsicht ist die Einheit, an der hier die Selektion angreift, weder das Gen noch das Individuum, sondern die Kolonie. Fitnesseffekte auf verschiedenen Stufen lassen sich formal durch die sog. Price-Gleichung Price (1972) analysieren, welcher wir uns nun zuwenden wollen. Eine Population lasse sich in Unterpopulationen, durch einen Index i beschrieben, mit der relativen Häufigkeit pi aufteilen, für die die untersuchte Eigenschaft durch den Wert z i gegeben sei, wobei

2.3 Gruppenselektion. Konkurrenz zwischen Individuen vs. Konkurrenz …

47

die zugrundeliegende Eigenschaft z beliebig gegeben sei. Der Durchschnittswert dieser Eigenschaft in der Gesamtpopulation ist dann durch  z¯ = pi z i gegeben. Die Unterpopulation i erzeuge nun in der nachfolgenden Generation eine Nachwuchspopulation der relativen Häufigkeit pi und dem Eigenschaftswert z i . pi ist also nicht etwa die Häufigkeit der Vertreter des Typs i in der nachfolgenden Generation, sondern derjenigen Individuen, die von Vertretern des Typs i abstammen. Ist wi die durchschnittliche Fitness von Vertretern des Typs i, also die erwartete Anzahl von Nachkommen in der nächsten Generation, und ist w¯ die durchschnittliche Fitness der Gesamtpopulation, so ist also wi pi = pi . w¯ Der Mittelwert von z ändert sich beim Generationsübergang vermöge   pi z i , (2.3.1) ¯z = pi z i − während z i = z i − z i . Wir erhalten dann  wi pi z i (z i + z i ) − w¯   wi wi = pi ( pi z i . − 1)z i + w¯ w¯

¯z =



pi

(2.3.2)

Hieraus ergibt sich nun die Gleichung von Price, w¯ ¯ z = Cov(w, z) + E(wz),

(2.3.3)

 wobei E(y) = pi yi der Erwartungswert einer Größe y ist und Cov(x, y) die Kovarianz zweier Größen x und y, also den Erwartungswert des Produktes minus das Produkt der Erwartungswerte, bezeichnet. Die formalen Voraussetzungen der Price-Gleichung sind sorgfältig von Grafen (2002) herausgearbeitet worden. Wenn eine Eigenschaft konstant von Generation zu Generation weitervererbt wird, so verschwindet z i für alle i, und damit auch der letzte Term in der Price-Gleichung, und dann wird das Produkt aus der mittleren Fitness und der Änderung des Mittelwertes der Eigenschaft z durch die Kovarianz zwischen Fitness und Eigenschaft gegeben, also nur durch die Unterschiede im Reproduktionserfolg zwischen den Trägern unterschiedlicher Ausprägungen dieser Eigenschaft bestimmt. Vielleicht nicht ganz so trivial ist der Fall, wo dieser letzte Term, also die mit der Fitness gewichtete Veränderung der Eigenschaft z beim Generationsübergang, nicht verschwindet. Beispielsweise können sich die Mittelwerte der Eigenschaft z und der Fitness w für die Unterpopulation i beim Übergang zur nächsten Generation durchaus ändern. Der Kovarianzterm beschreibt dann die Selektion zwischen den verschiedenen Unterpopulationen, während der Erwartungswertausdruck die Selektion

48

2 Evolutionsbiologie

innerhalb jeder Gruppe und vielleicht noch andere Faktoren, die innerhalb einer Gruppe relevant sind, widerspiegelt. Ist die Gruppe i beispielsweise in Untergruppen aufteilbar, die wir durch den Index j kennzeichnen können, so liefert die Gleichung von Price, angewandt auf die Untergruppe i statt auf die Gesamtpopulation wi z i = Covi (wi , z i ) + Ei (wi z i ),

(2.3.4)

 wobei beispielsweise Ei (wi z i ) = j pi j wi j z i j und pi j die relative Häufigkeit von Vertretern des Untertyps j in der Gruppe i bezeichnet, etc. Setzen wir dies in die ursprüngliche Price-Gleichung ein und spezifizieren noch der Deutlichkeit halber einen Erwartungswert für die Gesamtpopulation durch ein Subskript P, so erhalten wir w¯ ¯ z = Cov(w, z) + E P (Covi (wi , z i ) + Ei (wi z i )).

(2.3.5)

Dies ist nun nützlich, wenn die Korrelation zwischen Fitness und Eigenschaft sich auf dem Niveau der Gesamtpopulation von derjenigen auf dem Niveau der Teilpopulationen unterscheidet. Beispielsweise kann der zweite Index j für Individuen stehen, und die stärkere Ausprägung der Eigenschaft z kann sich nachteilig auf die individuelle Fitness im Vergleich zu Gruppenmitgliedern mit einem geringeren Wert von z auswirken, während eine Gruppe, die einen höheren durchschnittlichen Wert von z hat, sich erfolgreicher fortpflanzen kann als andere mit niedrigeren Werten. Die Gleichung von Price ermöglicht also eine quantitative Abwägung von individuellem Vorteil gegen Gruppenwohl, also eine evolutionstheoretische Analyse von altruistischem Verhalten. Ein interessanter Spezialfall ergibt sich, wenn wir z = w wählen, also den Fitnesswert als unsere Eigenschaft wählen. Dann erhalten wir w ¯ w¯ = Var(w) + E(ww).

(2.3.6)

Die mittlere Fitness ändert sich also genau dann nicht, wenn die Varianz in der Fitness durch einen entsprechenden negativen Erwartungswert für die fitnessgewichtete Fitnessänderung kompensiert wird; letzteres kann beispielsweise durch eine Verschlechterung der Umweltbedingungen hervorgerufen werden. Verschwindet dagegen dieser Erwartungswert, und ist die Fitness nicht für alle Unterpopulationen gleich, so wird sich die durchschnittliche Fitness beim Übergang zur nächsten Generation erhöhen. Dies ist Fisher’s berühmtes Fundamentaltheorem der natürlichen Selektion (Fisher 1930) w ¯ w¯ = Var(w),

(2.3.7)

dass also die Wachstumsrate der mittleren Fitness einer Population durch ihre Fitnessvarianz gegeben ist. Da diese Varianz nichtnegativ und typischerweise positiv ist, sollte also die mittlere Fitness einer Population wachsen. Allerdings liefert dies kein geschlossenes Entwicklungsgesetz für die Fitness, weil die Varianz auf der rechten Seite gegeben ist und sich deren Entwicklung nicht aus der Gleichung bestimmen lässt. Man kann zwar iterativ auch

2.3 Gruppenselektion. Konkurrenz zwischen Individuen vs. Konkurrenz …

49

Gleichungen für die Entwicklung der höheren Momente herleiten, aber da die Gleichung für die Entwicklung eines Momentes jeweils von dem nächsthöheren Moment abhängt, bedeutet dies, dass man die vollständige Anfangsverteilung kennen muss, um die zukünftige Entwicklung vorherzusagen. Smerlak und Youssef (2017a, b) haben nun ein abstrakteres Gesetz gefunden, dass nämlich eine Fitnessverteilung mit wachsender Zeit immer gegen eine universelle Verteilung konvergieren muss, deren Parameter sich aus einem einzigen Parameter der Schleppe der ursprünglichen Verteilung bestimmen. Es kommt nur auf die Asymptotik des oberen Endes der Fitnessverteilung an. Diese bestimmt das langfristige Verhalten der Fitnessverteilung. Insbesondere ist eine solche universelle Verteilung keine Gaußverteilung, und eine Fitnessverteilung, die anfänglich gaußsch ist, verliert diese Eigenschaft im Laufe der Zeit. Wir wollen nun zur Interpretation der Price-Gleichung (2.3.3) zurückkehren und eine – aus Platzgründen – etwas vereinfachte Form der grundlegenden Ungleichung von Hamilton für die Verwandtenselektion herleiten. Hierzu nehmen wir an, dass ein Individuum mit der Eigenschaft z Handlungen vornimmt, die den anderen Gruppenmitgliedern, welche im Schnitt den Wert z˜ dieser Eigenschaft haben, zugute kommen. Die Fitness bestimme sich dann zu w = −C z + B z˜ , (2.3.8) d. h. die besagte Handlung verringere die eigene Fitness mit dem Kostenfaktor C und erhöhe diejenige der anderen Gruppenmitglieder mit dem Nutzenfaktor B. (Man braucht hier keine lineare Beziehung zugrundelegen, sondern man könnte in einer allgemeinen Situation einfach eine lineare Regression vornehmen und erhielte dann einen zusätzlichen Fehlerterm auf der rechten Seite, der mit z und z˜ unkorreliert wäre und daher aus allen nachfolgenden Kovarianzen herausfiele und somit keine Rolle spielen würde.) Dann ergibt die Gleichung von Price w¯ ¯ z = −CCov(z, z) + BCov(z, z˜ ) + E(wz), (2.3.9) und die linke Seite ist daher positiv, d. h. die altruistische Eigenschaft z verstärkt sich, wenn rB −C > − mit r=

E(wz) , Cov(z, z)

(2.3.10)

Cov(z, z˜ ) . Cov(z, z)

Vererbt sich also die Eigenschaft z unverändert, so verschwindet die rechte Seite der Gleichung, und wir erhalten Hamiltons Bedingung rB −C > 0

(2.3.11)

50

2 Evolutionsbiologie

für die Ausbreitung der altruistischen Eigenschaft. Der Koeffizient r ist hier allerdings nicht der Verwandtschaftsgrad zwischen dem altruistischen Individuum und seinen Gruppenmitgliedern, sondern eine Korrelationsgröße zwischen ihm und den anderen bzgl. der in Frage stehenden Eigenschaft. Natürlich wird letztere Größe i. A. von dem Verwandtschaftsgrad abhängen. Für genauere Einzelheiten verweisen wir auf Grafen (1985) oder Frank (1998). Die vorstehend entwickelte Methode kann nun zur Analyse des Beispiels mit den gefräßigen und den zurückhaltenden Individuen herangezogen werden. Allerdings kann ein wesentlicher Aspekt dieses Beispiels noch nicht erfasst werden, nämlich die Abhängigkeit von der räumlichen Struktur. Zur Erfassung räumlicher Effekte benötigt man neue, noch nicht entwickelte Methoden, die über die Analyse gemittelter Größen hinausgehen. Noch zwei Bemerkungen zum Abschluss dieses Abschnittes: 1. In dem entwickelten Kontext lassen sich viele Probleme als Optimierungsprobleme formulieren; ein beliebtes Beispiel ist die Aufteilung der Investitionen in männlichen und weiblichen Nachwuchs in Situationen, wo die Kosten unterschiedlich sind, also z. B. eines der beiden Geschlechter wesentlich größer als das andere wird und daher entsprechend mehr Nahrung benötigt, oder auch bei Zwittern die Investitionen in männliche und weibliche Keimzellen. Es gibt sogar einige Tiere, die im Laufe ihres Lebens in einem bestimmten Alter ihr Geschlecht wechseln. Alles dies lässt sich mit den vorgestellten theoretischen Werkzeugen analysieren und begründen, wie im nächsten Abschnitt genauer ausgeführt wird. Die Verfahren sind formal oft die gleichen wie die in den Wirtschaftswissenschaften üblichen, wo es z. B. auch um die Optimierung des Gewinns bei festen Kosten für die einzelnen Produktionsfaktoren geht. 2. Das Vorstehende ist durchaus interessant und reizvoll. Wenn aber der Erfinder des ganzen Betriebes, der (inzwischen verstorbene) W.Hamilton, im Klappentext zu einem Buch, das die Theorie systematisch und ausführlich darstellt, mit den folgenden Worten zitiert wird: „This book...brings together much of the very deepest of evolutionary thought that has been added since Darwin in an exposition that could, by analogy with a great predecessor, be called a Vitae Communis Principia Mathematica“ (Kursiv im Original), so scheint mir ein solcher Vergleich mit dem vielleicht bedeutendsten Werk der Naturwissenschaft überhaupt doch einen bedenklichen Verlust des Gefühls für wissenschaftliche Maßstäbe anzudeuten.13

13 Ich verzichte absichtlich auf die Identifikation des in Frage stehenden Werkes, weil es durchaus

solide, kompetent und klar geschrieben ist und der Autor/die Autorin wohl unschuldig an dieser Übertreibung ist.

2.4 Der Kampf der Geschlechter. Konkurrenz zwischen Fortpflanzungsstrategien

2.4

51

Der Kampf der Geschlechter. Konkurrenz zwischen Fortpflanzungsstrategien

Es wird häufig, von Biologen wie von Nichtbiologinnen, als ein Rätsel angesehen, warum es geschlechtliche Fortpflanzung gibt. Denn, so das Argument, eine Population aus sich ungeschlechtlich vermehrenden Weibchen könnte doch eigentlich die doppelte Anzahl an Nachkommen produzieren wie eine Population, in der die Weibchen noch die ansonsten nutzlosen Männchen zur Befruchtung ihrer Eier brauchen. Warum leistet sich die angeblich so effiziente und gnadenlose Evolution eine solche Ressourcenverschwendung wie Männer? Diese Frage ist natürlich auch in der biologischen Literatur viel diskutiert worden, und eine Reihe von mehr oder weniger plausiblen Lösungen ist dort vorgeschlagen worden. Viel Zustimmung findet beispielsweise der Gedanke, dass durch die bei geschlechtlicher Fortpflanzung stattfindende Rekombination ständig neue Geno- und Phänotypen produziert werden, die für Parasiten eine Anpassung erheblich erschweren. Sich ungeschlechtlich vermehrende Populationen gehen also wesentlich leichter an Parasiten zugrunde (womit dann die Parasiten üblicherweise auch selber aussterben, aber soweit wird die Logik des Argumentes meist nicht vorangetrieben). Dies ist sicher nicht völlig verkehrt, dringt aber nicht zum eigentlichen Kern der Sache vor. Wenn man das Problem aber genauer analysiert, wird es eigentlich ziemlich einfach. Der entscheidende Punkt ist, dass die vorstehende Formulierung zwei separate Aspekte miteinander vermischt. Diese müssen nur gedanklich getrennt werden, um den Mechanismus zu verstehen, wie in Jost und Pepper (2008) ausgeführt. 1. Die Fortpflanzung durch Rekombination bietet tatsächlich evolutionäre Vorteile, weil man für die Evolvierbarkeit nicht mehr nur auf zufällige Mutationen angewiesen ist, sondern sein eigenes Genom mit einem schon durch die Selektion erfolgreich getesteten anderen kombinieren kann. Aber, und dies ist ein entscheidender Punkt, dies braucht keine Aufspaltung in zwei verschiedene Geschlechter. Wenn sich zwei Hermaphrodyten (Zwitter) gegenseitig befruchten und dann jeweils ihre Eier ausbrüten, kann jeder im Prinzip soviele Nachkommen wie ohne eine solche gegenseitige Befruchtung hervorbringen. Zwar ist jeder dann in seinen Nachkommen nur noch zur Hälfte genetisch vertreten, aber dafür ist er dann auch in den Nachkommen des Partners entsprechend repräsentiert. Es gibt also keinen genetischen Verlust, aber möglicherweise beträchtliche selektive Vorteile. Zwitter besitzen gegenüber sich autonom fortpflanzenden Individuen den Vorteil der Rekombination bei gleicher mittlerer Nachkommenzahl. 2. Die Aufspaltung in verschiedene Geschlechter ist dann erst der zweite Schritt. Auch hier greift nun ein einfaches Argument. In dem vorstehenden Prozess müssen zwei verschiedene Funktionen ausgeführt werden, nämlich die Befruchtung und die Ausbrütung der Eier. Es ist nun plausibel, dass Organismen, die sich auf eine dieser beiden Funktionen spezialisieren, effizienter sein können als Generalisten, die beide erfüllen. Mit anderen Worten, in einer Population, die ansonsten aus Zwittern besteht, könnten spezialisierte Männchen oder Weibchen eine höhere Fortpflanzungsrate erzielen. Die Bedingungen,

52

2 Evolutionsbiologie

unter denen dies der Fall ist, können nun abstrakt mathematisch formuliert werden. Die präzise Durchführung unterscheidet dabei noch zwei Ebenen: (a) Spezialisierung der Gameten (Keimzellen) in Ei- und Samenzellen. Auch bei Bakterien gibt es Rekombination, aber zwischen gleichartigen Zellen. Dort werden also die beiden Funktionen von beiden beteiligten Zellen gleichzeitig geleistet. Spezialisierte Zellen, also nährstoffreiche Ei- und flinke Samenzellen, können aber effizienter sein. (b) Zwitter können spezialisierte Keimzellen tragen, also sowohl Ei- als auch Samenzellen besitzen. Es kann aber auch auf der organismischen Ebene effizienter sein, sich zu spezialisieren, also nur eine weibliche oder eine männliche Fortpflanzungsstrategie mit den entsprechenden geeigneten körperlichen Anpassungen zu verfolgen. Geschlechtliche Differeenzierung bietet gebenüber Zwitterwesen den Vorteil der höheren Effizienz durch Spezialisierung. Der erste Punkt, die Rekombination in Stammlinien, ist schon in Abschn. 2.1 analysiert worden. Wir unterziehen daher hier den zweiten Punkt, die Spezialisierung, einer formalen Analyse. Hierdurch sollte auch das in Abschn.2.1 fortgestellte Argument von Fisher noch klarer werden, warum es in Populationen typischerweise gleich viele Männchen und Weibchen gibt, obwohl sich eine Population mit mehr Weibchen effektiver vermehren könnte. Wesentlich für die Argumentation wird es sein, die Kosten-Nutzen-Analyse für die Individuen von den resultierenden Effekten auf der Ebene der Population zu trennen. Wir gehen also von einer Situation aus, in welcher Rekombination stattfindet. Der Ausgangspunkt ist eine symmetrische Rekombination zwischen gleichartigen Einheiten. Wenn sich zwei Zellen paaren, um nach genetischem Austausch individuell Nachkommen zu produzieren, so hat keine der beiden einen Nachteil, weil beide genauso stark in der nächsten Generation genetisch vertreten sind, als wenn sie sich individuell ohne Rekombination vermehrt hätten. Die Gültigkeit dieses Argumentes setzt voraus, dass der genetische Austausch symmetrisch ist, in dem Sinne, dass jede Zelle genausoviel genetisches Material überträgt wie empfängt. Wir werden gleich einsehen, dass die Symmetrie hier ein stabiles Gleichgewicht darstellt. Wie schon dargelegt, kann die resultierende genetische Diversität des Nachwuchses aber einen Fitnessvorteil liefern, wodurch Rekombination begünstigt wird. Manche Einzeller vermehren sich bei stabilen Umweltbedingungen ungeschlechtlich, gehen aber bei Umweltveränderungen zur geschlechtlichen Fortpflanzung über, wodurch sie wohl schneller Anpassungen an neue Bedingungen finden können. Rekombination und Fortpflanzung können getrennte Prozesse darstellen. Es gibt Einzeller, die genetisches Material austauschen, ohne sich dabei zu vermehren. Dies wird Konjugation genannt. Die Vermehrung findet vielmehr später durch Zellteilung der – jeweils genetisch neu zusammengefügten – individuellen Zellen statt. So weit, so gut. Nun bestimmt sich der Fortpflanzungserfolg also nicht mehr nur noch aus einem Prozess, der eigentlichen Reproduktion (durch Zellteilung oder auf komplexere Weise), sondern der Erfolg bei der Rekombination spielt ebenfalls eine Rolle. Diese beiden

2.4 Der Kampf der Geschlechter. Konkurrenz zwischen Fortpflanzungsstrategien

53

Prozesse erfordern aber unterschiedliche Eigenschaften. Für die Reproduktion ist es wichtig, genügend viele Nährstoffe anzuhäufen und an die Nachkommen weiterzugeben. Für die Rekombination ist es dagegen wichtig, schnell einen Partner zu finden. Wenn aber zwei Eigenschaften über den Erfolg eines Prozesses entscheiden, kann eine Spezialisierung auf jeweils eine der beiden Eigenschaften sinnvoll sein, solange es komplementäre Partner gibt. Dies lässt sich nun leicht formal fassen. Wenn wir wieder in unsere metaphorische Sprechweise verfallen, so stellt sich für jedes Individuum die Frage, wie seine verfügbaren Ressourcen am besten auf die möglichen Faktoren aufgeteilt werden können. Hier sind diese Faktoren Nährstoffreichtum und Schnelligkeit, aber wir können natürlich auch eine allgemeinere Situation mit Faktoren xk ≥ 0, k = 1, . . . , K betrachten. Es gebe dabei eine Kostenschranke C(x1 , ..., x K ) ≤ c,

(2.4.12)

unter welcher der Erfolg maximiert werden soll: R(x1 , ..., x K ) → max .

(2.4.13)

Da wir annehmen können, dass sowohl C als auch R monoton wachsende Funktionen ihrer Argumente sind, können wir in (2.4.12) auch Gleichheit annehmen. Wenn nun das Maximum in einem Punkt erreicht wird, wo alle x K > 0 sind, so gibt es einen Lagrangeschen Multiplikator λ mit ∂C(x1 , ..., x K ) ∂ R(x1 , ..., x K ) +λ = 0 f¨ur k = 1, ..., K , ∂ xk ∂ xk also

∂k R(x1 , ..., x K ) ∂ R(x1 , ..., x K ) = for all k,  ∂k C(x1 , ..., x K ) ∂ C(x1 , ..., x K )

(mit der Abkürzung ∂k = Verhältnis

∂ ∂k ).

(2.4.14)

(2.4.15)

Ein Ökonom formuliert eine solche Bedingung als gleiches

Grenznutzen (2.4.16) Grenzkosten für alle Faktoren in einem inneren Gleichgewichtspunkt. Wenn im Maximum dagegen einige Faktoren xκ = 0 sind, während die anderen xk > 0 sind, so gelten die Kuhn-TuckerBedingungen ∂k R(x1 , ..., x K ) ∂κ R(x1 , ..., x K ) ≤ . (2.4.17) ∂κ C(x1 , ..., x K ) ∂k C(x1 , ..., x K )

In unseren biologischen Situation haben wir nun zwei Faktoren, die wir mit den Indices m und f bezeichnen (für lateinisch maskulin und feminin bzw. deren englische Verballhornungen male und female). In einem inneren Gleichgewichtspunkt gilt dann also für jedes Individuum i ∂ f R(m i , f i ) ∂m R(m i , f i ) = . (2.4.18) ∂1 C(m i , f i ) ∂2 C(m i , f i )

54

2 Evolutionsbiologie

Ob nun ein Gleichgewichtspunkt ein Maximum darstellt, lässt sich natürlich durch Untersuchung der zweiten Ableitung feststellen. Hier geht es erst einmal darum, dass diese sehr einfache formale Analyse auf verschiedene biologische Situationen angewandt werden kann. Randmaxima, wo also m i = 0 oder f i = 0 gilt, entsprechen dabei Spezialisierungen, innere Maxima dagegen fehlender Differenzierung. Die erste mögliche Spezialisierung ist diejenige zwischen Wachstum und Rekombination. Bei Einzellern mag nun eine solche Spezialisierung nicht sinnvoll erscheinen, da die einzelne Zelle ja alles alleine leisten muss. Trotzdem gibt es aber Möglichkeiten. Bestimmte einzellige Eukaryonten haben zwei Zellkerne, einen großen, vegetativen, der die normalen Zellfunktionen steuert, und einen kleinen, generativen, der bei der Konjugation wirksam wird. Überhaupt ist möglicherweise der Vorteil der Spezialisierung von Zellen für Stoffwechsel oder Fortpflanzung der wesentliche Anlass für die Evolution der Mehrzelligkeit gewesen, weil dann genetisch gleich ausgestattete Zellen mit spezialisierten Funktionen eine effizientere Verbreitung des gemeinsamen Genoms leisten können. Wenn also eine Spezialisierung in Rekombination und Stoffwechsel, also in Keim- und Somazellen stattgefunden hat, betrifft die nächste Spezialisierung die Keimzellen. Denn es sind zwei Aufgaben zu lösen: Einerseits muss schnell ein Paarungspartner gefunden werden, bevor andere zuvorkommen, und andererseits muss der Nachwuchs mit möglichst großen Nährstoffvorräten ausgestattet werden. Die erste Aufgabe würde kleine und flinke Zellen erfordern, die zweite dagegen große, eiweißreiche. Statt dass eine einzelne Zelle beide Aufgaben erfüllen muss, bietet sich eine Aufgabenteilung zwischen verschiedenen Zelltypen an, Samen- und Einzellen. Es gibt schon Kolonien von abstammungsgleichen Einzellern, die Gameten (Keimzellen) verschiedenen Paarungstyps ausbilden, die also eine solche Spezialisierung leisten können. Für Organismen stellt sich allerdings die Frage, ob es besser ist, beide Typen von Keimzellen zu produzieren, oder sich auf einen der beiden zu spezialisieren, ob es also effizienter ist, ein Zwitter oder ein geschlechtlich spezialisiertes Lebewesen zu sein. Nun ist die Produktion von Samenzellen wesentlich einfacher als diejenige von Eizellen. Daher sind Zwitter bei Paarungen möglichst bestrebt, die Eizellen des Partners zu befruchten, die eigenen Eizellen dagegen unbefruchtet zu lassen, damit man noch für weitere Paarungen begehrenswert ist, bei denen man dann wieder die Eizellen anderer befruchten kann. Manche Schnecken, die Zwitter sind, versuchen deswegen bei der Paarung, dem Partner den Penis abzubeißen, bevor er zur Befruchtung kommt (der geneigte Leser möchte sich vielleicht als Übungsaufgabe überlegen, dass eine solche Strategie nur bei Zwittern biologisch sinnvoll ist). In anderen Fällen versuchen Zwitter es zu verheimlichen, dass ihre Eier schon befruchtet sind. Es kommt auch vor, dass in Populationen von Zwittern spezialisierte männliche Individuen auftauchen, die dann einen höheren Fortpflanzungserfolg haben, weil sie leicht die Eizellen vieler Zwitter befruchten können. Nun tritt aber ein interessantes Phänomen auf. Wenn sich nämlich dann immer mehr männliche Individuen einstellen, weil diese einen höheren Fortpflanzungserfolg haben, wird es für die verbliebenen Zwitter vorteilhaft, auf eine rein weibliche Strategie umzusteigen. Denn wenn der weibliche Anteil in der Minderheit ist, gewinnt dieser einen höheren Fortpflanzungserfolg. Dies wollen

2.4 Der Kampf der Geschlechter. Konkurrenz zwischen Fortpflanzungsstrategien

55

wir nun formal fassen. Interessanterweise ist das nachfolgende Argument sowohl auf die Frage anwendbar, welche Fortpflanzungsstrategie die jeweils beste ist, Zwitter, männlich oder weiblich, als auch darauf, ob es besser ist, Söhne oder Töchter zu produzieren. Der Schlüssel ist die Komplementaritätsgleichung n  i=1

Rm,i =

n 

R f ,i ,

(2.4.19)

i=1

wobei der Index i die Individuen der Population durchläuft und Rm,i und R f ,i den Reproduktionserfolg über Investitionen in männliche bzw. weibliche Strategien bezeichnet. Wenn es um Keimzellen geht, wird also gezählt, wieviele männliche bzw. weibliche Gameten zur erfolgreichen Paarung gelangen, während es bei Nachkommen darum geht, wieviel Enkel man durch Söhne bzw. Töchter erhält. Der Grund für das Bestehen von (2.4.19) ist natürlich einfach, dass für eine erfolgreiche Paarung eine männliche und eine weibliche Keimzelle bzw. (im Falle geschlechtsdifferenzierter Individuen) ein männliches und ein weibliches Individuum zusammenkommen müssen. Um nun den Mechanismus zu verstehen, nehmen wir mal an, dass Erfolg und Kosten linear sind (Leserinnen mögen allgemeinere Fälle selber durchrechnen), R(i) = rm m i + r f f i , C(i) = cm m i + c f f i ,

(2.4.20)

mit konstanten rm , r f , cm , c f . (2.4.15) wird dann rf rm = . cm cf

(2.4.21)

Die Erfolgsraten rm , r f hängen zwar nach unserer Annahme nicht vom Individuum i ab, wohl aber von den männlichen und weiblichen Anteilen m p , f p in der Population, also rm = rm (m p , f p ), r f = r f (m p , f p ). Und zwar wird rm eine fallende Funktion von m p , f m aber eine wachsende von f p sein. Z. B. ist rm = min( mpp , 1), r f = min( f pp , 1) plausibel. Mit (2.4.19) erhalten wir rm (m p , f p )m p = r f (m p , f p ) f p ,

(2.4.22)

cm m p = c f f p .

(2.4.23)

und mit (2.4.21) dann Die Investitionen in die männliche und in die weibliche Strategie sind also im Gleichgewicht in der Gesamtpopulation gleich. Es ist auch klar, dass es sich hier um ein stabiles Gleichgewicht handelt, weil es immer besser ist, in der geschlechtlichen Minderheit zu sein. Dies Gleichgewicht legt allerdings noch nicht die optimale Strategie der Individuen fest. Dies kann genausogut dadurch erreicht werden, dass alle Zwitter sind, die ihre Investitionen in der gleichen optimalen Weise aufteilen, wie dadurch, dass die Population männliche und weibliche Individuen in der richtigen Mischung enthält. Was nun individuell besser ist,

56

2 Evolutionsbiologie

bestimmt sich danach, ob in der obigen Analysis (s. (2.4.15), (2.4.17)) das Maximum im Innern oder am Rande liegt. Schnecken beispielsweise sind häufig Zwitter, weil es bei ihnen strukturelle Hindernisse für die Ausbildung einer effizienten männlichen Strategie gibt, bei der es auf Schnelligkeit ankommen würde. Und auch wie sich Schnecken bei Paarungskämpfen etwa im Stile von Sumoringern gegenseitig vom Kampfplatz stoßen könnten, ist vielleicht schwer vorstellbar. Interessanterweise kann es bei der Strategiewahl auch einen Konflikt zwischen individueller Optimierung und Populationseffekten geben. Wenn ein Typ in der Minderheit ist, es z. B. weniger weibliche Individuen gibt, kann es für alle vorteilhaft sein, Töchter statt Söhne zu erzeugen, was aber dann wieder dazu führt, dass die männlichen Individuen in die Unterzahl geraten. Unter geeigneten Annahmen kann man dann auch eine Evolutionsgleichung herleiten, die Zyklen in der Population beschreiben kann. Für Einzelheiten und Anwendungen des vorstehenden Ansatzes auf andere biologische Probleme, wo es um die optimale Aufteilung von Ressourcen geht, verweise ich auf Jost und Pepper (2008). Wir hatten schon gesehen, dass mit der Rekombination zwei verschiedene Erfolgskriterien über die Fitness im Sinne der Nachkommenzahl entscheiden, und zwar die Versorgung und Ausstattung des Nachwuchses einerseits und der Paarungserfolg andererseits. Wir kommen dadurch zu einer der wichtigsten Einsichten Darwins, dem Begriff der sexuellen Selektion. Hierdurch erklärte Darwin, warum viele Lebewesen, insbesondere Männchen, für ihr eigenes Überleben eher hinderliche und möglicherweise sogar gefährliche Ausstattungsmerkmale tragen, wie die Prunkfedern des Pfaus oder die Riesengeweihe mancher Hirsche. Der Gedanke ist, dass, wenn die Weibchen prachtvolle Individuen bevorzugen, weil deren Pracht ein Ausdruck ihrer Lebenskraft sein kann, sich ein Evolutionsdruck bildet, der das bevorzugte Merkmal immer weiter verstärkt. Dies geschieht nicht nur deswegen, weil die entsprechenden Männchen dann einen höheren Paarungserfolg zu erwarten haben, sondern auch, weil es für die Fitness von Weibchen dann vorteilhaft ist, sich mit solchen Männchen zu paaren, weil dann zu erwarten ist, dass ihre Söhne das erfolgversprechende Merkmal ebenfalls tragen. Der resultierende Selektionsdruck kann dann zu einer derart überdimensionierten Ausprägung dieses Merkmals führen, dass die Träger dadurch in ihrem sonstigen Leben sehr benachteiligt werden und vielleicht sogar die gesamte Population zugrundegeht. Um eine derartige Logik zu verstehen, wollen wir noch ein etwas anders gelagertes Beispiel betrachten, dessen Formalisierung, sei es durch Kosten-Nutzen-Analysis oder Spieltheorie, wir den Leserinnen als Übung überlassen. Es geht um bestimmte Mistkäfer (z. B. Scarabaeus aeratus), deren Männchen Kotkugeln rollen, die sie den Weibchen als Hochzeitsgabe anbieten. Diese Kotkugeln werden dann den aus den von den Weibchen abgelegten Eiern ausschlüpfenden Larven als Nahrung dienen. Nun kommt es vor, dass ein Männchen ohne eigene Kotkugel, welches ein anderes mit einer schönen großen Kugel erspäht, dieses angreift, um ihm die Kugel abzunehmen. Da dasjenige Männchen, das die Kotkugel hergestellt hat, üblicherweise schon von dieser Arbeit sehr erschöpft ist, gelingt es dem Neuankömmling mit seinen noch frischen Kräften meist leicht, sich in den Besitz der Kugel zu setzen und damit dann ein Weibchen zur Paarung zu verlocken. Da das Weibchen weniger

2.4 Der Kampf der Geschlechter. Konkurrenz zwischen Fortpflanzungsstrategien

57

an der Legalität der Beschaffung als an der Größe und Qualität der Kotkugel interessiert ist, ist die Strategie des Kugelraubs vorteilbringend, sowohl für das Männchen, weil sie ihm zur Paarung verhilft, als auch für das Weibchen, weil es Nahrung für seinen Nachwuchs bekommt und erhoffen kann, dass sich die Fähigkeit, in den Besitz einer großen Kotkugel zu gelangen, auf die männlichen Nachkommen vererbt. Nun führt dies allerdings dazu, dass die Größe und Qualität der Kugeln in der Population sinkt, denn es rentiert sich jetzt für die kugelrollenden Männchen nicht mehr, viel Energie in die Herstellung einer eigenen Kugel zu investieren, denn je größer die Kugel ist, umso leichter wird sie ihm geraubt. So kann die individuell vorteilhafte Strategie des Kugelraubs für die Population zu schwerwiegenden Nachteilen führen. Der Mechanismus der darwinschen Evolution lässt dies als zwangsläufig erscheinen. Abstrakt quantifizieren lässt sich die Sache leicht. In einer Population mit einen Geschlechterverhältnis ρ (Verhältnis von Weibchen zu Männchen und damit auch die erwartete oder durchschnittlichen Anzahl von Paarungen eines Männchens) und einem weiblichen Fortpflanzungserfolg mit Mittelwert M f und Varianz V f bezeichne p j die relative Häufigkeit von Männchen, die j Paarungen zustande bringen. Weil die Gesamtanzahl der männlichen  Paarungen j p j j gleich der Gesamtanzahl der weiblichen Paarungen ist, berechnet sich die Varianz des männlichen Fortpflanzungserfolgs zu   Vm = pj jVf + p j ( j M f − ρ M F )2 = ρV f + M 2f V p , (2.4.24) j

j

wobei V p die Varianz des Paarungserfolgs ist. Da nun der durchschnittliche männliche Erfolg ρ M f ist, ist die Varianz des relativen männlichen Erfolges Im :=

Vm 1 = I f + I p, 2 (ρ M f ) ρ

(2.4.25)

oder umgekehrt die Varianz des relativen Paarungserfolges I p = Im −

1 If, ρ

(2.4.26)

und insbesondere im Falle ρ = 1, also eines ausgeglichenen Geschlechterverhältnisses, I p = Im − I f .

(2.4.27)

I p ist daher ein normiertes Maß für die Intensität der sexuellen Selektion für Männchen, und in der Monographie Shuster und Wade (2003) wird dieses Maß dann systematisch auf die verschiedenen Paarungsstrategien angewandt. Es gebe beispielsweise einen Typ α von Männchen gibt, der Harems zusammenhält,14 mit durchschnittlicher Haremsgröße 14 Leserinnen werden bemerken, dass wir uns hier in einem Bereich der Biologie bewegen, in dem die Terminologie besonders klischeehaft besetzt ist.

58

2 Evolutionsbiologie

H=

ρ , 1 − p0

(2.4.28)

wobei ρ das Geschlechterverhältnis und p0 die relative Häufigkeit der Männchen ist, die es nicht schaffen, einen Harem zu erwerben und sich daher nicht paaren können. Dann möge ein Typ β von Invasoren auftreten, die selber keinen Harem hüten, sondern versuchen, in vorhandene einzudringen, mit einer Erfolgsrate σ . Deren Fitness ist dann wβ = σ H + Cov(σ, H ),

(2.4.29)

wobei der zweite Term auftritt, wenn es noch eine Abhängigkeit zwischen Erfolgsrate und Haremsgröße gibt, wenn also beispielsweise das Eindringen in größere Harems leichter ist. Die Eindringlinge können sich ausbreiten, falls wβ > wα ist. Da die Fitness wα der α-Männchen ρ ist, ergibt sich aus (2.4.28), (2.4.29) als Ausbreitungsbedingung σ > (1 − p0 ) − Cov(σ, H ),

(2.4.30)

und insbesondere in dem einfachsten Fall, wo diese Kovarianz verschwindet, σ > (1 − p0 ).

(2.4.31)

Je höher also der Anteil der α-Männchen ist, denen es nicht gelingt, einen Harem zu hüten, desto leichter kann sich die alternative Strategie β ausbreiten. Und wenn es noch eine positive Korrelation zwischen Erfolgsquote und Haremsgröße gibt, so wird dies nach (2.4.30) noch leichter. Es kann sich dann sogar noch eine dritte Strategie festsetzen, die γ -Männchen, wie in Paracerceis sculpta, einer maritimen Asselart, die sich hinter den β-Männchen einschleichen, ihnen aber bei der Kopulation zuvorkommen, s. Shuster (1987, 1992), Shuster und Wade (2003). Da die γ - aber nun wiederum von den α-Männchen vertrieben werden können, kann sich in einer spieltheoretischen Perspektive, wie wir sie in Abschn. 2.2 entwickelt haben, ein Gleichgewicht zwischen diesen drei Strategien wie beim Stein-Schere-PapierSpiel einstellen. Es lässt sich auch die systematische Frage stellen, nach welchen Kriterien Paarungspartner ausgewählt werden. Zwei Möglichkeiten sind in der Literatur besonders diskutiert worden. 1. Die assortative Paarung, bei der sich Individuen phänotypisch möglichst gleichartige Partner suchen, s. z. B. Shuster und Wade (2003). Dies ist z. B. in Situationen sinnvoll, in denen es verschiedenartige Anpassungen gibt und intermediäre Formen nachteilig sind, z. B. bei Befall durch Parasiten (Eizaguirre et al. 2009). Assortative Paarung kann zu einer schnellen Aufspaltung einer Population führen.

2.5 Das Wechselspiel zwischen Lebewesen und ihrer Umwelt. Konkurrenz …

59

2. Fitnessbasierte Paarung, bei der sich Individuen unabhängig vom eigenen Phänotyp möglichst fitte, erfolgreiche Partner suchen (van Doorn et al. 2009; Schindler et al. 2013). Dies führt neben einem direkten Fitnessvorteil auch noch zu dem indirekten Vorteil, ein begehrter Partner zu sein, und begünstigt die Ausbreitung erfolgreicher Merkmale.

2.5

Das Wechselspiel zwischen Lebewesen und ihrer Umwelt. Konkurrenz mit dem Rest der Welt

Besser an ihre Umwelt angepasste Lebewesen können sich erfolgreicher fortpflanzen als andere. Da ihre Eigenschaften mithin auf mehr Nachfolger vererbt werden, setzen sie sich nach den besprochenen statistischen Gesetzmäßigkeiten nach einigen Generationen in der Population durch. In diesem Sinne begünstigt also die Evolution bestmöglich an ihre Umwelt angepasste Lebewesen. Optimalität ist also keine Zweckursache, sondern liefert ein Erklärungsschema für ansonsten kontingente Lebensformen. In diesem Sinne kann der Biologe fragen, warum ein Flügel eine bestimmte Gestalt hat und als Antwort geben, dass diese Gestalt die besten aerodynamischen Eigenschaften besitzt (und sich deswegen gegenüber anderen Flügelformen in der Evolution der untersuchten Vogelart durchgesetzt hat; dieser letzte gedankliche Schritt gilt als selbstverständlich und wird deswegen üblicherweise nicht mehr erwähnt). Mathematisch werden Optimierungsprobleme durch die Variationsrechnung gelöst. Daher wird die Variationsrechnung auch ein nützliches Werkzeug für die Biologie, zum Vergleich von biologisch realisierten Formen mit den mathematischen Lösungen von Optimierungsproblemen, und damit zur Erklärung dieser Formen im skizzierten Sinne im Falle der Übereinstimmung (implizit steckt hierin natürlich die Annahme, dass der evolutionäre Zeitraum für die jeweilige Form ausreichend war, um die optimale Lösung zu finden) oder zur Überprüfung der in das mathematische Modell eingeflossenen Faktoren im Falle der Nichtübereinstimmung. – Allerdings sind biologische Formen oft so komplex, dass die präzise Formulierung und Analyse des entsprechenden Variationsproblems meist zu kompliziert ist. Natürlich gibt es einige Ausnahmen, beispielsweise die sechseckige Gestalt der Bienenwaben, die sich als optimale Pflasterung im mathematischen Sinne begreifen lässt. – Auch sind die meisten biologischen Formen nicht nur für eine einzige Funktion optimiert, sondern stellen einen Ausgleich zwischen verschiedenen Anforderungen dar. Der vorstehend erläuterte Ansatz, biologische Formen als optimale Anpassungen an eine als konstant gedachte Umwelt zu erklären, ist jedoch in mehrerlei Hinsicht zu eng. Erstens stehen Lebewesen typischerweise in intensiver Konkurrenz um Nahrung, Fortpflanzungsmöglichkeiten, Vermeidung von Fressfeinden etc. mit ihren Artgenossen. Diesen Aspekt haben wir schon oben diskutiert. Zweitens stehen Lebewesen aber nicht nur unter dem Einfluss von, sondern auch in Wechselwirkung mit ihrer Umwelt. Zwar gibt es evolutionäre Gleichgewichte, aber diese sind häufig dynamischer Natur. Dieser Aspekt wird noch an vielen Stellen unserer Ausführungen auftauchen. Drittens sind ein wesentlicher Bestandteil jeder biologischen Umwelt andere Lebewesen, die sich natürlich ebenfalls

60

2 Evolutionsbiologie

evolutionär fortentwickeln. Daher wandeln sich die Umwelt und somit auch die von einer Art zu lösenden Variationsprobleme ständig. Wir werden unten das Bild der sich verändernden Fitnesslandschaften und die gekoppelte Evolution verschiedener Arten diskutieren. Auch die Ökologie thematisiert das dynamische Gleichgewicht zwischen verschiedenen Lebensformen, zumeist allerdings nicht unter evolutionären Gesichtspunkten. Wir wollen nun an dieser Stelle das Grundproblem der Evolution so fassen, dass die Agenten (Lebewesen, Gene, oder was auch immer) bestrebt sind15 , eine Funktion zu maximieren, welche ihre Fitness bewertet. Im Unterschied zu den Ausführungen in vorstehenden Paragraphen kümmern wir uns jetzt nicht mehr darum, wie die Fitness gemessen werden kann, sondern nehmen einfach an, dass dies bei jedem Agenten in konsistenter Form möglich ist. Die Fitness ist jetzt nicht mehr intern und direkt durch den Fortpflanzungserfolg gegeben, sondern extern und indirekt durch eine Anpassungen erfordernde Umwelt bestimmt. In gewissem Sinne stellt dies einen konzeptionellen Rückschritt gegenüber den in den vorstehenden Paragraphen entwickelten Gedankengängen dar, aber dies ist hilfreich zum Verständnis der Herausbildung biologischer Diversität und nützlich für die Entwicklung populationsbasierter Optimierungsverfahren. Jeder Agent versucht also, den Wert einer – ihm nicht vollständig bekannten – Funktion zu maximieren. Der Graph dieser Funktion heißt Fitnesslandschaft und wurde in der Biologie erstmals von Wright zur Veranschaulichung dieses Optimierungsprozesses vorgeschlagen. Der Argumentebereich dieser Funktion kann ein Kontinuum, oder, biologisch vielleicht realistischer und für Computersimulationen ohnehin erforderlich, eine diskrete Menge sein, beispielsweise ein Gitter oder ein Graph, auf dem sich die Agenten jeweils in jedem Evolutionsschritt, als Mutation bezeichnet, zu einem Nachbarpunkt bewegen können. Welche Strategie für die Agenten besonders günstig ist, hängt dann natürlich von der Geometrie dieser Fitnesslandschaft ab. Diese liegt irgendwo zwischen den beiden Extremfällen einer konvexen Funktion, bei der man von jedem Punkt aus stetig bergauf gehen kann, bis man das globale Maximum erreicht, ohne dabei vorher in einem Nebenmaximum stecken zu bleiben, und einem völlig zufälligen Funktionsgraphen, bei dem es keinerlei Korrelationen zwischen den Werten in benachbarten Punkten gibt und bei dem die Strategie des stetigen Bergauflaufens wenig effizient ist. Optimierungsprobleme bei Funktionen mit vielen Nebenmaxima stellen sich natürlich auch anderswo, und es sind in der Literatur eine ganze Reihe von Strategien vorgeschlagen worden, um von Nebenmaxima wieder weg zu kommen und die Chance zu erhöhen, das globale Maximum durch fortgesetztes lokales Suchen und Probieren zu finden. Einige dieser Algorithmen sind auch durch die Evolutionsbiologie inspiriert worden, und wir werden diese unten genauer besprechen. Hier wollen wir aber zunächst auf das mathematische Problem hinweisen, ein geeignetes Maß für die „Rauhheit“ einer Funktion, also die relative Häufigkeit von Nebenmaxima oder die Zufälligkeit des Funktionsgraphen anzugeben, welches dann für die Wahl der geeigneten Optimierungsstrategie herangezogen werden kann. In der Literatur diskutierte Ansätze hierzu sind 15 Wie immer soll diese konnotationsbehaftete Terminologie nicht dahingehend interpretiert werden,

dass den Agenten irgendeine bewusste Absicht unterstellt wird.

2.6 Evolutionäre und genetische Algorithmen

61

beispielsweise Korrelationslängen, diskrete Fouriertransformationen und Komplexitätsmaße. Man vgl. hierzu den schönen Überblicksartikel Reidys und Stadler (2002). In den Abschn. 8.1 und 8.6 werden wir die in diesem Abschniit gestellte Frage noch einmal aufgreifen, indem wir Modelle für die Interaktion zwischen Arten diskutieren.

2.6

Evolutionäre und genetische Algorithmen

Wir wollen in diesem Abschnitt einige durch Selektions- und Vererbungsmechanismen inspirierte Optimierungsverfahren vorstellen (für einen neueren Überblick über dieser Forschungsfeld vgl. z. B. Schoenauer 2015). Hierbei werden wir einige Begriffe verwenden, die erst im Abschn. 3.2 zur Molekulargenetik erklärt werden, aber da die in diesem Abschnitt diskutierten Verfahren viel stärker durch die Evolutions- als die Molekularbiologie inspiriert sind, passen sie besser in das Kapitel zur Evolutionsbiologie. Bekanntlich tritt bei vielen Suchstrategien und Optimierungsproblemen die Schwierigkeit auf, dass die zu maximierende oder minimierende Funktion – o. E. werden wir uns i. F. auf die Maximierung beschränken – viele Nebenmaxima aufweist, also Punkte im Definitionsbereich, an denen die Funktion ein lokales Maximum annimmt, das kein globales Maxima ist. (In der Physik spricht man hierbei meist von metastabilen Zuständen.) Das wohl einfachste Maximierungsverfahren, nämlich der Gradientenaufstieg16 , bleibt dann typischerweise in einem solchen Nebenmaximum stecken, anstatt das globale Maximum zu erreichen. Ein möglicher Ausweg wäre nun, auch größere Sprünge zu erlauben oder auch mit einer gewissen Wahrscheinlichkeit Richtungen zu verfolgen, in denen die Funktion sinkt, in der Hoffnung, auf diese Weise schließlich in den Einzugsbereich eines globalen Maximums zu gelangen, wie bei den sog. Monte-Carlo-Verfahren. Eine andere Option ist, von verschiedenen Anfangspunkten aus zu starten und dann die Höhen der gefundenen lokalen Maxima zu vergleichen, in der Hoffnung, dass man von mindestens einem der zufällig verstreuten Anfangspunkte ein globales Maximum erreicht. Diese Suchen von verschiedenen Ausgangspunkten aus brauchen nun nicht notwendigerweise nacheinander ausgeführt zu werden, sondern können genausogut parallel stattfinden. Mehrere „Agenten“ können also gleichzeitig und unabhängig voneinander suchen, und man vergleicht zum Schluss die Ergebnisse. Damit sind wir schon bei den populationsbasierten Suchverfahren. Für die weitere Diskussion wollen wir nun annehmen, dass unsere Funktion einen diskreten Definitionsbereich besitzt, und zwar, um spezifischer zu sein, die Eckpunkte des N -dimensionalen Einheitswürfels, d. h. alle Folgen aus Nullen und Einsen der Länge N , oder, noch anders ausgedrückt, die Binärzahlen von 0 bis 2 N −1 . Ein Suchschritt eines Agenten besteht dann darin, dass sich dieser Agent von dem Punkt des Definitionsbereiches, auf dem er sich gerade 16 Wir nehmen zur Vereinfachung der Diskussion an, dass die untersuchte Funktion differenzierbar ist. Allerdings kann man auch bei einem diskreten Definitionsbereich ein entsprechendes Verfahren definieren, indem man von dem Punkt aus, in dem man sich gerade befindet, den Nachbarpunkt mit dem größten Funktionswert auswählt.

62

2 Evolutionsbiologie

befindet, zu einem Nachbarpunkt bewegt, also eine der Nullen durch eine Eins oder umgekehrt eine Eins durch eine Null ersetzt. Einen solchen Schritt wollen wir Mutation nennen. Nun muss das Ergebnis dieses Schrittes bewertet werden, ob sich also der Funktionswert verbessert oder verschlechtert hat, und darüberhinaus, wie gut das Ergebnis dieses Agenten im Vergleich mit dem Rest der Population ist. Dann kann man z. B. auf der Grundlage dieser Bewertung den betreffenden Agenten als hoffnungslos verwerfen und eliminieren oder ihn als hoffnungsvoll ansehen und weitere Kopien von ihm loslassen, die sich dann unabhängig voneinander durch Mutationen weiterentwickeln und somit auch untereinander in Konkurrenz treten können. Wenn dieser Auswahlprozess formalisiert ist, so heißt er Selektionsschritt, und wir haben einen sog. evolutionären Algorithmus vorliegen17 . Im Unterschied zur biologischen Evolution achtet man bei evolutionären Algorithmen üblicherweise darauf, dass die Anzahl der Agenten konstant bleibt. In jedem Schritt eliminiert man also so viele Agenten – im Populationsvergleich – geringer Fitness wie man Kopien von Agenten höherer Fitness herstellt. Da bei einem solchen evolutionären Algorithmus die einzelnen Agenten nur lokale Suchschritte vornehmen, lässt sich ein hochdimensionaler Dimensionsbereich hierdurch oft noch nicht besonders effizient durchsuchen. Man könnte nun auf die Idee kommen, größere Suchschritte zu erlauben, aber dies führt ähnlich wie zu große Mutationsraten in der biologischen Evolution meist nur dazu, dass die einzelnen Agenten in zufälligen Bereichen des Definitionsbereiches landen und Fitnessgewinne wieder verlieren, weil das Verfahren nicht die konkrete Gestalt der zu maximierenden Funktion berücksichtigt. In der biologischen Evolution ändert eine Mutation einen kleinen Teil des Genoms. Bei der geschlechtlichen Fortpflanzung wird dagegen vom Standpunkt eines Elternteils aus durch die genetische Rekombination ein großer Teil – sogar die Hälfte, wenn man ignoriert, dass Mitglieder der gleichen Population in einem großen Teil ihres Genoms übereinstimmen – des Genoms ausgetauscht und durch die entsprechenden Genomteile des anderen Partners ersetzt. Entscheidend ist aber, dass dieser Austausch insofern gerade nicht zufällig ist, als das neue Material von einem lebensfähigen, also nicht völlig erfolglosen Individuum der gleichen Art, also einem zumindest annähernd gleichen Selektionsdruck ausgesetzten Lebewesen stammt. Genau dies versuchen nun die von J. Holland eingeführten genetischen Algorithmen (neuere Monographien zu diesem Thema sind Goldberg 1989, Mitchell 1996, Michalewicz 1996) als Suchstrategien nachzuahmen. Zwar gibt es zumindest bei den einfacheren Varianten keine Artbildung, sondern der gleiche Selektionsdruck wird einfach dadurch erzeugt, dass alle die gleiche vorgegebene Funktion maximieren sollen, aber es wird eine elementare Version der Rekombination eingesetzt. Wie schon besprochen, wird jeder Agent durch eine N -stellige Binärfolge, also eine lineare Kette wie in der DNS, dargestellt, und zwei Agenten erzeugen miteinander Nachkommen, indem beider Binärfolge nach der gleichen, aber sonst zufällig gewählten Stelle, beispielsweise der k-ten, zerteilt wird und die ersten k Stellen des einen mit den letzten N −k Stellen des anderen zu einer neuen Folge vereinigt werden. Es gibt also keinen Unterschied 17 Derartige Algorithmen wurden wohl zuerst von Steinbuch und Rechenberg eingeführt und unter-

sucht.

2.6 Evolutionäre und genetische Algorithmen

63

zwischen männlichen und weiblichen Agenten, sondern alle sind Zwitter – wie natürlich auch viele biologische Organismen –, und die Genome sind sämtlich haploid statt diploid, und die Meiose ist somit deutlich vereinfacht. Daher entfällt auch der Unterschied zwischen dominanten und rezessiven Allelen. Ohnehin gibt es durch die gewählte 0-1-Kodierung an jedem Genort, d. h. an jeder Stelle der einen Agenten repräsentierenden endlichen Folge, höchstens zwei Allele in der Population. Wiederum wird in einem Selektionsschritt die Fitness jedes Agenten bewertet und ihm dann eine entsprechende Anzahl von Nachkommen (durch Rekombination mit anderen Agenten) zugeteilt. Damit sich hierdurch nicht die Diversität immer weiter verringert und am Ende alle Agenten gleich sind, lässt man auch weiterhin Mutationen mit einer gewissen Rate zu. Zur formalen Analyse genetischer Algorithmen ist es nun hilfreich, jeden Agenten, d. h. jede in der Population vorkommende Strategie, nicht mehr als Binärfolge, wie für das Rekombinationsverfahren erforderlich, sondern auch als Element des N -dimensionalen Vektorraumes V über {0, 1} aufzufassen. Ein affin linearer Unterraum S von V heißt dann Schema. Als Binärfolge stellt sich dann ein Schema dadurch dar, dass an bestimmten Stellen eine 0 oder 1 festgelegt ist, während andere Stellen, die die Freiheitsgrade in diesem Unterraum repräsentieren, nicht festgelegt sind und durch Sterne symbolisiert werden, also beispielsweise als 0   10  11... (2.6.1) Wir bezeichnen die Kodimension eines Schemas S mit c(S); c(S) gibt also die Anzahl der durch das Schema festgelegten Stellen an. Schließlich bezeichnen wir noch den Abstand zwischen der ersten und der letzten festgelegten Stelle eines Schemas S mit d(S). Das in (2.6.1) angegebene Schema hat also c(S) = 5, d(S) = 7. Bestimmte Schemata können dann – je nach Gestalt der zu maximierenden Funktion – einen hohen Beitrag zur Fitness liefern. Wenn sich die Beiträge von Teilschemata zur Fitness addieren oder irgendwie gegenseitig verstärken, so kann durch Rekombination von Agenten, die jeweils schon einen Teil des gesuchten Schemas gefunden haben, ein glücklicher Nachkomme entstehen, der das vollständige Schema aufweist und daher eine hohe Fitness besitzt. Auf diese Weise kann sich dann ein solches Schema in der Population bilden und ausbreiten, läuft allerdings auch stets Gefahr, durch den Rekombinationsprozess wieder zerstört zu werden, insbesondere wenn ein konkurrierendes Schema, also ein Unterraum S  , der mit S nur einen sehr niederdimensionalen Schnitt besitzt, ebenfalls in der Population erfolgreich ist. An dieser Stelle ist vielleicht die Bemerkung hilfreich, dass die biologische Evolution das Problem anscheinend dadurch wenn nicht gelöst, so doch gemildert hat, dass Rekombinationen im Genom bevorzugt an bestimmten Brennpunkten stattfinden, die sich allerdings evolutionär schnell ändern können. Auch variieren Rekombinationsraten zwischen Individuen, sind aber zumindest teilweise auch erblich. Für einen Überblick sei auf Kauppi et al. (2004) verwiesen. Wir wollen nun genetische Algorithmen etwas genauer beschreiben und analysieren. In der einfachsten Variante sieht ein solcher Algorithmus folgendermaßen aus: Geben sei eine (nichttriviale) Fitnessfunktion F, die jeder Binärfolge der Länge N – i. F. auch Chromosom

64

2 Evolutionsbiologie

genannt – eine nichtnegative reelle Zahl, ihre Fitness, zuordnet. Man beginnt mit einer Population aus n meist zufällig gewählten Chromosomen, also Binärfolgen der Länge N ; der Einfachheit halber sei n gerade. Dann werden die folgenden Schritte zyklisch durchlaufen: (1) Man berechnet die Fitness F(x) für jedes Chromosom der Population, und dann auch die , wobei y alle in der Population vorhandenen Chromorelative Fitness f (x) = F(x) F(y) y

(2)

(3)

(4)

(5)

somen durchläuft. (Man beachte, dass f (x) also nicht nur vom Wert der Fitnessfunktion für das Chromosom x, sondern auch von der Zusammensetzung der Population abhängt. Wenn die anderen alle fitter werden, sinkt die eigene relative Fitness, auch wenn die absolute Fitness konstant bleibt.) Man wählt ein Paar x1 , x2 von Chromosomen aus der Population, wobei die Wahrscheinlichkeit eines Chromosoms x, gewählt zu werden, durch seine relative Fitness f (x) gegeben ist. (Allgemeiner kann man die Wahrscheinlichkeit durch irgendeine monoton wachsende Funktion der relativen Fitness bestimmen.) Mit einer Wahrscheinlichkeit pc (z. B. pc = 1) zerschneidet man die beiden Chromosomen an einer zufällig gewählten Position – allerdings beide an der gleichen -, z. B. nach der k-ten Stelle und fügt dann die ersten k Stellen von x1 mit den letzten N − k Stellen von x2 zu einem neuen Chromosom y1 zusammen, und entsprechend bildet man y2 aus den ersten k Stellen von x1 und den letzten N − k Stellen von x2 (Kreuztausch). Mit Wahrscheinlichkeit 1 − pc bleiben x1 und x2 unverändert erhalten, also formal y1 = x1 , y2 = x2 . An jeder Stelle von y1 und y2 wird (unabhängig voneinander) mit einer (typischerweise kleinen) Wahrscheinlichkeit pm eine Mutation durchgeführt, d. h. wenn an dieser Stelle eine 0 vorkommt, diese durch eine 1 ersetzt und umgekehrt. Nachdem man auf diese Weise n neue Chromosomen erzeugt hat, also die Schritte (2)–(4) n/2 Mal durchgeführt hat, wird die ursprüngliche Population durch die neu geschaffene ersetzt, und man kehrt zu Schritt (1) zurück. Ein solcher Zykel wird Generation genannt.

Wir wollen nun untersuchen, wie sich bei diesem Prozess die Häufigkeit m(S, t) eines Schemas S ändert; t steht hierbei für  die Generationenfolge. Die mittlere Fitness von S x∈S F(x) , wobei x die Population der Generation t in der Generation t ist F(S, t) = m(S,t) durchläuft. Die erwartete Nachkommenzahl eines Chromosoms x aus der Generation t ist n f (x). Würden nun keine Kreuztausche und Mutationen auftreten, wären also pc und pm beide 0, so wäre der Erwartungswert für die Häufigkeit von S in der nächsten Generation E(m(S, t + 1)) =

 x∈S

n f (x) =

F(S, t) m(S, t), ¯ F(t)

(2.6.2)

 ¯ wobei F(t) = n1 x F(x) die mittlere Fitness der Population der Generation t ist (summiert wird stets über die Mitglieder der Generation t).

2.6 Evolutionäre und genetische Algorithmen

65

Wir wollen nun die Effekte von Kreuztausch und Mutation abschätzen. Ist x ∈ S, und wird x mit Wahrscheinlichkeit pc einem Kreuztausch unterworfen, so ist die Wahrscheinlichkeit Pc (S), dass mindestens einer der beiden Nachkommen von x ebenfalls in S liegt, Pc (S) ≥ 1 − pc

d(S) , N −1

(2.6.3)

weil von den N − 1 Möglichkeiten, x zu zerschneiden, nur d(S) auch das Schema S durchteilen. Schließlich bleibt bei einer Mutationsrate pm das Schema S mit Wahrscheinlichkeit (1 − pm )c(S) unverändert, da eine Mutation jede der c(S) Stellen von S mit Wahrscheinlichkeit pm treffen kann. Aus den vorstehenden Abschätzungen folgt der Schemensatz von J.Holland: Die erwartete Häufigkeit des Schemas S in der Generation t+1 besitzt die untere Schranke E(m(S, t + 1)) ≥

d(S) F(S, t) m(S, t)(1 − pc )(1 − pm )c(S) . ¯ N −1 F(t)

(2.6.4)

Dieser Satz besagt anschaulich, dass sich kleine (d. h. solche mit wenigen festgelegten Stellen, also mit kleiner Kodimension c(S)) und kompakte (d. h. mit kleinem d(S)) Schemen von überdurchschnittlicher Fitness exponentiell ausbreiten. Der vorstehende Satz liefert nur eine untere Schranke, und durch Kreuztausch können sich auch gerade aus kleineren erfolgreichen Schemata neue, größere, noch erfolgreichere bilden18 ; zumindest ist dies der Inhalt der noch unbewiesenen Bausteinhypothese. Untersucht werden kann so etwas z. B. sehr gut bei einer sog. Königswegsfunktion, also  F(x) = ci δi (x), mit δi (x) = 1 f¨ur x ∈ Si und = 0 sonst (2.6.5) i

mit positiven Koeffizienten ci . Hierbei sind die Si Schemata, die in dem Sinne disjunkt sind, dass keine zwei von ihnen die gleiche Stelle eines Chromosoms festlegen, z. B. S1 = 111    ..., S2 =    111   ..., S3 =       111   ... usw. Man könnte erwarten, dass genetische Algorithmen bei derartigen Fitnessfunktionen lokalen Algorithmen überlegen sind, weil sie die verschiedenen Schemata Si in verschiedenen Unterpopulationen herausfinden und dann durch Kreuztausch kombinieren können. Es hat sich allerdings herausgestellt, dass für solche Fitnessfunktionen lokale Optimierer, die von einem einzelnen Chromosom ausgehen und in jedem Schritt zufällig eine Stelle mutieren und untersuchen, ob nach dieser Mutation die Fitness mindestens so hoch wie vorher ist, und andernfalls die Mutation wieder rückgängig machen, schneller die höchstmögliche 18 Dies lässt sich auch in einem quantitativen, den Schemensatz erweiternden Modell erfassen, siehe

Stephens und Waelbroek (1998), Schindler (2002); eine Konsequenz dieser Analyse ist, dass man beispielsweise den optimalen Wert der Mutationsrate in Abhängigkeit von der Fitnessfunktion bestimmen kann.

66

2 Evolutionsbiologie

Fitness erreichen (vgl. die Referenzen in Mitchell 1996). Nichtsdestotrotz sollte i. A. die nichtlokale Operation des Kreuztausches eine effizientere Exploration des typischerweise hochdimensionalen Suchraumes ermöglichen als die lokalen Mutationen alleine und insbesondere besser den Einzugsbereichen von Nebenmaxima entkommen. Die Mutationen erfüllen dann bei einem genetischen Algorithmus nur noch die sekundäre Rolle, die Diversität der Population aufrechtzuerhalten, damit sich nicht nach einigen Generationen alle Mitglieder in der gleichen kleinen Ecke des Suchraumes versammeln. Ein Problem für die praktische Effizienz der genetischen Algorithmen stellen die sog. Trittbrettfahrer dar. Das Problem besteht darin, dass sich an einer Stelle direkt neben einem Schema hoher Fitness ein Wert festsetzen kann, z. B. 0, der an dieser Stelle nicht zur Fitness beiträgt oder sogar schädlich ist, aber nur mit geringer Wahrscheinlichkeit durch Kreuztausch von diesem Schema getrennt wird, weil die Wahrscheinlichkeit hierfür nur pc /(N − 1), also bei großem N sehr gering ist. Es gibt auch etwas, was in gewissem Sinne der epistatischen Wechselwirkung von Genen ähnelt. Es kann z. B. die Fitnessfunktion derart sein, dass ein bestimmtes Schema einen hohen Beitrag zur Fitness eines Chromosoms liefert, außer wenn anderswo ein bestimmtes anderes Schema auftritt, in welchem Falle die Fitness sehr gering sein möge. Auch kann ein genetischer Algorithmus wie andere Suchverfahren auch dadurch „getäuscht“ werden, dass ein bestimmtes, langes Schema die höchstmögliche Fitness hervorruft, dass aber dann, wenn fast alle, aber nicht alle Stellen richtig sind, die Fitness gerade besonders niedrig ist. In für mathematisch Denkende vielleicht hilfreicher, obwohl für unsere Darlegungen nicht unbedingt erforderlicher Terminologie bestimmt jeder Agent, also jedes Element x = (x1 , ..., x N ) des Vektorraumes V zwei Fahnen von Unterräumen, 1 (x) = (x1 x2 ...x N , x1 ...x N −1 , x1 ...x N −2  , ..., x1 ..., ...) 2 (x) = (..., ... x N , ...,   x3 ...x N ,  x2 ...x N , x1 x2 ...x N ),

(2.6.6)

und der Kreuztausch zwischen x und y bedeutet dann als algebraische Operation die Verbindung von 1 (x) mit 2 (y) und im symmetrischen Fall auch diejenige von 1 (y) mit 2 (x) zur Erzeugung neuer Elemente von V , aus denen dann ggf. eines oder mehrere zufällig ausgewählt werden. Da die Elemente x auch als die Eckpunkte des N -dimensionalen Einheitswürfels aufgefasst werden können, ist natürlich auch eine geometrische Interpretation möglich. Jedes Element x aus V besitzt eine Fitness F(x) und eine relative Fitness , die mit seiner Wahrscheinlichkeit p(x), ausgewählt zu werden, übereinf (x) = F(x) y F(y) stimmt. Die Wahrscheinlichkeit oder relative Fitness eines Schemas, also eines Unterraumes ξ von V , ist dann durch  p(x) (2.6.7) p(ξ ) = x∈ξ

2.6 Evolutionäre und genetische Algorithmen

67

gegeben. Umgekehrt bestimmt sich die Wahrscheinlichkeit dafür, dass x im aktuellen Schritt durch einen Kreuztausch erzeugt wird, zu  q(x) = p(ξ j ) p(η N − j ), j = 0,...,N , dim(ξ j ) = j,dim(η N − j ) = N − j, ξ j ∈ 1 (x),η N − j ∈ 2 (x)

(2.6.8) wobei ξ j und η N − j komplementär zueinander sind. Auf diese Weise lässt sich die Wahrscheinlichkeit für das Auftreten eines Elementes x in der nächsten Generation aus der Fitnessverteilung in der aktuellen Generation berechnen. Genetische Algorithmen sind durch die Biologie inspirierte Suchverfahren. Sie simplifizieren allerdings den zugrundeliegenden biologischen Mechanismus erheblich, wie wir oben schon bemerkt haben. Z. B. gibt es bei ihnen an jedem Genort genau zwei Allele, nämlich 0 und 1 (es wäre eigentlich nicht schwer, auch mehr zuzulassen, also mit einem größeren Alphabet zu arbeiten, aber theoretische Überlegungen legen den Schluss nahe, dass das Zweieralphabet das effizienteste ist), es gibt nur haploide Genome mit nur einem Chromosom, es gibt keinen Unterschied zwischen männlichen und weiblichen Genomen und keine Artbildung, da Mitglieder der Population wahllos gekreuzt werden, und es gibt natürlich auch keine direkten Wechselwirkungen zwischen den einzelnen Agenten außer dem Kreuztausch als Analogon der sexuellen Vermehrung, und die Fitnessfunktion ist starr. Inzwischen fehlt es nicht an Versuchen, einige der angesprochenen biologischen Details in genetische Algorithmen einzubauen. In den meisten Fällen sind die Ergebnisse noch unbefriedigend, oder die Sachlage ist unklar. Jedenfalls sollte man hoffen, dass derartige Versuche auch ein bisschen zum Verständnis der ursprünglichen biologischen Mechanismen beitragen können. Es kann aber nur davor gewarnt werden, zu glauben, dass durch die hier vorgestellten genetischen Algorithmen schon das Charakteristische der biologischen Evolution erfasst wird. Lebewesen, oder, in anderer Betrachtungsweise, Genome sind keine völlig flexiblen Gebilde, die durch geeignete Mutationen nach genügend vielen Generationen schließlich jede beliebige Struktur hervorbringen können. Wie insbesondere Gould (2002) eindringlich betont, ist ein Genom ein hochgradig intern strukturiertes Gebilde, und bestimmte Unterstrukturen sind evolutionär langfristig stabil, sogar über verschiedene Tierstämme hinweg. Hierdurch wird die Evolution kanalisiert und in gewisser Hinsicht eingeschränkt, da sie mit den einmal etablierten Strukturen auskommen, aber in anderer Hinsicht eröffnen diese stabilen Bausteine auch erst die Möglichkeiten für an vielfältige externe Bedingungen angepasste komplexe Strukturen. Hiervon ist in den genetischen Algorithmen allerdings nichts zu sehen. Weiterhin besteht der wesentliche Unterschied zwischen einem Genom und einem (mehrzelligen) Lebewesen darin, dass das ausgereifte Lebewesen das Ergebnis eines Entwicklungsprozesses ist, für den das Genom nur den dann im Wechselspiel mit der Umwelt sich verwirklichenden Bauplan liefert. Trotz einiger hoffnungsvoller Ansätze (z. B. Eggenberger 1996, 1997) wird dies von genetischen Algorithmen oder auch von Computersimulationsprogrammen zum „Künstlichen Leben“ nicht erfasst. Vielzeller entwickeln sich aus nur zwei miteinander verschmolzenen Keimzellen, und auf diese Weise können einzelne

68

2 Evolutionsbiologie

Mutationen sich gleichzeitig in allen Zellen eines Lebewesens auswirken, anstatt dass die verschiedenen Funktionstypen von Zellen in aufeinander abgestimmter Weise individuell mutieren müssten.

2.7

Populationsgenetik und statistische Gesetzmäßigkeiten

Nachdem wir in Abschn. 2.6 einen einfachen formalen Algorithmus mit haploiden Genomen analysiert haben, wollen wir nun zur biologischen Situation der diploiden Genome zurückkehren. Zwar wird der Mechanismus der Vererbung mittels diploider Genome erst im Abschn. 3.2 erläutert, aber sowohl konzeptionell als auch historisch passt der vorliegende Abschnitt wesentlich besser in das Kapitel zur Evolutionsbiologie als in dasjenige zur Molekular- und Zellbiologie. Dies führt uns in den Bereich der mathematischen Populationsgenetik. Die Grundlagen dieser Theorie wurden schon in den 1930er Jahren entwickelt, und sie gilt als eines der erfolgreichsten Beispiele einer mathematischen Modellierung biologischer Prozesse. Eine klassische Referenz ist Ewens (2004). Wir beginnen zunächst mit den Wirkungen von Selektion und Mutation. Dies wird uns auf Replikatorgleichungen führen; diese Theorie ist in Hofbauer und Sigmund (1998) entwickelt, und diese Referenz werden wir auch zunächst verwenden. Dann führen wir den für die mathematische Populationsgenetik dominanten Effekt ein, die genetische Drift, und wir werden dann für eine mathematische Behandlung der Populationsgenetik Hofrichter et al. (2017) heranziehen und für die geometrischen Grundlagen Ay et al. (2017) benutzen. In einem diploiden Schema treten Gene paarweise auf, in der Form (Ai , A j ), wobei der Majuskel A den Genort und der Index i, j das Allel bezeichnet. (Eine Ausnahme bilden die Keimzellen (Gameten), die haploid sind, wie in Abschn. 3.2 erläutert.) Wir weisen darauf hin, dass jetzt die betrachtete Grundeinheit, deren Verteilung in der Population zu ermitteln ist, nicht mehr das einzelne Gen ist, sondern der Genotyp, hier zunächst auf ein einzelnes Allelpaar reduziert. Gemäß der biologischen Konvention – Genderforscherinnen aufgemerkt! – ist das erste Allel in einem solchen Paar das vom Vater und das zweite das von der Mutter ererbte. Wir nehmen i. F. stets an – auch wenn es hierzu in der Biologie gewisse Ausnahmen gibt –, dass die Wirkung und damit die Fitness eines solchen Paares (Ai , A j ) nicht von der Reihenfolge der Allele abhängt. Daher betrachten wir auch gelegentlich das ungeordnete Paar Ai A j . Wir bezeichnen nun mit pi die relative Häufigkeit des Allels Ai und mit pi, j diejenige des Paares (Ai , A j ). Dann gilt also pi =

1  i, j 1  j,i p + p . 2 2 j

j

(2.7.1)

2.7 Populationsgenetik und statistische Gesetzmäßigkeiten

69

Wir betrachten zunächst diskrete Dynamiken, bei denen ein Zeitschritt einer Generation entspricht. Wenn sich Keimzellen zufällig paaren, so gilt für die Häufigkeiten in der nächsten Generation (2.7.2) ( pi, j ) = pi p j und hieraus dann

( p i ) = p i ;

(2.7.3)

dies ist das Hardy-Weinberg-Gesetz19 , dass sich nämlich bei zufälliger Paarung (in unendlich großen Populationen, also bei einer gewissen mathematischen Idealisierung) die Genhäufigkeiten nicht ändern. Außerdem haben die Homozygoten Ai Ai die relative Häufigkeit ( pi )2 und die Heterozygoten Ai A j (i  = j) diejenige 2 pi p j . Bisher haben wir noch keine Fitnessunterschiede zwischen den einzelnen Allelen betrachtet; das soll nun geschehen. Das Paar (Ai , A j ) habe also den Fitnesskoeffizienten wi, j , der die Wahrscheinlichkeit dafür angibt, dass ein Träger bis zum reproduktionsfähigen Alter überlebt. Wie schon erwähnt, nehmen wir die Symmetrie wi, j = w j,i an. In dieser Situation verändert sich (2.7.2) zu 1 (2.7.4) ( pi, j ) = wi, j pi p j , w¯ wobei  wk,l p k pl (2.7.5) w¯ = k,l

die mittlere Fitness der Population ist. Es lässt sich dann eine Version des alten Fisherschen Gesetzes zeigen, dass nämlich diese mittlere Fitness von Generation zu Generation wächst, außer natürlich in den Fixpunkten der Dynamik. Sofern nicht einer der Heterozygoten eine höhere Fitness als alle Homozygoten besitzt – was durchaus in vielen Fällen vorkommt -, so werden sich schließlich die Homozygoten mit der höchsten Fitness in der Population durchsetzen, und die anderen Allele werden verschwinden. Wir betrachten nun zwei Genorte A und B und nehmen an, dass bei der Meiose mit Wahrscheinlichkeit r eine Rekombination, ein Kreuztausch zwischen den beiden Orten stattfindet, dass also z. B. ein Heterozygot (Ai , A j )(B k , B  ) Keimzellen vom Typ Ai , B  oder A j , B k produziert. Dann ergibt sich für die Wahrscheinlichkeiten in der nächsten Generation ( pik ) =

  1 wik,m p m + r win,mk pin p mk }, {(1 − r ) pik w¯ m,n

(2.7.6)

m,

wobei die mittlere Fitness jetzt w¯ =



wk,sn p k p sn

k,,s,n

19 Hardy ist tatsächlich der bekannte Zahlentheoretiker.

(2.7.7)

70

2 Evolutionsbiologie

ist. Da die Fitness nicht von der Herkunft der Allele abhängen soll, gilt jetzt beispielsweise wim,k = wkm,i

(2.7.8)

für alle Indices. Wir schreiben nun (2.7.6) als ( pik ) =

1 ik  wik,m p m − r Dik } {p w¯

(2.7.9)

m,

mit den sog. Kopplungsungleichgewichtsfunktionen  (wik,m pik p m − wi,mk pi p mk ). Dik =

(2.7.10)

m,

Wir nehmen nun an, dass es an jedem der beiden Genorte nur zwei Allele gibt, also A1 , A2 bzw. B 1 , B 2 . Dann wird mit μ := w11,22 = w12,21 = w21,12 = w22,11 (nach (2.7.8)) D11 = D22 = −D12 = −D21 = μD := μ( p 11 p 22 − p 12 p 21 ).

(2.7.11)

Weil nun die relative Häufigkeit pi des Allels Ai pi1 + pi2 und diejenige für B k q k = p 1k + p 2k ist, so ist D = ( p 11 − p 1 q 1 ) = ( p 22 − p 2 q 2 ) = −( p 12 − p 1 q 2 ) = −( p 21 − p 2 q 1 ).

(2.7.12)

D = 0 entspricht also dem Kopplungsgleichgewicht, wo die Wahrscheinlichkeit für das Auftreten einer Allelkombination genau gleich dem Produkt der individuellen Wahrscheinlichkeiten ist. Die Mannigfaltigkeit {D = 0}, also die Mannigfaltigkeit der Exponentialfamilie von als Produkt faktorisierenden Wahrscheinlichkeiten, im Simplex  3 heißt hier Wright-Mannigfaltigkeit. Falls alle Fitnesskoeffizienten wik,k gleich sind, falls also keine Selektion wirkt, so wird nach (2.7.9)–(2.7.12) ( pik ) = pik − r D f¨ur (ik) = (11) oder (22), ( pik ) = pik + r D f¨ur (ik) = (12) oder (21). Bei Abwesenheit von Selektion ist also die Wright-Mannigfaltigkeit invariant, und die Rekombinationsdynamik konvergiert zum Kopplungsgleichgewicht zwischen den verschiedenen Genorten. Wirkt dagegen die Selektion durch unterschiedliche Fitnesskoeffizienten, so gilt dies i. A. nicht mehr. Wir hatten nun gerade schon geometrische Begriffe benannt, und bevor wir weitere solche Konzepte verwenden, ist es sinnvoll, die geometrischen Grundlagen etwas systematischer zu entwickeln. Relative Häufigkeiten pi sind formal nichts anderes als Wahrscheinlichkeiten,  i p = 1, und wir hatten diese beiden Begriffe in diesem Abschnitt auch da pi ≥ 0 und nicht systematisch unterschieden. Was wir hier brauchen, ist die Geometrie von Räumen von Wahrscheinlichkeitsverteilungen, oder wenn man so will, von relativen Häufigkeiten.

2.7 Populationsgenetik und statistische Gesetzmäßigkeiten

71

Dies ist das Gebiet der Informationsgeometrie (s. z. B. Amari (2016), Ay et al. (2017) für systematische Darstellungen), in welches wir nun kurz einführen wollen. Wir betrachten einen endlichen Raum I = {1, . . . , n}, n ∈ N = {1, 2, . . . } von Elementen, die mit bestimmten Wahrscheinlichkeiten (oder, formal äquivalent, relativen Häufigkeiten) auftreten können. Klassischerweise ist ein Wahrscheinlichkeitsmaß auf I ein Tupel  ( p 1 , . . . , p n ) nichtnegativer Zahlen mit j p j = 1. Alternativ können wir es als ein bis auf einen Skalierungsfaktor bestimmtes Maß ansehen. Wenn wir also ein nichtnegatives Maß i auf I mit den Werten m i haben, so betrachten wir nur die Quotienten mm j (falls m j > 0; wir nehmen an, dass das Maß nicht trivial ist, also nicht sämtliche m j verschwinden). Der Raum aller nichtnegativen Maße auf I kann mit dem positiven Orthanten Rn+ des Rn identifiziert werden. Vom ersten Standpunkt aus würden wir den Raum der Wahrscheinlichkeitsmaße mit dem Simplex  x j = 1} (2.7.13)  n−1 = {(x 1 , . . . , x n ) : x i ≥ 0, j

identifizieren, bei der zweiten dagegen mit dem positiven Teil des projektiven Raumes Pn−1 , n−1 = {(y 1 , . . . , y n ) : also mit dem positiven Orthanten der Einheitssphäre S n−1 in Rn , S+  n−1 i j 2 n−1 und S+ , homömorph, y ≥ 0, j (y ) = 1}. Natürlich sind diese beiden Räume,  via n−1 S+ →  n−1

y i  → (y i )2 ,

oder umgekehrt

n−1  n−1 → S+  x i → x i

f¨ur i = 1, . . . , n,

(2.7.14)

n−1 aber ihre natürlichen geometrischen Strukturen sind verschieden. Die Sphäre S+ trägt nun insbesondere die durch die euklidische Metrik des Rn induzierte Metrik. Dadurch gewinnen wir eine Metrik auf dem Raum der Wahrscheinlichkeitsmaße auf I . Diese Metrik heißt in der Statistik Fisher-Metrik. Sie wurde von dem Statistiker Rao eingeführt (Rao 1945), im Kontext der von Ronald Fisher entwickelten parametrischen Statistik, und sie spielt in der Statistik eine wichtige Rolle, weil sie misst, wie sensitiv Wahrscheinlichkeitsverteilungen von ihren Parametern abhängen. Um später die richtige Normalisierung zu bekommen, wollen wir allerdings diese euklidische Metrik noch mit dem Faktor 4 multiplizieren; der metrische Tensor ist also in euklidischen Koordinaten einfach  4 f¨ur k =  h k = 4δk = (2.7.15) 0 sonst

für k,  = 1, . . . , n. Dass unsere Sphäre (n − 1)-dimensionsal ist, also nur n − 1 und nicht n unabhängige Koordinaten hat, werden wir gleich noch berücksichtigen. Nach der Transformationsformel für Riemannsche Metriken (vgl. z. B. Jost 2017a)

72

2 Evolutionsbiologie

gi j (x) =



h k

k,

∂ yk ∂ y ∂xi ∂x j

(2.7.16)

bekommen wir hieraus über (2.7.14) den metrischen Tensor γi j =

δi j xi

(2.7.17)

auf dem Simplex  n−1 . Unser Simplex und unserer sphärischer Sektor sind (n − 1)dimensional, aber wir benutzen in (2.7.17) n Koordinaten, und zwar auf dem Simplex x 1 , . . . , x n . Wir können aber eine Koordinate als Funktion der anderen darstellen, z. B. x =1− n

n−1 

x j.

(2.7.18)

j=1

Wenn wir also nur noch die Koordinaten x 1 , . . . x n−1 und (2.7.18) benutzen und wieder die Transformationsregel (2.7.15) anwenden, mit γk statt h k auf der rechten Seite, so wird der metrische Tensor zu δi j 1 (2.7.19) gi j = i + n f¨ur i, j = 1, . . . , n − 1, x x und der inverse metrische Tensor ist g i j = x i (δi j − x j );

(2.7.20)

dieser wird uns gleich noch begegnen. (Für die einfachen Rechnungen verweisen wir auf Hofrichter et al. (2017).) Die Metrik (2.7.17) besitzt ein Potential, d. h., sie lässt sich als die Matrix der zweiten Ableitungen einer Funktion darstellen. Im vorliegenden Fall ist die Potentialfunktion die negative Entropie, denn es gilt γi j =

δi j ∂2  k = x log x k . xi ∂xi ∂x j

(2.7.21)

k

In der mathematischen Biologie heißt die Metrik (2.7.19) Shahshahani-Metrik, aber wie wir gerade dargelegt haben, ist dies nichts anderes als die Fisher-Metrik, also letztendlich die euklidische Metrik auf der Sphäre, also eine Riemannsche Metrik konstanter Krümmung, in den durch (2.7.14) gegebenen Simplexkoordinaten. Diese Metrik wird anscheinend auf dem Rande des Simplex, wo also ein oder mehrere x i = 0 sind, singulär, aber das liegt nur daran, dass die Abb. (2.7.14) dort kein Diffeomorphismus mehr ist. Die euklidische Metrik auf der Sphäre ist natürlich überall regulär. Mit diesen geometrischen Konzepten wollen wir nun wieder zur Populationsgenetik zurückkehren und statt diskreter kontinuierliche Dynamiken betrachten. Um die Notation aus Abschn. 2.2 übernehmen zu können schreiben wir jetzt für die relativen Häufigkeiten

2.7 Populationsgenetik und statistische Gesetzmäßigkeiten

73

der Allele aber x i statt pi . Wenn das Paar (Ai , A j ) wie vorher den Fitnesskoeffizienten wi, j besitzt, den wir jetzt als Differenz von Geburts- und Sterberate für Träger dieser Genkombination auffassen können, so erhalten wir die Replikatorgleichung   x˙ i = x i ( wi, j x j − wk,l x k x l ); (2.7.22) j

k,l

 der letzte Term ergibt sich wie üblich durch die Normalisierung i x i = 1. Es stellt sich heraus, dass die durch (2.7.22) definierte Dynamik auf dem Simplex  n−1 (n = Anzahl der Allele) eine Gradientendynamik bezüglich der Metrik (2.7.19) ist. Im vorliegenden Fall handelt es sich um den Gradienten der Funktion V =

1 wk,l x k x l ; 2

(2.7.23)

es gilt nämlich  1   ∂V xi ( wi, j x j − 2V )ξ i = ξ i = gradx V (ξ ) i x ∂xi n für einen Tangentialvektor an den Simplex, also ein ξ mit i=1 ξ i = 0. (Allgemeiner ist eine Replikatorgleichung der Form x, ˙ ξ x =

x˙ i = x i ( f i (x) − f¯(x))

(2.7.24)

 i mit f¯(x) = x f i (x) genau dann eine Gradientendynamik bzgl. dieser Metrik, wenn es Funktionen V und G mit ∂V (2.7.25) f i (x) = i + G(x) ∂x gibt, oder, hierzu äquivalent, wenn ∂ fj ∂ fj ∂ fk ∂ fi ∂ fk ∂ fi + k + i = k + + i ∂x j ∂x ∂x ∂x ∂x j ∂x

(2.7.26)

für alle Indices i, j, k im Innern von  n−1 gilt. Wir kehren zu unserer Replikatorgleichung (2.7.22) zurück und fügen nun noch Mutationsterme hinzu; das Allel A j mutiere pro Zeiteinheit mit der Wahrscheinlichkeit πi, j zu Ai . Dann bekommt unsere Replikatorgleichung einen zusätzlichen Term: x˙ i = x i (

 j

wi, j x j −

 k,l

wk,l x k x l ) +

n  (πi, j x j − π j,i x i ) =: bi (x).

(2.7.27)

j=1

Diese Gleichung bleibt nach dem Kriterium (2.7.26) nur dann ein Gradient bzgl. der Metrik (2.7.19), wenn πi, j = πi f¨ur i  = j (2.7.28)

74

2 Evolutionsbiologie

ist, also die Mutationsrate nur vom Ergebnis, aber nicht vom Ausgangspunkt der Mutation abhängt, eine biologisch wohl nicht besonders plausible Annahme, die allerdings von einem der Begründer mathematischen Populationsgenetik, Sewall Wright, eingeführt worden ist (Wright 1949). Falls diese Bedingung nicht erfüllt ist, so lassen sich stets derartige symmetrische Selektionskoeffizienten wi, j finden, dass die durch (2.7.27) definierte Dynamik periodische Bahnen besitzt. Wie im diskreten Fall läßt sich auch wieder Rekombination betrachten, und wie dort konvergiert bei Abwesenheit von Selektion die Dynamik wieder zu der Wright-Mannigfaltigkeit, unter Erhalt der individuellen relativen Allelhäufigkeiten. Bevor wir nun zu dem wichtigsten Effekt und der mathematisch reichhaltigsten Situation kommen, ist eine Vorbemerkung nützlich. Wenn wir ein System von Differentialgleichungen der Form d x i (t) (2.7.29) = F i (t, x 1 (t), . . . , x n (t)), f¨ur i = 1, . . . , n, dt also beispielsweise (2.7.27) haben, so können wir auch die Dichte u(x, t) betrachten, die angibt, wie sich eine Verteilung von Anfangsbedingungen in der Zeit entwickelt, wenn jede einzelne Trajektorie (2.7.29) erfüllt. Dabei soll eine Dichte nichtnegativ sein und die Normalisierung u(x, t)d x = 1 für alle t ≥ 0 erfüllen. Es handelt sich also mathematisch um eine Wahrscheinlichkeitsverteilung, allerdings nicht mehr wie unsere obigen pi um Wahrscheinlichkeiten oder relative Häufigkeiten für die einzelnen Werte i, also in unserer obigen geometrischen Betrachtungsweise um Elemente aus dem Einheitssimplex, sondern um eine Verteilung auf diesem Simplex. x ist hier ein Element des Simplex. Nun gut, unter der Dynamik (2.7.29) erfüllt die Dichte u dann die Kontinuitätsgleichung  ∂ ∂ (−F i (t, x)u(x, t)) = −div(u F). u(x, t) = ∂t ∂xi n

(2.7.30)

i=1

Für eine Herleitung der Kontinuitätsgleichung, die man sich vielleicht am besten in der Form u t + div(xu) ˙ =0

(2.7.31)

merkt, verweisen wir beispielsweise auf Jost (2013). Nun kommen wir zum wichtigsten Effekt in der mathematischen Populationsgenetik, der zufälligen genetischen Drift. Dies führt uns zu dem grundlegenden Wright-Fisher-Modell, welches zuerst implizit von dem uns schon bei der Fisher-Metrik begegneten Ronald Fisher (1930) und dann explizit von dem auch schon mehrmals erwähnten Sewall Wright (1931) eingeführt worden ist und zu dem wesentliche mathematische Einsichten Motoo Kimura zu verdanken sind, s. Crow und Kimura (1970). Wir stellen nun dieses Modell in der mathematischen Perspektive von Hofrichter et al. (2017) vor, wobei wir auch die Darstellungen in Tran et al. (2013, 2015) heranziehen werden. Im Grundmodell betrachtet man eine Population von N diploiden Individuen mit einem genetischen Locus, an dem sich ein Paar von Allelen befindet. Die möglichen Alleltypen

2.7 Populationsgenetik und statistische Gesetzmäßigkeiten

75

seien mit A1 , . . . , An bezeichnet. Ein Generationsschritt besteht darin, dass für jedes der N Individuen der neuen Generation zufällig zwei Individuen der vorherigen Generation ausgewählt werden, seine Eltern, von denen es jeweils ein Allel empfängt. Diese Auswahlen erfolgen unabhängig, so dass jedes Individuum der Elterngeneration also an beliebig vielen Individuen der Nachfolgegeneration beteiligt sein kann. Und da auch die Auswahl der Allele unabhängig und zufällig erfolgt und da es in dem Modell nur auf die Dynamik der Allelverteilung, nicht aber auf die Individuen ankommt, bestünde ein mathematisch äquivalentes Modell darin, statt mit einer diploiden Population aus N Individuen einfach mit 2N haploiden Individuen zu arbeiten. Dann hätte jedes Individuum der Nachfolgegeneration nur ein zufällig ausgewähltes Elternindividuum der Vorgängergeneration, von dem es sein Allel empfängt. Statt die Individuen der nächsten Generation alle gleichzeitig zu bilden, könnten wir auch einfach jeweils zufällig ein Individuum herausgreifen und es durch ein beliebiges anderes zu ersetzen. Dies führt auf das Moranmodell, aber da die Asymptotik, die uns gleich interessieren wird, die gleiche ist, bleiben wir der Einfachheit halber bei dem Wright-Fisher-Modell. Allerdings ist das Moranmodell auch in der statistischen Physik als Variante des Wählermodells (voter model) bekannt, bei dem nicht Allele, sondern politische Meinungen ersetzt werden, s. z. B. Slanina (2014). Dieser Ersetzungsprozess wird dann über viele Generationen iteriert. Auch wenn anfangs alle Allele A1 , . . . , An in der Population vertreten waren, kann es passieren, dass in einer Generation eines oder mehrere von ihnen zufällig für kein Individuum ausgewählt werden. Solche Allele sind dann für die Population verloren, und der Prozess geht mit den verbliebenen Allelen weiter. Asymptotisch wird fast sicher nur ein Allel übrigbleiben. Es ist klar, dass für jedes einzelne Allel die Wahrscheinlichkeit, sich in der Population durchzusetzen, proportional zu seiner Häufigkeit in der Anfangspopulation ist, aber es lässt sich dann z. B. nach der erwarteten Anzahl von Generationen fragen, bis alle anderen ausgestorben sind. Das Modell ist nun einfach genug, um explizite Formeln für diese und andere Größen bereit zu stellen. Da die Gesamtanzahl 2N der Allele fest ist, reicht es, die Häufigkeiten der Allele A1 , . . . , An−1 zu betrachten. Wir führen also einen Index m für die Generation ein und betrachten die Anzahlen Ym = (Ym1 , . . . , Ymn−1 ) der Allele A1 , . . . , An−1 in der Generation m. Es sei Y0 = η0 = (η01 , . . . , η0n−1 ). Die Übergangswahrscheinlichkeiten bei unserem Auswahlprozess bestimmen sich dann durch die Multinomialformel P(Ym+1

n  i  yi

η (2N )! = y|Ym = η) = 1 , (y )!(y 1 )! . . . (y n )! 2N i=1

mit η, y ∈

n−1 S(2N )

n−1  1 n−1 i i = η = (η , . . . , η ) : η ∈ {0, 1, . . . , 2N }, η ≤ 2N i=1

und ηn = 2N − η1 − . . . − ηn−1 ;

y n = 2N − y 1 − . . . − y n−1 .

(2.7.32)

76

2 Evolutionsbiologie

Da wir jeweils 2N mal unabhängig aus der gleichen Verteilung p ziehen, sind die Erwari tungswerte der Zufallsvariablen Y2N i E(Y2N ) = 2N pi ,

(2.7.33)

und die (Ko)varianzen sind j

i i Var(Y2N ) = 2N pi (1 − pi ), Cov(Y2N Y2N ) = −2N pi p j for i  = j,

(2.7.34)

während die höheren Momente von der Ordnung o(2N ) sind. In (2.7.34) erkennen wir die inverse Fishermetrik wieder. Die Formel (2.7.32) lässt sich dann iterieren, um aus der Anfangsverteilung die Verteilungswahrscheinlichkeiten in späteren Generationen zu bestimmen. Nun kommt der entscheidende mathematische Schritt. Man lässt die Populationsgröße N → ∞ streben und reskaliert gleichzeitig die Zeit für den Generationenabstand, und zwar gemäß m Y2N t 1 t= , also δt = , und X t := . (2.7.35) 2N 2N 2N Im Limes erfüllt dann die Wahrscheinlichkeitsverteilung u( p, s, x, t) :=

∂n P(X (t) ≤ x|X (s) = p) mit s < t ∂x1 . . . ∂xn

die vorwärtige Kolmogorov- oder Fokker-Planck-Gleichung n−1  ∂ ∂2 i 1  j x (δ − x )u( p, s, x, t) =: Lu, u( p, s, x, t) = i j ∂t 2 ∂xi ∂x j

(2.7.36)

i, j=1

und die rückwärtige Kolmogorovgleichung n−1 ∂2 1  i ∂ p (δi j − p j ) i j u( p, s, x, t) =: L ∗ u. − u( p, s, x, t) = ∂s 2 ∂p ∂p

(2.7.37)

i, j=1

Hierbei sind x und p beide Elemente des Wahrscheinlichkeitssimplexes  n−1 (2.7.13). Die beiden Operatoren L und L ∗ sind formal adjungiert. Die vorwärtige Kolmogorovgleichung beschreibt, wie sich eine gegebene Verteilung in der Zukunft entwickelt. Die rückwärtige Kolmogorovgleichung beschreibt die Verteilung der vergangenen Zustände, die zu einer gegebenen Verteilung geführt haben können. Wiederum bemerken wir, dass die Koeffizienten in diesen Gleichungen gerade durch die inverse Fishermetrik (2.7.20) gegeben sind. Dies ist kein Zufall, sondern rührt daher, dass die inverse Fishermetrik die Kovarianzmatrix (2.7.34) der Multinomialverteilung, also des unabhängigen Ziehens aus einer gegebenen Verteilung ist. Dieser Zusammenhang macht es möglich, das Wright-Fisher-Modell mit den Konzepten und Methoden der Informationsgeometrie zu studieren, wie in Hofrichter et al.

2.7 Populationsgenetik und statistische Gesetzmäßigkeiten

77

(2017) ausgeführt. Dies führt zu einer systematischen Herleitung von Formeln, wovon wir hier nur die folgende Kostprobe geben wollen. Bei einer gegebenen Verteilung p im Inneren des Simplex  n−1 ist die erwartete Zeit t( p), bis der Prozess in den Rand des Simplexes läuft, bis also in unserem Modell eines der Allele verschwindet, gegeben durch die Lösung von (2.7.38) L ∗ u(t( p)) = −1. Wenn wir nun die geometrischen Formeln (2.7.19), (2.7.20), (2.7.21) heranziehen und die  allgemeine Formel i, j=1,...,n−1 g i j gi j = n − 1 für einen metrischen Tensor und seinen Inversen in einem (n − 1)-dimensionalen Raum benutzen, so sehen wir, dass t( p) = −

2  k p log p k , n−1

(2.7.39)

k

also bis auf einen Faktor die Entropie der Anfangsverteilung p ist. Wenn wir neben der genetischen Drift auch noch andere Effekte wie Mutation und Selektion zulassen, so bekommen die Kolmogorovgleichungen zusätzliche Termine erster Ordnung. Aus (2.7.36) wird dann n−1  n−1  ∂ 1  ∂ ∂2 i j )u( p, s, x, t) − u( p, s, x, t) = x (δ − x (bi (x, t)u( p, s, x, t)), i j i j ∂t 2 ∂x ∂x ∂xi i, j=1

i=1

(2.7.40) und aus (2.7.37) wird



n−1 n−1  1  i ∂ ∂2 ∂ u( p, s, x, t) = p (δi j − p j ) i j u( p, s, x, t) + bi (x, t) i u( p, s, x, t). ∂s 2 ∂p ∂p ∂p i, j=1

i=1

(2.7.41) Hierbei können die Funktionen bi z. B. nach (2.7.27) bestimmt sein, wenn Mutationsund Selektionseffekte vorkommen. Die Funktionen bi können auch durchaus noch andere Effekte inkorporieren oder zeitabhängig sein. Der Zusatzterm in (2.7.40) ist genau von der in (2.7.29), (2.7.30) angegebenen Form. Die Effekte summieren sich also. Dabei führt die genetische Drift zu dem Hauptterm mit den Ableitungen zweiter Ordnung20 , während die anderen Effekte nur zu Termen mit Ableitungen erster Ordnung führen. Die Rekombination hatten wir in diesem Abschnitt schon besprochen. Auch sie kann im Wright-Fisher-Modell mit der genetischen Drift und den anderen Prozessen kombiniert werden, s. Hofrichter et al. (2017). 20 Mathematisch spricht man hier übrigens von einem Diffusionsterm, während man den Term

erster Ordnung als Driftterm bezeichnen würde, also genau umgekehrt wie in der biologischen Terminologie.

78

2.8

2 Evolutionsbiologie

Das komplexe Wirkgefüge verschiedener Faktoren

Wir wollen einmal ein Beispiel betrachten, bei dessen Behandlung die biologischen Ansätze irgendwie zu kurz greifen und für das ein systematischerer Zugang erforderlich zu sein scheint. Es handelt sich um die Evolution des Menschen. Wir wollen kurz die verschiedenen Fakten und Komponenten und die Verknüpfungen zwischen ihnen darlegen. Vor einigen Millionen Jahren fand sich plötzlich ein an das Leben im Urwald angepasster Primat durch eine geologische Veränderung, den ostafrikanischen Grabenbruch, in einer andersartigen Umwelt wieder, einer offeneren Savannenlandschaft mit großen Herden von Huftieren und gefährlichen Raubtieren (wo die alle plötzlich herkamen, ist eine andere Frage).21 Vielleicht haben sich diese Primaten aber auch aktiv immer weiter in einen Übergangsbereich zwischen Urwald und Savanne vorgewagt. Ausgestattet waren diese Primaten mit gewissen Präadaptionen, insbesondere der Fähigkeit zum Farben- und Tiefensehen (wichtig für die Abschätzung von Entfernungen beim Klettern und Springen), zum Greifen ausgebildeten Händen, einem auch im Säugervergleich großen und leistungsfähigen Gehirn und dem Leben in mittelgroßen Gruppen. Diese Präadaptionen, also Anpassungen an eigentlich gänzlich andere Lebensbedingungen und die Nebeneffekte dieser Anpassungen, waren für die nachfolgende Entwicklung wesentlich. Z. B. konnten sich die Vordergliedmaßen anstatt des Maules als Werkzeuge zum geschickten Manipulieren von Objekten herausbilden, und die vorgegebene Skelettstruktur konnte sich zum zweibeinigen Gang und ausdauernden Laufen statt zu einer unbeholfenen vierfüßigen Fortbewegung entwickeln. Man stellte sich diese Vorfahren jedenfalls ähnlich wie heutige Schimpansen vor, obwohl sich die Schimpansen seit der Aufspaltung der Stammlinien genauso wie die Homininen genetisch erheblich weiterentwickelt haben. Tatsächlich sind sogar die Schimpansen in vieler Hinsicht weiter von unserem gemeinsamen Vorfahren entfernt als wir. Und es gab anscheinend ein vielfältiges Geflecht verschiedener Homininenpopulationen, also von Geschöpfen, die Menschen ähnlicher als Schimpansen sind, mit unterschiedlichen Adaptationen des Skelettes an den aufrechten Gang, s. z. B. White et al. (2009), Haile-Selassis et al. (2012). Jedenfalls vollzog sich für die Homininen in dieser neuen Umwelt eine schnelle und tiefgreifende evolutionäre Veränderung durch das Wechselspiel verschiedener externer und interner Faktoren. Aus einer oder mehreren solcher Homininenpopulationen entwickelten sich dadurch erste Vertreter des Genus Homo, des Menschen. Diese Faktoren bedingten sich gegenseitig in einem komplexen Wirkgefüge, und auf dieses wollen wir unsere Aufmerksamkeit richten. Das Gehirnvolumen vergrößerte sich, wohl in mehreren evolutionären Schüben, bis das heutige Volumen erreicht war (oder sogar übertroffen, wie beim Neandertaler). Dies wurde ermöglicht durch einen Umbau des Schädels. Und zwar konnte das hinter der Stirn liegende Volumen vergrößert werden, weil sich Kiefer und Gebiss zurückbildeten. Nur so war diese Vorderhirnvergrößerung morphologisch möglich, denn sonst hätte eine Auswölbung der Stirn anschaulich gesprochen einen Knick im Nasenwurzel- oder Wangenbereich erfordert, 21 Die Korrelation zwischen geologischen und klimatischen Veränderungen und der Homininenevo-

lution ist vielleicht nicht so eng, wie hier suggeriert, vgl. z. B. McKee (2017).

2.8 Das komplexe Wirkgefüge verschiedener Faktoren

79

also eine strukturelle Instabilität des Schädels bedingt. Dieser Rückgang von Gebiss und Kiefer (welcher übrigens evolutionär noch nicht abgeschlossen ist, wie die Probleme mit Weisheitszähnen zeigen) wurde nun wiederum durch eine veränderte Ernährung ermöglicht, den Übergang von einer vegetarischen Ernährung durch Früchte, Nüsse, Wurzeln, Beeren u. ä. zu fleischlicher Kost. Diese fleischliche Nahrung war dann auch erforderlich zur Energieversorgung des größeren und damit energetisch anspruchsvolleren Gehirns. Umgekehrt erforderte die Beschaffung von Fleisch, sei es nun Aas oder aktiv erlegte Beute, wiederum eine neue Intelligenz und damit eine größere Hirnleistung. Diese Intelligenz betraf wohl sowohl Planung und Gruppenkoordination als vor allem auch das Herstellen von Werkzeugen und den Gebrauch von Waffen wie Keulen oder Wurfsteinen. Hierfür wiederum war eine erheblich präzisere Steuerung der Feinmotorik der Hände erforderlich. Die Bewegungsplanung und -steuerung vollzieht sich nun gerade im präfrontalen Kortex, also dem durch die Schädelveränderung vergrößerten Bereich. Die anatomische Veränderung der Kopfform und des Hirnvolumens war aber auch mit einer anderen wesentlichen Veränderung der Motorik verknüpft, dem Übergang zum aufrechten Gang. Genauer waren dies die Fähigkeiten zum Stehen (um beispielsweise in der Savanne umherzuschauen und Raub- und Beutetiere zu entdecken und vermutlich verknüpft mit einer Verbesserung des Fernsichtvermögens, oder um die Sonnenbestrahlung zu verringern), zum Gehen als energieeffizienter Fortbewegung, zum ausdauernden Laufen zur Verfolgung von Beutetieren und zum Rennen zur Flucht vor Räubern. Auf die effiziente Bewegung auf zwei Beinen waren die Vorfahren der Homininen wenig vorbereitet, aber es gab wegen der Anpassung der Hände und Füße an das Klettern und Greifen wohl keine anatomische Alternative. Wie jeder Roboterkonstrukteur weiß, ist die Steuerung der Bewegung auf zwei Beinen wegen der Gleichgewichtsproblematik erheblich schwieriger als diejenige bei vier- oder gar sechsbeinigen Geschöpfen. Sie erfordert also auch wieder eine erheblich höhere Leistung des motorischen Kortex, insbesondere auch die aktive rhythmische Koordination (und hierher mag auch das Gefühl für Rhythmus, also eine wesentliche Komponente der Musik, kommen, welches auch den Menschen vor den Tieren auszeichnet). Der wesentliche Punkt ist, dass die Steuerung der zweibeinigen Bewegung durch ganz andere und neuartige neuronale Verschaltungen im Gehirn ermöglicht wird. Außerdem führt die Veränderung der Wirbelsäule auch zu günstigen anatomischen Veränderungen der Schädelform. Und die Fähigkeit zum Laufen ermöglicht eine effiziente Nahrungsbeschaffung und macht die Hände für andere motorische Aufgaben frei. Allerdings bedingt der aufrechte Gang auch eine ungünstige anatomische Einschränkung an die Beckenform, welche die Größe des Geburtskanals und daher die Schädelgröße von Neugeborenen beschränkt. Dies macht Babys hilflos und bedingt eine lange Phase der postnatalen Entwicklung. In der Savannenlandschaft mit vielen gefährlichen Räubern war daher wohl die Säuglings- und Kleinkindzeit die bei weitem gefährlichste Zeit im Leben eines Individuums, und daher war hier wohl der Selektionsdruck besonders stark, und die Aufmerksamkeit muss deswegen insbesondere auch auf diese Phase gerichtet werden, wenn man die Evolution der Frühmenschen verstehen will. Es musste also ständig jemand auf ein Kleinkind aufpassen, und dies erforderte Intelligenz und eine geeignete Sozialstruktur. Da die Mutter sich auch

80

2 Evolutionsbiologie

selbst ernähren musste, brauchte sie dabei Unterstützung, sei es von der Gruppe im Allgemeinen, sei es von der Großmutter, sei es von dem Vater des Kindes, wobei wir nicht wissen, ob es bei den Frühmenschen Promiskuität innerhalb der Gruppe, Haremsbildung oder längerfristige Partnerschaften als Paarungsstruktur gab. Jedenfalls wurde vermutlich Sexualität, wie auch bei den Bonobos (Zwergschimpansen) zu beobachten, nicht nur zur Fortpflanzung, sondern auch als Mittel zur Sozial- und/oder Partnerbindung eingesetzt. Jedenfalls waren zur Koordination innerhalb der Gruppe auch verbesserte Kommunikationsformen erforderlich, also wohl Vorformen der heutigen Sprache. Möglicherweise waren diese ursprünglich nicht vokalisch, da bei den heutigen Primaten die Gestik die engsten funktionalen Analogien zur menschlichen Sprache aufweist (Call und Tomasello 2007). Da der weitgehende Verlust der Körperbehaarung (von dem man allerdings nicht weiß, wann er tatsächlich stattgefunden hat) auch das Gesicht freier gemacht hat, kann ein Übergang von der Gestik zur Mimik stattgefunden haben, und da Mimik auf natürliche Weise mit Mundgeräuschen verbunden werden kann, können diese Vokalisierungen dann eine Eigendynamik entwickelt haben, die schließlich die Mimik selbst überflüssig gemacht hat. Auch die kontrollierte Gestik, Mimik und Lautproduktion erfordern übrigens eine aufwändige neuronale Koordinationsleistung22 und können daher ebenfalls die Gehirnentwicklung vorangetrieben haben. Vor allem ist aber die Entwicklung einer effizienten Kommunikationsform nicht nur mit der Gehirnentwicklung eng verknüpft, sondern auch mit der Sozialstruktur. Überhaupt war wohl die Entwicklung der Sozialstruktur eine wesentliche Triebkraft für die Ausbildung der menschlichen Intelligenz. Bemerkenswerterweise zeichnet sich der Mensch vor anderen Primaten einerseits durch ein erheblich größeres Maß an Agressivität gegenüber Artgenossen (auch wenn es beispielsweise bei Schimpansen ebenfalls Fälle gibt, wo Rivalen getötet oder Mitglieder anderer Gruppen überfallen werden) und andererseits durch eine mit den gängigen Schemen evolutionären Denkens schwer erklärbare, aber äußerst hohe Hilfs- und Kooperationsbereitschaft aus (s. Kabalak et al. (2015) für einen neuen Ansatz, der auch zu neuen Einsichten (Schmelz et al. 2017) in die Grundlagen der Kooperation bei Schimpansen geführt hat). Gerade die Bereitschaft, anderen uneigennützig hilfreiche Informationen zu liefern, ist für die menschliche Kommunikation zentral. Auch die Fähigkeit, sich in andere hineinzuversetzen und deren Absichten zu erkennen (im Fachjargon „Theory of Mind“ genannt), ist bei anderen Primaten allenfalls sehr rudimentär, wenn überhaupt, vorhanden, wie auch die Bereitschaft oder Fähigkeit zur Identifikation mit kollektiven Zielen. (Zu diesem Themenkomplex sei insbesondere auf die Forschungen von Tomasello verwiesen, z. B. Tomasello (2008).) Umgekehrt war die Konkurrenz mit anderen Gruppenmitgliedern wohl auch ein wesentliches Motiv für die Entwicklung der Intelligenz. Auch Schimpansen können allerdings geschickt Artgenossen austricksen, und so war dies möglicherweise nicht der entscheidende Aspekt. Kommunikation ermöglicht auch die Übertragung von erworbenem Wissen innerhalb der Gruppe und ist hierbei wesentlich effizienter als reine Nachahmung. Jedenfalls erforderten 22 auch wenn Papageien vergleichbare Vokalisationsleistungen mit einem wesentlich kleineren Gehirn zustandebringen.

2.8 Das komplexe Wirkgefüge verschiedener Faktoren

81

die Lebensbedingungen der Frühmenschen sicherlich vielfältige Formen der wirkungsvollen Gruppenkoordination bei der Nahrungsbeschaffung und auch bei der Verteidigung vor Fressfeinden mit Keulen oder Steinen. Der hierbei erlernte effiziente Waffengebrauch (der, wie schon dargelegt, wesentlich neuartige motorische Koordinationsfertigkeiten erforderte, beispielsweise für das gezielte Werfen von Steinen) konnte sich dann aber auch gegen Artgenossen richten, und die neu erworbene Fähigkeit des Tötens über eine Distanz hinweg, wodurch es wesentlich weniger gefährlich für den oder die Handelnden selbst wurde und sich ein numerisches Übergewicht wesentlich wirkungsvoller ausspielen ließ, revolutionierte auch das Zusammenleben innerhalb und zwischen Gruppen, so wie in der Geschichte jede wichtige neue Entwicklung der Kriegs- und Waffentechnik dies tat. Überhaupt ist aber der Werkzeuggebrauch ein wesentliches Merkmal der menschlichen Evolution, auch wenn sich bekanntlich einfachere Formen bei anderen Primaten und übrigens auch bei Corviden (Krähenvögeln) finden. Dies erforderte und bedingte, wie dargelegt, anatomische, kognitive und soziale Veränderungen. Und noch einmal zu den kognitiven Veränderungen, auch wenn der Trend in der zeitgenössischen Fachliteratur eher dahin geht, die Bedeutung von Sozialstruktur oder Bewegungssteuerung herauszustellen. In der Kognition wurden u. a. die vorbewussten Fähigkeiten zum Umgang mit räumlichen Gebilden durch den planvollen Entwurf, also die absichtsvolle Vorstellung eines Handlungszieles bei der Herstellung von Werkzeugen ersetzt, also eines möglichen, aber noch nicht verwirklichten Zustandes. Die verschiedenen domänenspezifischen Fähigkeiten wurden irgendwann durch ein übergreifendes Bewusstsein miteinander verknüpft. Erst durch die schon skizzierte Fähigkeit, sich in andere hineinzuversetzen, wurde ein effizientes Lehren von Fertigkeiten möglich. Der Vergleich mit anderen führte über die Spiegelung im anderen zur Entwicklung des Selbstbewusstseins. Dadurch, dass man individuellen Gruppenmitglieder spezifische Leistungen zurechnen und sich dies über längere Zeiträume merken konnte, konnte Reputation ein Mitglied in einer Gruppe zu einem begehrten Fortpflanzungspartner machen und dadurch eine Eigendynamik zur Veränderung der Sozialstruktur entfalten (s. z. B. Jost 2005c). Usw. Nun, was hat das jetzt alles mit Mathematik zu tun? Was ich hier herausstellen möchte, sind die Komplexität und Vernetztheit der verschiedenen Kausalbeziehungen, die die traditionellen monokausalen Ansätze als ungeeignet zum Verständnis der menschlichen Evolution erscheinen lassen. Als ersten Schritt einer Formalisierung kann man nun einfach ein Kausalnetzwerk entwerfen, in welchem die Knoten den einzelnen dem Anpassungsprozess unterworfenen Merkmalen und die Kanten den Einflüssen oder Wechselwirkungen entsprechen.23 Für höherstufige Wechselwirkungen kann man dann noch Simplizes hinzufügen.24 Dies würde jedenfalls erst einmal eine systematische Präsentation der Faktenlage ermöglichen. Als nächsten Schritt müsste man dann die Dynamik der Entwicklungen und Wechselbeziehungen genauer erfassen. Dabei müssen auch die Rand- und Zwangsbedingungen einbezogen werden, z. B. wie groß der anatomische Spielraum für Veränderungen der Skelettstruktur ist oder welches die physiologischen Leistungsgrenzen sind. Als erstes 23 Die Theorie der vernetzten Kausalbeziehungen von Pearl (2000) mag hier nützlich sein. 24 Für einen informationstheoretischen Ansatz vgl. z. B. Olbrich et al. (2010).

82

2 Evolutionsbiologie

Modell würde man vermutlich ein dynamisches System hinschreiben und ggf. im Computer simulieren, wenn die analytische Behandlung wegen der Anzahl der Variablen, der Details der nichtlinearen Wechselwirkungen und der Abhängigkeit von nicht exakt bestimmbaren Parametern nicht mehr opportun erscheint. Für die Aufstellung des dynamischen Modells müsste man natürlich möglichst viel über die zeitliche Reihenfolge der einzelnen Evolutionsschritte wissen, also möglichst vollständig das direkte und indirekte archäologische Wissen einbauen. Wenn die Biologie demnächst die genetische Steuerung des Körperbaus besser versteht, könnten aus Sequenzdaten von rezenten Populationen und genügend gut konservierten Fossilien auch Rückschlüsse über die Reihenfolge der anatomischen und physiologischen Anpassungen gewonnen werden, s. Abschn. 2.9. (Zur menschlichen evolutionären Genetik verweisen wir auf Jobling et al. 2004). Ich denke jedenfalls, dass ein formaler Zugang, so wie skizziert oder anders ausgerichtet, sicher Wichtiges zum Verständnis dieser komplexen Sachlage beitragen kann. Und wenn wir uns dann in das Gebiet der Systembiologie begeben und beispielsweise das Funktionieren einer Zelle als Ganzes verstehen wollen, kommen wir um einen systematischen formalen Zugang ohnehin nicht mehr herum. Daher kann die vorstehende Skizze auch als anschaulicher Einstieg in die Problematik der Systembiologie verstanden werden.

2.9

Stammbäume

Von Individuen lassen sich Stammbäume aufstellen, als systematische Zusammenstellung der Vorfahren von Generation zu Generation. Bei geschlechtlicher Fortpflanzung verzweigen sich diese Stammbäume in der Vergangenheit, da sich von Generation zu Generation die Anzahl der Vorfahren verdoppelt (zumindest in den wenig zurückliegenden Generationen; in größerer zeitlicher Ferne stammen meist alle Mitglieder einer Population nur von wenigen Gründerindividuen ab). Bei ungeschlechtlicher Vermehrung gibt es dagegen in jeder Generation nur einen Vorfahren, und ein Baum kann sich nur in vorwärtiger Zeit bilden, wenn man die Nachkommen eines Individuums aufführt. Dies ist auch die Sachlage bei den von Evolutionsbiologen und Paläontologen aufgestellten Stammbäumen. Hier geht es nicht um Individuen, sondern um Arten. Man versucht also z. B., die Verwandtschaftsverhältnisse zwischen den Menschen und den rezenten Menschenaffenarten zu erfassen, um hieraus einen gemeinsamen Stammbaum zu rekonstruieren, dessen Knoten früheren Arten entsprechen, deren Entwicklung sich dann in binären Schritten in die heute lebenden Arten aufgespalten hat. Grundlage einer solchen Konstruktion können nun entweder Funde von Fossilien sein, die mit rezenten Formen bestimmte gemeinsame Merkmale aufweisen und sich hinsichtlich dieser Merkmale von anderen unterscheiden, oder systematische Bestimmungen der Unterschiede zwischen rezenten Arten, aufgrund derer sich Abstände quantifizieren lassen, also die Konstruktion einer Metrik. Die erste Methode führt zu den traditionellen Kladogrammen der Paläontologie (vgl. Hennig 1966/1982); dieses Konzept werden wir gleich noch genauer entwickeln, aber zunächst noch etwas über den Kontext. Wie

2.9 Stammbäume

83

ein solches Kladogramm aussieht, kann dann wichtige Aufschlüsse über den Artbildungsprozess liefern. Entstehen Arten durch Verzweigungen von Stammarten, und entwickeln sie sich dann kontinuierlich auseinander, so erhalten wir einen Stammbaum mit binären Verzweigungen, Dichotomien. Entstehen aber Arten, wie von Eldredge und Gould (1972/1989) postuliert, innerhalb geologisch sehr kurzer Zeiträume, die von langen Perioden der Stasis ohne signifikante Veränderungen gefolgt werden, so sollten sich in den Kladogrammen keine Dichotomien, sondern Polytomien zeigen, also mehr als zwei an der gleichen Stelle von der Stammlinie abzweigende Äste, da dann der Unterschied der Tochterart von der überlebenden Stammart nicht mehr vom Zeitpunkt der Abspaltung abhängt. Dies ist von Wagner und Erwin (1995) herausgestellt worden, und es ist bemerkenswert, dass sich hier eine paläontologische Hypothese durch eine aus den Daten gewonnene mathematische Struktur, den evolutionären Stammbaum, überprüfen und unterstützen lässt. Die zweite Möglichkeit, also systematische Vergleiche zwischen rezenten Arten, beruht heutzutage auf genetischen Vergleichen, und wenn man von einer annähernd konstanten Mutationsrate im Genom ausgeht (also insbesondere systematische Selektionseffekte vernachlässigt), lässt sich anhand genetischer Unterschiede abschätzen, zu welchem Zeitpunkt zwei verschiedene rezente Arten einen gemeinsamen Vorläufer gehabt haben. In der Praxis stellt sich allerdings heraus, dass die mittels verschiedener Gene gewonnenen Abstände nicht unbedingt kompatibel sein müssen, dass die gewonnene Metrik sich nicht immer zu einer Metrik auf einem Baum fortsetzen lässt und dass das Ergebnis, also der erschlossene Stammbaum, stark von der Wahl der Rekonstruktionsmethode abhängen kann. Es erhebt sich die Frage, ob diese Schwierigkeiten rein methodischer Art sind, oder ob es auch in der Natur der Sache liegende Gründe hierfür gibt. Zur Behebung der methodischen Probleme werden wir unten die mathematischen Aspekte besprechen. Zur Erhellung der möglichen sachlichen Schwierigkeiten ist eine genauere Untersuchung des biologischen Artbegriffs erforderlich. Eine Art wird meist definiert als eine Population von Lebewesen, die durch geschlechtliche Fortpflanzung ihrerseits fortpflanzungsfähige Nachkommen erzeugen können. Dies sieht zunächst stimmig aus, führt allerdings auf Schwierigkeiten.25 Es stellt sich heraus, dass die genannte Paarungsfähigkeit in der Praxis nicht unbedingt transitiv sein muss, wie es für die Konsistenz der Definition erforderlich wäre. Betrachtet man z. B. Haushunde, so beobachtet man, dass Extrema, beispielsweise Bernhardiner und Pekineser nicht paarungsfähig sind, dass man aber eine Kette von Zwischenformen finden kann, bei der jeweils Nachbarn miteinander paarungsfähig sind. Ein Biologe, der nur Bernhardiner und Pekinesen, aber 25 Auf einige Probleme, die zwar in der Biologie auftauchen, für uns hier aber keine wichtige Rolle spielen, wollen wir an dieser Stelle nur hinweisen. Zunächst einmal ist der Begriff in der vorgestellten Form nicht bei sich ungeschlechtlich vermehrenden Stammlinien anwendbar. Weiterhin liefert der Begriff kein für Paläontologen brauchbares Kriterium. Aus diesen Gründen ist in der Geschichte der Biologie in aristotelischer Tradition eine Art oft nicht umfangsmäßig als eine sich geschlechtlich mischende Population, sondern inhaltsmäßig durch ihren Vertretern gemeinsame und sie von den Vertretern anderer Arten unterscheidende Merkmale definiert worden, und zwar als minimale derart definierbare Einheit. Für eine eingehendere Diskussion verweisen wir auf Mayr (1982), Breidbach und Jost (2004).

84

2 Evolutionsbiologie

keine anderen Hunderassen kennen würde, würde – unter seinen Voraussetzungen völlig korrekt – diese beiden Rassen als zwei verschiedene Arten ansehen. Ein Biologe, der die Zwischenformen kennt, würde dagegen wohl nur eine Art postulieren. Dies mag nun noch als eine rein praktische Schwierigkeit erscheinen, in dem Sinne, dass man bei der Komplexität der biologischen Formen keine ausnahmslos rein verwirklichten Konzepte erwarten kann, sondern immer mit Ausnahmen und Sonderfällen rechnen muss. Es zeigt sich jedoch, dass hinter dieser Schwierigkeit ein fundamentales begriffliches Problem steckt. Der vorgestellte Artbegriff ist nämlich ein rein statisches Konzept, während die Evolutionstheorie eine Theorie der zeitlichen Entwicklung und somit eine wesentlich dynamische Theorie ist. Sie will insbesondere auch das Phänomen der Speziation, der Artbildung erfassen. Die Bildung einer neuen Art kann jedoch kein punktuelles Ereignis sein, sondern es muss ein Vorgang sein, der sich über eine bestimmte Zeit erstreckt. Dabei gibt es dann vielleicht Subpopulationen, die sich schon in gewissen Merkmalen unterscheiden, vielleicht auch räumlich voneinander getrennt sind, aber trotzdem noch im Prinzip miteinander paarungsfähig sind, auch wenn Paarungen schon sehr selten geworden sind oder überhaupt nicht mehr vorkommen. Die Komplexität eines solchen Aufspaltungsprozesses lässt sich durch den vorgestellten Artbegriff nicht adäquat erfassen. Allerdings sollte sich eine durch eine saubere räumliche Trennung zweier Teilpopulationen ausgelöste Bildung zweier getrennter Arten – unter der realistischen Annahme annähernd konstanter Mutationsraten – auch gut durch auf genetischen Vergleichen beruhende statistische Methoden rekonstruieren lassen. In der Praxis vollzieht sich aber vielleicht meist die Trennung nicht so sauber. Auch wenn zwei Teilpopulationen an sich schon getrennt sind, kann es passieren, dass versprengte Individuen einer Teilpopulation in die andere gelangen und sich dort fortpflanzen und hierdurch das Genom dort kräftig durcheinanderbringen (s. auch die Diskussion der Einstreuung im Abschn. 2.9). Insbesondere braucht eine solche Einstrahlung nicht symmetrisch zwischen den beiden Teilpopulationen zu sein. So hat Svante Pääbo mit seinem Team durch den genetischer Vergleich fossiler Knochen von Neandertalern26 (Green et al. 2010) und einer weiteren, erst durch die Gensequenzierung überhaupt identifizierten Menschenform, den Denisovern (Reich et al. 2010), festgestellt, dass diese Spuren im Genom der Eurasier hinterlassen haben, auch wenn die meisten unserer Vorfahren einer anderen, viel später aus Afrika ausgewanderten Menschenart angehörten. Zum genaueren Verständnis der Komplexität unserer Abstammung ist jedenfalls das Denkschema des sich verzweigenden Stammbaumes ungeeignet.27 Insbesondere lässt sich somit auch der Zeitpunkt der Entstehung einer neuen Art oder der Aufspaltung einer Art in zwei Nachfolger nicht genau angeben, und jeder 26 In dem Namen liegt eine kleine Ironie. Das Neandertal bei Düsseldorf, wo derartige Fossilien

zum ersten Mal gefunden worden sind, ist nach dem Kirchenlieddichter Joachim Neumann benannt, der seinen Namen zu Neander gräzisiert hatte. Wörtlich wären daher diese aus unserer Perspektive urtümlichen Menschen die Neumannstaler oder kürzer, Neumänner. 27 Übrigens ist dieses Konzept nicht zuerst in der Evolutionsbiologie (von Darwin), sondern schon vorher in der Linguistik von August Schleicher (1821–1868) eingeführt worden (Schleicher 1853, 1861/1862). Allerdings sind in der Sprachgeschichte Sprachmischungen häufig, so dass auch hier das Konzept des Stammbaumes problematisch ist. Darauf werden im Abschn. 8.4 zurückkommen.

2.9 Stammbäume

85

Rekonstruktionsversuch muss daher in diesem Sinne müßig bleiben. Man kann der Sache aber auch eine positive Wendung geben; aus statistischen Korrelationsanalysen, genauer der Untersuchung von Korrelationen höherer Ordnung, bei Genen von rezenten Vertretern einer Art lassen sich nun wichtige Rückschlüsse auf die Evolutionsgeschichte, auf Aufspaltungen, Rückgangs- und Wachstumsphasen oder Vermischungen der Vorgängerpopulationen ziehen; Beispiele finden sich in Ptak und Przeworski (2002), Li und Durbin (2011). Hier liegt sicher noch ein interessanter Aufgabenbereich für ausgefeilte Methoden der mathematischen Statistik.28 Bei Pflanzen gibt es auch häufig Hybridisierungen zwischen taxonomisch unterschiedenen Arten. Und die Arten werden hier in der biologischen Praxis tatsächlich noch taxonomisch, also durch die Klassifikation äußerer Merkmale in der Linnéschen Tradition, statt als Fortpflanzungsgemeinschaften bestimmt. Allerdings können die Dinge bei Pflanzen noch erheblich komplizierter sein. Gewöhnliche Löwenzähne gehören in der biologischen Klassifikation zur Gattung Taraxacum in der Familie der Korbblütler (Asteraceae). Mit der Artzuordnung ist es allerdings schwierig. Es gibt nämlich nicht nur diploide Varianten, die wie die meisten Pflanzen selbstinkompatibel sind und sich daher nur geschlechtlich vermehren können, sondern auch triploide (also mit drei Chromosomensätzen), die sich ungeschlechtlich vermehren, und gelegentlich entstehen aus der Paarung diploider sogar tetraploide (mit vier Chromosomensätzen), die, wenn sie sich mit diploiden paaren, wieder triploide produzieren können. Da sich nun die triploiden typischerweise nicht mischen, also separate Klone bilden, unterscheiden manche biologisch Arbeitende mehrere hundert oder sogar tausend verschiedene Arten, meistens anhand sorgfältiger taxonomischer Analysen anstelle von genetischen Abstammungsgemeinschaften. Allerdings können Nachkommen triploider Arten durch Chromosomenverluste wieder diploid werden und sich dann auch wieder geschlechtlich fortpflanzen, so dass sich die Arten wieder partiell mischen können. Also das totale Chaos, was einfach daran liegt, dass der verwendete theoretische Begriff hier nicht wirklich auf die biologischen Gegebenheiten passt. Ein weiterer wichtiger Aspekt, der eigentlich erst in jüngerer Zeit vor allem dank der Untersuchungen von L.Margulis in seiner Bedeutung gewürdigt wurde, ist, dass viele, und vielleicht sogar die meisten genetischen Veränderungen nicht durch Mutationen im vererbten Genom, sondern durch horizontalen Gentransfer, vor allem durch Viren, zwischen verschiedenen Arten zustandekommen, s. auch die Ausführungen im Abschn. 8.4. Es ist offensichtlich, dass dies ein fundamentales, sowohl konzeptionelles als auch praktisches Problem für die Konstruktion phylogenetischer Stammbäume darstellt. Wir wollen nun aber trotz der aufgezeigten Schwierigkeiten zu dem Organisationsschema des Stammbaumes zurückkehren. Auch wenn nun aus den skizzierten Gründen in der Praxis immer Unbestimmtheiten zurückbleiben müssen und sich jeder Stammbaum als eine nicht vollständig von Fakten getragene Idealisierung erweist, sind Stammbaumkonstruktionen trotzdem nützliche Organisationen gewonnener Daten. Daher ist ein Verfahren erwünscht, das es erlaubt, 28 Man darf aber hierbei auch die praktische Schwierigkeit nicht verkennen, an die für eine solche

Analyse erforderlichen Daten heranzukommen.

86

2 Evolutionsbiologie

Stammbäume zu konstruieren, in denen möglichst wenig nicht durch Daten abgesicherte Hypothesen stecken. Wir legen nun zunächst das von W. Hennig (1913–1976) (1966/1982) entwickelte Konzept des Kladogramms vor. Der Kladismus, so der Name für dieses Prinzip der Stammbaumkonstruktion. ist zwar mathematisch nicht besonders tiefsinnig, hat aber – mit einiger Verzögerung – wegen seiner logischen Klarheit in der Biologie viel Zustimmung gefunden, später allerdings auch Widerspruch hervorgerufen. Das Ziel besteht darin, monophyletische Gruppen, d. h. verwurzelte Teilbäume von phylogenetischen Bäumen, zu identifizieren, die sämtliche Nachkommen desjenigen Knotens enthalten, der als gemeinsamer Vorfahr deklariert ist und zur Wurzel des Teilbaums gemacht wird. Zum Beispiel bilden die Wirbeltiere in üblichen zoologischen Systematik eine monophyletische Gruppe. Die Fische dagegen stellen keine monophyletische Gruppe dar, weil die anderen Wirbeltiergruppen (Amphibien, Reptilien, Vögel und Säugetiere) ebenfalls Nachkommen von Fischen sind; tatsächlich sind hier nur Vögel und Säugetiere monophyletisch im Sinne des Kladismus. Um das formale Prinzip zu erläutern, betrachten wir eine ursprüngliche Art (Spezies) A, die Vorfahre von zwei Tochterarten A1 und A2 ist.29 Dies wird durch einen Baum mit Wurzel A und zwei Blättern A1 , A2 dargestellt. Wir nehmen an, dass der Zustand eines Merkmals a in A1 erhalten bleibt, aber in A2 zu a  verändert wird. Nehmen wir nun an, dass diese Spezies A2 sich weiter in zwei Tochterarten A21 und A22 aufspaltet. Wir bekommen dann einen neuen Baum mit Blättern A1 , A21 , A22 , wenn es keine weiteren Aufspaltungen (Speziationen) gibt, während A2 nun ein innerer Knoten vom Grad 3 ist. Wir betrachten zwei Fälle wie in der folgenden Abb. 2.1 dargestellt. Im ersten Fall bewahrt A21 den Zustand a  , während dieser in A22 weiter in einen Zustand  a transformiert wird. Im zweiten Fall bewahren beide den Zustand a  , aber in A22 wird der Zustand eines anderen Merkmals aus dem A, A1 , A2 und A21 gemeinsamen Wert b in einen neuen Wert b umgewandelt. In einer solchen Situation heißen die Ahnenzustände a, b plesiomorph, die abgeleiteten Zustände a  , a  , b apomorph. Dies sind relative Konzepte, denn ein a  ist plesiomorph im Vergleich zu einem a  , wenn wir nur den Teilbaum mit Wurzel A2 und Blättern A21 , A22 in Betracht ziehen. Zwei Arten, die sich den gleichen plesiomorphen Zustand eines Merkmals teilen, werden als symplesiomorph bezeichnet. Arten, die einen apomorphen Zustand teilen, werden synapomorph genannt. In dem letzten Beispiel sind A1 und A21 symplesiomorph für b, während A21 und A22 synapomorph bezüglich a  sind. Im vorhergehenden Beispiel, wo A22 den Merkmalszustand oder Merkmalswert a  hat, bilden die Zustände a  und a  zusammen gegenüber dem ursprünglichen Zustand a eine Synapomorphie zwischen A21 und A22 . Nur 29 Es ist ein Grundprinzip des Kladismus, dass immer dann, wenn sich eine neue Art von einer Abstammungslinie abspaltet, der verbleibende Teil dieser Linie ebenfalls als neue Art eingestuft wird. Das macht die Systematik für Baumdarstellungen geeignet sind. Es folgt aus dem morphologischen Ansatz, der hinter dem Kladismus steht, welcher auf paläontologischen Daten beruht, dass sich zwei Arten immer in mindestens einem Merkmal unterscheiden, zwei Nachbararten sogar typischerweise in genau einem.

2.9 Stammbäume

87

A1 . a •...........

A1 . a •...........

A2 •

... ... ... ... ... . . ... .. ... ... ... ... ... ... ... ... . . ... ... ... ... ... ... ... ... ... ... ..... ... ... ... ... ..... .

•a

A

a

A21 •......

A22 •

.. ... ... ... ... ... ... ... ... ... ... . . ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... . . ... ... . ... ... ... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ...... ... .. ... ... .. ... ... ... ... . . ... .. ... ... ... ... ... ... ... ... . ... . .. ... ... ... ... ... ... ... ... ... . . ... .. ... .... ... ... ... ... ....

a



A1 

a

A2 • a 

•a

A

a, b

•......

A21 •

A22 •

... .. ... ... ... ... ... ... ... ... ... ... ... ... . ... . ... .. ... ... ... ... ... ... ... ... ... ... ... ... . . . . ... ... . ... ... ... ... ... ... ... ... ... ... ... ... ... .... ... ... ... ... ...... ... .. ... ... .. ... ... ... ... . . ... .. ... ... ... ... ... ... ... ... . ... . .. ... ... ... ... ... ... ... ... ... . . . ... ... ..... ... ... ... ... ....



a ,b

a , b

A2 • a  , b

• a, b

A

Abb. 2.1 Apomorphie und Plesiomorphie, nach Jost (2014)

Synapomorphie, nicht aber Symplesiomorphie kann ein Anzeichen einer Monophylie sein. Eine kladistisch vorgehende Taxonomie sucht daher vor allem nach Synapomorphien. Um aber in der Lage zu sein, gemeinsam abgeleitete Merkmalszustände, d. h. Synapomorphien zur Identifizierung von monophyletischen Gruppen heranzuziehen, müssen wir die folgenden Möglichkeiten ausschließen: 1. Reversion: Im letzten Beispiel könnte A22 , anstatt den neuen Zustand a  anzunehmen, in den ursprünglichen Zustand a zurückkehren. 2. Konvergenz: Im gleichen Beispiel könnte A1 , anstatt den Zustand b beizubehalten, den gleichen Zustand b wie die Art A22 annehmen, während A21 den Zustand b beibehält. Insbesondere kann es auch Homoplasien geben, was bedeutet, dass es nicht nur eine funktionale Analogie, sondern auch eine strukturelle Ähnlichkeit gibt, ohne dass dies durch gemeinsame Abstammung begründet wäre. 3. Einstreuung: In Abb. 2.2 hat nach der Aufspaltung der Art A2 die neue Art A22 eine Veränderung des Merksmalwertes c zu c erfahren. Die andere aus A2 entstandene Art A21 , die c bewahrt hat, hat sich weiter in A211 und A212 aufgespalten, aber letztere hat nun auch plötzlich den Merkmalswert c . Dies kann dadurch passiert sein, dass Individuen von A22 in A212 eingestreut sind und sich dort vermehrt haben, weil sich zwischen diesen nahe verwandten Arten noch keine undurchlässige Paarungsschranke ausgebildet hatte. Auch wenn man nur die rezenten Arten A1 , A211 , A212 , A22 kennt, lassen sich die Abstammungsgeschichte und die Einstreuung aus dem Vergleich der verschiedenen Merkmalswerte erschließen. Dazu braucht man aber alle vier Arten. Insbesondere dient A1 als Referenz dafür, was sich wann geändert hat. So kann man in der in der Abbildung dargestellten Situation ausschließen, dass c eine Apomorphie von A211 ist, weil dieser Merkmalswert auch bei der weiter entfernten Art A1 , aber nicht bei A22 auftritt.

88 Abb. 2.2 Einstreuung

2 Evolutionsbiologie

A1 a, b, c

•......

A211 •

A212 •

A22 •

... ... ... ... ... ... ... ... ... .. .. ... .. .. ... . . . . . ... ... ... ... ... ... ... ... ... ... ... .. .. ... ... .. .. . . ... . . ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... . ... ... ... ... ... ... ... ... ...... ... .. ... ... .. . . . ... ... ... ... ... ... ... ... ... ... ... ... ... .. . ... ... ... ... ... ... ... ... ... ... ... .. ... ... . ... ... ... ... ... .. ... ... .... ... ... .. . ... ... .. ... ..... ... . ... .. ... .. . . ... . . . ... ... ... ... ... ... .. ... .. . . ... ... ... ... ... ... ... ... .. . ... ... ... ... ... ... ... .. ... . ... ... ... ... ... ... ... . . . ... ... ... .. ... ... .... ... ... ... .. ......



a , b, c

a , b, c

a , b , c

A21 • a , b, c

A2 • a , b, c

• a, b, c

A

Und weil Paarungsschranken zwischen verschiedenen Arten nicht immer perfekt sind, kann es auch zu Hybridisierungen zwischen verschiedenen Arten kommen, wodurch dann ähnliche Effekte bei den Merkmalszuständen hervorgerufen werden können. Natürlich gibt es für alle Möglichkeiten biologische Beispiele. Neandertaler haben sich mit den Vorfahren der Eurasier vermischt, nachdem sich diese von den in Afrika verbliebenen Menschen getrennt hatten (Green et al. 2010) (allerdings handelt es sich nicht um verschiedene Arten, so dass das Beispiel nicht ganz passt). Hybridisierungen sind insbesondere bei Pflanzen sehr häufig. Schlangen haben die Gliedmaßen wieder verloren, die ihre Vorfahren gewonnen hatten. Vögel, Fledermäuse und Insekten haben unabhängig voneinander Flügel entwickelt. Tatsächlich sind die Flügel von Vögeln und Fledermäusen plesiomorph. wenn man sie als Vordergliedmaßen betrachtet, aber nicht als Flügel. Manchmal ist die Unterscheidung – zwischen Plesiomorphie und Apomorphie nicht klar oder muss im Lichte der genetischen Sequenzdaten überdacht werden. Zum Beispiel dachte man lange, dass die Augen bei Arthropoden, Weichtieren und Wirbeltieren Beispiele einer konvergenten Evolution sind. Man hat dann aber herausgefunden, dass die Augenbildung in all diesen Stämmen durch das gleiche Masterkontrollgen, genannt Pax-6, aus der Klasse der homöotischen (Hox-)Gene gesteuert wird (Quiring et al. 1994; Friedrich 2006). Ein in den meisten Fällen nicht kontroverses Beispiel für Konvergenz ist Mimikry, bei der eine Spezies beispielsweise die Färbung einer nicht verwandten Art nachahmt, die von Raubtieren gemieden

2.9 Stammbäume

89

wird. Jedenfalls sind Reversion und Konvergenz in der biologischen Evolution relativ selten. Anscheinend ist der Möglichkeitsraum sehr groß und noch in keiner Weise ausgeschöpft. Soweit ist also alles logisch ziemlich klar. Trotzdem gibt es gewichtige Einwände gegen die kladistische Methode. 1. Mayr (1981) vertritt die Ansicht, dass nicht nur Verzweigungen, wie sie das kladistische Schema erfasst, sondern auch anschließende evolutionäre Divergenz bei der Klassifikation berücksichtigt werden sollte. Nach dem kladistischen Schema müssen die Vögel zusammen mit den Krokodilen eine Untergruppe, die Archosaurier, der Reptilien bilden. Ansonsten würden die Reptilien nicht mehr eine monophyletische, sondern nur noch eine paraphyletische Gruppe sein, weil sie zwar noch auf einen gemeinsamen Vorfahren zurückgingen, aber die von ihnen abstammenden Vögel nicht mehr enthielten. Weil sich aber die Vögel viel weiter als die anderen Reptiliengruppen von ihren Vorfahren entfernt haben – in kladistischer Terminologie haben sie viel mehr Autapomorphien als mit den Krokodilen geteilte Synapomorphien –, sollten sie nach Mayrs Ansicht einen höheren taxonomischen Status erhalten. (Allerdings folgen ihm in diesem Punkt die meisten heutigen Taxonomen nicht mehr.) Mayr (1982) hat dann auf solchen Überlegungen aufbauend eine sog. evolutionäre Systematik entwickelt. 2. Was soll man tun, wenn verschiedene Merkmale unterschiedliche Abstammungsverhältnisse suggerieren, die nicht zusammenpassen? Die Kladistik verwendet in diesem Fall das Prinzip der Sparsamkeit, dass also das oben dargelegte Schema so wenig wie möglich verletzt wird. Der phenetische Ansatz von Michener und Sokal (1957) schlägt eine Klassifikation auf der Grundlage der globalen Ähnlichkeit vor, wobei so viele Merkmale wie möglich herangezogen werden sollten, statt nur derjenigen, die der einzelne Taxonom für die wichtigsten oder markantesten hält. Auch wenn der phenetische Ansatz derjenige ist, der in der taxonomischen Praxis am ehesten verwendet wird, so führt dies doch unweigerlich auf die Frage, wie die verschiedenen Merkmale dann gewichtet werden sollten. Es scheint schwierig zu sein, hierbei subjektive Einschätzungen zu vermeiden. Die moderne Theorie, die wir gleich vorstellen werden, operiert mit metrischen Beziehungen, ist allerdings auf einen anderen Kontext, denjenigen des großflächigen Vergleichs von Sequenzdaten, hin entwickelt worden. 3. Was ist überhaupt ein Merkmal? Ohne eine klare Definition scheinen alle taxonomischen Ansätze, die auf Merkmalen beruhen, in der Luft zu schweben. Traditionellerweise werden Merkmale morphologisch bestimmt, und wenn Paläontologen mit Fossilien arbeiten, gibt es wohl kaum andere Möglichkeiten. Wir werden auf diese Frage im Abschn. 2.10 eingehen. Alternativ werden heute Abstammungsverhältnisse aus molekulargenetischen Sequenzen rekonstruiert. Dies scheint objektiver zu sein, weil man da anscheinend nur die Unterschiede zwischen Sequenzen zählen muss, aber ganz so leicht ist es auch nicht, weil sich Genome erstens nicht nur durch Mutationen, sondern auch durch Inversionen, Verdoppelungen, Transpositionen und Deletionen ändern können und daher erst einmal in Korrespondenz gesetzt werden müssen („alignment“ heißt das in der Fachliteratur, und

90

2 Evolutionsbiologie

dies führt auch auf interessante mathematische Probleme) und weil zweitens auch die Veränderungen nicht immer unabhängig voneinander stattfinden, sondern korreliert sein können. Auch hierzu werden wir noch etwas zu sagen haben, beispielsweise im Abschn. 2.10. 4. In der Praxis ist die kladistische Methode eher für die Analyse individueller Verzweigungen als für das Zusammenführen großer Datensätze zu einem Stammbaum geeignet. Hierzu reicht es nicht aus, mit binären Unterscheidungen zu arbeiten, sondern es müssen auch Unterschiede metrisch bewertet werden. Der entsprechenden mathematischen Theorie wollen wir uns nun zuwenden. Das mathematische Modell (vgl. Dress 1984) beginnt mit einer Metrik d auf einem Raum X (also d(x, y) > 0 außer für x = y, d(x, y) = d(y, x) und d(x, z) ≤ d(x, y) + d(y, z) für alle x, y, z ∈ X ), die typischerweise die Unterschiede in homologen, d. h. abstammungsgleichen Genomabschnitten misst. Eine solche Metrik lässt sich genau dann in einen Baum einbetten (also einen metrischen Raum, in welchem es für je zwei verschiedene Punkte bis auf Umparametrisierungen genau eine stetige und injektive Abbildung des Einheitsintervalls in diesen Raum gibt, für welche diese beiden Punkte gerade die Bildpunkte der Randpunkte des Intervalls sind), wenn für je vier Punkte x, y, z, w ∈ X die folgende Ungleichung gilt d(x, y) + d(z, w) ≤ sup(d(x, z) + d(y, w), d(x, w) + d(y, z)).

(2.9.1)

In der Anwendung sollen die rezenten Arten, vertreten durch Genome ausgewählter Vertreter, als die Endpunkte (Blätter) eines Baumes aufgefasst werden, und die anderen Knoten dieses Baumes sollen dann gemeinsamen Vorfahren von bestimmten Teilmengen aus den rezenten Arten entsprechen. Derartige phylogenetische Bäume sollen dann keine Knoten vom Grad 2 enthalten. Jeder solche phylogenetische Baum ist schon bestimmt durch die in ihm enthaltenen Viererbäume, die von jeweils vier Elementen x, y, z, w gebildet werden (die natürlich (2.9.1) erfüllen müssen). Sofern nicht stets Gleichheit in (2.9.1) gilt, hat dieser Viererbaum (genau) eine innere Kante, die entweder x, y von w, z oder x, z von y, w oder x, w von y, z trennt; beispielsweise kann der erste Fall durch x y|zw bezeichnet werden. Die wesentliche Schwierigkeit besteht nun darin, diese leicht konstruierbaren Viererbäume zu einem einzigen, umfassenden Baum X zusammenzusetzen. Auch wenn es zu je vier Punkten einen solchen Viererbaum gibt, so müssen für die Existenz von X noch zusätzliche Bedingungen erfüllt sein, und zwar muss, nach Colonius und Schulze (1981) (vgl. auch die Darstellung in Dress 2008), wenn x y|zw und x y|zv Viererbäume darstellen, entweder v = w sein oder auch x y|vw ein Viererbaum sein, und wenn x y|zw und x z|vw Viererbäume darstellen, so muss dies auch für x y|zv gelten. Man muss also unter den Viererbäume eine solche Auswahl treffen, dass sie sich zu einem umfassenden Baum zusammenfügen lassen. Ein besonders weit verbreiteter Algorithmus hierzu stammt von Strimmer und von Haeseler (1996). Im Allgemeinen werden aber wegen der oben skizzierten sachlichen Schwierigkeiten sich die vorliegenden Daten nicht nahtlos in einen Baum einfügen lassen, und es ist dann zu entscheiden, welcher mögliche Baum die beste Näherung darstellt. Hierzu werden meist statistische Gütekriterien herangezogen, z. B. dasjenige maximaler Sparsamkeit, d. h. dass

2.9 Stammbäume

91

der gewonnene Baum durch möglichst wenige Mutationen aus den Daten hervorgehen soll, oder dasjenige größtmöglicher Wahrscheinlichkeit (maximum likelihood). Dress (2001) hat eine flexible allgemeinere Methode vorgeschlagen, indem er aus Unterschieden zwischen Charakteren eine Übergangswahrscheinlichkeit durch Mutationen erschließt und hieraus das Kriterium minimaler Entropie gewinnt. Die Konstruktion oder Rekonstruktion von Stammbäumen für Arten ist formal gleich derjenigen der Bestimmung gemeinsamer Vorfahren von Individuen in einer sich ungeschlechtlich vermehrenden Population. Zu diesem Zweck hat Kingman (1982) die Koaleszenztheorie entwickelt, die dies durch einen stochastischen Prozess modelliert, bei dem sich die Aufteilung der Population in Äqivalenzklassen, die aus den Individuen bestehen, die zu einer um t zurückliegenden Zeit den gleichen Vorfahren hatten, in Abhängigkeit von t ändert. Dies lässt sich auch anwenden, wenn man in sich geschlechtlich vermehrenden Populationen die Vorfahren bestimmter Erbeinheiten im Genom sucht. Ein Beispiel bilden die Gene in den Mitochondrien, die im Gegensatz zu den Genen im Zellkern, also denjenigen, die üblicherweise betrachtet werden, keiner Rekombination unterworfen sind, sondern (nach gängiger Ansicht) nur über die mütterliche Linie durch die Eizellen weitergegeben werden. Auf diese Weise hat man dann eine hypothetische menschliche Stammmutter konstruiert oder erschlossen, „Eva“ getauft und hätte sie vermutlich noch gerne medienwirksam mit frühmenschlichen Knochenresten aus etwa der richtigen Zeitepoche identifiziert (die „Lucy“ genannten Knochenfunde sind leider wesentlich älter als diese Eva). Analoge Untersuchungen kann man bei dem geschlechtsbestimmenden Y-Chromosom, welches nur über die männliche Linie weitergegeben wird, anstellen. Im Prinzip kann man dies sogar bei jeder Erbeinheit, die im Fortpflanzungsprozess nicht aufgeteilt und rekombiniert wird, machen. Aber man kann die Koaleszenz auch mit der Rekombination verbinden und dann entweder durch theoretische Argumente aus der Theorie der stochastischen Prozesse oder durch Computersimulationen das Gewirr der auseinander- und zusammenlaufenden Abstammungslinien entwirren und sehr interessante Ergebnisse gewinnen, wie beispielsweise in Wiuf und Hein (1999). Insbesondere ergibt sich, dass bei sich geschlechtlich vermehrenden Populationen, wenn man genügend viele Generationen zurückgeht, es eine Teilmenge der Ahnenpopulation gibt, von der jeder Vorfahr jedes jetzt lebenden Individuums ist.30 Andere Ahnen sind dagegen weniger glücklich und hinterlassen keine Nachkommen in der jetzigen Population. Diejenigen Ahnen, die Vorfahren aller jetzt Lebenden sind, behalten dann diese Eigenschaft natürlich auch für zukünftige Generationen. (Man sollte aber dabei bedenken, dass ein Nachkomme nicht unbedingt Gene von jedem seiner Ahnen tragen muss. Daher könnte im Prinzip auch ein Ahn aller jetzt lebenden Mitglieder der Population in keinem von ihnen genetisch repräsentiert sein.) Hier liefern also mathematische Argumente Aussagen, die sowohl konzeptionell bemerkenswert sind als auch wichtige Anwendungen für vergleichende Genanalysen haben.

30 Solche Ergebnisse lassen sich insbesondere auch für Populationen von zeitlich konstanter Größe

ableiten und quantifizieren. Dies ist etwas anderes als die triviale Tatsache, dass eine gesamte Population von einem Paar von Stammeltern abstammen kann.

92

2.10

2 Evolutionsbiologie

Erblichkeit und Merkmale

Wir hatten schon im Abschn. 2.9 die Frage aufgeworfen, was ein Merkmal ist. Wir wollen die Frage zurückwerfen und fragen, wozu denn ein Merkmal gut sein soll, was es also für die biologische Theorie leisten kann.31 Und diese biologische Theorie war ursprünglich die Morphologie, die Lehre von den biologischen Formen und Gestalten. Gestalterkennung spielt insbesondere in der Paläontologie eine wesentliche Rolle, wenn Fossilien taxonomisch eingeordnet und die Lebensweise der Tiere oder Pflanzen, deren Überbleibsel sie sind, rekonstruiert werden soll. Ein Merkmal kann also zwei Rollen erfüllen: 1. Eine unterscheidende, diskriminative, diagnostische Funktion. Ein Lebewesen soll also von anderen unterschieden werden. Diese könnten zur gleichen Art gehören, und es kann sich dann beispielsweise um Geschlechtsmerkmale handeln, oder um solche Merkmale, die adulte Tiere von juvenilen unterscheiden. Es kann auch eine soziale Funktion haben, paarungsbereite Individuen kennzeichnen oder den Rang in einer Gruppe ausdrücken. Das Merkmal kann dabei erblich sein oder durch die Umwelt ausgeprägt werden. Um all diese Dinge soll es hier aber nicht gehen, sondern um taxonomische Unterscheidungen, also die zwischen Mitgliedern verschiedener Arten oder höherer Taxa. Taxonomisch relevante Merkmale müssen daher erblich sein. Und genauer unterscheidet nicht das Merkmal als solches, sondern der Zustand eines Merkmals. Und dieser Zustand kann auch Abwesenheit sein, wenn sich beispielsweise die Schlangen von anderen Reptilien durch die Abwesenheit von Gliedmaßen unterscheiden. (Allerdings haben auch einige andere Reptilien wie die Blindschleiche (Anguis fragilis), die nicht zu den Schlangen, sondern zu den Echsen gehört, ihre Gliedmaßen verloren.) Es ist aber wichtig, hier logisch genau zu sein. Auch Würmer haben keine Gliedmaßen, aber hier geht es darum, dass Gliedmaßen ein Wirbeltiermerkmal darstellen, das unterschiedliche Zustände annehmen kann. Der Zustand eines Merkmals kann also nur in dem Kontext eines bestimmten höheren Taxons eine taxonomische, also unterscheidende Funktion haben. Wir erinnern an die Darstellung der Prinzipien des Kladismus im Abschn. 2.9. 2. Eine prädiktive Funktion. Aus dem Zustand eines Merkmals lässt sich häufig auf denjenigen anderer Merkmale schließen, denn die Zustände verschiedener Merkmale eines Lebewesens sind typischerweise korreliert. Dies kann zwei verschiedene Gründe haben, und dies hat zu einer der wichtigsten und erbittertsten Debatten in der Geschichte der Biologie geführt, derjenigen zwischen Geoffroy St.Hilaire und Cuvier, die wir schon im Abschn. 1.3 beschrieben haben. Verschiedene Merkmale können Ausprägungen eines einheitlichen Bauplans sein, und daher unterscheiden sich beispielsweise die Merkmale von Vertebraten systematisch von denjenigen von Arthropoden, so Geoffroy. Oder die Merkmale können aufeinander abgestimmt sein, um einem Lebewesen eine bestimmte 31 Natürlich gibt es zum Merkmalsbegriff eine reichhaltige Literatur; an dieser Stelle sei auf Wagner (2001), Barriel (2015) verwiesen.

2.10 Erblichkeit und Merkmale

93

Lebensweise, beispielsweise diejenige eines grasfressenden Steppentieres, zu ermöglichen, so Cuvier. Wir wollen nun nach Jost (2017c) einen formalen Merkmalsbegriff entwickeln, der diese beiden Funktionen erfassen kann. Wir arbeiten dabei mit Tensorprodukten.32 Solche Produkte können von Vektorräumen, oder allgemeiner von Moduln über einem Ring gebildet werden. Wir benötigen allerdings nur die reellen Zahlen R, wenn Größen gemessen werden, die ganzen Zahlen Z, wenn diskrete Einheiten gezählt werden, oder den Körper Z2 , wenn es um binäre Alternativen wie An- oder Abwesenheit geht. Und von R oder Z brauchen wir eigentlich nur den positiven Teil, aber das spielt für den Formalismus keine Rolle. Und da Z in R liegt, werden wir der Einfachheit halber nur mit endlichdimensionalen Vektorräumen arbeiten. Wenn also V , W solche Vektorräume sind, mit Basen ei , i = 1, . . . , n, und f j , j = 1, . . . , m, so hat ihr Tensorprodukt eine Basis der Form ei ⊗ f j , und V ⊗W ={



ci j ei ⊗ f j : ci j ∈ R}.

(2.10.2)

i=1,...,n, j=1,...,m

Wenn die Dimensionen von V und W n und m sind, so hat V ⊗ W die Dimension nm. Es gebe nun n verschiedene Träger, beispielsweise taxonomische Einheiten wie Spezies, und wir mögen m verschiedene Eigenschaften messen oder zählen, wie die Länge oder Anzahl bestimmter Körperteile. Wenn ci j das Maß der j-ten Eigenschaft des i-ten Trägers ist, dann ist für festes i  ci j , j = 1, . . . , m der Vektor der Werte für den Träger i  , und wenn stattdessen j festgehalten wird, dann ist ci j der Vektor der für die verschiedenen Träger gemessenen Eigenschaft j . Man kann natürlich die Eigenschaften noch geeignet kombinieren oder arrangieren, z. B. durch eine Hauptkomponentenanalyse die signifikantesten, also die am stärksten variierenden identifizieren und sich auf diese beschränken. Dies sind aber vorbereitende Operationen, und wir befassen uns hier mit der durch (2.10.2) gegebenen formalen Struktur. Im Moment geht es weniger um die Variabilität der Eigenschaften als um die Abhängigkeiten, die zwischen ihnen bestehen mögen. Wir erhalten also eine Matrix j=1



c11 ⎜ c21 ⎜ .. ⎜ . ⎝ cn1 i=n i=1

... j=m ⎞ c12 . . . c1m ⎟ ... ⎟ ⎟, .. ⎠ . . . . cnm

(2.10.3)

bei der die Zeilen den Trägern und die Spalten den Eigenschaften entsprechen. 32 Ein ganz anderer Zugang zum Merkmalsbegriff wurde von Wagner et al. (2000), Wagner und

Stadler (2003) entwickelt. Deren Ansatz geht von der Beziehung zwischen Genotyp und Phänotyp und erfasst Merkmale als unabhängige Faktoren dieser Beziehung. Mathematisch arbeitet der Ansatz mit cartesischen Produkten statt, wie hier, mit Tensorprodukten.

94

2 Evolutionsbiologie

Mit dieser Darstellung können wir nun Abhängigkeiten zum Ausdruck bringen. Die Anzahl der unabhängigen Eigenschaften ist die Anzahl der linear unabhängigen Spalten, also der Rang r der Matrix (2.10.3), und damit auch die Anzahl der linear unabhängigen Zeilen. Eine Matrix vom Rang r kann als  a ν ⊗ bν with a ν ∈ Rn , bν ∈ Rm (2.10.4) C= ν=1,...,r

dargestellt werden, wobei ein Superskript nun die verschiedenen Vektoren unterscheidet, während Subskripte deren Komponenten indizieren. ⎛

⎞ 010 ⎝ 1 0 0 ⎠ = (0, 1, 0) ⊗ (1, 0, 0) + (1, 0, 0) ⊗ (0, 1, 0) + (0, 0, 1) ⊗ (0, 0, 1) 001

(2.10.5)

hat also den Rang 3, während 

134 268

 = (1, 2) ⊗ (1, 3, 4)

(2.10.6)

nur den Rang 1 hat. Hier sind also alle Eigenschaftswerte korreliert und unterscheiden sich nur durch einen trägerabhängigen gemeinsamen Faktor. Bei einer Darstellung der Form (2.10.4) (mit minimalem r ) nennen wir daher die Vektoren bν unabhängige Eigenschaftskombinationen oder auch Merkmalskomplexe, und den entsprechenden Vektor a ν einen Vektor von Trägerfaktoren. Ein solcher Merkmalskomplex enthält also verschiedene Eigenschaften oder, wie wir nun auch sagen wollen, Merkmale, deren Werte oder Zustände zwischen Trägern unterscheiden können. – Die Auswahl der Merkmale hängt also von der betrachteten Trägermenge ab, und dies sollte auch so sein, da Merkmale zwischen Trägern unterscheiden sollen. Aus jedem Komplex braucht man dabei nur ein Merkmal auszuwählen, da die anderen mit diesem korreliert sind. Jedenfalls ist der Rang der Matrix C (2.10.4) umso kleiner, je mehr solcher Korrelationen es gibt. Dies ist aber zu unterscheiden von Abhängigkeiten zwischen den Merkmalen selbst. Die Einträge ci j von C ohne biologische Einschränkung als nichtnegativ annehmend, können wir den Vektor p mit Einträgen  i ci j  f¨ur j = 1, . . . , m (2.10.7) pj =  =1,...,m i=1,...,n ci bilden. Wenn die ci j binär sind, also nur die Werte 1 (Anwesenheit) und 0 (Abwesenheit) annehmen, so handelt es sich bei p j einfach um die relative Häufigkeit der Eigenschaft j. Entsprechend können wir auch die Matrix P mit Einträgen 1 

p jk =  h,=1,...,m

i=1,...,n ci h ci

 i

ci j cik f¨ur j, k = 1, . . . , m

(2.10.8)

2.10 Erblichkeit und Merkmale

95

bilden. Es ist

1 ∗ (2.10.9) C C, Z wobei C ∗ die adjungierte Matrix von C ist und Z den Nenner aus (2.10.8) bezeichnet. P hat daher den gleichen Rang wie C. Allerdings ist die Interpretation nun eine andere. Im einfachsten Fall hat P den Rang 1 und lässt sich dann schreiben als P=

P = p ⊗ p, d. h. p jk = p j pk f¨ur alle j, k.

(2.10.10)

In diesem Fall sind die verschiedenen Einträge, also beispielsweise (im binären Fall) die relativen Häufigkeiten unkorreliert. Wir können analog auch Tensoren höherer Ordnung bilden, (2.10.11) ( p j1 ... js ) j1 ,... js =1,...,m f¨ur 1 ≤ s ≤ m, und wenn dann für jedes s ( p j1 ... js ) j1 ,... js =1,...,m = p ⊗ · · · ⊗ p (s mal)

(2.10.12)

gilt, so sind die p j , also beispielsweise die relativen Häufigkeiten unabhängig. Kleiner Rang von C bedeutet, wie wir gesehen haben, Abhängigkeiten zwischen den Eigenschaften und ihren Trägern, aber kleiner Rang von P, was aber wegen (2.10.9) das gleiche ist, impliziert Unabhängigkeiten zwischen den relativen Häufigkeiten dieser Eigenschaften. Abhängigkeiten zwischen den Eigenschaften machen also die relativen Häufigkeiten dieser Eigenschaften unabhängig, und umgekehrt. Ein Beispiel mag dies verdeutlichen.   1001 . (2.10.13) 1001 In diesem Beispiel liegt also eine Eigenschaft beim ersten Träger genau dann vor, wenn dies auch beim zweiten Träger der Fall ist. Die relative Häufigkeit p1 ist 1, weil diese Eigenschaft bei beiden Trägern vorliegt, und ebenso p4 . Ihre gemeinsame Häufigkeit p14 ist also ebenfalls 1. Es gilt also p14 = p1 p4 , und entsprechend für die anderen Eigenschaften ( p2 = p3 = 0). In   1001 (2.10.14) 0001 hat die erste Eigenschaft jetzt eine unterscheidende Funktion, da sie zwischen den beiden Taxa diskriminieren kann, während die anderen Eigenschaften weiterhin unabhängig verteilt sind und nicht diskriminieren können, weil Eigenschaften und Träger korreliert sind. Falls wir dagegen   1001 (2.10.15) 0110 haben, so gibt es keine Abhängigkeiten zwischen den Trägern und ihren Eigenschaften mehr, aber dafür gibt es jetzt Korrelationen zwischen den Eigenschaften. Immer wenn die erste

96

2 Evolutionsbiologie

Eigenschaft vorliegt, so auch die vierte, und wenn die erste fehlt, gilt das gleiche für die vierte. Es ist p1 = p4 = .5, und ebenso p14 = .5, also p14  = p1 p4 = .25. Analoges gilt für die anderen Kombinationen. Wenn die erste vorkommt, fehlt die zweite, und umgekehrt. Die Träger sind nun unabhängig, weil ihre Eigenschaften nicht miteinander korreliert sind, aber nun gibt es Abhängigkeiten zwischen den Eigenschaften. In (2.10.15) können die Eigenschaften zwischen den Trägern unterscheiden, sind also taxonomisch diskriminierend. In (2.10.13) dagegen lässt sich aus dem Vorkommen einer Eigenschaft bei einem Träger auf das Vorkommen dieser Eigenschaft bei dem anderen Träger schließen, während in (2.10.13) das Vorkommen einer Eigenschaft auf das Vorkommen einer anderen Eigenschaft bei dem gleichen Träger schließen lässt. Die beiden Träger könnten also einen ähnlichen Bauplan haben oder an ähnliche Lebensbedingungen angepasst sein. Eine kladistische Merkmalstabelle kann als eine Matrix der Form (2.10.3) geschrieben werden, ...

Merkmal 1



Spezies 1

1 ⎜1 ⎜ ⎜ ⎜1 ⎜ ⎝1 1

.. . Spezies 5

0 1 1 1 1

0 0 1 1 1

Merkmal 5

0 0 0 1 1



0 0⎟ ⎟ ⎟ 0⎟ ⎟ 0⎠ 1

(2.10.16)

Die letzte Spezies besitzt also sämtliche betrachteten Merkmale. Das fünfte Merkmal ist eine Apomorphie im Vergleich mit Spezies 4, während das vierte Merkmal eine Synapomorphie der Spezies 4 und 5 bezüglich der anderen darstellt. Diese beiden Spezies bilden also eine monophyletische Gruppe, die sich von dem Rest abgezweigt hat. – Eine solche kladistische Matrix hat maximalen Rang (= 5 in unserem Beispiel). In Unterschied hierzu würde eine Merkmalsmatrix, die funktionale Abhängigkeiten zum Ausdruck bringt, etwa folgendermaßen aussehen: Merkmal 1 Taxon 1

.. . Taxon 4



α1 ⎜ β1 ⎜ ⎝ γ1 δ1

... α2 β2 γ2 δ2

α3 β3 γ3 δ3

Merkmal 4

⎞ α4 β4 ⎟ ⎟. γ4 ⎠ δ4

(2.10.17)

Jedes Taxon hat hier seine eigene charakteristische Menge von Merkmalen, welche miteinander korreliert sind, wie durch das jeweils artspezifische Symbol zum Ausdruck gebracht werden soll. Der Rang kann hier also erheblich kleiner sein (= 1 in (2.10.18)). Besteht z. B. Taxon 1 aus Carnivoren, 2 aus Herbivoren, 3 aus Insectivoren, etc., und stellt Merkmal 1 die Zähne dar, 2 die Füße, Hufe oder Klauen, 3 das Verdauungssystem, etc., so können

2.10 Erblichkeit und Merkmale

97

wir alle Carnivorenmerkmale mit 1 bezeichnen, die Herbivorenmerkmale mit 2 und die Insectivorenmerkmale mit 3 und erhalten die Matrix Z¨ahne, F¨uße, Magen . . . Carnivore Herbivore Insectivore

...



⎞ 1 1 11 ⎜2 2 2 2⎟ ⎜ ⎟ ⎝3 3 3 3⎠. ...

(2.10.18)

Dieses Schema setzt natürlich schon eine Klassifikation nach funktionalen Merkmalen voraus. Bei großen Datensätzen könnten aber stattdessen einfach empirische Korrelationen herangezogen werden, die mit automatischen Verfahren des maschinellen Lernens gewonnen und zur Klassifikation verwendet und in einer Tabelle nach Art von (2.10.17) aufgeführt werden können. In der nachfolgenden Matrix unterscheiden wir zwischen zwei Ernährungweisen, carnivor (Wert 1) und herbivor (Wert 2) und drei Klimazonen, arktisch (1), gemäßigt (2) und tropisch (3), Z¨ahne, F¨uße, Fell, Farbe arktischer Carnivore gem¨aßigter Carnivore tropischer Carnivore arktischer Herbivore gem¨aßigter Herbivore tropischer Herbivore



1 ⎜1 ⎜ ⎜ ⎜1 ⎜ ⎜2 ⎜ ⎝2 2

1 1 1 2 2 2

1 2 3 1 2 3

⎞ 1 2⎟ ⎟ ⎟ 3⎟ ⎟ 1⎟ ⎟ 2⎠ 3

(2.10.19)

= (1, 1, 1, 2, 2, 2) ⊗ (1, 1, 0, 0) + (1, 2, 3, 1, 2, 3) ⊗ (0, 0, 1, 1) die als Überlagerung von zwei Merkmalskomplexen den Rang 2 hat. Die Zahlenwerte sind natürlich willkürlich, aber worauf es ankommt, sind die systematischen Korrelationen. Die Zähne und Füße der Fleischfresser sind aufeinander abgestimmt, wie auch Fell und Färbung der arktischen Tiere. Nun haben wir bisher meist von Eigenschaften statt von Merkmalen gesprochen, obwohl doch eigentlich als Ziel dieses Abschnitts gesetzt war, den Merkmalsbegriff formal zu erfassen. Ich habe deswegen hier gezögert, weil der algebraische Zugang bei aller formalen Klarheit doch in mancher Hinsicht vielleicht komplexere Abhängigkeitsgefüge und vor allem auch die Rolle biologischer Innovationen nicht besonders gut erfassen kann. Deswegen soll nun ein alternativer geometrischer Ansatz entwickelt werden, weiterhin Jost (2017c) folgend. Wir werden hierbei einige elementare Konstruktionen aus der Theorie der Prägarben einsetzen, s. z. B. Jost (2015). Es seien wieder n Träger gegeben, i 1 , . . . , i n , die verschiedene Eigenschaften tragen können. Allerdings braucht jetzt nicht mehr jeder Träger auch

98

2 Evolutionsbiologie

sämtliche Eigenschaften besitzen. Die Menge aller überhaupt vorkommenden Eigenschaften bildet den Grundraum (Basis) B = { j1 , . . . , jm }. Für jedes j ∈ B sei die Faser F j die Menge seiner möglichen Werte. Auf diese Weise erhalten wir ein Faserbündel mit Basis B, wie in der nachfolgenden Abb. 2.3 illustriert. Wenn wir nun jedem Träger i die Werte f j (i) derjenigen Eigenschaften j zuordnen, die er besitzt, so erhalten wir einen partiellen Schnitt. Wenn i nicht alle Eigenschaften besitzt, z. B. keine Flügel trägt und wir ihm daher keinen Wert für die Flügellänge zuordnen können, so ist dieser Schnitt nur partiell und nicht global, da er dann nicht jede Faser trifft, s. Abb. 2.4. Ein partieller Schnitt kann möglicherweise zu einem globalen Schnitt fortgesetzt werden, aber eine solche Fortsetzung braucht nicht eindeutig zu sein, s. Abb. 2.5, 2.6. Der zu einem Träger i gehörende partielle Schnitt erfüllt also f j (i) = si ( j).

(2.10.20)

Wir können also wahlweise den Träger i oder die Eigenschaft j als Argument betrachten. Wir formulieren nun den folgenden Satz, der die Darstellung biologischer Taxa in unserem geometrischen Bild beschreibt.

Faser

Totalraum

Projektion

Basis Abb. 2.3 Die Basis ist die Menge der verschiedenen Eigenschaften, deren mögliche Werte in der jeweiligen Faser enthalten sind. Die Fasern können nicht nur unterschiedlich groß sein, sondern auch verschiedene interne Strukturen tragen, auch wenn das in dieser Abbildung nicht zum Ausdruck gebracht wird. Insbesondere können Fasern auch mehrdimensional sein, wie beispielsweise der Raum der möglichen Farben. Nach Jost (2017c)

2.10 Erblichkeit und Merkmale

99

Abb. 2.4 Ein partieller (oben) und ein globaler Schnitt. Nach Jost (2017c)

Abb. 2.5 Ein partieller Schnitt mit mehreren möglichen Fortsetzungen zu einem globalen Schnitt. Nach Jost (2017c)

Abb. 2.6 Ein nicht fortsetzbarer partieller Schnitt. Nach Jost (2017c)

?

100

2 Evolutionsbiologie

Satz 1 Ein Taxon entspricht einem partiellen Schnitt im Totalraum aller betrachteten Eigenschaften. Eine Spezies als kleinste taxonomische Einheit entspricht einer maximalen Fortsetzung eines solchen Schnittes. Allgemein entspricht eine Erweiterung eines Schnittes dem Übergang zu einem niedrigeren Taxon, weil dadurch mehr Eigenschaftswerte festgelegt werden. Wird umgekehrt ein Schnitt auf eine kleinere Basismenge eingeschränkt, lässt also einige Eigenschaftswerte unbestimmt, so liefert dies den Übergang zu einem höheren Taxon. Gibt es mehr als eine mögliche Erweiterung, so liegen Apomorphien vor, also alternativ mögliche Eigenschaftswerte, die zu einer taxonomischen Unterscheidung zwischen Schwestertaxa benutzt werden können. Allerdings können, wie wir noch formalisieren werden, spezifischere Taxa auch durch Innovationen entstehen. Weil nicht alle in dem Formalismus möglichen Kombinationen von Eigenschaftswerten durch biologische Taxa repräsentiert werden können, beinhalten die validen Kombinationen strukturelle, funktionale, entwicklungsbiologische oder umweltbedingte Einschränkungen.

=

Abb. 2.7 Amalgamation: Zwei Merkmale (rot) werden identifiziert, die in den beiden Strukturen möglicherweise verschiedene Wertebereiche haben. Da die beiden unteren Schnitte bei dem gleichen Wert enden, können sie verbunden werden. Aber auch die oberen Schnitten können verbunden werden, da der linke lokale Schnitt nun rechts einen kompatiblen Wert findet und daher fortgesetzt werden kann. Nach Jost (2017c)

2.10 Erblichkeit und Merkmale

101

In diesem geometrischen Bild können wir nun auch verschiedene Arten evolutionärer Innovationen beschreiben.33 1. Vergrößerung des Wertebereichs einen Eigenschaft j durch Hinzufügen neuer möglicher Werte. Dadurch werden möglicherweise auch partielle Schnitte fortsetzbar, die dies bei einem kleineren Wertebereich nicht gewesen waren, weil die Werte anderer Eigenschaften nicht mit den dann zur Verfügung gestandenen Werten von j kompatibel waren. 2. Hinzufügung einer neuen Eigenschaft jm+1 . Ein partieller Schnitt si kann dann möglicherweise durch einen Wert f jm+1 (i) = si ( jm+1 ) fortgesetzt werden. 3. Amalgamation (Abb. 2.7). Dies bedeutet die Kombination von zwei oder mehr partiellen Schnitten zu einem größeren, indem verschiedene Strukturen zu einer einzigen Eigenschaft zusammengefasst werden. In einer Theorie zur Evolution der Vögel (s. z. B. Burnham et al. 2011) hatten die Reptilienvorfahren Federn zur Wärmeregulation und starke Vordergliedmaßen zum Klettern in Bäumen entwickelt. Diese Strukturen konnten nun, so diese Theorie, zu Flügeln kombiniert werden, mit denen Vorfahren zunächst durch die Luft gleiten und später aktiv fliegen konnten. Wagner (2014, S. 134 f.), diskutiert die Verknüpfung ursprünglicher Merkmale als Quelle evolutionärer Innovationen.

33 Das Schema kann auch Innovationen in anderen Bereichen erfassen, s. Ehrig et al. (2018).

3

Molekularbiologie und genetische Steuerung

3.1

Biochemische Grundlagen

Wahrscheinlich sind die wesentlichen Aspekte der Molekularbiologie inzwischen allgemeines Bildungsgut geworden und daher auch den meisten mathematisch Ausgebildeten bekannt. Da sie die Grundlage der nachstehenden Erörterungen bilden, sollen sie trotzdem an dieser Stelle kurz vorgestellt werden, wobei ich aber unter Weglassung vieler biochemischer Einzelheiten eine möglichst formale Darstellung wählen werde. Es gibt zwei Typen biochemischer Grundbausteine, aus denen sich alle biologisch wichtigen Moleküle aufbauen lassen, nämlich die Nukleinsäuren und die Aminosäuren. Beiden gemeinsam ist die Fähigkeit, sich mittels kovalenter Bindungen zwischen einzelnen Bausteinen zu langen Ketten aneinanderzureihen. Diejenigen Bestandteile, die diese Kettenbildung ermöglichen, sind bei allen Nukleinsäuren die gleichen, und analog bei allen Aminosäuren. Daneben trägt jeder solche Baustein noch einen variablen Teil, der für seine spezifischen Eigenschaften verantwortlich ist, und die Sequenz dieser Teile in einer Kette ist dann für deren biochemische Eigenschaften verantwortlich. Wir beginnen mit den Nukleinsäuren, aus denen sich die RNS (Ribonukleinsäure) zusammensetzt. Hier gibt es (im Wesentlichen) vier verschiedene derartige Restbestandteile, die mit den Buchstaben A, C, G und U bezeichnet werden. Hierbei sind die Basen A und U komplementär zueinander, in dem Sinne, dass sie sich durch zwei Wasserstoffbrückenbindungen1 aneinanderbinden können. C und G können sogar drei Wasserstoffbrückenbindungen bilden. Außerdem gibt es noch die Möglichkeit zweier solcher Bindungen zwischen G und U, aber dies spielt, wie wir noch sehen werden, eine Sonderrolle. Durch derartige Bindungen faltet sich dann die lineare Kette eines RNS-Moleküls zu einer kleeblattartigen Sekundärstruktur zusammen, 1 Wasserstoffbrückenbindungen sind schwächer als kovalente Bindungen und können daher leichter wieder aufgelöst werden. Dies ist wesentlich für die Flexibilität der biochemischen Prozesse.

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_3

103

104

3 Molekularbiologie und genetische Steuerung

bei der gepaarte Doppelstränge mit ungepaarten Schleifen abwechseln – hierzu später mehr. Aus dieser Sekundärstruktur bildet sich dann schließlich die räumliche Tertiärstruktur, die die genauen biochemischen Eigenschaften des Moleküls bestimmt. Ähnlich ist es bei den Bestandteilen der DNS (Desoxyribonukleinsäure), allerdings mit zwei wesentlichen Unterschieden. Erstens ist das Residuum U durch ein anderes, mit T bezeichnetes ersetzt, welches ebenfalls mit A zwei Bindungen eingehen kann, aber nicht mehr mit G. Daher besitzt nun jede Base genau eine komplementäre. Durch eine kleine chemische Änderung an dem festen Grundbestandteil faltet sich nun im Gegensatz zur RNS ein DNS-Strang nicht mehr durch Selbstbindungen zu einer Sekundärstruktur auf, sondern verbindet sich mit einem Komplementärstrang, der also an der entsprechenden Stelle jeweils die komplementäre Base trägt. Im Unterschied zu den 4 Nukleotidbasen gibt es 20 grundlegende Aminosäuren, die sich zu Peptidketten aneinanderreihen. Diese bilden die Proteine, also diejenigen Moleküle, die die grundlegenden Zellstrukturen ausbilden und alle wichtigen Zellfunktionen ausführen. Besonders wichtig ist hierbei natürlich der Stoffwechsel der Zelle. Als Enzyme können Proteine auch die Reaktionen zwischen anderen Proteinen steuern2 . Der vielleicht fundamentalste biochemische Aspekt ist nun die Übersetzung der in der DNS niedergelegten Information in die Bildung von Proteinen, also die funktionalen Zellbestandteile. Das Prinzip hierbei ist, dass jeweils drei aufeinanderfolgende Nukleotidbasenpaare entweder die Herstellung einer Aminosäure kodieren oder ein Trennsignal darstellen. Die Übersetzungsregel für eine Dreierfolge von Basenpaaren in eine von 20 möglichen Aminosäuren stellt den sog. genetischen Kode dar, welcher (mit relativ unwesentlichen Ausnahmen, s. z. B. Mühlhausen et al. (2018) für ein Beispiel, wo sogar die Kodierung nicht eindeutig ist) universell, also für alle Lebensformen auf der Erde gleich ist. Da aus den vier Basen 64 verschiedene Dreierfolgen gebildet werden können, ist dieser Kode redundant, d. h. ein und dieselbe Aminosäure kann durch verschiedene Dreierfolgen kodiert werden. Es gibt eine Reihe von interessanten mathematischen Ansätzen, diesen Kode herzuleiten. Z. B. ist versucht worden, in Analogie zur Erklärung der Multipletstrukturen in der Elementarteilchenphysik den genetischen Kode aus darstellungstheoretischen Überlegungen abzuleiten, und zwar genauer die Degeneriertheit des genetischen Kodes aus der Darstellungstheorie der einfachen Liealgebren (Hornos und Hornos 1993) (oder derjenigen der klassischen Liesuperalgebren (Forger und Sachse 2000) zu begründen. Man sucht hierzu eine geeignete einfache Liealgebra mit einer 64-dimensionalen irreduziblen Darstellung, der sog. Kodondarstellung, und untersucht dann die Verzweigungsregeln für die Aufspaltungen in die irreduziblen Darstellungen der halbeinfachen Unteralgebren, um das durch den genetischen Kode repräsentierte Multiplet zu finden. So schön solche mathematischen

2 Allerdings können auch RNS-Moleküle einige derartige Funktionen ausführen. Dass die RNS somit

sowohl die Funktion der Informationsübertragung – s. u. – als auch diejenige des Stoffwechsels repräsentiren kann, ist ein Anhaltspunkt – aber noch kein Beweis – dafür, dass das Leben auf der Erde mit der RNS begonnen hat.

3.1 Biochemische Grundlagen

105

Spekulationen auch sein mögen, fragt es sich doch, was das jetzt an biologischer Erkenntnis bringt.3 Außerdem sollte es dann eigentlich keine Ausnahmen wie die in Mühlhausen et al. (2018) beschriebenen geben. Ein alternativer, weniger mathematischer, aber vielleicht biologisch sinnvollerer Erklärungsansatz beruht beispielsweise darauf, dass die Redundanz typischerweise in der dritten Position vorliegt und dies eine leichtere Ablösung der nachstehend beschriebenen mRNS von der tRNS ermöglicht. Der Prozess vollzieht sich, indem zunächst die Information aus einem DNS-Abschnitt4 in einen komplementären Botenstrang (mRNS, wobei „m“ für „messenger“ steht) kopiert wird und dieser dann im Ribosom an einem Übersetzungsmolekül (tRNS, „t“ für „transfer“) andockt, welches drei Basenpaare abliest und an seinem anderen Ende die durch die drei Basenpaare bestimmte Aminosäure zunächst anbindet und dann an die entstehende Polypeptidkette anfügt. Wodurch es einem solchen tRNS-Molekül ermöglicht wird, die richtige, also die durch die drei Basenpaare spezifizierte Aminosäure auszuwählen, ist noch nicht genau bekannt5 Die zwischen zwei Trennsignalen kodierten Aminosäuren werden also zu einem Polypeptid zusammengesetzt, also einem Protein oder Proteinbestandteil. Allerdings kommt es häufig zu Fehlübersetzungen, wo also ein Codon in eine andere Aminosäure übertragen wird als diejenige, die es kodiert (Woese 1965), und dies ist sogar die häufigste Fehlerquelle in dem gesamten Weg von der DNS zu den Proteinen; man vgl. z. B. Kramer und Farabaugh (2007) für neuere Erkenntnisse darüber, wie das genau passiert, und Bratulic et al. (2017) für einige Konsequenzen für die Evolution. Wir wollen vorläufig den biochemischen Sachverhalt vereinfachen und ein Gen als ein für die Kodierung eines solchen Polypeptides verantwortlicher Abschnitt der DNS definieren.6 Oder noch einfacher: Ein Gen ist ein DNS-Abschnitt, der ein bestimmtes Protein kodiert. Allerdings gibt es neben den in diesem Sinne informationstragenden Abschnitten im Genom, den Exons, auch andere Abschnitte, die Introns, die keine Proteinsynthese kodieren. Diese Introns sehen zunächst völlig überflüssig aus, und ihre Funktion ist noch nicht genau verstanden. Sie können ein Reservoir für zukünftige Aufgaben darstellen und sie können auch das 3 Auch die Tatsache, dass es in den 50er Jahren vielfältige mathematische Hypothesen über den

genetischen Kode gab, die sich aber alle als verfehlt erwiesen, als dieser Kode dann schließlich durch sorgfältige biochemische Analysen geknackt wurde, sollte uns zur Bescheidenheit mahnen. 4 Da die beiden DNS-Stränge nicht gleich, sondern komplementär zueinander sind, enthält nur einer von ihnen die Information in ablesbarer Form, und ein geeigneter Mechanismus muss daher diesen richtigen Strang von seinem Gegenbild unterscheiden. 5 Die Übersetzungsregel hängt also von der Struktur der tRNS-Moleküle ab, die wie alle RNSMoleküle von der DNS abgelesen werden, und könnte daher im Prinzip dadurch verändert werden, dass im Genom eine etwas andere tRNS kodiert wird. Anders ausgedrückt: Das Genom kodiert auch den genetischen Kode. 6 Es ist wichtig, im Auge zu behalten, dass dies nicht ganz den biochemischen Tatsachen entspricht, wie i. F. mehrfach zum Ausdruck kommen wird. Außerdem liesse sich nach dem, was wir über Vererbung diskutieren, auch alternativ ein Gen als ein mit großer Wahrscheinlichkeit ungeteilt und unverändert vererbter Abschnitt der DNS definieren. Diese beiden Definitionsmöglichkeiten sind keineswegs äquivalent. Jedenfalls ist keine dieser beiden Definitionen für die Genomanalyse geeignet, und wir werden daher unten noch etwas anders ansetzen müssen.

106

3 Molekularbiologie und genetische Steuerung

Arrangement der Exons insbesondere bei der unten beschriebenen Rekombination durch Kreuztausch steuern. Bei der Informationsübertragung in die RNS werden diese Introns ausgeschnitten, und da es für dieses Ausschneiden und Zusammenfügen einige alternative Möglichkeiten gibt (weswegen man von alternativem Spleißen spricht), kann hierdurch noch beeinflusst werden, welches Protein tatsächlich aus dem entsprechenden DNS-Abschnitt hervorgeht. Schon aus diesem Grunde stimmt die Gleichsetzung von Gen und Protein nicht ganz. Dies legt nun eine dritte Möglichkeit zur Definition eines Gens nahe, neben dem DNS-Abschnitt zur Kodierung eines Proteins und der Erbeinheit, nämlich einen zusammenhängenden kodierenden DNS-Abschnitt, der von zwei nichtkodierenden Abschnitten eingerahmt wird. Varianten dieses Ansatzes werden meist in der konkreten Genomanalyse verwendet. So wird ein Gen in der Forschung heute definiert als ein vollständiger Chromosomabschnitt, der für die Herstellung eines funktionalen Produktes verantwortlich ist, s. Snyder und Gerstein (2003). Dies beinhaltet die Expression des Genproduktes und die Forderung, dass dieses eine Funktion besitzt, und schließt sowohl kodierende als auch regulatorische Abschnitte ein. Es ist nämlich wichtig, dass die Expression eines Genes durch bestimmte Proteine (die Transkriptionsfaktoren), also die Produkte anderer Gene, gesteuert wird, die an bestimmten regulatorischen Abschnitten andocken. In der Praxis werden zur Identifikation eines Genes zunächst sog. offene Ableserahmen gesucht, also Codonsequenzen zwischen Start- und Stopsignalen (bestimmte Tripel von Basenpaaren übernehmen im genetischen Kode die Rolle von Start- und Stopsignalen), und es wird durch Kriterien wie erhöhte statistische Regelmäßigkeit, durch Erhaltung homologer Regionen in verwandten Arten (funktionale DNS-Abschnitte sollten eine geringere Mutationsrate als andere aufweisen, damit vitale Funktionen erhalten bleiben), Anhaltspunkte für Übersetzung oder Veränderungen der Zelle bei Ausschaltung dieses Abschnittes dann entschieden, ob es sich um ein Gen entsprechend der Definition handelt. Es gibt allerdings weiter einige Schwierigkeiten bei dieser, und wohl jeder formalen Definition eines Gens. Ein bestimmter DNS-Abschnitt kann nämlich mehr als ein Protein kodieren. Bei manchen DNS-Viren überlappen die proteinkodierenden Abschnitte einander, d. h. ein bestimmter DNS-Abschnitt kann gleichzeitig zu zwei verschiedenen Genen im Sinne der Kodierung von Proteinen gehören. Dies hat den Vorteil, dass die DNS auf diese Weise verkürzt werden kann, ohne dass die für die Kodierung der für den Virus wesentlichen Proteine benötigte Information verlorengeht. Wichtiger ist aber, dass auch bei Eukaryonten durch alternatives Spleißen, d. h. durch verschiedene Möglichkeiten für das Zusammensetzen der nach dem Ausschneiden der Introns übrigen Stücke der RNS, aus einem DNS-Abschnitt verschiedene Proteine kodiert werden können. In Anbetracht dieser Sachlage werde ich unten einen Genbegriff vorstellen, der von dem finalen Produkt, typischer einem Protein, ausgeht und dann diejenigen kodierenden und/oder regulatorischen Abschnitte identifiziert, die zu dessen Bildung führen. Welches Protein beim alternativen Spleißen zum Zuge kommt, wird zumeist durch externe Signale, die die betreffende Zelle von anderen Zellen empfängt, entschieden. Dies ist eine wichtige Möglichkeit, wie genetisch gleiche Zellen verschiedene Funktionen im Körper

3.2 Genetische Grundgesetze

107

eines Vielzellers übernehmen können. Eine andere, noch wichtigere Möglichkeit für eine solche Zelldifferenzierung in einem Organismus besteht darin, dass die einzelnen Gene je nach Zelltyp unterschiedlich aktiv sind. Denn jede Zelle in einem Lebewesen enthält die gleiche DNS (abgesehen von den Keimzellen, s. den nächsten Abschnitt für genauere Einzelheiten), trägt also die gleiche Information. Die Zusammensetzung des Proteoms, also welche Proteine in welchen Anteilen vorhanden sind, variiert aber sehr stark zwischen den verschiedenen Zellen von Vielzellern, da die einzelnen Zellen innerhalb des Organismus verschiedene Funktionen ausüben müssen. Dies geschieht insbesondere mittels systematischer Mechanismen, mit denen Teile der DNS für die Ablesung vorübergehend oder permanent unzugänglich gemacht werden; dies wird im Abschn. 3.3 genauer erläutert.

3.2

Genetische Grundgesetze

Wir wollen uns nun noch etwas genauer mit der Übertragung von Erbinformationen beschäftigen. Während die bisher vorgestellten Überlegungen zur Evolutionsbiologie weitgehend auf der Beobachtung von Lebewesen in ihrer Umwelt oder den anhand paläontologischer Funde festgestellten systematischen langfristigen Veränderungsprozessen der Gestalten von Lebewesen beruhen und theoretische Erklärungsschemata für die Herausbildung und Stabilisierung der vorliegenden Eigenschaften von beobachteten Lebensformen suchen, haben wir uns nun in den Bereich der experimentellen Biochemie begeben, auch wenn der geniale Entdecker der Vererbungsgesetze, Gregor Mendel, diese durch im Prinzip einfache, aber sehr sorgfältig konzipierte Züchtungsexperimente ohne Benutzung irgendwelcher Apparate oder chemischer Techniken herausfinden konnte. Die Erbinformation ist, wie erläutert, in der DNS niedergelegt, aus welcher sie abgelesen und dann zur Steuerung der Synthese von Proteinen in der Zelle eingesetzt werden kann. Diese Information ist in größeren Einheiten, den sog. Chromosomen, zusammengefasst, zumindest während der nachfolgend besprochenen Zellteilungsprozesse. Die DNS in jedem Chromosom besteht aus zwei komplementären Strängen. Bei der Zellteilung (Mitose) spaltet sich die DNS in diese beiden Stränge auf, die sich dann jeder wieder einen neuen Komplementärstrang bilden. Auf diese Weise verdoppelt sich die DNS, und jede der beiden bei der Zellteilung entstehenden Tochterzellen erhält die vollständige Erbinformation. Im Unterschied hierzu werden bei der geschlechtlichen Fortpflanzung die Erbinformationen aus zwei sich vereinigenden Keimzellen zusammengeführt, allerdings nur jeweils die Hälfte der Erbinformation jedes der beiden Elternteile, so dass in jeder Generation die Menge der Erbinformation die gleiche bleibt, anstatt sich zu verdoppeln. Der Halbierungsschritt der Erbinformation heißt Meiose. Voraussetzung für diesen Schritt ist, dass die Erbinformation in den somatischen Zellen von sich geschlechtlich vermehrenden Lebewesen doppelt vorhanden ist, jeweils in einer von der Mutter und einer vom Vater ererbten Form. Solche Zellen

108

3 Molekularbiologie und genetische Steuerung

mit doppelter Erbinformation heißen diploid, im Gegensatz zu den haploiden mit einfacher Erbinformation.7 In diploiden Zellen treten daher die Chromosomen in Paaren auf, und die einander entsprechenden Chromosome eines solchen Paares heißen homolog (zum Begriff der Homologie vgl. die Abschn. 1.3 und 3.5.) Im ersten Stadium der Meiose verdoppelt sich auch zunächst jedes Chromosom zu zwei noch miteinander verbundenen sog. Chromatiden. Statt dass sich nun aber wie bei der Mitose diese beiden Chromatiden trennen und somit zu selbständigen Chromosomen werden, sucht sich jetzt jedes solches Chromatidenpaar den homologen Partner. Bei dieser Paarung kommt es i. A. zum Austausch von Teilstücken zwischen den Partnern, dem Kreuztausch (cross over)8 . Die derart neu zusammengesetzten Paare teilen sich dann wieder auf zwei Tochterzellen auf. In der zweiten Phase der Meiose teilen sich dann diese beiden Tochterzellen wiederum mit Trennung der Chromatiden zu selbständigen Chromosomen in zwei Zellen, allerdings im Gegensatz zur Mitose ohne vorherige DNS-Verdoppelung. Nun sind also vier haploide Zellen entstanden, die jeweils nur die Hälfte der Erbinformation der Ausgangszelle tragen, da die Chromosomen in ihnen keine homologen Partner mehr besitzen. Bei männlichen Lebewesen können alle vier zu Samenzellen werden, bei weiblichen kann sich allerdings nur jeweils eine der vier zu einer Eizelle entwickeln, da eine Eizelle noch zusätzliche Strukturen braucht, die sich durch diesen Prozess nicht vervierfachen können. Bei der geschlechtlichen Fortpflanzung entsteht nun durch Verschmelzung zweier haploider Keimzellen von zwei verschiedenen Individuen eine diploide Zelle, die sich dann durch Zellteilung vermehrt. Der so entstehende Nachwuchs enthält also die gesamte genetische Information aus den beiden elterlichen Keimzellen, gibt aber nur die Hälfte der von ihm durch Rekombination vermittels zufälliger Aufteilung der homologen elterlichen Chromosomen auf die beiden in der ersten Phase der Meiose entstehenden Tochterzellen wie auch des Kreuztausches zwischen den homologen Chromosomen neu zusammengestellten Information an jeden seiner Nachkommen weiter. Weil die Keimzellen individuell erzeugt werden, erhalten die einzelnen Nachkommen dabei je eine individuelle Auswahl der elterlichen Erbinformationen. Dies ist wesentlich für die Entstehung genetischer Diversität in einer Population. Wir hatten, stark vereinfachend, ein Gen als den für die Kodierung eines bestimmten Proteins verantwortlichen DNS-Abschnitt definiert. Jedes spezifische Gen sitzt nun 7 Wie überall in der Biologie gibt es auch hier Ausnahmen; z. B. gibt es Lebewesen mit vierfacher

Information (tetraploid). Unter den Pflanzen sind sogar viele, z. B. 80 % der Bedecktsamer (Angiospermen) tetraploid. Dies kann sowohl durch Genomverdopplungen (Autopolyploidie) als auch durch Hybridisierung zwischen verschiedenen Arten (Allopolyploidie) entstehen; vgl. z. B. Liu et al. (2017). Von größerem konzeptionellem Interesse scheint aber die Tatsache zu sein, dass bei Insekten aus der Ordnung Hymenoptera, insbesondere den sozial lebenden Ameisen, Bienen und Wespen, nur die Weibchen durch geschlechtliche Vermehrung entstehen und diploid sind, während die Männchen aus unbefruchteten Eiern stammen und haploid sind und ihre gesamte Erbinformation statt nur der Hälfte an ihre Töchter weitergeben, aber dafür zum männlichen Nachwuchs nichts beitragen. Hierauf werden wir im Abschn. 8.5 zurückkommen. 8 Eine Ausnahme bilden die geschlechtsbestimmenden Chromosomen, bei denen kein Kreuztausch vorkommt, die also unvermischt weitergegeben werden.

3.2 Genetische Grundgesetze

109

üblicherweise an einer festgelegten Stelle auf einem Chromosom, seinem Genort. Zwar können bei der Meiose durch Inversionen Chromosomenabschnitte herumgedreht und somit die Beziehung zwischen Genen und Genorten verändert werden (in den meisten Fällen ohne wesentlichen Einfluss auf die Proteinsynthese), aber wir wollen hiervon absehen und an dieser Stelle ein Gen einfach mit seinem Genort identifizieren – später werden wir einen besseren Vorschlag machen. Es muss allerdings darauf hingewiesen werden, dass zwar die Lage eines Gens im Genom wesentlich für dessen Expression ist, aber die Funktion eines durch ein Gen kodierten Proteins nun nicht mehr von der Position des Gens auf dem Chromosom abhängt, sondern – allerdings wiederum vereinfachend – nur von der Sequenz von Nukleotiden in diesem Gen. Auch wollen wir der Einfachheit halber annehmen, dass sich ein Kreuztausch nicht innerhalb eines Genes, sondern nur zwischen Genen ereignen kann, dass Gene als diskrete Einheiten sind, die bei der Vererbung intakt erhalten bleiben, abgesehen von der Möglichkeit von Übertragungsfehlern, den Mutationen, die wir auch in einer vereinfachten Darstellung nicht ignorieren können und auf die wir daher unten zurückkommen müssen. Wir wollen auch darauf hinweisen, dass auch die Größe des Genoms nicht festgelegt ist, sondern sich im Laufe der Evolution verändern kann. Insbesondere können sich auch Gene oder Genabschnitte verdoppeln und dadurch das Genom vergrößern. Auf diese Weise kann die Evolution Strukturprinzipien von Proteinen, die sich an einer Stelle als besonders erfolgreich erwiesen haben, auch für neue Zwecke verfügbar machen. Die Gene steuern also über die Proteinsynthese die Herausbildung der Eigenschaften des betreffenden Lebewesens, seinen Phänotyp. Wiederum ist die Sachlage allerdings etwas verwickelter, als es die vorstehende Aussage anzudeuten scheint. Zunächst hängt typischerweise eine bestimmte Eigenschaft nicht nur von einem einzelnen Gen ab, sondern sie wird durch die Wechselwirkung mehrerer Gene bestimmt, und umgekehrt ist ein einzelnes Gen typischerweise an der Herausbildung mehrerer phänotypischer Eigenschaften beteiligt. Insbesondere treten sog. epistatische Wechselwirkungen auf, wo beispielsweise ein Gen die Wirkung anderer Gene unterdrückt. Wir wollen diesen Punkt noch kurz etwas weiter diskutieren, weil er von grundlegender Bedeutung ist und daher auch zentral für eine richtig verstandene Systembiologie sein sollte. Man will verstehen, welche Gene, genauer im Lichte unserer Diskussion des Genbegriffes im Abschn. 3.3, welche DNS-Abschnitte9 wie welche phänotypischen Eigenschaften bewirken und vor allem auch welche Krankheiten oder Fehlfunktionen bedingen oder beeinflussen. Beides lässt sich messen oder beobachten, die DNS durch Sequenzierung wie auch ein bestimmter Phänotyp oder eine konkrete Krankheit, und durch statistische Analysen lassen sich die beiden auch korrelieren. Man eliminiert oder inaktiviert z. B. einen DNSAbschnitt in einem Tiermodell und guckt, wie sich das auswirkt. Man redet dann vom Knockout eines Gens, und wenn dann etwas nicht mehr klappt, meint man, das betreffende Gen sei für die ausgefallene Funktion verantwortlich. Das ist allerdings zu simpel gedacht, 9 Auch wenn, wie im Abschn. 3.3 dargelegt, mit dem Genbegriff sorgfältiger umgegangen werden sollte, verwenden wir mal der Einfachheit halber den Jargon vieler Praktiker und reden simplifizierend von „Genen“.

110

3 Molekularbiologie und genetische Steuerung

denn was man beim Knockout eines Gens beobachtet, ist die Anpassung des verbliebenen Genoms an die neue Situation. Das eliminierte Gen kann beispielsweise ein anderes Gen herauf- oder herunterregulieren, und dies ist noch eine sehr einfache Situation. Viele Eigenschaften sind polygen. Beispielsweise wird die Körpergröße von einer Vielzahl von Genen beeinflusst, von denen jedes einzelne nur einen sehr kleinen Effekt hat, die aber, wenn sie koordiniert zusammenwirken, einen erheblichen Unterschied bewirken können. Und wenn aber ein Gen dann an geeigneter Stelle in den Regulationsmechanismus eingreift, könnte es vielleicht einen solchen Unterschied auslösen. Heute redet man sogar (Boyle et al. 2017) von omnigenen Eigenschaften, dass also irgendwie jedes Gen graduell und in der Regulationskaskade möglicherweise sehr indirekt an der Herausbildung fast aller Eigenschaften beteiligt sein könnte. Wir kehren aber in unserer Diskussion zu den zellulären Funktionselementen, den Proteinen, zurück. Die erzeugten Proteine falten sich zu dreidimensionalen Gebilden, und von dieser sog. Tertiärstruktur (oder, genauer, einer hierauf aufbauenden Quartärstruktur) hängt die Wirkung des gebildeten Proteins in der Zelle ab. Schon die Bestimmung der Sekundärstruktur, also die Frage, welche Aminosäure mit welcher anderen im Protein bei dieser Faltung eine Bindung eingeht, ist schwierig, weil die Energiefunktion, die diesen Prozess bestimmt, indem sich das Protein eine Konfiguration möglichst kleiner Energie sucht, sehr viele Nebenminima besitzt, aber inzwischen gibt es hierzu erfolgreiche Verfahren. Die Bestimmung der Tertiärstruktur ist dagegen noch weitgehend ungelöst; hier stellen sich sehr interessante und schwierige mathematische Probleme, siehe z. B. Schütte (1999, 2002). Zwar weiß man inzwischen eine ganze Menge über die Gleichgewichtszustände minimaler Energie, und man kann heutzutage in Datenbanken nach experimentell bestimmten Konfigurationen ähnlicher Aminosäuresequenzen suchen, um die Tertiärstruktur einer gegebenen Sequenz zu erraten, aber die dynamischen Fragen, wie also eine Kette aus einem nicht gefalteten Anfangszustand die richtige Struktur findet, sind noch viel schwieriger. – Es stellt sich natürlich die Frage, warum Energielandschaften mit derartig vielen Nebenminima biologisch sinnvoll sind, denn eigentlich sollte es dann nicht nur für die schlauen Mathematiker, Informatiker oder Physiker mit ihren Computeralgorithmen, sondern auch für die lebende Zelle sehr schwer, wenn nicht sogar meist unmöglich sein, die richtige Konfiguration zu finden. Allerdings vollzieht sich die Proteinfaltung in der Zelle nicht unbedingt autonom, sondern in einem komplexen Umfeld, und oft werden Faltungsprozesse auch durch andere Proteine, die sog. Chaperone, gesteuert und unterstützt. Vor allem kann es durchaus sein, und dies ist nun ein eminent biologisches und kein physikalisches Argument, dass die sehr komplizierte Energielandschaft mit ihren vielen Nebenminima, oder metastabilen Zuständen (wie physikalisch Forschende sagen) das Ergebnis komplexer Regulationserfordernisse ist. Die Struktur des gefalteten Proteins bildet den wesentlichen Zwischenschritt in der Abbildung zwischen der durch ein Gen bestimmten Aminosäuresequenz und ihrer Funktion in der lebenden Zelle. Sowohl der Übergang von der Sequenz zur Struktur als auch derjenige von der Struktur zur Funktion ist nicht einfach, in dem Sinne, dass jeweils einerseits sehr verschieden scheinende Ausgangsdaten ein fast gleiches Ergebnis zeigen können und

3.2 Genetische Grundgesetze

111

andererseits sehr ähnliche Ausgangsdaten zu völlig verschiedenen Ergebnissen führen können. Schließlich ist es noch ein weiter Schritt von der Funktion der einzelnen Proteine zu ihrem schon angesprochenen Zusammenwirken bei der Herausbildung phänotypischer Eigenschaften. Ein Verständnis dieser Schritte als hochgradig komplexes Zusammenspiel abstrakter Prinzipien und konkreter Mechanismen ist wohl die derzeit größte Herausforderung an die biologische Forschung, und dies erfordert sicherlich in viel stärkeren Maße als bisher üblich den Einsatz formaler mathematischer Methoden. Weiterhin wird die Entwicklung von den vereinigten Keimzellen zum fertigen Lebewesen aber auch wesentlich von der Umwelt beeinflusst. Offensichtlich spielt z. B. das zur Verfügung stehende Nahrungsangebot eine wichtige Rolle10 . Nun hat auch, wie erläutert, jedes Chromosom ein homologes Gegenstück, und daher hat auch jeder Genort einen Gegenort. Sitzt nun auf diesem Gegenort das gleiche Allel, d. h. die gleiche Ausprägung des Gens wie auf dem ersteren Ort, also ein biochemisch gleicher DNS-Abschnitt, so heißt der Genort homozygot, sitzt aber dort ein anderes Allel, so nennt man ihn heterozygot. Die nun prinzipiell mögliche Konkurrenz bei Heterozygoten zwischen den beiden Allelen um die Proteinkodierung kann dadurch unterdrückt werden, dass nur eines der beiden Allele zum Zuge kommt, welches dann dominant genannt wird, während das andere, rezessive, ruht und nicht eingeschaltet wird. Allerdings kann ein rezessives Allel mit gleicher Wahrscheinlichkeit wie ein dominantes weitervererbt werden, und für die Fitness eines Allels im oben besprochenen Sinne (s. Abschn. 2.1) ist es daher unerheblich, ob das Allel dominant oder rezessiv ist – zumindest wenn man von der Wechselwirkung mit anderen Genen und dem Einfluss auf die Lebenstüchtigkeit der Organismen, in denen es vorkommt, absieht. In anderen Fällen kommt es bei Heterozygoten zu einer additiven Mischung der Eigenschaften der Reinformen. Es ist nun allerdings unklar, inwieweit die Allele der direkten Einwirkung der Selektion durch die unterschiedliche Fitness ihrer Träger unterworfen sind. Zumindest kann dies sehr stark vom Genort abhängen. Die Theorie der neutralen Evolution von Kimura (1963/1983) postuliert sogar, dass der wesentliche Mechanismus, durch den Veränderungen der relativen Häufigkeit von Allelen in einer Population verursacht werden, die genetische Drift, also ein nicht selektionsgetriebener Zufallsprozess ist. Natürlich streitet auch diese Theorie nicht ab, dass viele Mutationen lethal sind.

10 Bekanntlich sind Diskussionen über die relative Bedeutung von Vererbung und Umwelt beliebt.

Allerdings beruhen hierbei viele Beiträge auf einem Gedankenfehler. Eine solche Abwägung ist nämlich nur dann sinnvoll, wenn die Variation der Umwelt normiert ist. Variiert die Umwelt selbst sehr stark, schwankt z. B. das verfügbare Nahrungsangebot oder die Außentemperatur während des Entwicklungsprozesser erheblich, so hat diese Umwelt i. A. auch einen sehr deutlichen Einfluss auf den Phänotyp. Ist dagegen die Umwelt sehr homogen, so können sich vielleicht fast alle Unterschiede zwischen den Lebewesen in einer Population auf genetische Variationen zurückführen lassen. Wir werden auf solche Fragen in Abschn. 6.3 unter einem anderen Gesichtspunkt zurückkommen.

112

3.3

3 Molekularbiologie und genetische Steuerung

Molekularbiologische Aspekte des Genbegriffs

Das „Gen“ ist der wichtigste Begriff der modernen Biologie. Zwar hat ein Gen, wie schon bei der Einführung des Begriffes vermutet und durch die Biochemie seit langem bewiesen, ein physikalisches Substrat, aber es ist trotzdem weder ein physikalischer noch ein chemischer Begriff, sondern ein genuin biologisches Konzept, das nicht auf ein solches physikalisches Substrat reduzierbar ist. Und während physikalische und chemische Konzepte meist, außer in Phasen wissenschaftlicher Umbrüche, unkontrovers sind, besteht über biologische Begriffe wie diejenigen der Art oder des Lebens oftmals keine Einigkeit. Insbesondere gibt es auch keine allgemein akzeptierte Definition des Gens. Nun soll der Genbegriff allerdings auch sehr viel leisten. Er soll klären, was der Erblichkeit von Merkmalen zugrunde liegt. Der Begriff des Merkmals ist selbst schon problematisch, wie wir in Abschn. 2.10 diskutiert haben. Klassische Merkmale sind am Organismus (oder an Fossilien) beobachtbare Eigenschaften, also makroskopisch. Sie beruhen allerdings letztendlich meist auf der Funktion bestimmter Proteine, die in Zellen gebildet werden. Dies ist zwar meist im Detail sehr knifflig, aber zumindest in Umrissen heute gut verstanden. Der Genbegriff soll nun abstrakt den Bildungsprozess von Proteinen erfassen und in konkreten Molekülen und zellulären Vorgängen verorten und dabei spezifizieren, wie was davon vererbt wird. Dies führt uns auf den Informationsbegriff, denn es geht darum, welche Information für die Bildung dieser Proteine erforderlich ist und wie diese gespeichert ist und vererbt wird. Es geht also um drei verschiedene Aspekte, die Erbeinheit, die Speicherung von Information und die Instruktionen zur Bildung von Proteinen. Der erste Aspekt wird von der Evolutionsbiologie hervorgehoben, wobei allerdings viele der dort angestellten Überlegungen problematisch sind, wie wir schon an verschiedenen Stellen gesehen haben. Insbesondere tritt hier schon das Problem auf, dass mit einem Gen manchmal ein konkretes, in einer Zelle eines Organismus lokalisiertes Molekülschnipsel gemeint ist, in anderen Fällen aber eine Klasse solcher biochemisch identischer Moleküle. Der zweite Aspekt ist für die bioinformatische Analyse des Genoms fundamental, und hier sind viele Algorithmen entwickelt worden, die auch auf interessante Probleme in der diskreten Mathematik führen. Der dritte Aspekt ist der vielleicht biologisch tiefste und daher wohl auch schwierigste. Auch hier geht es um das Wechselspiel zwischen konkreten, biochemisch identifizierbaren Strukturen, nämlich Ketten von Nukleotiden, und abstrakten Informationen, die biochemisch verteilt oder mehrfach repräsentiert sein können. Und auch die konkreten Nukleotidketten können, wie wir sehen werden, sowohl kodierende als auch regulatorische Information tragen, und diese beiden Typen sind häufig nicht trennbar. Im Folgenden sollen nun meine über viele Jahre gemeinsam mit dem Biochemiker Klaus Scherrer entwickelten Überlegungen zu diesem Thema vorgestellt werden. Mathematisch wird uns dies in die Gebiete der Informationstheorie und der Kombinatorik führen. Ich werde nun versuchen, das Nachstehende weniger biochemisch präzise als so abstrakt wie möglich darzustellen, damit mathematische Ansatzpunkte besser erkennbar werden. Wir beginnen mit einem Codon, bestehend aus drei Nukleotiden, das nach dem genetischen

3.3 Molekularbiologische Aspekte des Genbegriffs

113

Kode eine Aminosäure bestimmt. Dieses Codon kann sich in einem ORF (open reading frame, offener Ableserahmen) befinden. Ein ORF ist ein ununterbrochener Abschnitt im Genom, der von einem Start- und einem Stopcodon begrenzt wird, also ein umgrenzter Ablesungsbereich. Nicht die gesamte DNS wird nämlich abgelesen oder ist überhaupt ablesbar, sondern nur bestimmte Bereiche, gesteuert durch bestimmte Proteine, die sich an spezifische Stellen der DNS innerhalb oder außerhalb eines solchen Bereiches binden. Das Codon hat also einerseits seine chemische Identität, bestimmt durch die drei Nukleotide, aus denen es besteht, befindet sich aber andererseits auch an einer spezifischen Stelle in der DNS, und letzteres bestimmt, wie wir noch genauer darlegen werden, seine Expression, also seine mögliche Ablesung und Übersetzung in eines oder mehrere verschiedene Polypeptide (Proteinkomponenten). Ablesung und Übersetzung können also mehrfach passieren und zu unterschiedlichen Resultaten führen. Es gibt also zwei Fragen. Die erste ist, wann und wie häufig dieser Vorgang stattfindet. Dies hängt vom Typ und Zustand der betreffenden Zelle ab. Verschiedene Zellen in einem Organismus, obwohl sie die gleiche DNS tragen, benötigen für ihre Funktion verschiedene Proteine, und es gibt systematische Mechanismen der Zelldifferenzierung, insbesondere, dass nur bestimmte Teile der DNS einer Ablesung zugänglich gemacht und andere gewissermaßen abgeschaltet werden, die meist irreversibel einen bestimmten Zelltyp festlegen. Aber auch in einer spezifischen Zelle schwanken die metabolischen Erfordernisse, und deswegen müssen auch je nach Zustand verschiedene Proteine in geeigneten Mengen hergestellt werden. Und dies sollte nun reversibel sein, da sich die Erfordernisse ändern können. Die Genexpression muss also flexibel reguliert werden. Zunächst einmal wird schon der Ablesevorgang auf der Ebene der DNS gesteuert. Geeignete ausgezeichnete Bereiche – aus Gründen, die gleich noch erhellen, spreche ich hier noch nicht von Genen – werden dann abgelesen, wenn spezifische Proteine oder Proteinkombinationen an bestimmte Stellen der DNS binden und umgekehrt andere Proteinen an anderen Stellen abgelöst werden. Die Proteine, die den Ablesevorgang steuern, heißen Transkriptionsfaktoren. Der erste solche Steuerungsmechanismus wurde von Jacob und Monod aufgedeckt und in ihrem Operon-Modell abstrakt zum Ausdruck gebracht (Jacob und Monod 1961). Wir hatten dies schon im Abschn. 1.3 angesprochen. Der hier für uns besonders wichtige Punkt ist, dass Nukleotidsequenzen in der DNS nicht nur ein kodierende Funktion haben können, sondern auch eine regulatorische Funktion, indem sie Bindungsstellen für spezifische Proteine, die Transkriptionsfaktoren, darstellen. Die Regulation vollzieht sich allerdings auf (mindestens) zwei Ebenen. Zunächst sind die meisten Abschnitte der DNS für die Ablesung unzugänglich. Die DNS ist in Abschnitten von jeweils 147 Basenpaaren um bestimmte Proteine, die Histone, gewickelt, und wenn diese dicht aneinander liegen (Heterochromatin), so kann die DNS nicht abgelesen werden. Nur wenn das lockerer ist (Euchromatin), ist eine Ablesung möglich. Wie bei wohl allen biologischen Regulationsvorgängen hat sich auch hier ein gewisser Kode herausgebildet, s. z. B. Prohaska et al. (2010). Die Chromatinregulierung vollzieht sich langsam, und Chromatinstrukturen werden teilweise auch epigenetisch vererbt (für eine Diskussion in einem weiteren Kontext s. Jablonka und Lamb 2005), ist also über Generationen stabil.

114

3 Molekularbiologie und genetische Steuerung

Insbesondere ist die Chromatinregulierung auch wichtig für die Zelldifferentiation. Wie beschrieben können wegen des Chromatins nur bestimmte Bereiche der DNS abgelesen werden. Dies geschieht durch ein spezielles Protein, die Polymerase. Und diese Polymerase wird durch bestimmte Transkriptionsfaktoren angezogen und durch andere auch wieder von der DNS entfernt, so dass also jeweils spezifische Abschnitte abgelesen werden. Die kodierenden und regulatorischen Abschnitte sind meist getrennt, liegen aber oft nahe beieinander. Die Entfernung muss insbesondere natürlich an die Struktur der Polymerase angepasst sein, wie auch an die durch verschiedene Proteine regulierte räumliche Struktur der DNS. Insbesondere kann durch bindende Proteine die räumliche Anordnung der DNS verändert werden, so dass auf der Sequenz weit auseinander liegende Abschnitte in räumliche Nähe gebracht werden, was eine koordinierte Expression ermöglicht. Hier ergeben sich auch geometrische Fragen, die über die auch in der Mathematik populäre Anwendung der Knotentheorie und der Variationsrechnung auf die räumliche Struktur der DNS weit hinausgehen (s. z. B. Boi 2011). Aber dies ist noch Forschungsneuland. Klaus Scherrer und ich haben jedenfalls den abstrakten Begriff des Topons für eine räumliche Struktur von regulatorischer Signifikanz eingeführt. Die kodierenden Sequenzen für verschiedene Polypeptide können auch überlappen. Dies wird sehr intensiv von Viren genutzt, um mit einer möglichst kleinen DNS viele verschiedene Proteine bilden zu können. Aber wir sind hier vornehmlich an Eukaryonten interessiert, also Lebewesen, deren Zellen einen Zellkern besitzen, in dem die DNS aufbewahrt und abgelesen wird, und hier geht es auch nach der Ablesung noch weiter. Abgelesene Abschnitte durchlaufen eine ganze Kaskade von Regulationsvorgängen (Scherrer 1980). Sie werden weiter prozessiert, zerschnitten und neu zusammengefügt. Insbesondere können hierbei oft alternative Möglichkeiten verwirklicht werden. Beim Spleißen werden bestimmte Abschnitte, die Introns, ausgeschnitten, und die verbliebenen Teile, die Exons, können auf verschiedene Weise zusammengefügt werden. Dies ist eine Möglichkeit, wie aus ein- und demselben kodierenden Abschnitt mehrere verschiedene Polypeptide erzeugt werden können. Für diesen wie für andere Regulationsvorgänge gibt es jeweils einen spezifischen Kode, dessen genauere kombinatorische Struktur, Wirkungsweise und Effizienz meist noch der Aufklärung und Analyse harren. Typischerweise beruht ein regulatorischer Kode wie der Spleißcode (e.g. Barash et al. 2010; Xiong et al. 2015), der für das Zusammensetzen der Exons verantwortlich ist, auf spezifischen Sequenzmotiven, die Bindungsstellen für regulatorische Faktoren darstellen, wie wir dies abstrakt in Jost und Scherrer (2014) entwickelt haben. Insbesondere passiert sehr viel zwischen der Ablesung von der DNS und der Übersetzung in ein Polypeptid, also auf der Ebene der RNS. Zunächst einmal ist viel mehr als mRNS vorhanden, als was dann tatsächlich übersetzt wird. Die Zelle hält sich gewissermaßen einen Vorrat von kodierenden RNS-Sequenzen, die bei Bedarf schnell übersetzt werden können, bei fehlendem Bedarf aber auch einfach wieder abgebaut werden können. Letzteres geschieht beispielsweise durch kleine RNS-Schnipsel, die miRNS („mi“ für „micro“) oder die siRNS („si“ für „small interfering“), die komplementär an mRNS andocken (s. Abschn. 3.4) und dann Proteine anziehen, die die mRNS zerschneiden. Überhaupt sind der

3.3 Molekularbiologische Aspekte des Genbegriffs

115

kodierenden Sequenz in der mRNS Sequenzmotive benachbart oder auch in ihr enthalten, die spezifische Proteine binden können. Diese RNP-Komplexe („P“ für „Protein“) sind von K. Scherrer und seinen Mitarbeitern entdeckt und systematisch untersucht worden, s. z. B. Maundrell et al. (1979), Maundrell und Scherrer (1979), Vincent et al. (1983, 1977, 1980, 1981). Diese Proteine verhindern die Übersetzung, und erst, wenn einige von ihnen abgelöst werden, wird die mRNS zur Übersetzung bereit. Jede mRNS enthält mehrere solcher Motive, und ein- und dasselbe Motiv kommt typischerweise in verschiedenen mRNS vor. Die resultierende Kombinatorik ermöglicht die koordinierte Expression von Gruppen von Genen, s. Jost und Scherrer (2014). Mathematisch führt dies auf die folgende Frage (s. Jost und Scherrer 2014; Jost 2014), deren Antwort ich nicht kenne: In einer N × K -Matrix mit Einträgen 0 oder 1 können in jeder der N Zeilen k Einträge auf 1 gesetzt werden, die verbliebenen K − k Einträge sind also 0. Für κ η

(3.4.4)

ist, besteht, als kleinste Umgebung von α deklariert. (Wenn man alle Mengen von Sekundärstrukturen, die U (α) enthalten, ebenfalls als Umgebungen von α definiert, so erhalten wir die gesuchte Prätopologie; diese Prätopologie ist deswegen i. a. keine Topologie, weil eine Umgebung U von α nicht notwendigerweise auch schon eine Umgebung jedes β mit β ∈ U ist, also Umgebungen nicht offen im Sinne der Topologie sein müssen.) Im Falle η = 0 umfasst U (α) also alle Strukturen β, die durch eine Punktmutation aus einer Struktur, die zu α faltet, erhalten werden können. Je größer η ist, desto größer muss auch der Anteil von β an den Strukturen sein, die durch Punktmutationen von Strukturen aus α entstehen können, damit β zu allen Umgebungen von α gehört, also in diesem Sinne zu α benachbart ist. (Wie schon gesagt, ist diese Beziehung nicht unbedingt symmetrisch, d. h. wenn β zu α benachbart ist, braucht α nicht auch zu β benachbart zu sein.) Ein evolutionärer Pfad, also eine Folge von Strukturen, die jeweils durch eine einzelne Punktmutation einer zugrundeliegenden Sequenz auseinander hervorgehen, ist dann stetig (im Sinne der gewählten Prätopologie), wenn nur Übergänge zu benachbarten Sequenzen vorkommen. Wegen der fehlenden Symmetrie ist die Umkehr eines stetigen Pfades nicht unbedingt ebenfalls stetig. Auf diese Weise, d. h. wenn die Auswahl auf stetige Pfade eingeschränkt wird, kann die Evolution gerichtet werden, ohne dass es hierzu eines gerichteten Selektionsdruckes bedarf.

3.5

Gegenreihung und Homologie

Wir hatten den biologischen Begriff der Homologie schon im Abschn. 1.3 eingeführt. Er hat nichts mit dem mathematischen Begriff der Homologie zu tun. In der Biologie heißen abstammungsverwandte Strukturen homolog, im Gegensatz zu funktionsähnlichen, welche analog genannt werden. Homologie ist, wie in Abschn. 1.3 dargelegt, zunächst als morphologischer Begriff eingeführt und dann evolutionstheoretisch interpretiert worden, bevor er, wie nun hier geschildert werden soll, in der Molekulargenetik eingesetzt worden ist. Heute erkennt man, dass diese verschiedenen konzeptionellen Ebenen auf intrikate Weise miteinander verknüpft sind. Beispielsweise sind die Vordergliedmaßen eines Säuge-

12 Eine Prätopologie auf einer Menge X ist definiert durch Angabe einer Untermenge P(X ) der

Potenzmenge von X , derart, dass es zu jedem x ∈ X eine Teilmenge P(x) von P(X ) gibt, mit (i) x ∈ U für alle U ∈ P(x) (ii) Sind U1 , U2 in P(x), so auch U1 ∩ U2 (iii) Ist U in P(x), so liegt auch jedes V ∈ P(X ) mit U ⊂ V in P(x).

126

3 Molekularbiologie und genetische Steuerung

tieres und die Flügel eines Vogels homolog, weil sie sich beide aus den Vordergliedmaßen amphibischer und reptiler Vorfahren entwickelt haben. Die Flügel eines Vogels und diejenigen einer Fledermaus sind zwar als Vordergliedmaßen homolog, aber als Flügel nur analog, weil sie nicht von einer gemeinsamen Flügelform abstammen, sondern sich unabhängig voneinander aus Vordergliedmaßen von Boden- oder Baumbewohnern entwickelt haben. Der biologische Sachverhalt ist aber verwickelter, als man zunächst glauben möchte. Und zwar sollte man beispielsweise denken, dass die Gliedmaßen von Säugern und Insekten analog, nicht homolog seien. Nun hat man aber bestimmte Gene entdeckt (die berühmten Hoxgene), die die Herausbildung von Gliedmaßen und anderen Körperausstülpungen steuern und bei beiden Gruppen vorkommen, in dem Sinne, dass das entsprechende Fliegengen auch bei Mäusen die Bildung von Gliedmaßen initiieren kann (und zwar nicht etwa von Fliegen-, sondern von richtigen Mäusebeinen) und umgekehrt. Ähnliches gilt für die Augen von Arthropoden, Wirbeltieren und Mollusken (beispielsweise Tintenfischen), wie ebenfalls in Abschn. 1.3 beschrieben. Früher hatte man die Herausbildung von Sehorganen in derart verschiedenen Tiergruppen als Musterbeispiel einer konvergenten Entwicklung angesehen, aber anscheinend beruht dies eher auf einer sehr alten stammesgeschichtlichen Verwandtschaft von Steuerungsmechanismen. Nun ist es unwahrscheinlich, dass ein solcher gemeinsamer Vorfahr schon richtig ausgebildete Augen besessen hat, aber bemerkenswerterweise waren solche Strukturen in irgendeiner Form schon implizit angelegt, oder es konnte zumindest auf ähnliche Steuerungsmechanismen zu ihrer Herausbildung zurückgegriffen werden, und diese haben dann die Evolution in verschiedenen Tierklassen in die gleiche Richtung geleitet. Nun sollte das Konzept der Homologie zwar noch nicht bei dessen Erfinder Owen, aber bei und nach Darwin zur Rekonstruktion von Stammbäumen dienen. Eine Schwierigkeit dabei war allerdings, diejenigen Entitäten zu identifizieren, bei denen man Homologien prüfen oder feststellen konnte. Dieses Problem hatten wir im Abschn. 2.10 behandelt. In der Morphologie hat man es nämlich mit Gestalten zu tun, und wenn man rezente zu fossilen Formen in Beziehung setzen wollte, um gemeinsame Vorfahren zu identifizieren, war man auf einen Gestaltvergleich angewiesen. Wenn man in biologischen Klassifikationssystemen nur mit rezenten Formen arbeitet, hat man natürlich zusätzliche Vergleichsmöglichkeiten. Und hier kann nun die Molekularbiologie ansetzen. Statt phänotypische Formen oder Entwicklungsprozesse miteinander zu vergleichen, kann man heutzutage die Genome verschiedener Spezies miteinander vergleichen. Zwar muss man dabei weitgehend auf fossile Daten verzichten, denn die DNS erhält sich höchstens einige Tausend Jahre in genügender Qualität, aber dafür scheint das Datenmaterial unkontrovers zu sein und man braucht daher keinen Merkmalsbegriff mehr. Ganz so einfach ist es aber nun doch nicht. Zwar kann man inzwischen immer billiger und einfacher ganze Genome sequenzieren, aber für die molekulare Stammbaumrekonstruktion werden üblicherweise nur bestimmte kleinere Abschnitte verwendet, typischerweise kodierende Sequenzen. Wenn man nun entsprechende Sequenzen von zwei oder mehr Spezies hat – und was entsprechend heißt, muss dann gleich mittels des Homologiebegriffes präzisiert werden –, so muss man sie durch eine Gegenreihung („alignment“ auf Englisch) in

3.5 Gegenreihung und Homologie

127

Beziehung setzen. Wenn z. B. die beiden Sequenzen A AC GT CC und A AC G ACC sind, so ist klar, wie das aussieht, weil sie sich nur an einer Position (T vs. A an der fünften Stelle) unterscheiden und die anderen Buchstaben gegenübergestellt werden können, also A AC GT CC A AC G ACC,

(3.5.1)

wobei die Mutation fett markiert ist. Man kann den Hammingabstand zweier solcher Sequenzen als die Anzahl der Positionen definieren, an denen sie sich unterscheiden. Die beiden Sequenzen in 3.5.1 haben also den Abstand 1. Dieser Hammingabstand sollte dann die evolutionäre Verschiedenheit ausdrücken. Und man kann dann auch, wenn man mehrere Sequenzen hat, von Apomorphien etc. wie im Abschn. 2.9 reden, um daraus einen Stammbaum zu rekonstruieren. Das sieht nun mathematisch alles recht einfach aus. Leider ist die Gegenreihung aber nicht immer so einfach wie in 3.5.1. Genome ändern sich nämlich nicht nur durch Punktmutationen, bei denen ein einzelner Buchstabe durch einen anderen ersetzt wird (das fette T durch das A, wobei wir aber, wenn wir nur zwei Sequenzen und nicht auch eine dritte Vergleichssequenz vorliegen haben, noch nicht sagen können, in welcher Richtung sich die Mutation vollzogen hat), sondern es gibt auch Deletionen, bei denen ein Buchstabe ausgelassen wird, oder Insertionen, bei denen einer hinzugefügt wird. Aber auch das lässt sich handhaben. Z. B. ist eine plausible Gegenreihung AC AGT C GT AC AGT AC T ,

(3.5.2)

wobei wir aber wieder ohne Vergleich mit einer dritten Sequenz nicht feststellen können, wo eine Deletion und wo eine Insertion vorliegt. Wenn dagegen eine solche Sequenz vorliegt, beispielsweise AC AGT C GT AC AGT AC T T C AGT AC T ,

(3.5.3)

mit einer Mutation an der ersten Stelle, so können wir folgern, dass die erste Sequenz ein A verloren und ein G hinzugefügt hat. Jedenfalls kann man auch das Beispiel 3.5.2 behandeln, indem man den Hammingabstand mit möglichen Einfügungen von Leerstellen minimiert. In dem Beispiel ist dieser minimale Abstand 2. Aber es wird noch komplizierter. Z. B. kann es zu Inversionen kommen, bei denen ein ganzer Abschnitt herumgedreht wird. Aus T A AC G ACC kann z. B. GC A AT ACC werden. Oder es können nicht nur einzelne Buchstaben verschwinden oder hinzugefügt werden, sondern ganze Abschnitte. Auch das ist natürlich im Prinzip einer mathematischen Behandlung zugänglich, und jedes Lehrbuch der Bioinformatik präsentiert praktische Verfahren der Gegenreihung, und auch im Internet findet man hierzu geeignete Software, denn hierbei

128

3 Molekularbiologie und genetische Steuerung

handelt es sich um die wohl wichtigste Methode der Bioinformatik überhaupt. Und man kann nicht nur DNS, sondern auch RNS- oder Aminosäuresequenzen gegenreihen. Und auch bei der Genomsequenzierung braucht man solche Prinzipien. Bei der Sequenzierung werden nämlich mehrere Kopien des Genoms nach einem Zufallsprinzip in kleine Schnipsel zerlegt, deren Buchstabenfolge man dann in Mikrorastern („microarrays“) identifizieren kann, indem man feststellt, an welche komplementären Stücke sie binden. Hat man also in einem Kästchen des Mikrorasters die Sequenz A AT GGC T AGC, so muss ein Schnipsel, das darin bindet, die Buchstabenfolge T T ACC G AT C G besitzen, da A und T sowie C und G jeweils komplementär binden. Und das ursprüngliche Genom muss dann aus den Überlapps der Schnipsel von verschiedenen Exemplaren rekonstruiert werden. Hat man z. B. die Schnipsel T T ACC G AT C G und CC GT T T ACC G, so kann man sie zu CC GT T T ACC G AT C G zusammensetzen und hat damit schon ein längeres Stück identifiziert. Wegen der Größe des Genoms und der durch die kombinatorische Explosion der Möglichkeiten bedingten Kürze der Schnipsel braucht man natürlich sorgfältige statistische Verfahren bei der Zusammensetzung. Aber wir wollen nun zu den konzeptionellen Aspekten der Homologie zurückkehren. Einander abstammungsmäßig entsprechende Gene, oder aus den im Abschn. 3.3 dargelegten Gründen besser, Genomabschnitte heißen homolog. Wenn also die kodierenden Abschnitte für ein bestimmtes Protein, beispielsweise ein Histon, in zwei verschiedenen Spezies gegengereiht werden können, so sind sie homolog, wenn man davon ausgehen kann, dass sie von einem gemeinsamen Vorfahren ererbt sind. Und das Letztere könnte z. B. durch den Vergleich einer größeren Umgebung festgestellt werden. Genauer heißen solche von einem Vorfahren gemeinsam übernommene Abschnitte ortholog; dies entspricht Owens spezieller Homologie. Es können aber auch Abschnitte in ein- und demselben Genom homolog sein, weil sie durch eine Verdoppelung entstanden; solche Abschnitte heißen paralog, was Owens serieller Homologie entspricht. Und schließlich gibt es noch Abschnitte, die aus einem horizontalen Gentransfer aus einer anderen Art, beispielsweise einem Bakterium, in Vorgängern stammen; diese heißen xenolog. Vom Standpunkt der Genomabschnitte besteht eine Orthologie, wenn der Ursprung ein Speziationsereignis, eine Paralogie, wenn der Ursprung eine Verdoppelung, und eine Xenologie, wenn der Ursprung ein horizontaler Gentransfer war. Insbesondere unterscheiden sich i. a. die Stammbäume von Spezies und diejenigen von Genen. Nicht nur Orthologien, sondern auch Paralogien und Xenologien lassen sich allerdings zur Stammbaumrekonstruktion von Spezies verwenden (Hellmuth et al. 2015; Geiß et al. 2018).

3.6

Die Entstehung des Lebens

Wie schon mehrfach herausgestellt, besitzt Leben als biologischer Prozess zwei wesentliche Komponenten, nämlich Selbstreplikation von Information und Strukturaufbau durch Stoffwechsel. In den heutigen Lebensformen, also aus (einer oder mehreren) Zellen beste-

3.6 Die Entstehung des Lebens

129

henden Lebewesen, wird die genetische Information in der DNS gespeichert und von dort mittels RNS in den Aufbau von Proteinen umgesetzt, welche dann die Stoffwechselprozesse durchführen. Am Leben sind alle beiden verschiedenen Typen von Molekülen beteiligt. Wer daher über den Ursprung des Lebens spekulieren will, wird auf die Frage geführt, welcher der beiden Typen, also Polynukleotide wie in der DNS/RNS oder Aminosäureketten wie die Proteine zuerst entstanden ist. Dyson (1999) hat daher spekuliert, dass Vermehrung und Stoffwechsel unabhängig voneinander entstanden sind und erst später zusammengefunden haben. Heutzutage glaubt man eher (s. Schuster 2007), dass die Antwort darin besteht, dass es zuerst eine RNS-Welt gab, in welcher bestimmte RNS-Moleküle jeweils die Produktion von anderen katalysiert haben, so dass ein rückgekoppelter Zykel oder Kreislauf entstanden ist, in dem jedes der für die Aufrechterhaltung des Prozesses erforderliche Molekül einen Katalysator besaß. In dieser RNS-Welt konnten so Strukturen aufgebaut werden, die zu einer stabilen und treuen Replikation von Information in der Lage waren. RNS-Moleküle etablierten also diesem Szenarium zufolge bestimmte Stoffwechselprozesse, bevor die für diese Zwecke effizienteren Proteine „erfunden“ wurden und diese Funktionen übernehmen konnten. Ein mögliches Szenario sieht so aus. Im Abschn. 3.3 hatten wir schon über RNS-ProteinKomplexe gesprochen. Dort hatten wir argumentiert, dass Proteine die Verarbeitung der RNS steuern. Aber es kann auch umgekehrt sein, dass nämlich RNS-Moleküle Gerüste für das Zusammenfinden von Proteinen darstellen. Aminosäuren konnten wohl unter den chemischen Bedingungen, die in der Frühzeit der Erde herrschten, recht einfach synthetisiert werden, wie schon die berühmten Experimente von Miller und Urey (1959) in den 50er Jahren gezeigt haben. Allerdings bilden sie nicht spontan lange Ketten, sondern brauchen dafür katalytische Hilfe, wie sie in heutigen Zellen von spezialisierten RNS-Molekülen bereit gestellt wird. Die Bausteine der RNS, die Nukleotide, können sich dagegen selbständig zu Ketten zusammensetzen. Aminosäuren werden also heute durch eine bestimmte RNS, die rRNS, zu Polypeptiden zusammengesetzt. Auch die Bindungsstellen in anderen RNS-Molekülen, die mit Proteinen wechselwirken, reagieren natürlich nicht auf das gesamte Proteine, sondern auf bestimmte Motive, also kleine Bestandteile, Peptide, die aus einigen wenigen Aminosäuren bestehen. So hat sich vielleicht auch der genetische Kode herausgebildet, dass nämlich bestimmte Kombinationen aus drei Nukleotiden eine gewisse Affinität zu spezifischen Aminosäuren entwickelten. – Peptidketten können sich nun erst zu den dreidimensionalen Strukturen, den Proteinen, also den wesentlichen funktionalen Strukturen in der Zelle, falten und zusammenfinden, wenn sie eine bestimmte Länge erreicht haben. Ursprünglich, als Peptidketten noch nicht lang genug waren, hat also möglicherweise die RNS Peptide so zusammengebracht, dass sie eine Stoffwechselfunktion ausüben konnten. Und dann hat die RNS „gelernt“, als rRNS lange Peptidketten herzustellen, die dann kein Gerüst mehr brauchten. Man vgl. z. B. Söding und Lupas (2003) für solche Überlegungen. Wenn man dies soweit akzeptiert, auch wenn das meiste natürlich derzeit noch spekulativ ist, geht es nun – neben Experimenten, die die Entstehung von RNS-Molekülen

130

3 Molekularbiologie und genetische Steuerung

aus einfacheren Bestandteilen unter präbiotischen Bedingungen auf der Erde plausibel machen – also um die Entwicklung und Analyse formaler Modelle zum Aufbau und zur Stabilität derartiger katalytischer Kreisläufe. Ein prominentes derartiges Modell ist der Hyperzykel von Eigen und Schuster (1979), den wir jetzt vorstellen wollen (eine gute mathematische Referenz hierzu ist Hofbauer und Sigmund 1998), auch wenn sich die Betrachtungsskala eigentlich besser in die Modelle des Kap. 4 einfügen würde. In diesem Modell gibt es RNS-Moleküle i = 1, . . . , N , welche modulo N gezählt werden, von denen jeweils das i-te die Produktion des i + 1-ten katalysiert (und aufgrund unserer zyklischen Zählung katalysiert dann also auch das N -te die Produktion des ersten). Weil die Rohstoffe beschränkt sind, stehen diese Moleküle aber auch in Konkurrenz miteinander, und ihre Gesamtanzahl ist beschränkt. Daher ist es sinnvoll, mit den relativen Häufigkeiten xi zu arbeiten; es gilt also 0 ≤ xi ≤ 1 für i = 1, . . . , N und x1 + x2 + . . . + x N = 1,

(3.6.1)

d. h. die Dynamik findet in dem Einheitssimplex S N des N -dimensionalen euklidischen Raumes statt. Wir sind dann formal in der gleichen Situation wie bei der Diskussion der Replikatorgleichung (2.2.9), und die relative Änderung von xi , also xx˙ii , wird durch den Unterschied zwischen der Fitness von xi selbst und der durchschnittlichen Fitness der Gesamtpopulation gegeben. Wird nun die Produktion von xi durch das i − 1-te Molekül mit dem Wirkungsfaktor ki katalysiert, so ist die Produktionsrate von xi durch ki xi−1 gegeben, und dies wäre dann die Fitness von xi . So erhalten wir also aus der Replikatorgleichung (2.2.9), (2.11) hier die Hyperzykelgleichung x˙i = xi (ki xi−1 −

N 

k j x j x j−1 ) f¨ur i = 1, . . . , N ,

(3.6.2)

j=1

wobei wir an die Zykelkonvention x0 = x N erinnern. Wir nehmen hier an, dass die ki alle positiv sind, dass also kein Molekül die Produktion seines Nachfolgers behindert, denn sonst könnte sich kein katalytischer Kreislauf entwickeln. Durch geeignete Transformationen lässt sich dann erreichen, dass alle ki = 1 werden; dann vereinfacht sich unsere Hyperzykelgleichung zu x˙i = xi (xi−1 −

N  j=1

x j x j−1 ) f¨ur i = 1, . . . , N .

(3.6.3)

3.6 Die Entstehung des Lebens

131

Dieses System hat offensichtlich genau einen Gleichgewichtspunkt p0 in S N , nämlich xi = 1/N

(3.6.4)

für alle i. Zur Untersuchung der Stabilität kann man die Funktion X (x) = x1 x2 . . . x N

(3.6.5)

betrachten; es gilt (log X )˙ =

N N   x˙i =1− N x j x j−1 . xi i=1

(3.6.6)

j=1

Dieser Ausdruck verschwindet in unserem Gleichgewichtspunkt p0 , weil dort alle Komponenten xi stationär sind. Für N = 2 und 3 ist dieser Ausdruck ansonsten überall positiv, und X ist somit eine Lyapunovfunktion und wächst längs jeder Trajektorie, und unser Gleichgewichtspunkt p0 ist daher stabil. Für N = 4 ist (log X )˙ positiv außer für x1 +x3 = x2 +x4 , wo es verschwindet. Da diese Menge nur p0 als invariante Menge enthält, ist das Gleichgewicht auch in der Dimension N = 4 stabil. Für N ≥ 5 dagegen gibt es in jeder Umgebung von p0 Punkte, in denen (log X )˙ negativ wird, und, wie man hieraus schon vermuten könnte, ist das Gleichgewicht dann auch nicht mehr stabil. Wir sehen also, dass nur kurze Hyperzykel stabil in dem Sinne sein können, dass es ein stabiles Gleichgewicht für die Molekülkonzentrationen gibt. Dafür dass der katalytische Hyperzykel funktioniert, ist es jedoch nicht unbedingt erforderlich, dass die Molekülkonzentrationen konstant bleiben, sondern nur, dass er nicht dadurch zusammenbricht, dass eine der Konzentrationen zu Null reduziert wird; die Konzentrationen können also durchaus fluktuieren, solange sichergestellt ist, dass sie auch asymptotisch positiv bleiben. Deswegen ist der folgende Begriff sinnvoll: Ein auf dem Simplex S N definiertes dynamisches System heißt permanent, falls es ein derartiges δ > 0 gibt, dass, wenn alle Anfangswerte xi (0) > 0 sind, lim inf xi (t) > δ t→∞

(3.6.7)

für i = 1, . . . , N gilt. Unabhängig von den – nur als positiv vorausgesetzten – Anfangskonzentrationen müssen also die asymptotischen relativen Konzentrationen aller beteiligten Moleküle mindestens δ werden. Insbesondere ist der Rand von S N für die Dynamik abstoßend. Es lässt sich nun durch eine Verfeinerung der obigen Gleichgewichtsanalysis zeigen, dass der untersuchte Hyperzykel stets permanent ist. Dies kann auch durch topologische Überlegungen ergänzt werden. Beispielsweise lässt sich durch Indexberechnungen zeigen, dass ein permanentes dynamisches System auf dem Simplex S N stets einen Gleichgewichtspunkt beisitzt und dass dieser bei einer Replikatorgleichung sogar eindeutig ist (siehe Hofbauer und Sigmund 1998).

132

3 Molekularbiologie und genetische Steuerung

Selbstverständlich lassen sich auch kompliziertere Reaktionsnetzwerke als Hyperzykel analysieren. Wenn allgemein das Molekül j die Produktion von i mit dem Wirkungsfaktor ai j katalysiert, so erhalten wir für das Reaktionsnetzwerk die Replikatorgleichung (2.2.11), also   ai j x j + xk akl xl ). (3.6.8) x˙i = xi ( j

k,l

Für katalytische Netzwerke nimmt man wieder an, dass alle ai j nichtnegativ sind. Da die chemischen Reaktionen typischerweise spezifisch sind, sollten aber für jedes i nur wenige der ai j verschieden von Null sein (und im Fall des Hyperzykels genau eines). Außerdem schließt man meist die Möglichkeit der Selbstkatalyse aus, d. h. nimmt aii = 0 für alle i an. Zur Veranschaulichung kann man dann einen gerichteten Graphen bilden, dessen Punkte den Molekülsorten i entsprechen. Eine Kante von j nach i wird genau dann gebildet, wenn ai j > 0 ist, also j die Produktion von i katalysiert. Ein solcher Graph kann in Teilgraphen zerfallen, was der Situation entspricht, wo mehrere katalytische Netzwerke ohne Wechselwirkung nebeneinander existieren. Wegen der Ressourcenbeschränkung, die wir in die mathematische  Bedingung xi = 1 übersetzt haben, wird aber typischerweise eines dieser Netzwerk asymptotisch dominant, und die anderen sterben aus. Insbesondere ist im Falle von mehr als einem Hyperzykel das dynamische System auf S N nicht permanent. Ein anderer wichtiger Aspekt, der in diesem Kontext angesprochen werden sollte, ist, dass die beteiligten Moleküle typischerweise recht groß und somit komplex sind und sich deswegen durch zufällige Mutationen bei der Replikation auch verändern können. Wie Eigen (1971, 2013) festgestellt hat, gibt es für solche Systeme jeweils eine bestimmte Fehlerrate, bei deren Überschreiten eine sog. Fehlerkatastrophe eintritt und der Replikationszykel zusammenbricht, wie schon von Orgel (1963) postuliert. Es gibt auch abstraktere Ansätze, den Ursprung des Lebens als einen Phasenübergang zu verstehen. Die Modelle von St.Kauffman erlauben zwar keine konkrete biochemische Interpretation, zeigen jedoch mögliche qualitative Mechanismen auf, die für das Verständnis der Entstehung von Leben hilfreich oder vielleicht sogar wesentlich sein können (siehe Kauffman 1993, 1996). Das von Kauffman vorgetragene Argument ist, dass die Wahrscheinlichkeit, dass organisches Leben durch Zufall entstanden sein kann, so verschwindend klein ist, dass dies keine Erklärung sein kann. Stattdessen wird seiner Ansicht nach komplexes organisches Leben zwangsläufig durch autokatalytische Prozesse (Selbstorganisation in gleichgewichtsfernen thermodynamischen Systemen á la Prigogine) erzeugt. (Es scheint dann aber das Problem zu entstehen, dass es als Folge seiner Hypothese wesentlich mehr – und grundlegend verschiedene – Arten von Leben geben sollte, als tatsächlich anzutreffen sind. (Lebensformen mit biochemisch verschiedenen Stoffwechselmechanismen würden wohl nicht in evolutionärer Konkurrenz miteinander stehen, sofern sie nicht auf die gleichen limitierten Rohstoffe zurückgreifen müssten, in welchem Falle das sich am schnellsten reproduzierende System schließlich die anderen verdrängen würde.) Bei reinem Zufall ist die Entstehung von Leben zu unwahrscheinlich, bei Kauffmans Hypothese aber zu leicht.) Das von ihm eingeführte Modell, nämlich das zufällige Boolesche Netzwerk, ist aber auch

3.6 Die Entstehung des Lebens

133

von mathematischem Interesse und soll daher nun vorgestellt werden (für eine ausführlichere Diskussion unter mathematischen Gesichtspunkten siehe Jost 2005b). Das Modell besteht aus N diskreten Elementen, die nur binärer Zustände, also 0 und 1, fähig sind. Jedes dieser Elemente empfängt Inputs von K zufällig ausgewählten anderen Elemente und berechnet in jedem Zuschritt seinen neuen Zustand als eine bestimmte Boolesche Funktion seiner Inputs. Diese Boolesche Funktion ist dem jeweiligen Element ebenfalls zufällig zugeK wiesen. Diese Netzstruktur bleibt aber während der Dynamik fest. (Es gibt 22 derartige Boolesche Funktionen, denn für jedes Element gibt es 2 K mögliche Inputkombinationen, von denen jede wiederum 0 oder 1 als Output erzeugen kann. Schon für K = 2 gibt es also 16 Boolesche Funktionen, beispielswiese die und-Funktion, die nur dann eine 1 erzeugt, wenn beide Inputs selber 1 sind. Einige von diesen sind trivial, nämlich diejenigen, die ihren Outputwert unabhängig vom Input erzeugen, also beispielsweise immer 0 als Output haben. Aber auch solche Funktionen sind zugelassen.) Das so definierte diskrete dynamische System durchläuft also, wenn jedem Element ein Anfangszustand gegeben wird, eine Folge von Zuständen, von denen einige transient sind, sich also nicht wiederholen, während andere zu periodischen Bahnen, also Attraktoren (wenn auch möglicherweise mit trivialem Einzugsbereich) gehören. (Weil das Netzwerk nur endlich vieler Zustände fähig ist und die Struktur des Netzes während des dynamischen Prozesses nicht verändert wird, die Dynamik also deterministisch ist, muss sich die Dynamik immer nach einiger – aber bei großem N möglicherweise sehr langer – Zeit auf eine periodische Bahn einschwingen.) Die Frage, die Kauffman gestellt und mittels ausgedehnter Computersimulationen untersucht hat, ist diejenige nach den statistischen Eigenschaften eines solchen zufälligen Netzes in Abhängigkeit von N und K , insbesondere, welche Strukturen ein solches Netz herausbilden kann und wie stabil diese gegen kleine Störungen, also zufällige Veränderungen einiger weniger Anfangszustände, boolescher Funktionen oder Elementverknüpfungen sind. Der erhobene Anspruch ist, dass eine solche Analyse auch für die Entstehung des Lebens als eines autokatalytischen Molekülverbandes relevante prinzipielle Gesetzmäßigkeiten aufdecken kann. Die dahinterstehende Vorstellung ist, dass ein solches Netz die Wechselwirkungen einer großen Menge von enzymatisch wirkenden Molekülen modellieren kann, die aufeinander sowohl katalysierend als auch hemmend einwirken können, und dass es bei den realistischerweise zu betrachtenden riesigen Anzahlen von solchen Molekülen wenig sinnvoll ist, die präzisen chemischen Reaktionswege zu modellieren, sondern dass man lieber prinzipielle Mechanismen, die unter chemisch plausiblen Bedingungen in einer ganzen Klasse von Reaktionsdynamiken stabil operieren, isolieren sollte. Ohne hier beantworten zu können, wie fundiert dieser Anspruch ist, scheint dies aber auch auf interessante mathematische Fragen zu führen. Für K > 5 stellt sich jedenfalls heraus, dass sich ein solches Netzwerk typischerweise chaotisch in dem Sinne verhält, dass Änderungen des Zustandes eines einzelnen Elementes dazu führen, dass sich das System in einen anderen Attraktor einschwingt. Insbesondere haben Attraktoren in diesem Falle üblicherweise kleine Einzugsbereiche, während ihre Länge exponentiell in N wächst. Das sieht also nicht gut für die Entstehung stabiler und in überschaubarer Zeit durchlaufener Zykel aus. Für K = 2 sieht das Verhalten

134

3 Molekularbiologie und genetische Steuerung

dagegen in dieser Hinsicht günstiger aus: die zu erwartende Anzahl und Länge der Attraktoren wächst nur noch wie N 1/2 , und die Einzugsbereiche der einzelnen Attraktoren werden größer und unempfindlicher gegen kleine Störungen, d. h. die verschiedenen Einzugsbereiche sind nicht mehr so kompliziert ineinander verwoben. So können sich also in dünn verknüpften booleschen Reaktionsnetzwerken stabile zyklische Dynamiken entwickeln.13 Wir können hier jedenfalls das inzwischen beachtliche theoretische Instrumentarium zur Entstehung des Lebens nur anreißen. Eine tief in die Materie eindringende Monographie ist Smith und Morowitz (2016), in der insbesondere auch die Methoden der statistischen Physik eine wesentliche Rolle spielen. Eine breite Perspektive über die physikalischen und chemischen Grundlagen des Lebens vermittelt Eigen (2013).

13 Bilder und systematische Computersimulationen, mit denen man sich einen ausgezeichneten Über-

blick über die auftretenden Phänomene verschaffen kann, sind von A. Wuensche (o. J.) entwickelt worden.

4

Zellbiologie

Die Biologie arbeitet auf verschiedenen Skalen. Im vorigen Kapitel haben wir die wohl kleinste biologisch sinnvolle Skala, diejenige der zellulären Moleküle dargestellt. Im nächsten Kap. 5 werden wir auch die Skala der Zelle als Ganzes (selektiv) behandeln. Im vorliegenden Kapitel sollen Vorgänge in einer Zelle behandelt, indem das kollektive Verhalten von Molekülklassen modelliert wird. Es geht also nicht mehr um das einzelne Molekül, wie eine RNS, die aus ihren Bestandteilen, Nukleotiden, aufgebaut ist, und auch nicht um das Verhalten einer Zelle als Ganzes, sondern um die kollektive Wechselwirkung von biochemischen Substanzen in einer Zelle. Natürlich können die Skalen nicht immer sorgfältig getrennt werden – und die Interaktion verschiedener Skalen ist gerade ein wesentliches Charakteristikum, das die Biologie von anderen Wissenschaften unterscheidet. Auch werden sicherlich nicht alle Biologinnen und Biologen der von mir hier vorgenommenen Einteilung zustimmen. Bei der Interaktion biochemischer Substanzen in einer Zelle spielen natürlich deren Konzentration und räumliche Verteilung eine entscheidende Rolle. Allerdings sehen die meisten Modelle, die wir vorstellen, von der räumlichen Verteilung ab und behandeln die Zelle als ein homogenes Medium. Natürlich ist dies eine drastische Vereinfachung, bietet aber den Vorteil, dass die Dynamik der Konzentrationsänderungen durch Systeme gewöhnlicher Differentialgleichungen (oder zeitdiskrete Analoga) beschrieben werden kann.

4.1

Biochemische Kinetik

Wir wollen erst einmal die Grundlagen der biochemischen Kinetik darstellen. Referenzen hierfür sind beispielsweise Murray (2002), Klipp et al. (2005). Wie schon erwähnt, wird die Zelle, in der die jeweilige Reaktion stattfindet, als räumlich homogen angenommen, und es werden keine diffusiven Effekte betrachtet. Daher arbeiten die Modelle mit gewöhnlichen und nicht mit partiellen Differentialgleichungen. Zum Verständnis biochemischer Prozesse sind bestimmte thermodynamische Grundregeln wichtig. Mit diesen beginnen wir daher. Ist eine Reaktion zwischen zwei chemischen © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_4

135

136

4 Zellbiologie

Produkten S und P möglich, so ergibt sich das Gleichgewichtsverhältnis  = K eq

[P] [S]

(4.1.1)

wobei  zum Ausdruck bringt, dass die für Zellprozesse typischen Grundbedingungen (eine bestimmte Wasserkonzentration und pH-Wert 7) angenommen werden, durch die Gleichung    G 0  (4.1.2) K eq = exp − RT 

mit der Gaskonstanten R, der absoluten Temperatur T und dem Unterschied G 0 der freien Energie zwischen P und S. Im Gleichgewicht gilt also    G 0 [P] = exp − . (4.1.3) [S] RT (Zur Erläuterung für diejenigen, die ein bisschen mit der Thermodynamik vertraut sind: Die Gibbssche freie Energie ist G = U + pV − T S, U = Energie, p = Druck [hier als konstant angenommen], V = Volumen [eine Volumenkompression erfordert Arbeit; wenn sich das Volumen nicht ändert, können wir auch mit der Helmholtzschen freien Energie U − T S arbeiten], T = Temperatur [ebenfalls als konstant angenommen], S= Entropie. Die  Änderung der Gibbsschen freien Energie ist durch G = G 0 + RT log [P] [S] gegeben. Im Gleichgewicht gilt daher nach (4.1.3) G = 0.) Mathematisch Denkende achten natürlich immer auf die Vorzeichen. Nach (4.1.3) ist im Gleichgewicht die Konzentration von P größer als diejenige von S, wenn die freie Energie von P kleiner ist, wenn die Reaktion von S zu P also freie Energie freisetzt. Trotzdem bedeutet das noch nicht, dass eine solche Reaktion automatisch und ständig stattfindet, denn möglicherweise ist eine Energieschwelle zu überwinden. Thermale Schwankungen ermöglichen allerdings auch Vorgänge, bei denen die Energie erhöht werden muss. Aber die Geschwindigkeit einer Reaktion, beispielsweise für die Umwandlung von S in P, hängt von der zu überwindenden Energieschwelle G ++ ab, also der höchsten während des Prozesses auftretenden Energiedifferenz zum Grundzustand S,   kT G ++ [S] (4.1.4) V = exp − h RT mit der Boltzmannkonstanten k und der Planckschen Konstanten h. Die Energieschwelle  G ++ kann im Prinzip erheblich höher als G 0 sein. Dann wird die Reaktion nur sehr langsam ablaufen oder selten stattfinden. Oftmals wird dann approximativ angenommen, dass eine solche Reaktion überhaupt nicht stattfindet.

4.1 Biochemische Kinetik

137

Enzyme, also Proteine, die als Katalysatoren wirken, senken nun diese Energieschwelle und erleichtern und beschleunigen somit die entsprechende Reaktion, ohne jedoch das Gleichgewichtsverhältnis zu verändern. Durch (4.1.1), (4.1.2) ist also die Gleichgewichtsbedingung gegeben. Grundlage der Kinetik ist nun das Gesetz der Massenwirkung von Guldberg und Waage, dass die Reaktionsgechwindigkeit einer chemischen Reaktion proportional zur Konzentration der Reaktanden ist, jeweils zu der Potenz erhoben, in der sie in die Reaktion eintreten. Dieser Ausdruck ist proportional zur Kollisionswahrscheinlichkeit der Reaktanden. Für die einfache Reaktion SP

(4.1.5)

wobei k+ die Ratenkonstante für die Vorwärtsreaktion ist, die S in P umwandelt, und k− die Ratenkonstante für die Rückwärtsreaktion ist und wir den Wert der jeweiligen Konzentrationen statt mit [S], [P] nun zum Zwecke einer einfacheren Notation mit s, p bezeichnen (Notationswechsel), sind die Potenzen 1, und es gilt s˙ = −k+ s + k− p

(4.1.6)

p˙ = k+ s − k− p.

(4.1.7)

Im Gleichgewicht haben wir s˙ = 0 = p, ˙ also p k+ , = s k− mithin nach (4.1.2)

   k+ G 0 . = exp − k− RT 

(4.1.8)

(4.1.9)

Wir hatten oben schon bemerkt, dass G 0 die Differenz der freien Energien von P und S ist. Wenn also die freie Energie von P kleiner als diejenige von S ist, so vollzieht sich die vorwärtige Reaktion mit einer höheren Rate als die rückwärtige. Allgemeiner gilt für eine Reaktion, die den Komplex S1 + · · · + Sm in den Komplex  P1 +· · ·+ Pn umwandelt, dass die entsprechende Differenz G 0 durch die Summe der freien Energien der Pi minus der Summe der freien Energien der S j ist. Wenn wir daher mehrere  Reaktionen koppeln, so verhält G 0 sich additiv, und die Raten und die Konzentrationen multiplizieren sich daher nach (4.1.8), (4.1.9). Wenn wir daher z. B. neben der direkten Reaktion (4.1.5) auch noch einen Reaktionsweg über ein Zwischenprodukt X haben, also S  X mit Raten + , − X  P mit Raten m + , m − ,

138

so gilt

4 Zellbiologie

+ m + k+ = . k− − m −

(4.1.10)

Um es einfacher auszudrücken, liegt der Grund hierfür einfach darin, dass sich in der Summe der von S zu X zu überwindenden Energiedifferenz und derjenigen von X zu P die Energie von X heraushebt und die Energiedifferenz zwischen S und P übrigbleibt ((G(X )−G(S))+ (G(P) − G(X )) = G(P) − G(S)). Mit diesen Prinzipien können wir natürlich auch kompliziertere Reaktionen analysieren. Wie schon erwähnt, verlangt das Gesetz der Massenwirkung, dass die Reaktionsgechwindigkeit einer chemischen Reaktion proportional zur Konzentration der Reaktanden ist, jeweils zu der Potenz erhoben, in der sie in die Reaktion eintreten. Für die Reaktion S1 + S2  2P

(4.1.11)

wobei k+ nun die Ratenkonstante für die Vorwärtsreaktion ist, die S1 + S2 in 2P umwandelt und k− die Ratenkonstante für die Rückwärtsreaktion ist und wir den Wert der jeweiligen Konzentrationen mit s1 , s2 , p bezeichnen, gilt s˙1 = s˙2 = −k+ s1 s2 + k− p 2 p˙ = 2(k+ s1 s2 − k−

p 2 ),

(4.1.12) (4.1.13)

und wie vorher gewinnen wir die Gleichgewichtsbedingung, wenn wir die linken Seiten zu Null setzen. Enzymatische Reaktionen sind von besonderer Bedeutung. Der Prototyp ist E + S  E S → E + P.

(4.1.14)

Hier bilden das Substrat S und das Enzym E zunächst reversibel den Enzym-SubstratKomplex E S mit Vorwärts- und Rückwärtsratenkonstanten k1 , k−1 , und dann wird das Produkt P irreversibel aus dem Enzym E freigesetzt mit Ratenkonstante k2 . Dass die letztere Reaktion irreversibel ist, ist natürlich nach den obigen Ausführungen nur eine Approximation, beruhend auf der Annahme, dass die zu überwindende Energiedifferenz so groß ist, dass die rückwärtige Reaktion vernachlässigbar ist. Wenn wir die Konzentrationen von E, S, E S, P mit e, s, c, p bezeichnen, erhalten wir das System von gewöhnlichen Differentialgleichungen s˙ = −k1 es + k−1 c

(4.1.15)

e˙ = −k1 es + (k−1 + k2 )c

(4.1.16)

c˙ = k1 es − (k−1 + k2 )c

(4.1.17)

p˙ = k2 c.

(4.1.18)

4.1 Biochemische Kinetik

139

Weil p nicht auf der rechten Seite auftritt, brauchen wir aber nur die ersten drei Gleichungen zu lösen, und p kann dann durch eine einfache Integration bestimmt werden. Da außerdem die zweite und die dritte Gleichung abhängig sind, erhalten wir, dass e(t) + c(t) ≡ e0

(4.1.19)

konstant ist. Aufgrund der geringen Menge an Enzymen, die für solche Reaktionen benötigt werden, geht die Michaelis-Menten-Theorie (1913) von einem quasistationären Zustand des Komplexes E S aus, also c˙ = 0. (4.1.20) Dies ist mathematisch nicht unproblematisch und erfordert eine singuläre Störungsanalyse, siehe Murray (2002), aber hier nehmen wir einfach die Konsequenz auf, dass dann c=

k 1 e0 s . k1 s + k−1 + k2

(4.1.21)

Um die Energieschwelle zu überwinden, werden chemische Reaktionen in der Zelle mit einer Reaktion gekoppelt, die Energie freisetzt, und zwar die Hydrolyse von ATP (Adenosintriphosphat) durch ein Wassermolekül zu ADP (Adenosindiphosphat) unter Freisetzung eines Phosphates Pi , (4.1.22) ATP + H2 O → ADP + Pi . Natürlich müssten wir genauer wieder schreiben ATP + H2 O  ADP + Pi

(4.1.23)

a+  a− .

(4.1.24)

mit Raten Statt nun aber Energie zu verschwenden und diese Reaktion neben einer anderen energetisch ungünstigen Reaktion X +Y  X +Y (4.1.25) mit Raten k+ < k−

(4.1.26)

ablaufen zu lassen, können durch Enzyme diese Reaktionen zu X + ATP  ADP + X Pi mit Raten + , −

(4.1.27)

X Pi + Y

(4.1.28)

 X Y + Pi

mit Raten m + , m −

gekoppelt werden. Nach den oben dargelegten thermodynamischen Prinzipien gilt dann

140

4 Zellbiologie

und wenn dann

+ m + a+ k + = , a− k − − m −

(4.1.29)

+ m + 1 − m −

(4.1.30)

und wegen der energiegewinnenden Reaktion (4.1.23) auch k− a+  , a− k+

(4.1.31)

so erhalten wir nach dem Prinzip (4.1.8) das biochemisch gewünschte Endresultat [X Y ] [ATP]  . [X ][Y ] [ADP]Pi ]

(4.1.32)

In Baez et al. (2018) werden solche Sachverhalte formalisiert.

4.2

Metabolische Flüsse

Bei großen Netzwerken, wie sie in der Biologie beispielsweise bei der Modellierung zellulärer Stoffwechselprozesse auftreten, sucht man zunächst nach Gleichgewichten, also Flüssen, bei denen bei jedem Zwischenprodukt genauso viel produziert wie konsumiert wird.1 Die Reaktionsraten, die wir im Abschn. 4.1 betrachtet haben, spielen bei diesen Überlegungen keine Rolle mehr. Für ein System mit m Metaboliten (Stoffwechselprodukten) und n Reaktionen betrachtet man die stoichiometrische Matrix C = (ci j )i=1,...,m; j=1,...,n , bei der der Eintrag ci j angibt, wieviele Einheiten von i in die Reaktion j eingehen (s. z. B. Clarke 1988). Was konsumiert wird, erhält dabei ein negatives, was produziert wird, ein positives Vorzeichen. Eine Reaktion wird hierbei als gerichtet angenommen; kann die Reaktion auch in der umgekehrten Richtung verlaufen, ist sie also reversibel, so wird die Gegenrichtung als eigene Reaktion gezählt. Haben wir also die Reaktionen S1 + S2  2P E + S1 → E + P,

(4.2.1)

wobei also die erste Reaktion reversibel, die zweite irreversibel ist, so wird dies in der stoichiometrischen Matrix 1 Es ist aber wichtig, darauf hinzuweisen, dass biologische Systeme nicht geschlossen sind, sondern ständigen Zufluss aus ihrer Umwelt benötigen, um ihre inneren Prozesse aufrecht zu erhalten. Daher werden die im Folgenden gestellten Gleichgewichtsbedingungen weder auf die externen Rohstoffe noch auf die finalen Produkte von Stoffwechselketten angewandt, sondern nur auf die internen Zwischenprodukte. Für den abstrakten mathematischen Formalismus spielt dies aber keine wesentliche Rolle.

4.2 Metabolische Flüsse

141



−1 ⎜ −1 F =⎜ ⎝ 0 2

⎞ −1 0 ⎟ ⎟ 0 ⎠ 1

(4.2.2)

dargestellt. Ein metabolischer Fluss wird durch einen n-dimensionalen Vektor v dargestellt, dessen j-ter Eintrag die Nettorate der entsprechenden Reaktion angibt. In der metabolischen Flussanalyse werden dann an diese Flussvektoren Gleichgewichts-, Positivitäts- und Nichtzerlegbarkeitsbedingungen gestellt. In der von S.Schuster und Koautoren entwickelten Theorie der Elementaren Flussmoden (s. Schuster et al. 1994, 1999, 2000 und die Darstellung in Klamt und Stelling 2003) sehen diese Bedingungen folgendermaßen aus. 1. Gleichgewicht: Fv = 0.

(4.2.3)

Dies bedeutet, dass in der Gesamtbilanz kein Zwischenprodukt verbraucht oder erzeugt wird, sondern dass genauso viel benutzt wird, wie jeweils vorhanden ist. 2. Nichtnegativität: (4.2.4) v j ≥ 0 falls die Reaktion j irreversibel ist. Dies stellt sicher, dass nur thermodynamisch mögliche Reaktionen durchgeführt werden. 3. Nichtzerlegbarkeit: Es sei P(v) := { j : v j  = 0}. Dann darf es keinen Vektor w  = 0 mit P(w)  P(v) geben, der 1. und 2. erfüllt. Diese elementaren Flussmoden sind natürlich nur bis auf positive Faktoren bestimmt. Jedes v, das (4.2.3) und (4.2.4) erfüllt, kann (nicht notwendigerweise eindeutig) als nichtnegative Linearkombination elementarer Flussmoden Fk dargestellt werden, v= λk Fk mit λk ≥ 0. (4.2.5) k

In dem Beispiel (4.2.2) gibt es nun gar keine solche elementare Flussmode. Das liegt im Wesentlichen daran, dass es sich um ein geschlossenes, aber nicht zirkuläres System handelt, dem nichts zugeführt und aus dem nichts abgeführt wird und in dem auch nichts zirkuliert. Wir übernehmen nun ein Beispiel aus Klamt und Stelling (2003). Es sei zunächst in Worten beschrieben. Ein Metabolit A kann extern zugeführt werden, ein anderer, B, mit der Umgebung ausgetauscht und ein Produkt P kann exportiert werden. Aus A kann B, C oder D erzeugt werden, B und C können gegeneinander ausgetauscht werden, und P kann sowohl aus B alleine als auch aus C und D gemeinsam erzeugt werden. Die Flussmatrix F sieht dann folgendermaßen aus, wobei die externen Ingredienzen oder Produkte durch ein Subskript 0 gekennzeichnet sind; für diese werden dann keine Gleichgewichtsbedingungen gestellt.

142

4 Zellbiologie

A0 A B0 B C D P P0



R1 R2a R2b R3

−1 0 ⎜ 1 0 ⎜ ⎜ 0 −1 ⎜ ⎜ 1 ⎜ 0 ⎜ ⎜ 0 0 ⎜ ⎜ 0 0 ⎜ ⎝ 0 0 0 0

R4

R5

R6 R7a R7b R8

0 0 0 0 0 0 0 0 −1 −1 −1 0 1 0 0 0 0 0 −1 0 1 0 0 −1 0 0 0 1 0 1 0 0 0 0 1 0 0 −1 0 0 0 0 0 1 0 0 0 0

R9 ⎞ 0 0 0 0 0 0 ⎟ ⎟ 0 0 0 ⎟ ⎟ ⎟ 1 −1 0 ⎟ ⎟ −1 0 −1 ⎟ ⎟ 0 0 −1 ⎟ ⎟ 0 1 1 ⎠ 0 0 0

(4.2.6)

Es gibt dann 9 elementare Flussmoden; diese sind in der nachfolgenden Tabelle beschrieben.

F1 F2 F3 F4 F5 F6 F7 F8 F9

⎛ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝

R1 R2a R2b R3 R4 R5 R6 R7a R7b R8 R9 1 1 2 2 1 1 1 0 0

0 0 0 0 1 0 0 1 0

0 0 0 0 0 1 1 0 0

1 1 1 1 1 0 0 1 0

0 1 0 1 0 1 0 0 0

1 0 1 0 0 0 1 0 0

0 0 1 1 1 1 0 0 0

0 0 0 1 1 0 0 0 1

1 0 0 0 0 0 1 0 1

1 1 0 0 0 0 0 1 0

0 0 1 1 1 0 0 0 0

⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠

(4.2.7)

In F4 werden beispielsweise aus der externen Quelle A0 zwei Einheiten von A bezogen, die dann in B und D umgewandelt werden. B wird dann in C konvertiert, und C und D zusammen produzieren dann P, welches als P0 abgeführt wird. In Schilling et al. (2000) sind die obigen Bedingungen noch verfeinert worden. Es wird zwischen Reaktionen unterschieden, die externe Faktoren involvieren, in unserem Beispiel also R1 , R2 (= (R2a , R2b )), R3 , und internen Reaktionen, wobei reversible interne Reaktionen in zwei gegenläufige irreversible zerlegt werden. Das haben wir sowieso schon getan, indem wir R7 in R7a und R7b aufgespalten haben. Die elementaren Pfade aus Schilling et al. (2000) müssen dann eine konvexe Basis bilden, also eine minimale Menge von Moden, durch die jedes v, das die Gleichgewichtsbedingung (4.2.3) und die Nichtnegativitätsbedingung (4.2.4) erfüllt, wie in (4.2.5) dargestellt werden kann. Zu einer vertieften mathematischen Behandlung lässt sich dann die Matroidtheorie heranziehen, eine allgemeine Theorie von darstellenden Basen, s. z. B. Oxley (1992). In dem obigen Beispiel können wir F3 , F5 , F6 , F7 , F8 , F9 als elementare Pfade nehmen. In diesem Beispiel gibt es also weniger elementare Pfade als Moden. Wenn wir aber das Netzwerk dahingehend ändern, dass wir R2 irreversibel machen, indem wir R2b eliminieren, verschwinden die elementaren Moden F6 , F7 , aber die verbliebenen werden dann alle zu elementaren Pfade, s. Klamt und Stelling (2003).

4.3 Verschiedene Zeitskalen

4.3

143

Verschiedene Zeitskalen

Da biologische Prozesse typischerweise verschiedene Längenskalen miteinander verknüpfen, ist es nicht verwunderlich, dass oft auch verschiedene Zeitskalen miteinander verknüpft werden, und dies kann auf sehr unterschiedlichen Längenskalen passieren. Wir wollen hier als ein Beispiel die Analyse des Autokatalysatormodells von I. Gucwa (= I. Kosiuk) und P. Smolyan (2009) vorstellen, welches ein Beispiel für die im letzten Abschn. 4.1 behandelten biochemischen Kinetiken darstellt. Mathematisch führt uns dies ins Gebiet der dynamischen Systeme mit mehreren Zeitskalen; für die mathematische Theorie s. Fenichel (1979), Dumortier und Roussarie (1996), Kuehn (2015). Es sei also eine schnelle Variable x mit einer langsamen Variablen y gekoppelt, vermittels eines Systems der Form ε x˙ = f (x, y, ε) y˙ = g(x, y, ε)

(4.3.1)

mit kleinem ε (0 < ε  1) und glatten Funktionen f , g. Wir setzen deswegen die schnelle Variable x hier an die erste Stelle, weil wir die langsame Variable y als einen variablen Parameter für die Dynamik von x betrachten, s. unten (4.3.5) für die asymptotische Situation, wo y konstant ist. Der Einfachheit halber seien x und y skalar, auch wenn sich das Folgende problemlos d . Durch auf den vektorwertigen Fall übertragen lässt. t ist die langsame Zeitvariable,˙ = dt Übergang zu der schnellen Zeitvariablen τ := mit  =

d dτ

t , ε

(4.3.2)

erhalten wir das schnelle System x  = f (x, y, ε) y  = εg(x, y, ε).

(4.3.3)

Der Unterschied zwischen dem langsamen und dem schnellen System tritt natürlich erst für ε = 0 hervor. Aus (4.3.1) ergibt sich das reduzierte Problem 0 = f (x, y, 0) y˙ = g(x, y, 0),

(4.3.4)

während (4.3.3) das geschichtete Problem x  = f (x, y, 0) y = 0

(4.3.5)

144

4 Zellbiologie

liefert. Um die Wechselwirkung zwischen der langsamen und der schnellen Zeitskala zu verstehen, sollte daher die Beziehung zwischen diesen beiden Problemen untersucht werden. Dazu betrachten wir die kritische Varietät S, die durch f (x, y, 0) = 0

(4.3.6)

definiert ist. S stellt eine Zwangsbedingung für das reduzierte und eine Gleichgewichtsbedingung für das geschichtete Problem dar. Sofern die Ableitung ∂ f (x,y,0)  = 0 ist, können ∂x wir mittels des Satzes über implizite Funktionen (s. z. B. Jost 2005a) (4.3.6) nach x = h(y) auflösen, als f (h(y), y, 0) = 0. (4.3.7) In den Punkten (x, y), wo dies möglich ist, heißt S normal hyperbolisch. Wenn wir S lokal durch y = g(x) beschreiben können, so ist also S gerade dort nicht normal hyperbolisch, wo dg(x) =0 (4.3.8) dx ist, wo also g(x) stationär ist, beispielsweise ein lokales Maximum oder Minimum hat. Dort, wo diese Ableitung nicht verschwindet, bestimmt das Vorzeichen von dg(x) d x die Stabilität: Wo wo

dg(x) dx dg(x) dx

< 0,

ist S anziehend,

> 0,

ist S abstoßend.

(4.3.9)

Der Satz von Fenichel (1979) besagt nun, dass sich im normal hyperbolischen Fall dieses qualitative Verhalten schon bei kleinem ε > 0 zeigt. Dann gibt es nämlich eine Funktion h ε (y), die eine langsame Mannigfaltigkeit Sε = {(x, y) : x = h ε (y)}

(4.3.10)

liefert, die invariant unter (4.3.1) und O(ε)-nahe an S ist. Wir können nun die Analyse des Autokatalysatormodells aus Gucwa und Szmolyan (2009) zusammenfassen. Wir betrachten ε x˙ = −x + y + x 2 y y˙ = μ − y − x 2 y

(4.3.11)

mit einem Parameter μ > 1. Man spricht hier deswegen von einer Autokatalyse, weil sich die Variable x quadratisch verstärkt. Das entsprechende schnelle System (4.3.3) ist x  = −x + y + x 2 y y  = ε(μ − y − x 2 y).

(4.3.12)

4.3 Verschiedene Zeitskalen

145

Setzen wir in (4.3.11) ε = 0, so erhalten wir das reduzierte Problem 0 = −x + y + x 2 y y˙ = μ − y − x 2 y,

(4.3.13)

und tun wir dies in (4.3.12), so ergibt sich das geschichtete Problem x  = −x + y + x 2 y y  = 0.

(4.3.14)

Die kritische Mannigfaltigkeit S ist gegeben durch − x + y + x 2 y = 0, also y =

x . 1 + x2

(4.3.15)

Die Ableitung nach x von (4.3.15) ist gegeben durch −1 + 2x y, also −1+x , und S ist daher 1+x 2 anziehend für x < 1, abstoßend für x > 1 und nicht normal hyperbolisch bei dem Maximum bei x = 1. Die asymptotische Dynamik für ε = 0 auf S wird durch (4.3.13) bestimmt, also durch Einsetzen der ersten in die zweite Gleichung, mithin 2

x˙ =

1 + x2 (μ − x). 1 − x2

(4.3.16)

Dies ist singulär an der nichthyperbolischen Stelle x = 1 und stationär für x = μ, und da wir μ > 1 annehmen, liegt der stationäre Zustand auf dem instabilen Zweig von S und ist mithin auch instabil. Wir sehen nun die asymptotische Dynamik für ε → 0. Wenn man links von S beginnt, wird die Lösung schnell auf den stabilen Zweig von S angezogen, läuft dann auf S langsam bis zu dem singulären Punkt (1, 21 und schießt dann horizontal nach x → ∞). Und dies bleibt dann qualitativ so für 0 < ε  1 und x = O(1). Dann muss, Gucwa und Szmolyan (2009) folgend, die Asymptotik für große x betrachtet werden. Denn schließlich wird in (4.3.11) y˙ für große x negativ, und wenn y dann sehr klein wird, wird auch x˙ negativ, und die Dynamik muss irgendwie wieder zurückkehren. In Gucwa und Szmolyan (2009) wird 

dies gelöst, indem für das Regime x = O 1ε die Umskalierung Y = y, X = εx, T =

t ε2

(4.3.17)

vorgenommen wird, was zu den Gleichungen X  = −ε X + ε2 Y + X 2 Y Y  = ε2 μ − ε2 Y − X 2 Y führt. Für ε = 0 wird dies

(4.3.18)

146

4 Zellbiologie

X  = X 2Y Y  = −X 2 Y .

(4.3.19)

Man beachte, dass in (4.3.17) die beiden Variablen x und y unterschiedlich skaliert werden. y wird gegenüber x vergrößert. Die beiden Koordinatenachse X = 0 und Y = 0 sind beide stationär. Da X  = −Y  , sind die Geraden X = Y0 − Y heterokline Bahnen, die den Gleichgewichtspunkt (0, Y0 ) mit dem Gleichgewichtspunkt (Y0 , 0) verbinden, also von der Y - zur X -Achse laufen. Eine Dreieckstrajektorie, die zunächst auf der Y -Achse aufwärts läuft, dann auf einer solchen heteroklinen Bahn zur X -Achse wechselt und dort nach 0, also zum Schnittpunkt der beiden stationären Achsen läuft und dann wieder auf der Y -Achse nach oben laufen kann, beschreibt dann das qualitative Verhalten der asymptotischen Rückkehr einer Trajektorie, die in dem obigen x = O(1)-Regime ins Unendliche verschwunden ist. Man läuft deswegen auf der X -Achse abwärts, weil dort X  = −ε X < 0 ist, und auf der Y -Achse für kleine Y aufwärts, weil dort Y  = ε2 (μ − Y ) > 0 ist, solange Y < μ. Bei Y = μ wird die Dynamik singulär und kann sich auf einer heteroklinen Bahn von der Y -Achse lösen und zur X -Achse hinüberwechseln. Die Verbindung der beiden verschiedenen Regimes ist natürlich diffizil, und wir verweisen auf die Analysis in Gucwa und Szmolyan (2009). Dass das nicht trivial sein muss, sieht man schon daran, dass in dem O(1)-Regime die Trajektorie oberhalb der 

kritischen Kurve S nach ∞ schießt, aber im O 1ε -Regime auf der X -Achse , also unterhalb dieser Kurve, wieder zurückkehrt. Natürlich nähert sich die kritische Kurve als Graph von x y = 1+x 2 asymptotisch der x-Achse an, und im Unendlichen kann die Trajektorie für 0  = ε  1 daher auf die andere Seite wechseln. Im Abschn. 5.2 werden wir ein weiteres Beispiel einer Dynamik analysieren, die durch das Wechselspiel zweier Zeitskalen einen Relaxationsoszillator erzeugt. Weitere, mathematisch subtilere Beispiele finden sich in Kosiuk und Szmolyan (2011, 2016). Eine umfassende mathematische Referenz für das Gebiet ist Kuehn (2015).

4.4

Regulations- und Steuerungsnetzwerke

In Zellen laufen vielfältige und komplexe Prozesse ab, und diese werden teilweise durch externe Signale in Gang gesetzt und teilweise durch interne genetische Mechanismen gesteuert, und sie müssen sehr präzise reguliert werden. Dies vollzieht sich auf mehreren Ebenen und Zeitskalen. Zwar tragen alle Körperzellen eines Organismus die gleichen Gene, aber damit sich im Organismus unterschiedliche Zelltypen für die verschiedenen Funktionen bilden können, muss in jeder Zelle reguliert werden, welche Gene exprimiert werden und welche inaktiv bleiben. Ausgelöst durch externe Signale, die Information über die Umgebung enthalten, in der sich die jeweilige Zelle befindet, müssen sich also die verschiedenen Gene gegenseitig anregen oder unterdrücken. Dies geschieht mit Hilfe von Proteinen und RNS-Molekülen. Wir hatten am Ende von Abschn. 3.1 schon einige Aspekte der

4.4 Regulations- und Steuerungsnetzwerke

147

Genregulation diskutiert. Auf einer kürzeren Zeitskala als dort behandelt muss also innerhalb jeder Zelle, teilweise beeinflusst durch Signale aus anderen Zellen, die Genexpression reguliert werden, d. h. Proteine oder RNS-Moleküle müssen steuern, ob und wie stark jedes bestimmte Gen exprimiert ist, also seine Information in die Herstellung von Proteinen übersetzt. Diese Rückkopplungsmechanismen stellen sehr interessante Herausforderungen für die mathematische Modellbildung dar. Unter starker Vereinfachung des tatsächlichen Sachverhaltes, insbesondere unter Vernachlässigung der Rolle der RNS bei diesem Prozess, enthält ein Gen bestimmte Positionen, an denen – von anderen Genen – erzeugte Proteine binden können, und diese Proteine tragen dann fördernd oder hemmend zur Expression dieses Gens bei. Wenn wir nun dem von Gen j erzeugten Protein einen Wirkfaktor wi j zuordnen, mit dem es auf die Expression von Gen i einwirkt, und wenn wir die Konzentration der in der Zelle vorhandenen, von Gen i erzeugten Proteine mit u i bezeichnen, so ist also, wenn wir ein Modell mit diskreten Zeitschritten einführen, u i (n + 1) eine Funktion aller derjenigen wi j u j (n), für die wi j  = 0, und wir erhalten somit ein dynamisches Netzwerk. Dies Netzwerk wird aber zusätzlich durch Signale von außen gesteuert, und wir erhalten also auch noch Beiträge der Form viα ωα , wobei die ωα die Konzentrationen der entsprechenden Signalsubstanzen sind. Dies lässt aber nun noch die in der Zelle ablaufenden Reaktionskaskaden außer Acht, und das Modell muss daher noch um die Wechselwirkungen zwischen den einzelnen Proteinen erweitert werden. All dies kann aber hier nur angedeutet und muss anderswo genauer entwickelt werden. Genregulation findet allerdings nicht nur durch die auslösende, verstärkende, hemmende oder verhindernde Bindung von Proteinen an die DNS statt, sondern wesentlich auch auf der Ebene der RNS. Ein großer Teil der DNS wird nämlich als RNS abgelesen, aber diese RNS wird oft ungenutzt wieder abgebaut, insbesondere durch die Operation spezifischer kleiner RNS-Moleküle, und nur unter bestimmenden Bedingungen in die entsprechenden Proteine übersetzt. Ein kombinatorisches Modell Jost und Scherrer (2014) hatte ich schon in Abschn. 3.3 diskutiert, und daher soll dies im vorliegenden Abschnitt nicht mehr aufgegriffen werden. Neben der Genregulation müssen, wenn die Rezeptoren der Zelle mit bestimmten Substanzen in Kontakt kommen, durch Signalkaskaden spezifische Stoffwechselprozesse in Gang gesetzt und dann durch Rückkopplungsschleifen aufeinander abgestimmt und reguliert werden. Diese Prozesse wirken dann auch wieder auf die Genexpression zurück, damit beispielsweise diejenigen Gene angeschaltet werden, die die für den jeweiligen Prozess benötigten Proteine oder Enzyme kodieren. Diese Dynamiken und die ihnen zugrundeliegenden Netzwerke sind offensichtlich derart komplex, dass neben der experimentellen Untersuchung eine theoretische Modellierung benötigt wird. Dies kann nun auf sehr unterschiedlichen Abstraktionsebenen geschehen. Eine extreme Möglichkeit ist, eine sog. virtuelle Zelle zu entwickeln, also ein Computersimulationsprogramm, das die Abläufe innerhalb der Zelle unter Einbeziehung sämtlicher verfügbarer Details zu modellieren versucht. Hierzu beginnen insbesondere in den USA einige Großprojekte, an denen auch Biomathematiker

148

4 Zellbiologie

intensiv beteiligt sind. Selbstverständlich stellen sich hierbei einige grundsätzliche Fragen, insbesondere von welchen Einzelheiten und Parameterwerten die Zelldynamik in sehr sensitiver Weise abhängt und welche man für eine akkurate Modellierung und Vorhersage nicht so genau zu kennen braucht. Solange dies nicht geklärt ist, kann auch die Brauchbarkeit einer solchen Modellierung nicht bewertet werden, ähnlich wie bei ökonomischen Prognosemodellen. Ein anderer, hierzu gewissermaßen entgegengesetzter Zugang besteht darin, auf einer wesentlich abstrakteren Ebene Typen von Netzwerkdynamiken mit den qualitativen Eigenschaften der Steuerung und Regulation von Zellprozessen in Beziehung zu setzen. Hierzu stehe ich persönlich in vielfältigen Diskussionen mit Biologen, aber die Situation ist im Moment noch zu spekulativ, um einigermaßen abgesicherte Ergebnisse vorlegen zu können. Daher beschränke ich mich an dieser Stelle auf ein sehr einfaches Beispiel aus der Literatur, auch wenn hierbei die reizvolle Komplexität der Genexpressions- und Signaltransduktionsnetzwerke nicht hervortritt. Und zwar haben Gardner et al. (2009) (und in ähnlicher Form Elowitz und Leibler 2000), ausgehend von einer biochemischen Ratengleichung für die Genexpression, einen Umschaltvorgang zwischen der Expression einander reprimierender Gene durch ein System gekoppelter Differentialgleichungen modelliert: α1 du , = −u + dt 1 + vβ dv α2 . = −v + dt 1 + uγ

(4.4.1)

u und v sind hierbei die Konzentrationen zweier Repressoren, deren effektive Syntheseraten α1 und α2 sind. γ und β beschreiben die Kooperativität der Repression durch den ersten bzw. zweiten Promoter. Alle diese Parameter werden als positiv angenommen. Wir haben also in diesem Modell zwei Substanzen, die sich nicht wie in vielen anderen Reaktionsnetzwerken gegenseitig inhibieren, sondern die nur die Produktionsrate des jeweils anderen verringern. Je nach Wahl der Parameter kann dieses System nun nur einen, global anziehenden Gleichgewichtszustand oder zwei stabile Gleichgewichtszustände, die dann natürlich durch einen instabilen getrennt sein müssen, aufweisen. Diese qualitativen Eigenschaften zeigen sich allerdings auch schon in dem allgemeineren Modell du = −u + F1 (v), dt dv = −v + F2 (u), dt

(4.4.2)

mit positiven, beschränkten und monoton fallenden Funktionen F j (y), die für y → ∞ gegen 0 streben. Die Stabilität eines Fixpunktes (u 0 , v0 ) hängt dann von den Werten der Ableitungen von F1 (v0 ) und F2 (u 0 ) ab; sind beide größer als −1, so ist der Fixpunkt stabil, sind dagegen beide kleiner als −1, so ist er instabil. Ist einer größer und einer kleiner als −1, so erhalten wir Oszillationen um diesen Fixpunkt; diese sind expandierend oder kontrahierend, je nachdem ob das Produkt dieser Ableitungen größer oder kleiner als 1 ist.

4.4 Regulations- und Steuerungsnetzwerke

149

Hieraus folgt, dass für die Bistabilität des Systems die F j notwendigerweise ihr Vorzeichen wechseln müssen. Da eine Zelle jedoch ein räumlich ausgedehntes System ist und daher Substanzen im Zellinneren im Allgemeinen nicht in homogenen Konzentrationen vorliegen, ist in Jost und Wang (o. J.) dieses System um Diffusionsterme erweitert worden, also das folgende System von Reaktions-Diffusions-Gleichungen untersucht worden: ∂u = d1 u − u + F1 (v), ∂t ∂v = d2 v − v + F2 (u), ∂t

(4.4.3)

mit positiven Diffusionskonstanten d1 , d2 , und z. B. die Stabilität von Gleichgewichtslösungen gegenüber räumlich inhomogenen Störungen studiert worden. Wie schon angeklungen, ist dies aber noch weit von einer allgemeinen und biologisch aussagekräftigen Theorie entfernt. Es kann allenfalls als Beispiel dafür angesehen werden, welche qualitativen Phänomene sich durch Reaktions-Diffusions-Gleichungen modellieren lassen. Es gibt inzwischen sehr viele Modelle aus gekoppelten Differentialgleichungen, die bestimmte Regulationsvorgänge in Zellen beschreiben; man vgl. z. B. Aguda und Friedman (2008). Jedes einzelne Modell kann mathematisch kompliziert sein, aber es ist nicht klar, wie sich aus solchen Einzelstudien ein systematisches Verständnis zellulärer Regulation auf einer möglicherweise abstrakteren Ebene entwickeln kann, das über eine Auflistung und Analyse der vielen verschiedenen Typen von Verzweigungsmechanismen in Differentialgleichungssystemen hinausgeht.

5

Physiologie

Die Physiologie gehört sowohl zur Biologie als auch zur Medizin. In heutiger biologischer Perspektive ist sie die Lehre von den physikalischen und biochemischen Vorgängen in den Zellen, Geweben und Organen aller Lebewesen, während es für die Medizin natürlich um die Prozesse im menschlichen Körper geht. Der Inhalt der Physiologie ist die funktionale Erklärung – anstelle der morphologischen Beschreibung oder der evolutionären Ableitung – von in individuellen Lebewesen stattfindenden Prozessen. Die erste bedeutende physiologische Leistung war die Entdeckung des Blutkreislaufes durch William Harvey (1578–1657). Traditionellerweise befasst sich die Physiologie vor allem mit Vorgängen auf der makroskopischen Ebene. Im Prinzip sollte dies dann molekularbiologisch fundiert werden, aber in der Praxis gelingt die erforderliche Überbrückung mehrerer Größenordnungen (Skalen) höchstens in Einzelfällen. Beim Herzen ist man mit einem solchen Zugang jedenfalls schon ziemlich weit, s. Noble (2002). Heutzutage schließt die Physiologie daher auch biochemische und zelluläre Prozesse ein, und die zweibändige Monographie Keener und Schneyd (2009) behandelt im ersten Band zelluläre Prozesse, im zweiten Organe. Auch zur Ausbreitung von Tumoren gibt es inzwischen eine Vielzahl mathematischer Modelle, z. B. dasjenige in Anderson und Chaplain (1998), das die im Abschn. 7.1 behandelte Chemotaxis mit einer Haptotaxis verbindet, also eine Interaktion mittels chemischer Botenstoffe mit einer durch mechanische Kontakte. Andere Modelle, wie dasjenige in Drasdo und Höhme (2005), analysieren die biomechanischen Prinzipien. Jedenfalls betrachtet die moderne Physiologie verschiedene Skalen, von der biochemischen bis zur organismischen Ebene, und so gibt es eine große Vielfalt von physikalischen und mathematischen Modellen. Nun haben wir die biochemischen Grundlagen schon in Abschn. 3.1 behandelt. In diesem Kapitel beginnen wir daher mit einem Zellmodell. Die beliebteste Modellierungstechnik in der mathematischen Physiologie sind wohl dynamische Systeme, genauer gekoppelte Systeme von (meist gewöhnlichen) Differentialgleichungen. Es gibt da einige spektakuläre Erfolge, wie das Neuronenmodell von Hodgkin und

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_5

151

152

5 Physiologie

Huxley, das wir gleich vorstellen werden, aber leider auch sehr viele sehr oberflächliche, rein qualiative Modelle. Daneben sind auch Modelle mit diskreten Elementen besonders in der Zellbiologie beliebt, wenn man versucht, die Entwicklung von Geweben aus miteinander lokal wechselwirkenden Zellen zu beschreiben, die möglicherweise um Platz im dreidimensionalen Raum konkurrieren. Ein viel untersuchtes Beispiel ist das Glazier-Graner-Hogeweg Model, s. Hogeweg (2000). Als ein solches Modell zum Wachstum von Tumoren können wir beispielsweise Drasdo und Höhme (2005) zitieren. Auf Modelle mit diskreten Agenten werden wir noch einmal kurz in Abschn. 8.3 eingehen.

5.1

Das Neuronenmodell von Hodgkin und Huxley

Alan Hodgkin (1914–1998) und Andrew Huxley (1917–2012) stellten 1952 ein Modell für die Funktion des Riesenaxons des Tintenfisches Loligo forbesii vor (Hodgkin und Huxley 1952). Dieses Axon durchläuft den gesamten Körper des Tieres und ist so groß, dass es leicht mit dem bloßen Auge sichtbar ist. Es dient der Auslösung von Fluchtreflexen. Mit der damals neuen Voltage Clamp Technik wurde das Axon elektrisch kurzgeschlossen, indem ein Draht hindurchgezogen wird, so dass die Membranspannung überall gleich ist. Mit dieser Technik konnten sie bei diesem besonders großen Axon die Ionenflüsse messen und dann durch sehr sorgfältige Schätzungen einer großen Zahl von Parametern ein Neuronenmodell aus vier gekoppelten Differentialgleichungen entwickeln, das das Feuerverhalten eines solchen Neurons nicht nur qualitativ, sondern auch quantitativ korrekt wiedergibt. Dies ist eine ziemlich einzigartige Leistung in der Physiologie.1 Auch wenn das Modell in seiner Grundform nur aus vier gekoppelten gewöhnlichen Differentialgleichungen besteht, sind seine mathematischen Eigenschaften noch nicht im Detail verstanden. Auf der zellulären Ebene lässt sich die Funktionsweise eines Neurons am besten biophysikalisch beschreiben (s. z. B. Bialek 2012), auch wenn heutzutage auch die molekularen Grundlagen erforscht sind. Die wichtigste Variable ist der Spannungsunterschied zwischen dem Inneren und dem Äußeren der Zelle. Die Zellmembran besteht wie bei jeder Zelle aus einer – für die vorliegenden Zwecke – undurchlässigen Lipiddoppelschicht, in die allerdings spezielle eingelassene Proteine als Kanäle wirken, die selektiv für bestimmte Ionen durchlässig sind und sich abhängig vom Spannungsunterschied öffnen oder schließen. Dadurch kann der Spannungsunterschied dynamisch verändert werden, insbesondere weil die Kanäle sich unterschiedlich schnell ändern. Im Ruhezustand gibt es bestimmte Konzentrationsunterschiede der Ionen im Innern und im Äußeren, und die Zelle verhält sich wie ein Kondensator, mit einem bestimmten Ruhepotential V0 . Die Zelle greift über Synapsen von anderen Neuronen Signale ab, und diese werden in den Zellkörper weitergeleitet. Dadurch wird das 1 Zumindest wenn man die Sinnesphysiologie ausklammert, denn Prozesse der Sinneswahrnehmung beruhen häufig auf elementaren physikalischen Prozessen, die sich auch quantitativ gut erfassen lassen.

5.1 Das Neuronenmodell von Hodgkin und Huxley

153

Membranpotential erhöht, und wenn eine bestimmte Schwelle überschritten wird, feuert das Neuron. Das bedeutet, dass ein Aktionspotential über das Axon des Neurons weitergeleitet wird, an dem dann wieder die Synapsen anderer Neuronen andocken und das Signal in ihre Zellkörper weiterleiten können. Die Dynamik der Ionenkanäle führt dann dazu, dass das Neuron nach einer Refraktärphase wieder in den Ruhezustand zurückkehrt und dann wieder bereit ist, Signale von präsynaptischen Neuronen zu empfangen und gegebenenfalls erneut zu feuern. Allerdings gibt es nicht nur solche Neuronen, deren Feuern das Potential nachfolgender, postsynaptischer Neurone erhöht, sondern auch inhibitorische Neuronen, die das Feuern postsynaptischer Neuronen hindern. Wir beginnen mit der grundlegenden Version, die die räumliche Struktur und damit die zeitliche Ausbreitung innerhalb des Axons unberücksichtigt lässt und daher mit gewöhnlichen statt partieller Differentialgleichungen auskommt. Experimentell entspricht dies dem schon geschilderten Space- Clamping, bei dem der Spannungsunterschied zum Äußeren der Zelle künstlich räumlich fixiert wird. Die wichtigste Variable ist das Potential V des Neurons, das die Differentialgleichung C

dV = I e − Ii dt

(5.1.1)

erfüllt. Hierbei ist C die Membrankapazität und Ie and Ii sind die äußeren und inneren Ströme. Ie wird als externer Parameter behandelt. Dieser äußere Strom Ia kann angelegt und somit experimentell kontrolliert werden. Der innere Strom ist dagegen Teil des Systems und erfüllt die Gleichung Ii = g0 (V − V0 ) + g1 m 3 h(V − V1 ) + g2 n 4 (V − V2 ).

(5.1.2)

Hierbei sind g0 , g1 , g2 > 0 and V0 , V1 , V2 Konstanten. Die Variablen m, n, h beschreiben das Öffnen und Schließen von Ionenkanälen. Und zwar modelliert m das Einströmen von positiv geladenen Natriumionen (Na+ ), n das Ausströmen von Kaliumionen (K+ ) und h das Schließen der Na+ -Kanäle. Die Variablen sind dabei so normalisiert, dass ihre Werte zwischen 0 und 1 liegen, also als Öffnungswahrscheinlichkeiten für die betreffenden Kanäle interpretiert werden können. Tatsächlich sind die Vorgänge auf der molekularen Ebene stochastisch, und in der nachfolgenden Gleichung steht z. B. n in der vierten Potenz, weil vier unabhängige Öffnungsereignisse zusammenfallen müssen. (5.1.1) und (5.1.2) ergeben zusammen C

dV = Ie − (g0 (V − V0 ) + g1 m 3 h(V − V1 ) + g2 n 4 (V − V2 )). dt

(5.1.3)

Das Verhalten hängt entscheidend von den Vorzeichen der beteiligten Terme in (5.1.3) ab. Wir müssen uns allerdings zunächst den Variablen m, n, h zuwenden, welche ebenfalls Differentialgleichungen erfüllen; diese sind von der Form τ y (V )

dy = y∞ (V ) − y dt

(5.1.4)

154

5 Physiologie

Diese Variablen y nehmen also nicht instantan ihre von V abhängigen asymptotischen Gleichgewichtswerte y∞ (V ) an, sondern relaxieren zu diesen Werten auf der durch τ y (V ) bestimmten Zeitskala. In einer etwas anderen Form schreibt man die Differentialgleichungen für die dynamisch bestimmten chemischen Konzentrationen y = m, n, h als m t = αm (V ) (1 − m) − βm (V )m

(5.1.5)

n t = αn (V ) (1 − n) − βn (V )n

(5.1.6)

h t = αh (V ) (1 − h) − βh (V )h.

(5.1.7)

Diese Konzentrationen sind stets nichtnegativ und so normalisiert, dass sie auch kleiner als 1 sind. Die α und β sind experimentell bestimmte Funktionen. αn (V ) und αm (V ) verhalten sich etwa wie 21 (1 + tanh V ), αn (V ) wie 21 (1 − tanh V ). Damit haben wir schon die vier Differentialgleichungen des Modelles von Hodgkin und Huxley gewonnen, nämlich (5.1.3) für das Potential V und die drei Gl. (5.1.5), (5.1.6), (5.1.7) für die Ionenflüsse. Dabei ist es wesentlich, dass, wenn wir wieder auf die Form (5.1.4) zurückkommen, während m ∞ und n ∞ monoton wachsende Funktionen von V sind, wobei m ∞ erst bei einem etwas höheren Wert von V (ca. −80 mV) zu wachsen beginnt als n ∞ , h ∞ eine monoton fallende Funktion ist. Außerdem ist die Zeitkonstante τm viel kleiner als τn , τh (deren Maximum bei Werten von V zwischen −80 und −70 mV liegt). Daher ändert sich m viel schneller als n und h, sogar ähnlich schnell wie V . Schließlich geben wir noch die Umkehrpotentiale in (5.1.2) an, V1 =

50 mV

V2 = −77 mV V0 = −54,4 mV. Wir wollen nun das qualitative Verhalten des Hodgkin-Huxley-Modells beschreiben. Für Ie = 0 ist der Ruhezustand (V = V0 , m, n, h konstant) stabil, aber durch ein über einer bestimmten Schwelle liegendes Ie wird eine Dynamik in Gang gesetzt, bei der V zunächst stark anwächst und dann wieder in die Nähe des Ruhezustands zurückfällt. Das Neuron feuert also. Enthält Ie einem Rauschterm, d. h. eine stochastische Komponente, so kann dies dann auch zufällig das Feuern des Neurons verursachen. Wir wollen diese Dynamik nun noch etwas genauer beschreiben. Das System sei nahe seines Ruhewertes V0 . Dann sind h = h ∞ (V0 ) und n = n ∞ (V0 ) positiv (ungefähr 1/2) während m = m ∞ (V0 ) fast verschwindet. Der relevante Term in (5.1.3) ist dann g0 (V − V0 ), welcher den Ruhepunkt V0 stabilisiert. Falls nun ein positiver Strom Ie einläuft, setzt eine positive Rückkopplung zwischen V und m, da in dem Bereich, in den wir nun gelangen, die beiden wachsende Funktionen voneinander sind. Wenn nämlich V bis etwa −50 mV ansteigt, so wächst m plötzlich zu deutlich positiven Werten, und da h positiv ebenfalls positiv ist, bewirkt der Na+ -Term einen scharfen Abfall des inneren Stromes Ii und dadurch

5.1 Das Neuronenmodell von Hodgkin und Huxley

155

eine weitere schnelle Vergrößerung von V , bis zu dem Na+ -Gleichgewichtswert von 50 mV. Das Potential V steigt also von −50 mV auf 50 mV innerhalb sehr kurzer Zeit. Das Neuron feuert. Während jedoch V steigt, sinkt h zu 0, und der Na+ -Strom wird daher ausgeschaltet. Die Dynamik von dem anfänglichen Anstieg von m bis zum Abfall von h wird hier im Wesentlichen von dem Term g1 m 3 h(V − V1 ) in (5.1.3) getrieben. Dieser Term stellt auch sicher, dass das Potential nicht den Spitzenwert V1 überschreitet. Außerdem steigt n, und daher wird K+ stärker aktiviert, und dies führt dann wiederum zu einem Abfall von V sogar unterhalb von dem Ruhewert V0 , bis V2 , eine Hyperpolarisation. Der für die Dynamik von V entscheidende Term ist nun g2 n 4 (V − V2 ). Dies führt zu einer Refraktärzeit, während welcher das Neuron nicht weiter feuern kann, bis dann, sofern keine neuen äußeren Ströme eingreifen, alle Variablen wieder in ihren Ruhebereich zurückkehren. Physikalisch ausgedrückt passiert hier das Folgende. Die Dynamik wird durch die Wechselwirkung der Spannung mit dem Einstrom positiv geladener Natriumionen und dem Ausstrom positiv geladener Kaliumionen bewirkt, und diese Ströme werden wiederum durch die Aktivierung und Deaktivierung spezifischer Kanäle in der Zellmembran ermöglicht. Die Natriumkanäle reagieren dabei schneller als die Kaliumkanäle. Daher wird die Zelle zunächst durch den Einstrom positiver Ionen depolarisiert und dann durch den Ausstrom positiver Ionen hyperpolarisiert. Unterhalb der Schwelle verhindert der konstante Ausstrom eine solche Depolarisierung. Steigt die Spannung aber über diese Schwelle, z. B., wie hier angenommen, durch ein externen Strom, setzt eine positive Rückkopplung zwischen der Depolarisierung, also einem Anstieg von V , und dem Anstieg der Natriumvariablen m ein, indem die erhöhte Spannung dazu führt, dass sich Natriumkanäle in der Zellmembran öffnen. Dies führt zum Feuern des Neurons. Dann wird jedoch ein bestimmtes Kanalprotein aktiviert, wodurch sich die Natriumkanäle schließen, während sich die Kaliumkanäle öffnen. Der dadurch bewirkte Ausstrom positiver Kaliumionen führt dann zur Hyperpolarisierung. Einzelheiten finden sich z. B. in Shephert (1994), Murray (2002), Koch (1999). Die mathematische Untersuchung wird beispielsweise in Phillipson und Schuster (2004), Izhikevich (2007), Ermentrout und Terman (2010) vorangetrieben. Für die Modellierung anderer Neuronentypen werden die vorstehenden Gleichungen variiert. Z.B. gibt es typischerweise neben den beschriebenen Kanälen für positive Kaliumund Natriumionen auch noch Kanäle für negative Chloridionen, und deren Dynamik muss dann durch eine weitere Gleichung vom Typ (5.1.4) beschrieben werden. Wir verweisen auf die gerade zitierte Literatur und kehren zum Hodgkin-Huxley-Modell zurück. Da das in den Hodgkin-Huxley-Gleichungen modellierte Axon räumlich ausgedehnt ist, sollte man neben der Zeit auch eine räumliche unabhängige Variable haben. Meist wird das Axon als eindimensionales Kabel modelliert, so dass diese räumliche Variable x nur eine Dimension hat. Es muss dann zu (5.1.3) noch ein Term Vx x hinzugefügt werden, der die Diffusion in x-Richtung modelliert. Aus (5.1.3) wird dann Vt = Vx x +

 1  Ie + g0 (V0 − V ) + g1 m 3 h(V1 − V ) + g2 n 4 (V2 − V ) . C

(5.1.8)

156

5 Physiologie

In (5.1.5)–(5.1.7) kann man ebenfalls entsprechende Diffusionsterme einführen. Man erhält dann ein sog. Reaktions-Diffusionssystem, in dem man die bei solchen Systemen üblichen Phänomene (s. z. B. Smoller 1994; Jost 2013) wie wandernde Wellen untersuchen kann. Ein interessanter neuer Effekt ergibt sich, wenn wir die Hodgkin-Huxley-Gleichung (5.1.3) verrauschen, wenn wir also zu dem deterministischen äußeren Strom Ie , welchen wir jetzt λ nennen und als Parameter behandeln wollen, noch einen Rauschterm addieren. Wie in der Theorie der stochastischen Differentialgleichungen üblich (s. z. B. Øksendal 1995), verwenden wir weißes Rauschen, also die formale Ableitung eines Wienerprozesses W , mit einer Stärke σ . Dann wird aus (5.1.3) die stochastische Differentialgleichung dV =

 1  (λ + g0 (V0 − V ) + g1 m 3 h(V1 − V ) + g2 n 4 (V2 − V ))dt + σ dW . C

(5.1.9)

(Damit alles dimensionsmäßig passt, müssen nun die Größen C, λ, g0 , g1 , g2 pro Einheitsfläche gemessen werden, aber wir unterdrücken das in unserer Notation. Beispielsweise wird λ in μA/cm2 (micro-Ampère pro Quadratcentimeter) gemessen. Die Einheit von σ ist dann μA msec1/2 /cm2 .) Die Gl. (5.1.5)–(5.1.7) werden nicht verrauscht und bleiben weiter bestehen. Das unverrauschte System erfährt eine Bifurkation bei λc ≈ 6,44 μA/cm2 . Unterhalb dieses Wertes bleibt die Auslenkung des Systems unterschwellig, und es gibt nur einen stabilen Ruhepunkt, während oberhalb zusätzlich ein stabiler und ein instabiler Grenzzykel existieren. Der stabile Grenzzykel beschreibt reguläres periodisches Feuern des Neurons. Es koexistieren also ein stabiler Ruhepunkt und ein stabiler periodischer Attraktor, bis bei einem weiteren Verzweigungspunkt λ∗c durch eine subkritische Hopfbifurkation der instabile Grenzzykel den stabilen Ruhepunkt instabil macht. Bei einem noch höheren Wert λ∗∗ c verschmilzt schließlich der stabile Grenzzykel mit dem instabilen Ruhepunkt, wodurch letzterer wieder stabil wird. Hier ist aber der Bereich λc < λ < λ∗c von Interesse. Das Neuron feuert also oberhalb von λc periodisch. Wenn wir nun bei einem Wert etwas oberhalb von λc , z. B. λ = 6,6, das Rauschen einschalten, passiert etwas Merkwürdiges (Tuckwell et al. 2009). Für mittlere Rauschstärken, z. B. σ = 0,2 oder 0,5, feuert das Neuron anfangs ein paar Mal, hört dann aber auf zu feuern. Wird dagegen das Rauschen stärker, etwa σ = 2, dann feuert das Neuron sogar noch schneller als bei Abwesenheit von Rauschen. Das Rauschen hat also einen nichtmonotonen Effekt, den wir in Gutkin et al. (2009) inverse stochastische Resonanz genannt haben. Kleineres Rauschen stoppt das periodische Feuern, das bei Abwesenheit von Rauschen stattfinden würde, während stärkeres Rauschen das Neuron sogar noch stärker als ohne Rauschen feuern lässt. Das Phänomen ist robust. Es zeigt sich auch in dem räumlichen System (5.1.8) (Tuckwell und Jost 2010). Es bleibt auch bestehen, wenn das Rauschen nicht mehr additiv ist, also durch einen Term σ dW verursacht wird, sondern multiplikativ ist, durch einen Term der Form ge (Ve − V ) + gi (Vi − V ) mit verrauschten Koeffizienten ge > 0 (exzitatorisch) und gi < 0 (inhibitorisch) zustande kommt (Tuckwell et al. 2009). Der Effekt tritt auch in Systemen mit zwei gekoppelten Neuronen auf (Gutkin et al. 2007, 2008). Zum mathematischen

5.2 Das FitzHugh-Nagumo-System als Vereinfachung des Hodgkin-Huxley-Systems

157

Verständnis des Phänomens haben wir bestimmte stochastische Approximationsmethoden entwickelt (Tuckwell und Jost 2009, 2012), aber eine vertiefte mathematische Analyse konnte bisher erst für das entsprechende Phänomen bei einem einfacheren System, den FitzHugh-Nagumo-Gleichungen durchgeführt werden, welchen wir uns nun zuwenden wollen. Selbst das nicht gestörte Hodgkin-Huxley-System (5.1.3), (5.1.5), (5.1.6), (5.1.7) ist mathematisch nämlich noch keineswegs vollständig verstanden.

5.2

Das FitzHugh-Nagumo-System als Vereinfachung des Hodgkin-Huxley-Systems

Das System aus den 4 Gleichungen (5.1.3), (5.1.5), (5.1.6), (5.1.7) ist relativ kompliziert, und man hat daher noch Vereinfachungen gesucht. Diese Suche lässt sich im Prinzip unter zwei Gesichtspunkten vollziehen: Der erste bezieht sich auf physiologische Beobachtungen. Signifikant ist hierbei die Tatsache, dass die Zeitskalen, auf denen sich die verschiedenen Größen ändern, unterschiedlich sind. Insbesondere ändert sich m sehr schnell, oder genauer kehrt es sehr schnell in dem durch m t = 0 bestimmten Gleichgewichtszustand zurück. Daher setzt man m und dann in einer weiteren Approximation auch h als konstant an. Es kann aber durchaus sein, dass man durch diese Vereinfachung einen wesentlichen Aspekt biologischer neuronaler Netze verliert, dass es nämlich außer der schnellen Zeitskala der Aktivitätsdynamik und der weiter unter besprochenen langsamen Zeitskala der Lerndynamik noch eine mittlere Zeitskala gibt, auf der die Erholung der chemischen Konzentrationen nach einem Feuern des Neurons stattfindet, wodurch auch einzelne Neuronen mit einer Art Kurzzeitgedächtnis ausgestattet wären. Der zweite Gesichtspunkt geht vom qualitativen Verhalten des obigen Systems aus und versucht, ein einfacheres System mit einem ähnlichen Lösungsverhalten zu finden. Durch die Kombination dieser beiden Gesichtspunkte entsteht das FitzHugh-Nagumo-System (FitzHugh 1961) vt = v(a − v)(v − 1) − w + λ

(5.2.1)

wt = ε(bv − cw)

(5.2.2)

mit Konstanten b, c > 0. a wird oft auf den Bereich 0 < a < 1 beschränkt, aber es stellt sich heraus, dass für ein vertieftes Verständnis der Dynamik auch a < 0 betrachtet werden sollte. Insbesondere führt a = −1 zu einer Vereinfachung von (5.2.1), vt = −v 3 + v − w + λ,

(5.2.3)

bei der sich das Verzweigungsverhalten in Abhängigkeit von b, c oder λ besonders gut studieren lässt. ε ist ein Zeitskalenparameter, dessen Rolle unten hervortreten wird. Für den Augenblick mag man ε = 1 setzen, auch wenn wir später den Limes ε → 0 betrachten werden. Wir

158

5 Physiologie

hatten in Abschn. 4.3 schon das Zusammenspiel verschiedener Zeitskalen diskutiert, und dies ist auch hier für das Verständnis der asymptotischen Dynamik entscheidend. v fasst die schnellen Variablen zusammen, die Spannung V und die Konzentration m, während w die Rolle der sich langsamer ändernden Variablen n und 1 − h übernimmt. Der Parameter λ repräsentiert den äußeren Strom Ie , also einen externen Input. Der kubische Term in (5.2.1) leitet sich aus dem Term mit m 3 in (5.1.3) her. Er hat ein negatives Vorzeichen und bewirkt, dass die Dynamik beschränkt bleibt. In der Nähe des Nullpunktes v = 0 ist die Dynamik dagegen annähernd linear. Bei dem System (5.2.1), (5.2.2) lässt sich nun das qualitative dynamische Verhalten sehr gut analysieren (vgl. die Monographien von Murray 2002 und Kuehn 2015): Wir setzen zur Abkürzung f (v) := v(a − v)(v − 1). Ruhepunkte des FitzHugh-Nagumo sind also, zunächst für Ia = 0, durch die folgenden Gleichungen bestimmt: 0 = f (v) − w 0 = bv − cw In Abhängigkeit von den Werten der Parameter a, b, c lässt sich das Verhalten durch eines der beiden folgenden Bilder in Abb. 5.1.

Abb. 5.1 Ein FitzHugh-Nagumo-System mit einem (oben) und drei (unten) Gleichgewichtspunkten

w

w = bc v w0

v0

1

a

v w = f (v)

w

w = bc v p3 p2 p1 a

1 w = f (v)

v

5.2 Das FitzHugh-Nagumo-System als Vereinfachung des Hodgkin-Huxley-Systems

159

Fixpunkte sind also die Schnittpunkte der roten und der grünen Kurve, und für generische Werte der Parameter gibt es entweder einen stabilen Fixpunkt P1 , oder zwei stabile (P1 , P3 ) und einen instabilen (P2 ). In der Nähe des stabilen Fixpunktes wird das Verhalten des Systems durch den quadratischen Anteil von f (v), also (a + 1)v 2 , bestimmt, während der negative kubische Beitrag −v 3 erst bei großen Werten von v greift und zu einer Rückstellung von v führt. Kleine Störungen in der Nähe von P1 führen also zu einer Rückkehr zu P1 . Wird dagegen bei w = 0 v über den Wert a hinaus gestört, so gerät man zunächst in der Bereich v˙ > 0, d. h. v wächst, bis man wieder auf die grüne Kurve trifft. Da man sich ebenfalls im Bereich w˙ > 0 befindet, wächst w ebenfalls, bis man die rote Kurve erreicht. In der Situation des zweiten Bildes läuft man einfach auf den zweiten stabilen Fixpunkt, P3 , zu. In der Situation des ersten Bildes gerät man dagegen in einen Bereich, in dem v˙ und w˙ beide negativ sind, und v und w fallen somit. Die Dynamik läuft dann links oberhalb der roten Kurve in dem Bereich v < 0, bis über die grüne Kurve hinaus, wo dann v˙ wieder positiv wird und die Dynamik schließlich zum Ausgangspunkt P1 zurückkehrt. Dieser Prozess soll das Feuern des Neurons bei Überschreiten des Schwellwertes a modellieren. Wir wollen nun die Rolle des Parameters λ analysieren, den wir bisher noch nicht berücksichtigt haben. Die Kurve v˙ = 0 wird nach Einführung von λ zu w = f (v) + λ, d. h. in unseren Bildern verschiebt sich die grüne Kurve. Für positives λ können wir von der Ausgangslage des ersten Bildes entweder in die Situation des zweiten Bildes geraten, oder in die durch das nachstehende dritte Bild in Abb. 5.2 beschriebene. In diesem Fall ist der einzige Fixpunkt P unstabil, und Störungen aus der Ruhelage führen zunächst von P weg und dann wegen der durch den kubischen Term dominierten Asymptotik der grünen Kurve zu Oszillationen um diese Ruhelage. Das FitzHugh-Nagumo-System, i. F. manchmal mit FHN abgekürzt, hat die mathematische Forschung in verschiedener Hinsicht wesentlich inspiriert. Zwar kann man das System trotz seiner einfachen Form – eine der beiden Gl. (5.2.2) ist linear, die andere (5.2.1) enthält eine kubische Nichtlinearität – nicht explizit lösen, aber das reichhaltige Verzweigungs-

Abb. 5.2 Variation des Parameters λ

w

w = bc v w0

v0

w = f (v)+ λ v

160

5 Physiologie

verhalten lässt sich recht gut verstehen. Vor allem aber stellt FHN ein zentrales Beispiel, vielleicht sogar das wichtigste überhaupt, in der Theorie der dynamischen Systeme mit mehreren Zeitskalen dar; man vgl. die umfangreiche Monographie Kuehn (2015). Außerdem lassen sich an dem stochastisch gestörten FHN verschiedene stochastische Resonanzphänomene studieren. Dies beginnt mit der Kohärenzresonanz (Pikovsky und Kurths 1997; Lindner und Schimansky-Geier 1999), bei der im Unterschied zur stochastischen Resonanz (Benzi et al. 1981) kein äußerer Antrieb erforderlich ist, um bei einer optimalen Rauschstärke maximale Kohärenz der Oszillationen zu erreichen. Bemerkenswerterweise kann man in FHN sogar den Übergang zwischen zwei weiteren Resonanzmechanismen, der selbstinduzierten stochastischen Resonanz (Muratov et al. 2005) und der inversen stochastischen Resonanz (Gutkin et al. 2009) studieren, wie in Yamakou und Jost (2017a) dargelegt, und dies wollen wir nun kurz beschreiben. Zunächst müssen wir die Rolle des Zeitskalenparameters ε in (5.2.2) diskutieren. 0 < ε  1 soll nun klein sein, um zum Ausdruck zu bringen, dass die Rückstelldynamik (5.2.2) wesentlich langsamer stattfindet als die eigentliche Feuerdynamik (5.2.1). Statt auf der langsamen Zeitskala dv = v(a − v)(v − 1) − w dt dw = ε(bv − cw) dt

(5.2.4) (5.2.5)

können wir mit τ = εt das System auch auf der schnellen Zeitskala als 1 dv = (v(a − v)(v − 1) − w) dτ ε dw = bv − cw dτ

(5.2.6) (5.2.7)

schreiben. Natürlich sind für ε > 0 die beiden System äquivalent, aber in dem singulären Limes ε → 0 sieht das anders aus. Die kritische Mannigfaltigkeit ist dann die durch das Verschwinden von dv dt gegebene Mannigfaltigkeit M0 , auf welcher w = −v 3 + (a + 1)v 2 − av. M0 ist stabil auf den ∗ (w) = M ∩ {±v ≥ ±v }, weil dort dw negativ ist, aber beiden absteigenden Ästen v± 0 ± dt instabil auf dem aufsteigenden Ast v0∗ (w) = M0 ∩ {v− < v < v+ }, wo diese Ableitung positiv ist. √M0 ändert also sein Stabilitätsverhalten an den beiden singulären Punkten v± = a+1 1 2 ± 3 3 a − a + 1. Dabei ist v− < 0 für a < 0. M0 schneidet die Nullkurve w = bc v von w in einem, zwei oder drei Fixpunkten, wie wir oben schon gesehen haben. Wir betrachten den Fall, wo es nur einen Fixpunkt gibt, und zwar (v0 , w0 ) = (0, 0). v0 ist stabil, falls − aε < c (und a > − bc ), im Limes ε → 0 daher nur für a ≥ 0. Für c2 < bε und 3εc ≤ a 2 − a + 1 erhalten wir eine Hopfbifurkation bei einem der Fixpunkte, wenn dieser mit

5.2 Das FitzHugh-Nagumo-System als Vereinfachung des Hodgkin-Huxley-Systems

a+1 v = − 3



(a + 1)2 a + εc − 9 3

161

(5.2.8)

zusammenfällt. Für a < 0 ist v− < v0 = 0, und diese Hopfbifurkation findet daher bei v0 = 0 für den Wert (5.2.9) εhp = −a/c statt. v0 verliert also sein Stabilität durch eine Hopfbifurkation, wenn ε kleiner wird. Solange − ac < ε gilt, haben wir einen stabilen Fixpunkt (v0 , w0 ) = (0, 0) rechts von dem singulären  (a+1)2 − − a3 . Punkt v− = a+1 3 9 Der das Feuern des Neurons darstellende Grenzzykel in FHN für kleines ε entsteht allerdings nicht durch eine Hopfbifurkation. Der Satz von Fenichel (1979) erklärt, wie Relaxationsoszillationen in (5.2.4) entstehen. In dem singulären Limes ε = 0 bewegt sich nämlich ∗ (w), und entsprechend hat sie für kleines die Bahn der schnellen Variablen v genau auf v− ∗ ε > 0 höchstens den Abstand O(ε) von v− (w) und strebt dem linken singulären Punkt v− bei dem Minimum von M0 zu. Da bei v− M0 seine Stabilität verliert, springt die Bahn zu ∗ (w). Dann bewegt sie sich in der Nähe von v ∗ (w) aufwärts bis dem rechten stabilen Ast v+ + zu dem rechten singulären Punkt v+ bei dem Maximum von M0 . Dort springt sie wieder ∗ (w), und der Prozess geht von vorne los. So erhalten wir also einen Grenzzurück zu v− zykel für das nicht verrauschte System für kleines ε > 0. Die so entstehenden Oszillationen sollen in diesem abstrakten Modell dem regulären periodischen Feuern des Neurons entsprechen. Die Bewegung in der Nähe des rechten absteigenden Astes der kubischen Nullkurve repräsentiert den angeregten Zustand, die Bewegung bei dem linken absteigenden Ast den refraktären Zustand des Neurons (FitzHugh 1961). Man spricht hier auch von einem Relaxationsoszillator, der durch das Wechselspiel und die gegenseitige Ablösung der langsamen Zeitskala bei der Bewegung entlang der kritischen Kurve und der schnellen Zeitskala bei dem Hinüberspringen zu einem anderen Ast dieser Kurve zustande kommt. ∗ (w). Daher gibt es in diesem Fall Für v0 < v− liegt (v0 , w0 ) auf dem stabilen Ast v− ∗ (w) keinen solchen Grenzzykel, denn eine Bahn, die in die Nähe des stabilen Fixpunktes v− kommt, wird dort verbleiben und kann nicht zu v− gelangen. Für v0 > v− liegt dagegen (v0 , w0 ) auf dem instabilen Ast v0∗ (w). Daher wird im Limes ε → 0 eine Bahn, die ∗ (w) bewegt, die Umgebungen der singulären Punkte v erreichen sich in der Nähe von v± ± ∗ und auf v± (w) hin- und herspringen. Es gibt daher einen Grenzzykel um den Fixpunkt, und dieser Grenzzykel entsteht durch die Separation der Zeitskalen, bevor der Fixpunkt durch eine subkritische Hopfbifurkation instabil geworden ist. Wenn sowohl v0 > v− als auch ε > εhp = − ac gilt, haben wir also gleichzeitig einen stabilen Fixpunkt und einen stabilen Grenzzykel. (Bifurkationstheoretisch entsteht mit dem stabilen Grenzzykel, der uns hier interessiert, auch ein instabiler Grenzzykel, der dann später durch eine subkritische Hopfbifurkation den zunächst noch stabilen Fixpunkt destabilisiert. Bifurkationstheoretisch

162

5 Physiologie

reproduziert also FHN genau HH, für welches wir das Bifurkationsverhalten oben skizziert haben. Dies macht eine wesentliche konzeptionelle Stärke von FHN aus.) Wir sehen also, dass das qualitative Verhalten von der relativen Lage des singulären Punktes v− und des Fixpunktes v0 abhängt. Dieses wiederum wird durch den Parameter a und den Zeitskalenparameter ε bestimmt. Nun können wir auch verstehen, was Rauschen bewirken kann. Wir ersetzen also (5.2.4), (5.2.5) durch σ dv = (v(a − v)(v − 1) − w)dt + √ dW ε

(5.2.10)

dw = ε(bv − cw)dt

(5.2.11)

bzw. mit τ = εt wie vorher (5.2.6), (5.2.7) durch 1 (v(a − v)(v − 1) − w)dt + σ dW ε dw = bv − cw dv =

(5.2.12) (5.2.13)

wobei wie in Abschn. 5.1 σ dW weißes Rauschen der Stärke σ bezeichnet. In (5.2.10) muss ∗ (w) liegt, das dann noch skaliert werden. Für v0 < v− , wo (v0 , w0 ) auf dem stabilen Ast v− kann ein geeignetes Rauschen die Trajektorie, bevor sie diesen Punkt erreicht, von diesem ∗ (w) hinüberspringen und dann, bevor der dortige stabilen Ast zu dem anderen stabilen Ast v+ singuläre Punkt erreicht wird, wieder zurückspringen lassen. Dann entsteht also durch die stochastische Störung ein Grenzzykel, wo vorher keiner war, und wir haben einen Fall von selbstinduzierter stochastischer Resonanz (Muratov et al. 2005; Yamakou und Jost 2017b). Für v0 > v− dagegen, wo (v0 , w0 ) auf dem instabilen Ast v0∗ (w) liegt und der Grenzzykel zwischen den beiden stabilen Ästen hin- und herspringt, kann Rauschen bewirken, dass die Bahn schon vor Erreichen des singulären Punktes v− von dem linken stabilen Ast abspringt und dann in den Einzugsbereich von (v0 , w0 ) gerät und dort verbleibt. Dann wird also das reguläre Feuern unterbrochen. Wird das Rauschen dagegen stärker, so springt die Bahn schon früher von dem linken stabilen Ast, oberhalb des Einzugsbereiches von (v0 , w0 ), bis auf den rechten stabilen Ast, wo sich das Gleiche wiederholt. Dann feuert das Neuron wieder, und zwar schneller als vorher, weil die Bahn nicht bis nach v− laufen muss, bevor sie überspringt, sondern dies schon früher tut. Dies ist dann ein Fall von inverser stochastischer Resonanz (Gutkin et al. 2009; Yamakou und Jost 2018). Allerdings funktioniert das nur, wenn der Skalenparameter ε und die Rauschstärke σ im richtigen Verhältnis stehen. Aus der Theorie der großen Abweichungen (z. B. Freidlin und Wentzell 1998) wissen wir, dass die entscheidende Größe (5.2.14) σ 2 log ε−1 in einem geeigneten Bereich liegen muss. Dieser Bereich wird in Yamakou und Jost (2017a, b) bestimmt.

5.3 Das Immunsystem

5.3

163

Das Immunsystem

Vertebraten (Wirbeltiere) besitzen ein Immunsystem, das ihren Körper vor fremden und potentiell pathogenen Substanzen wie Bakterien, Viren oder Pilzen schützen soll. Dieses Immunsystem ist bei Säugern besonders weit entwickelt. Insbesondere das menschliche Immunsystem, um welches es hier in erster Linie gehen soll, ist außerordentlich leistungsfähig. Um uns einen Zugang zu dessen formaler Modellierung zu verschaffen, sollen erst einmal die Aufgaben, die sich dem Immunsystem stellen, abstrakt formuliert werden. 1. Fremde und potentiell pathogene Substanzen, die in den Körper eindringen, wie Bakterien, Viren oder bakterielle Toxine, müssen erkannt und identifiziert werden. Solche Substanzen können in ihren physikalischen, chemischen und biologischen Eigenschaften sehr verschiedenartig sein, und das Immunsystem „weiß“ nicht im Voraus, was da alles auf es zukommen kann. Nun beruhen biologische Erkennungsmechanismen typischerweise auf komplementären Bindungen. Daher muss das Immunsystem ständig ein riesiges Repertoire an verschiedenen Bindungsmotiven erzeugen und präsent halten. Die grundlegende Erfordernis hier ist also Diversität. Allerdings hilft es hier, dass Krankheitserreger typischerweise biologischer Natur sind, also aus Zellen (oder kleineren biologischen Objekten) bestehen. Es ist also besonders wichtig, fremde Zellen zu erkennen, und Zellen lassen sich biologisch durch die Struktur von Zellwänden identifizieren. 2. Ist einmal eine potentiell schädliche Substanz erkannt, so muss, weil die Gefahr besteht, dass diese Substanz, beispielsweise ein Krankheitskeim, in großer Anzahl auftritt und sich vielleicht noch rapide vermehrt und den Körper überschwemmt, ein entsprechend umfangreicher Verteidigungsmechanismus aufgebaut werden. Wegen der Erfordernis der Diversität gibt es aber zunächst nur wenige Immunzellen, die diese spezifische Substanz erkennen und dann einen Mechanismus auslösen können, der sie unschädlich macht. An dieser Stelle braucht das Immunsystem also eine gezielte schnelle Amplifikation. Die Immunzellen, die einen Keim erkennen, müssen also schnell und gezielt die Bildung von anderen Immunzellen initiieren, die diesen Keim abtöten. Oder die ersten Immunzellen, die den Keim eliminieren können, müssen weitere rekrutieren können. 3. Die Tötung eines Keims kann dadurch erfolgen, dass eine spezifische Zelle ihn bindet und ihn damit markiert und dann zusammen mit dem Keim vernichtet wird. Allgemeiner braucht man also Strategien der Markierung und der Zerstörung markierter Objekte. 4. Gleichzeitig muss sichergestellt werden, dass das Immunsystem nur fremde oder krankhafte, aber keine gesunden körpereigenen Zellen angreift. Das Immunsystem muss also eine Unterscheidung zwischen dem Selbst und dem Fremden vornehmen können. Die Schwierigkeit wird noch dadurch vergrößert, dass eine wesentliche Aufgabe des Immunsystems gerade darin besteht, von Viren infizierte eigene Zellen oder auch Tumorzellen zu vernichten.

164

5 Physiologie

Das Immunsystem produziert Antikörper, ausgelöst durch Antigene (kontrahiert aus „antibody generator“; der Name hat also nichts mit Genen zu tun). Ein Antikörper hat einen spezifischen Teil, der an ein bestimmtes Antigen bindet, und einen unspezifischen Teil, der Zellen rekrutiert, z. B. Makrophagen, die dann das Objekt, an dem das Antigen sitzt, vernichten. Bei der erworbenen Immunität, um die es hier vornehmlich geht (im Unterschied zur ererbten Immunität), besteht der erste Schritt darin, ein solches Antigen zu identifizieren. Dafür muss das System eine sehr große Variabilität in den spezifischen Teilen produzieren, damit also alles mögliche Fremde gebunden und in diesem Sinne ein Antigen werden zu können. Und wenn dann ein solches Antigen identifiziert ist, müssen schnell sehr viele entsprechende Antikörper hergestellt werden, damit möglichst alle Exemplare des durch das Antigen bestimmten Objektes durch Antikörper markiert und dann vernichtet werden. Wesentlich dabei ist, dass durch die Bindung an ein Antigen die Konformation eines bestimmten Proteins geändert wird, wodurch die Aktivität der betreffenden Zelle in Gang gesetzt wird. Die wichtigsten Bestandteile des Immunsystems (s. z. B. die biologischen Lehrbücher Delves et al. (2017), Coico und Sunshine (2015) und die abstrakte Darstellung Perelson und Weisbuch (1997) für die nachfolgende, noch abstraktere Beschreibung) sind die Lymphozyten, bestimmte weiße Blutkörperchen, von denen es zwei Typen gibt, die B- und die T-Zellen.2 B-Zellen erzeugen Antikörper. Helfer-T-Zellen stimulieren Wachstum und Differenzierung dieser B-Zellen in einen Zustand, in welchem sie diese Antikörper freisetzen. Ein anderer Typ von T-Zellen, die zytotoxischen T-Zellen, töten selber vireninfizierte und Tumorzellen. Der HIV-Virus infiziert T-Zellen. B-Zellen erkennen auch Antigene, die nicht an Zellen gebunden sind, während T-Zellen nur an Zellwänden gebundene Antigene erkennen, genauer solche, die mit bestimmten Zellwandmolekülen verbunden sind, den MHC (major histocompatibility complex). Davon gibt es zwei Typen, MHC I, welches an allen Zellen vorkommt, und MHC II, welches nur an denjenigen Zellen vorkommt, die Antigene präsentieren. Die zytotoxischen T-Zellen erkennen MHC I, die Helfer-T-Zellen nur MHC II. Antigene werden von B-Zellen, Makrophagen und dendritischen Zellen (ein Zelltyp, auf den wir hier nicht eingehen) präsentiert, die ein Antigen, das sie identifiziert haben, in Peptide zerschneiden, von denen sie dann einige an ihrer Oberfläche zur Schau stellen. (Das reicht für die Erkennung aus, denn Antigene werden sowieso typischerweise nicht als Ganzes, sondern durch bestimmte Teile, die Epitope, erkannt.) Dadurch kann mittels der Helfer-T-Zellen der Verstärkungsmechanismus in Gang gesetzt werden. Denn nur solche Zellen proliferieren, die vorkommende Antigene oder deren Teilstücke erkennen. Diese proliferierenden Zellen teilen sich dann wiederum auf in solche, die Antikörper freisetzen und damit zur Vernichtung des Pathogens beitragen, und Gedächtniszellen, die die entsprechende Markierung weiter tragen. Außerdem sollten Mutationen bei Immunzellen vorkommen, so dass auch ähnliche Antigene erkannt werden können, damit sich nicht Viren einfach durch Mutationen der Erkennung entziehen können. 2 B-Zellen werden im Knochenmark (bone marrow) produziert, T-Zellen in der T hymusdrüse, daher

die Akronyme.

5.3 Das Immunsystem

165

Und das Problem der Unterscheidung zwischen gesunden eigenen einerseits und fremden oder fremdartigen Zellen wird dadurch gelöst, dass aus dem Thymus, wo die T-Zellen gebildet werden, nur diejenigen freigesetzt werden, die einen Test mit körpereigenen Zellen überstanden haben. Diejenigen, die auf körpereigene Antigene reagieren, werden dagegen zerstört. Ein anderer Mechanismus, der die differenzierte Reaktion des Immunsystems auf fremde und körpereigene Antigene steuert, wirkt durch Komplementaritäten in sog. idiotypischen Netzwerken, auf die wir gleich noch eingehen werden. Eine Abschätzung aus Perelson und Oster (1979) besagt, dass die Wahrscheinlichkeit, dass ein Antigen nicht erkannt wird, von der Größenordnung Ve

e−n V

(5.3.15)

ist, wobei V das Volumen eines abstrakten Raumes der möglichen Formen von Antigenen ist, in welchem die Antigene als zufällig verteilt angenommen werden, Ve die Größe desjenigen Bereiches, der typischerweise von einem Rezeptor erfasst wird, und n die Anzahl der verschiedenen Rezeptoren. Da VVe von der Größenordnung 10−5 ist und wenn man annimmt, dass jeder Lymphozytentyp vor dem Einsetzen des oben beschriebenen Immunisierungsprozess etwa 10mal vorkommt, braucht das Immunsystem also in seinem Ausgangszustand mindestens etwa 107 Zellen, um gegenüber Infektionen einigermaßen gewappnet zu sein. Besonders kleine Vertebraten schaffen das nicht, wie beispielsweise Kaulquappen. Daher verstreuen Frösche das mütterliche Immunsystem zufällig auf den Nachwuchs, so dass zwar nicht jede einzelne Kaulquappe eine Infektion erfolgreich bekämpfen kann, es aber unter der Nachkommenschaft zumindest einige gibt, die zufällig die richtigen Immunzellen abgekriegt haben und es schaffen. Wir wollen nun hier nicht diskutieren, welche epigenetischen Mechanismen in der Eizelle diese Aufteilung steuern können. Man kann aber auch die Frage stellen, welches die optimale Aufteilung bei gegebenen Wahrscheinlichkeiten des Auftretens verschiedener Typen von Krankheitskeimen ist. Dies kann mit der schon in Abschn. 2.1 erwähnten Theorie der Verzweigungsprozesse beantwortet werden, wenn man zufällig variierende Umwelten, also im vorliegenden Fall zufällig auftretende Krankheitskeime, zulässt, s. Jost und Wang (2014). Wir kehren zum adaptiven Immunsystem zurück. Es gibt zwei wesentliche allgemeine Prinzipien, denen das Immunsystem seine Leistungsfähigkeit verdankt. Zunächst gibt es die Theorie der Klonselektion von Burnet (1959), die besagt, dass sich nur diejenigen Immunzellen, und zwar sowohl B- als auch T-Zellen, vermehren, die ein Antigen erkennen. Wir hatten schon dargelegt, dass jede B-Zelle Antikörper trägt, also Rezeptoren mit spezifischen Bindungsstellen, die komplementär an bestimmte Antigene binden. Diese Struktur ist ihr Idiotyp. Diese Komplementärstrukturen finden sich aber nicht nur an den passenden Antigenen, sondern auch an den Antikörpern mancher anderer Idiotypen oder an den Rezeptoren von T-Zellen. Es gibt also nach der Theorie der idiotypischen Netzwerke von Jerne (s. Jerne 1974, 1984, 1985 und auch die neuere Darstellung in Behn 2011) ein Netzwerk von

166

5 Physiologie

idiotypisch wechselwirkenden Immunzellen, welches die Herausbildung der Klone steuert und in verteilter Weise das Gedächtnis des Immunsystems konstituiert. Wir wollen nun aus der großen Fülle und Reichhaltigkeit der Literatur ausgewählte typische mathematische Modelle für diese beiden Prinzipien, Selektion zwischen verschiedenen Zelltypen und Entwicklung idiotypischer Netzwerke, vorstellen, ohne in irgendeiner Weise den Anspruch von Vollständigkeit erheben zu wollen. Es soll hier nur um eine exemplarische Darstellung der mathematischen Modellierung gehen, und nicht um einen Überblick über die umfangreiche Literatur; für Letzteres sei beispielsweise auf die schon genannten Quellen Perelson und Weisbuch (1997), Motta und Brusic (2000), Behn (2011) verwiesen. Wir beginnen mit dem Modell von Perelson, Mirmirani und Oster (Perelson et al. 1976), das frühere Modelle von Bell (1970, 1971) aufgreift, welche die Frage behandeln, ob, nachdem die sich vermehrenden B-Zellen genügend Antikörper produziert haben, um ein bestimmtes Antigen unter Kontrolle zu bekommen, sich diese Zellen besser in Plasma- oder in Gedächtniszellen entwickeln sollen. Plasmazellen produzieren in großer Zahl Antikörper, vermehren sich aber nicht weiter. Gedächtniszellen produzieren keine Antikörper, können aber durch Antigene wieder aktiviert werden und sich dann vermehren. In dem Modell in Perelson et al. (1976) wird das Problem auf die Frage reduziert, ob eine B-Zelle lieber proliferieren, aber dafür nur wenige Antikörper produzieren, oder auf die Proliferation verzichten und dafür Antikörper in großer Menge freisetzen soll. Das Modell hat also drei abhängige Variablen, und zwar die Anzahlen L der proliferierenden Lymphozyten, P der Plasmazellen und A der Antikörper. Die zeitliche Dynamik vollzieht sich gemäß dL = pu(t)L − d(1 − u(t))L − ρ L L dt dP = d(1 − u(t))L − ρ P P dt dA = k(L + m P). dt

(5.3.16) (5.3.17) (5.3.18)

Hierbei sind p, d, k die Raten für die Proliferation, die Differentiation und die Produktion von Antikörpern. Der Parameter m ist 1, und ρ L , ρ P sind die Raten für das Absterben des jeweiligen Zelltyps. Es wird dann gefragt, mittels welcher Kontrollfunktion u(t) am schnellsten eine vorgegebene Anzahl A∗ von Antikörpern produziert werden kann. Die Antwort, die mit dem Pontryaginschen Maximumprinzip (s. z. B. Jost und Li-Jost 1997) gewonnen werden kann, ist recht einfach. Sofern A∗ genügend groß ist, ist bis zu einer gewissen Zeit t1 das optimale u ∗ (t) = 0, es werden also nur proliferierende Lymphozyten erzeugt, und danach springt u ∗ (t) auf 1, so dass dann nur noch Plasmazellen entstehen, die in großer Zahl Antikörper herstellen. Die Umschaltzeit liegt bei realistischen Parameterwerten bei etwa 4 Tagen, was gut mit medizinischen Beobachtungen übereinstimmt. Wir kommen nun zu den idiotypischen Netzwerken. Der Modellierungsansatz ist der folgende. Es gibt verschiedene Klone von Zelltypen. Die Populationsgröße xi des i-ten Klons entwickelt sich gemäß der Differentialgleichung

5.3 Das Immunsystem

167

d xi = μ + xi ( p f (h i ) − ρ), dt

(5.3.19)

wobei μ ein Quellterm ist, der das Auftauchen von im Knochenmark neu gebildeten Immunzellen beschreibt, ρ die Absterbe- und p die Proliferationsrate. h i beschreibt die kumulative Wechselwirkung mit anderen Klonen,  hi = Ji j h j , (5.3.20) j

wobei Ji j die Stärke der Wechselwirkung von i mit dem Klon j angibt. In vielen Modellierungen können die Koeffizienten Ji j nur die Werte 0 und 1 annehmen, brauchen allerdings nicht symmetrisch zu sein. Für die Aktivierungsfunktion f gibt es verschiedene Möglichkeiten. Gut begründet (z. B. Perelson und De Lisi 1980; De Boer und Hogeweg 1989a, b) ist die Wahl einer glockenförmigen Funktion   h h h θ2 1− = f (h) = mit θ2 θ1 . (5.3.21) h + θ1 h + θ2 h + θ1 h + θ2 Diese Funktion modelliert, dass die Übersättigung der Rezeptoren der B-Zellen der Proliferation entgegenwirken kann, denn für den modellierten Mechanismus müssen sich verschiedene Zelle über Anti-Antikörper verbinden, die an die jeweiligen Rezeptoren anbinden. Wenn es viele anti-idiotypische Antikörper gibt, sind viele Bindungsstellen von einfach gebundenen Anti-Antikörpern besetzt, so dass andere nicht mehr anbinden können, um eine solche Bindung zwischen verschiedenen Zellen herzustellen. Das wichtige Prinzip der von Jerne (1974, 1984) aufgestellten Theorie der idiotypischen Netzwerke ist, dass an die Antikörper der B-Zellen nicht nur Antigene binden können, sondern auch die Anti-Antikörper anderer B-Zellen. Dadurch wird eine Regulation möglich, die einerseits durch Blockierung von Bindungsstellen eine Autoimmunreaktion auf Körpereigenes verhindert, andererseits aber auch durch Kaskaden von Bindungsänderungen auf fremde Antigene reagieren kann. (5.3.19) ist der Grundbaustein für die Modellierung idiotypischer Netzwerke. Verfeinerte Modelle wie Sulzer et al. (1993, 1994) führen separate Variablen für die B-Zellen und die Antikörper ein und berücksichtigen verschiedene Klassen von Idiotypen (Varela und Coutinho 1991). Wie wesentlich die Rolle solcher idiotypischen Netzwerke für die Funktion des Immunsystems ist, bleibt allerdings umstritten. Neuere Ansätze versuchen daher meist, mehr immunologische Details in die Modelle einzubauen, z. B. Seiden und Celada (1992), bei dem die Bindungsaffinitäten zwischen Antikörpern und Antigenen oder Anti-Antikörpern durch Komplementaritäten in Bitstrings modelliert werden. Beispielsweise passt zu der Folge 001011101 optimal die komplementäre Folge 110100010, aber einige wenige Fehler brauchen die Bindung noch nicht zu verhindern. Fortgeschrittenere Modelle wie MeierSchellersheim et al. (2006) enthalten auch eine räumliche Komponente und modellieren nicht nur Moleküle, deren Dynamiken durch Differentialgleichungen beschrieben werden,

168

5 Physiologie

sondern auch Zellen als diskrete rechnende Agenten, die sich in einem räumlichen Gitter bewegen. Und zum Abschluss dieses Abschnitts noch ein kleiner Ausblick in ein Gebiet der Informatik. Computerviren sind genauso wie biologische Viren von außen eindringende Schädlinge, und dies führt auf den Gedanken, die raffinierten Prinzipien des biologischen Immunsystems auch zur Bekämpfung von Computerviren einzusetzen. Die systematische Verfolgung dieses Gedankens und die Inspiration durch konkrete Modelle wie das gerade skizzierte haben durchaus zu interessanten Ansätzen geführt (für einen Überblick vgl. Forrest 2007). Man sollte aber bedenken, dass biologische Viren erst dann gefährlich werden, wenn sie in großer Zahl auftreten, während ein einzelner Computer virus schon ein ganzes Rechnersystem lahmlegen kann. Natürlich sind beide, biologische und Computerviren, auf Vermehrung angelegt. Da aber die metabolische Einheit des Organismus die Zelle ist, greifen biologische Viren auf dieser Ebene an, indem sie meist spezifische Zellen für ihre eigene Vermehrung benutzen und dabei üblicherweise zerstören. Nun hat ein Organismus aber viele Zellen, und wenn nur einige wenige davon affektiert werden, ist das unproblematisch. Und bei der immunologischen Antwort auf einen Virusbefall werden, wie wir gesehen haben, weitere Zellen produziert, die dann im Laufe des Abwehrprozesses geopfert werden. Nun gibt es aber in Computersystemen typischerweise keine solche untergeordnete Einheit wie die Zelle, die in großer Zahl parallel operiert und von der daher auch einige Exemplare problemlos geopfert werden können. In Computersystemen muss daher schon der erste eindringende Virus unschädlich gemacht werden. Das scheint, auch wenn einige Aspekte der Immunologie wie der Aufbau eines immunologischen Gedächtnisses und die effiziente Selbst-Fremd-Unterscheidung durchaus relevant sind, einige grundsätzlich andere Prinzipien und Mechanismen zu erfordern.

5.4

Sinnesphysiologie

Einige der präzisesten mathematischen Modelle sind im Bereich der Sinnesphysiologie entwickelt worden. Dies ist vielleicht nicht verwunderlich, denn die oftmals erstaunlichen Sinnesleistungen vieler Tiere beruhen auf der äußerst effizienten Verstärkung und Auswertung physikalischer Signale unter Ausnutzung grundlegender physikalischer Gesetzmäßigkeiten, oftmals auf der atomaren oder molekularen Ebene. Der Pionier der Sinnesphysiologie war Hermann von Helmholtz, s. insbesondere von Helmholtz (1909-11/2003, 1870). Die sinnesphysiologischen Fähigkeiten vieler Tiere können inzwischen sehr präzise biophysikalisch modelliert werden, z. B. Gerstner et al. (1998), Brownell und van Hemmen (2001), Goulet et al. (2008). Als ein Beispiel beschreiben wir hier das Modell aus Vedurmudi et al. (2016), van Hemmen (2016) zur Lokalisation von Schallquellen, weil es auf partielle Differentialgleichungen führt und damit zeigt, wie in der Biophysik räumliche und zeitliche Veränderungen zusammenwirken. Für landlebende Vertebraten ist es wichtig, die Richtung einer Schallquelle bestimmen zu können. Weil Vertebraten zwei Ohren haben, lässt

5.4 Sinnesphysiologie

a

169

b

c

Abb. 5.3 Schematische Darstellung der interauralen Kavität beim Frosch (a), der Eidechse (b) und dem Vogel (c) zwischen den Trommelfellen (TM; rot); aus van Hemmen (2016) (Diese Abbildung wurde mir freundlicherweise von Leo van Hemmen zur Verfügung gestellt)

sich im Prinzip dafür der Zeitunterschied nutzen, mit dem der Schall auf den beiden Ohren auftrifft. Wenn der Abstand zwischen den Ohren L und die Schallgeschwindigkeit c beträgt, ist dieser Unterschied bei einem Geräusch, das aus einer Richtung ±90◦ , also von links oder rechts kommt, maximal L/c. Aber wenn nun dieser Abstand L zu klein ist, kann das nicht neuronal ausgewertet werden. Daher benutzen Amphibien, Reptilien und Vögel meist einen anderen Mechanismus, um die Richtung einer Schallquelle zu bestimmen. Und zwar gibt es eine luftgefüllte zylinderförmige Verbindung zwischen den beiden Ohren, an den beiden Seiten durch die Ohrmembranen abgeschlossen (Abb. 5.3). (Säuger füllen allerdings den Raum zwischen den beiden Ohren lieber mit Gehirnzellen statt mit einer Luftröhre.) Der Druck p in dieser Röhre genügt nach den Modellen der linearen Akustik der Wellengleichung ∂ 2 p(x, y, z, t) = c2 (3) p(x, y, z, t) (5.4.22) ∂t 2 ∂ mit dem dreidimensionalen Laplaceoperator (3) = ∂∂x 2 + ∂∂y 2 + ∂z 2 . z möge hierbei der Längsrichtung des Zylinders entsprechen; wir können die Enden, also die beiden Ohrmembranen, bei z = 0, L annehmen. An der Hülle des Zylinders kann man eine einfache Neumannsche Randbedingung für p aufstellen, aber an den Enden, die den Ohrmembranen entsprechen (wir vernachlässigen hier die Tatsache, dass der Zylinder dicker als der Durchmesser der Ohrmuscheln ist, diese also die Enden nur teilweise ausfüllen), muss die Randbedingung für p die Vibration der Ohrmuscheln reflektieren. Es wird dabei Schlupffreiheit gefordert, als ∂p ∂vz = −ρ , (5.4.23) ∂z ∂t wobei die Konstante ρ die Luftdichte ist und vz = u. Und dieses u genügt nun einer gedämpften Schwingungsgleichung auf jeder der beiden Membranen, 2

2

2

170

5 Physiologie

∂ 2 u(x, y, z, t) ∂u(x, y, z, t) − 2α + c2M (2) u(x, y, z, t) 2 ∂t ∂t = p(x, y, z, t) − p(x, ˜ y, z, t) f¨ur z = 0, L.



(5.4.24)

wobei α eine Dämpfungskonstante, c M die Wellengeschwindigkeit in der Membran und 2 2 (2) = ∂∂x 2 + ∂∂y 2 nun der zweidimensionale Laplaceoperator ist. p˜ ist der durch den von außen kommenden Schall hervorgerufene Druck. Der innere Druck p, der der Wellengleichung (5.4.22) genügt, ist also durch seine Randbedingung (5.4.23) von den Membranschwingungen u an den Enden z = 0, L abhängig, und dieses u erfüllt nun wiederum die Gleichung (5.4.24), auf deren rechter Seite der Unterschied zwischen innerem und äußerem Druck steht, und der innere Druck ist nun gerade p. p und u sind also reziprok miteinander gekoppelt. Wegen der angenommenen Rotationssymmetrie des Zylinders lassen sich die Gleichungen lösen; wir verweisen auf Vedurmudi et al. (2016), da uns hier das Modellierungsparadigma durch gekoppelte partielle Differentialgleichungen interessiert. Wir verweisen auch auf die schöne Darstellung in van Hemmen (2016). Aus dem Druck kann dann das Gehirn die Schallrichtung erschließen, aber wie das funktioniert, ist eine andere Frage.

5.5

Die Koordination biologischer Rhythmen

Lebeweisen müssen ihre internen Rhythmen sowohl an externe Perioden anpassen, beispielsweise ihre Aktivitäten an den Wechsel von Tag und Nacht oder ihr Wachstum und ihre Fortpflanzung an den jeweiligen Jahreszeiten ausrichten, als auch untereinander koordinieren. Goldbeter (1997) beschäftigt sich systematisch mit biologischen Rhythmen. Für die mathematische Formalisierung und Analyse dieser Fragestellungen gilt das Buch von Winfree (2005) als grundlegend. Das mathematische Problem ist bestimmt als Untersuchung getriebener und gekoppelter Oszillatoren. Derartige Oszillatoren können ihre Perioden anpassen und ihre Phasen synchronisieren, können von einer dominanten Frequenz, in die sie sich einschwingen, versklavt werden, können aber auch unterdrückt oder aus ihrer geregelten Bahn geworfen und zu unregelmäßigem oder chaotischem Verhalten gebracht oder gezwungen werden. Dies erfordert jeweils eine detaillierte Einzelanalyse, und oftmals greifen die üblichen Methoden der Linearisierung und der Betrachtung kleiner Störungen nicht, und es ist stattdessen eine komplizierte nichtlineare Analyse erforderlich. Erschwerend kommen oft zeitlich verzögerte Rückkopplungseffekte hinzu, die allerdings in vielen Fällen zu einer biologisch effizienten und robusten Kontrolle des Verhaltens der beteiligten Oszillatoren führen. Auch in der Neurobiologie ist die Untersuchung von Synchronisationsmechanismen von großer Bedeutung, insbesondere weil die Synchronisation der Aktivität in Neuronengruppen als Erklärungsschema sowohl für die interne Bindung zusammengehöriger Sinnesreize zur Konstruktion von Wahrnehmungsobjekten als auch als Koordinationsmechanismus zur Bündelung des Feuerns der beteiligten Neuronen vorgeschlagen worden ist, um auf diese

5.5 Die Koordination biologischer Rhythmen

171

Weise ein genügend starkes Signal aufzubauen, das zu anderen Neuronengruppen weitergesandt werden oder ein für den empfangenen Reiz adäquates Antwortverhalten in Gang setzen kann. Dies werden wir in Kap. 9 noch einmal ansprechen. Jedenfalls wollen wir an dieser Stelle keine umfassende Darstellung der bekannten mathematischen Resultate versuchen, sondern lieber konstatieren, dass die betreffenden Phänomene trotz vieler schöner Einzelanalysen und eindrucksvoller Resultate noch weit von einer wirklich systematischen mathematischen Durchdringung entfernt sind und sich daher hier noch ein reiches Betätigungsfeld für die mathematische Analysis in Verbindung mit dem Einsatz globaler topologischer Methoden anbietet. Auch numerische Simulationen großer Gruppen gekoppelter Oszillatoren mit spezifischen internen Kennungen, beispielsweise (formalen) feuernden Neuronen wie in Kap. 9, sind ein wichtiges Hilfsmittel, um die dominanten Phänomene aufzudecken. Ein wichtiges Desideratum wäre daher auch die theoretische Absicherung derartiger Simulationsergebnisse durch die Methoden der numerischen Mathematik und der Statistik.

6

Entwicklungsbiologie und Musterbildung

Die Entwicklungsbiologie befasst sich im Unterschied zur Physiologie nicht mit dem Stoffwechsel und dessen Aufrechterhaltung und den entsprechenden Funktionen von Zellen, Geweben und Organen, sondern untersucht die Wachstumsvorgänge von Organismen. Sie untersucht also die Entwicklung von einer einzelnen Zelle zu einem vielzelligen, differenzierten Organismus. Der Ausgangspunkt der Entwicklungsbiologie war die von Karl Ernst Ritter von Baer (1792–1876) begründete Embryologie. Heute geht es allgemeiner um genetische und epigenetische Prozesse der Selbstorganisation von Zellen durch das Zusammenspiel von ererbten Genregulationsnetzwerken, allgemeinen physikalischen und chemischen Eigenschaften von Zellen und Geweben und Umweltfaktoren. Die Entwicklungsbiologie befasst sich also im Gegensatz zur Evolutionsbiologie nicht mit der Entstehung und Entwicklung von Arten, sondern mit dem Wachstum und anderen Entwicklungsprozessen individueller Lebewesen, also mit der Ontogenese, der Individualentwicklung, statt der Phylogenese, der Stammesgeschichte. In der Geschichte der Biologie waren Genetik als Vererbungslehre und Entwicklungsbiologie lange Zeit Gegensätze. In den letzten Jahren hat sich allerdings auch eine als „Evo-Devo“ bezeichnete Forschungsrichtung entwickelt, die sich mit der Evolution organismischer Formen durch Untersuchung der für Entwicklungen verantwortlichen genetischen Mechanismen, welche die embryonalen Phänotypen hervorbringen und deren Entwicklung in der Ontogenese steuern, anhand von molekularen Daten beschäftigt. Man vgl. den kurzen Überblick in Arthur (2002). Zur Konzeptionsgeschichte aufschlussreich ist Laubichler und Maienschein (2008). Einen Einblick in die neueste Diskussion liefert beispielsweise Fábregas-Tejeda und Vergara–Silva (2018) und die dort angegebene Literatur. Eine biologische Pionierleistung war insbesondere das Verständnis der genetischen Grundlagen der Embryonalentwicklung der Fruchtfliege Drosophila durch eine systematische und vollständige Analyse der möglichen Mutanten durch Nüsslein-Volhard und Wieschaus, s. z. B. Nüsslein-Volhard und Wieschaus (1980). Teilweise parallel hierzu lief die

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_6

173

174

6 Entwicklungsbiologie und Musterbildung

molekulargenetische Analyse einiger spezifischer Mutanten durch Gehring, und dies führte dann zu einer die Biologie revolutionierenden Entdeckung, nämlich der evolutionären Konservierung aus der Urzeit (vor der Aufspaltung in die verschiedenen Stämme des Tierreiches) von zentralen Komponenten der Entwicklungssteuerung in Schaltergenen, den schon in den Abschn. 1.3 und 3.2 diskutierten Hoxgenen. Jedenfalls müssen für das Verständnis der Entwicklung multizellulärer Organismus zwei Aspekte zusammengeführt werden, die Biomechanik, die beschreibt, wie physikalische Prozesse den Embryo formen, einerseits und die Genregulation und die molekulare Signalübertragung andererseits, die sich damit befassen, wie Zellen ihre Zustände festlegen und ihre Dynamiken steuern. Hierzu möchten wir auch auf die integrierten Simulationsmodelle verweisen, die von N.Peyrieras in Zusammenarbeit mit verschiedenen Forschenden entwickelt werden, s. z. B. Villoutreix et al. (2016), Delile et al. (2017). In diese Modelle fließen detaillierte, mit ultraschnellen Lasern gewonnene Aufnahmen und Visualisierungen von Organismen- und Gewebewachstumsprozessen ein. In diesem Abschnitt wollen wir zunächst die Rolle von Selbstorganisationsprozessen herausstellen. In dieser Hinsicht weichen wir hier von unserem allgemeinen Vorgehen ab, zunächst die biologischen Grundlagen zu entwickeln und dann die für die spezifische Situation geeigneten oder entwickelten mathematischen Strukturen vorzustellen. Stattdessen erläutern wir einige allgemeine Mechanismen der Musterbildung, die in sehr verschiedenartigen biologischen Situationen von Bedeutung sind. Zu den biologischen Details der vorstehend genannten Arbeiten können wir hier allerdings leider nicht vordringen, sondern müssen auf einer recht abstrakten Ebene verbleiben.

6.1

Der Turingmechanismus

Ein bekanntes Beispiel eines mathematischen Musterbildungsprozesses ist der Turingmechanismus, den wir nun kurz beschreiben wollen. Mathematisch handelt es sich um ein System von Reaktions-Diffusions-Gleichungen u t = u + f (u, v) vt = dv + g(u, v).

(6.1.1)

Hierbei sind u(x, t), v(x, t) Funktionen von x aus einem beschränkten Gebiet  und der Zeit t ≥ 0, das Subskript t bezeichnet eine Ableitung nach t, und  ist der Laplaceoperator  ∂2 i (∂ x i )2 . d ist ein positiver Faktor. Auf dem Rande von  wird üblicherweise eine Neumannsche Randbedingung für u und v gestellt, so dass also kein Fluss über den Rand hinaus stattfindet. Zur Analyse eines Reaktions-Diffusionssystems ist es zweckmäßig, zunächst das Reaktionssystem zu untersuchen, im vorliegenden Falle also u t = f (u, v) vt = g(u, v).

(6.1.2)

6.1 Der Turingmechanismus

175

Dieses System habe den Gleichgewichtspunkt u 0 , v0 , d. h. es gelte f (u 0 , v0 ) = 0 = g(u 0 , v0 ).

(6.1.3)

Dieser Gleichgewichtspunkt ist dann linear stabil, wenn die Eigenwerte der Linearisierung negativ sind, also f u + gv < 0 f u gv − f v gu > 0.

(6.1.4)

Unter unseren Neumannschen Randbedingungen stellt dann auch u(x, t) = u 0 , v(x, t) = v0 eine Lösung unseres ursprünglichen Systems (6.1.1) dar. Zwar werden im Allgemeinen nicht die Anfangswerte u(x, 0), v(x, 0) mit u 0 , v0 übereinstimmen, so dass wir keine zeitlich homogene Lösung haben, aber unsere Lösung könnte sich zumindest asymptotisch diesem Gleichgewichtszustand nähern, also lim u(x, t) = u 0

t→∞

lim v(x, t) = v0

t→∞

(6.1.5)

für alle x ∈ , d. h. asymptotisch könnten wir eine räumlich homogene Lösung bekommen. Die Diffusion würde also einen Ausgleich zwischen den verschiedenen Punkten in  bewirken. Es war nun die überraschende Einsicht von Turing, dass unter der Bedingung d > 1 dies nicht der Fall sein muss; gilt nämlich außerdem d f u + gv > 0 (d f u + gv ) − 4d( f u gv − f v gu ) > 0, 2

(6.1.6)

so ist die räumlich homogene Lösung u 0 , v0 des zeitunabhängigen Systems u + f (u, v) = 0 dv + g(u, v) = 0

(6.1.7)

linear unstabil gegen räumliche Oszillationen zu einer Eigenfunktion des Laplaceoperators mit Neumannrandbedingungen zu einem Eigenwert λk mit μ− < λk < μ+ ,

(6.1.8)

 1 (6.1.9) ((d f u + gv ) ± (d f u − gv )2 + 4d f v gu ). 2d Da wir  als beschränkt angenommen haben, sind die Eigenwerte λk diskret, und es hängt daher auch von der Geometrie von  ab, ob es Eigenwerte in dem durch (6.1.8) beschriebenen Bereich gibt. Der Index k kontrolliert dabei die Frequenz der Oszillationen der Instabilität wobei

μ± =

176

6 Entwicklungsbiologie und Musterbildung

um u 0 , v0 und bestimmt daher die Gestalt des sich ergebenden räumlichen Musters. Aus den obigen Bedingungen erkennt man, dass f u > 0, gv < 0 gelten muss und f v und gu umgekehrtes Vorzeichen haben müssen. In diesem Sinne sehen wir u als aktivierende (im Falle gu > 0) bzw. aktivierte (im Falle f v > 0) und v als inhibierende ( f v < 0) bzw. inhibierte (gu < 0) Substanz an, und die wesentliche Bedingung d > 1 besagt dann, dass letztere schneller als erstere diffundiert. Der Turingmechanismus ist als Erklärung für viele biologische Muster vorgeschlagen worden, beispielsweise die Streifen des Tigerfells oder die Punkte des Leopardenfells, oder auch für die geometrischen Muster auf manchen Schneckenhäusern; man vgl. Murray (2002) für eine ausführliche Diskussion. Der Turingmechanismus soll also zeitlich konstante, aber räumlich inhomogene Strukturen liefern (auch wenn streng genommen eigentlich bei der vorstehend skizzierten mathematischen Analyse nur gezeigt wird, dass unter den angegebenen Bedingungen Strukturen, die sowohl zeitlich konstant als auch räumlich homogen sind, nicht stabil sind – es bliebe also noch mathematisch zu zeigen, dass das Tigerfell nicht flimmert1 ). Das Gegenstück wären räumlich homogene, aber zeitlich oszillierende, beispielsweise periodische Strukturen. Derartige Strukturen können sich in Reaktionssystemen vom Typ (6.1.2) z. B. durch eine Hopfbifurkation aus Gleichgewichtspunkten entwickeln. Bei manchen chemischen Reaktionstypen kann man auch ein Wechselspiel zwischen Turing- und Hopfmustern entdecken (man vgl. z. B. einige diesbzgl. Abbildungen in Walgraef 1997). Solche komplexen Bifurkationsmuster treten beispielsweise auch in Modellen von neuronalen Feldern (Wilson und Cowan 1973; Amari 1977) auf, s. z. B. Senk et al. (2018), Shamsara et al. (2019). Der Turingmechanismus ist ein schönes Beispiel für die Entstehung einer Struktur aus einem Selbstorganisationsprozess. In konkreten Anwendungen muss allerdings stets die Frage gestellt werden, was genetisch festgelegt ist und was durch Selbstorganisation entsteht.

6.2

Phasenübergänge und Bifurkationen

Ein wesentlicher Leitgedanke für das Entstehen biologischer Strukturen ist der Phasenübergang, dass sich also in nichtlinearen Modellen bei kontinuierlicher Variation eines Parameters ein abrupter qualitativer Wechsel des globalen Systemzustandes oder zumindest eines charakteristischen Ordnungsparameters vollziehen kann. Insbesondere kann dies zur Entstehung von auf einer höheren Ebene geordneten Strukturen durch autokatalytische Prozesse führen. Dies spielt z. B. in der oben diskutierten Theorie von S.Kauffman eine zentrale Rolle.

1 In einem speziellen Fall ist die räumlich homogene Turingstruktur in Lara Ochoa und Murray (1983) durch eine Mehrskalen-Störungsentwicklung bestimmt worden.

6.3 Natur und Umwelt

177

R. Thom (1973) hat versucht, die Bifurkationstheorie in systematischer Weise auf entwicklungsbiologische Fragestellungen anzuwenden.

6.3

Natur und Umwelt

In jedem Einzelfall erhebt sich bei der Untersuchung eines Entwicklungsmechanismus die Frage, welcher Anteil genetisch festgelegt ist, welche Rolle Selbstorganisationsprozesse spielen und was durch die Umwelt determiniert wird, und die einseitige Betonung eines dieser Anteile hat zu vielen Kontroversen in der Geschichte der Biologie geführt. Es ist wichtig, sich klarzumachen, dass diese Faktoren nicht voneinander getrennt werden können. Beispielsweise kann ein Selbstorganisationsprozess erst dann einsetzen, wenn genetisch determinierte Voraussetzungen geschaffen sind und die erforderlichen Umweltbedingungen vorliegen, und Lebewesen wirken umgekehrt während ihrer Entwicklung auch selbst auf ihre Umwelt ein, um hierdurch Voraussetzungen für ihre weitere Entwicklung herzustellen. Diese allgemeinen Bemerkungen können aber natürlich nicht die Abwägung der Bedeutung der einzelnen Faktoren in einem konkreten Entwicklungsprozess ersetzen. Ein Beispiel: Es ist inzwischen gut verstanden, durch die Arbeiten von Coupland und anderen, s. z. B. Andrés und Coupland (2012), wie die regulatorischen Mechanismen, die die Vermehrung von Pflanzen in Gang setzen, durch Umweltsignale an mehreren kritischen Stellen kontrolliert und reguliert werden. Natürlich sind die Einzelheiten bei verschiedenen Arten und in verschiedenen Umwelten sehr unterschiedlich. Biologen arbeiten aber gerne mit sogenannten Modellorganismen, bei denen sich die jeweiligen Vorgänge aus verschiedenen Gründen besonders gut untersuchen lassen. In der Botanik ist dies insbesondere die Ackerwinde Arabidopsis thaliana, und so sind die hier zu beschreibenden Prozesse auch bei dieser Pflanze aufgedeckt worden. Die erste Entscheidung betrifft die Blüteninduktion, also die Umstellung von der Bildung vegetativer Organe wie Blätter auf die Produktion von Blüten. Dieser Schritt ist in allen Pflanzen streng reguliert. Typischerweise hängt er von der Jahreszeit ab und wird daher durch Faktoren wie die Tageslänge oder die Temperatur ausgelöst. Als Reaktion auf solche Signale gehen Meristeme, ein Gewebetyp der Pflanzen, der ähnlich wie die tierischen Stammzellen aus undifferenzierten Zellen besteht und an dem Wachstum durch Zellteilung beteiligt sein kann, von der Produktion vegetativer Organe zur Bildung von Blüten über. Dies wird ausgelöst, indem ein bestimmtes Protein von einem Blatt zu einer für die Blütenbildung geeigneten Stelle wandert und dann dort das Genregulationsnetzwerk für die Blütenbildung auslöst. Die entsprechenden Zellen müssen also jetzt etwas anderes als vorher tun, und zwar in kontrollierter Weise, um beispielsweise letztendlich die Anzahl der gebildeten Blüten zu regulieren. Eine weitere Entscheidung betrifft das Wachstum und die Entwicklung der Blütenknospen, damit dies erst dann passiert, wenn geeignete Umweltbedingungen vorliegen. Die Blüteninduktion ist dadurch von der Blütenreifung und der Fortpflanzung getrennt. Bei

178

6 Entwicklungsbiologie und Musterbildung

manchen Arten findet die Blüteninduktion im Herbst statt, aber die Blüten öffnen sich erst im nächsten Frühjahr, und erst dann beginnt die Fortpflanzung. Das ist jetzt ein einleuchtendes Beispiel für die Wechselwirkung zwischen genetischen und externen Faktoren, aber als mathematisch Denkende können wir die Sachlage natürlich abstrakter fassen. Und zwar hat die in jüngster Zeit entwickelte Theorie der Informationszerlegungen2 hierzu Einiges zu sagen. Und zwar zeigt sich, dass es kein entweder-oder für den Einfluss von Genen und Umwelt geben sollte, schon durch eine einfache Analyse der Entweder-oder-Funktion (XOR, aus „exclusive or“). Es seien zwei Zufallsvariablen X 1 und X 2 gegeben, die beide die Zustände 0 und 1 unabhängig voneinander mit der Wahrscheinlichkeit 1/2 annehmen und den Wert einer dritten Variablen S gemäß der folgenden Tabelle bestimmen.3 Hierbei kann beispielsweise der Wert von X 1 für einen genetischen Zustand stehen, derjenige von X 2 für eine Umweltvariable, die gemeinsam einen Phänotyp S bestimmen. x1 x2 0 0 1 0 0 1 1 1

s 0 1 1 0

S hat also den Wert 0, wenn X 1 und X 2 den gleichen Wert haben, und den Wert 1, wenn deren beide Werte verschieden sind. Wenn nur der Wert von X 1 bekannt ist, ist der Wert von S genauso unsicher, wie wenn man gar nichts weiß, denn was auch immer der Wert von X 1 ist, nimmt S seine beiden möglichen Zustände mit der Wahrscheinlichkeit 1/2 an. Das Gleiche gilt, wenn allein der Wert von X 2 bekannt ist. Und auch umgekehrt reduziert die Kenntnis alleine von S nicht die Unsicherheit über die Werte von X 1 und X 2 . Sind dagegen die Werte von X 1 und X 2 beide bekannt, so ist der Wert von S vollkommen bestimmt. Man spricht hier von synergistischer oder komplementärer Information. Etwas komplexer stellt sich die Situation bei der Und-Funktion dar, bei der sich die Werte einer Variablen T aus denjenigen von X 1 , X 2 gemäß der folgenden Tabelle bestimmen. x1 x2 0 0 1 0 0 1 1 1

t 0 0 0 1

T hat also nur dann den Wert 1, wenn sowohl X 1 als auch X 2 den Wert 1 haben. Hat also X 1 den Wert 0, so lässt sich alleine daraus schon schließen, dass T ebenfalls den 2 initiiert von Williams und Beer (2010) und weiter studiert in Harder et al. (2013), Griffith und Koch (2014), Bertschinger et al. (2014), Chicharro und Panzeri (2017) und vielen weiteren Arbeiten, wobei die Version aus Bertschinger et al. (2014) die derzeit am weitesten akzeptierte ist; allerdings befindet sich die Forschung weiter im Fluss, vgl. z. B. Rauh et al. (2017). 3 Wie üblich, werden Zufallsvariablen durch Großbuchstaben bezeichnet und ihre möglichen Werte durch die entsprechenden Kleinbuchstaben.

6.3 Natur und Umwelt

179

Wert 0 haben muss. Wenn X 1 dagegen den Wert 1 hat, so ist der Zustand von T ohne die Kenntnis des Wertes von X 2 unbestimmt. Und wiederum ist bei diesem Beispiel die Situation zwischen X 1 und X 2 symmetrisch. Hier kommt jetzt alles vor, was die Theorie der Informationszerlegung zu bieten hat. Es gibt Einzelinformation für jede der beiden beteiligten Variablen, also Situationen, wo eine aus dem eigenen Zustand die Kenntnis von T erschließen kann, aber die andere nicht, Situationen, in denen beide diese Information gemeinsam besitzen, und schließlich wie bei XOR auch komplementäre Information. Wie das allerdings jeweils quantifiziert wird, variiert zwischen den verschiedenen zitierten und nicht zitierten Ansätzen. In der Hoffnung, dass der Grundgedanke und seine Implikationen für die Gen-Umwelt-Diskussion klar sind, soll dies hier allerdings nicht weiter vertieft werden. In dem obigen Blütenbeispiel scheint der Anteil der Umwelt relativ banal zu sein. Er ist aber entscheidend. Wenn Temperatur und Lichtverhältnisse nicht stimmen, beginnt die Pflanze nicht zu blühen. Die Umwelt stellt die Information bereit, dass die Bedingungen zum Blühen gegeben sind. Diese Information kann nicht im Genom selbst gefunden werden. Und selbst wenn das möglich wäre, wäre es überflüssig, denn die Umwelt liefert diese Information kostenlos. Allgemein braucht das Genom nur diejenige Information zu speichern, die die Umwelt nicht bereit stellt, in diesem Falle also den Regulationsmechnanimus zur Bildung der artspezifischen Blüte. Genom und Umwelt haben also jeweils ihre eigene spezifische Information, aber die Komplementaritäten zwischen den beiden sind wesentlich. In anderen Fällen bestimmt das Genom vielleicht eine Spannbreite für die Ausprägung eines Merkmals, beispielsweise die Stärke eines Muskels, aber der konkrete Wert ergibt sich erst durch die externen Einflüsse, beispielsweise Ernährung oder Training. Bekanntlich wird auch heute noch erbittert darüber gestritten, ob die Intelligenz eines Menschen genetisch bestimmt ist oder durch Erziehung und Ausbildung herausgebildet wird. Ganz abgesehen von der Frage, wie Intelligenz überhaupt zu messen ist, zeigt die vorstehende Überlegung schon, dass dies ein müßiger Streit ist und dass man lieber mit informationstheoretischen Methoden die Komplementaritäten und Synergien zwischen den beteiligten Faktoren analysieren sollte, um dadurch der Bildungsforschung ein vertieftes wissenschaftliches Fundament zu geben und darauf aufbauend dann zu sinnvollen Handlungsempfehlungen zu kommen. Wir wollen aber zur Biologie zurückkehren und noch ein weiteres Beispiel diskutieren, die temperaturabhängige Geschlechtsbestimmung, die viele Reptilien wie Schildkröten, Eidechsen und Krokodile verwenden, um ohne Verwendung von Geschlechtschromosomen weibliche und männliche Nachkommen zu erzeugen (s. z. B. Bull (1980)). Das Prinzip ist einfach: Die Bruttemperatur des Eies während der mittleren Brutphase entscheidet über das Geschlecht, indem typischerweise ein Enzym namens Aromatase bei höheren Temperaturen das männliche Hormon Testosteron in das weibliche Östrogen umwandelt. So können beispielsweise in einem Gelege die tieferen Eier im Schnitt etwas wärmeren Temperaturen als die höher gelegenen ausgesetzt sein, und aus den ersteren schlüpfen dann Weibchen, aus den letzteren Männchen. Wir hatten in den Abschn. 2.1 und 2.4 schon das Fishersche Argument dargelegt, dass es am besten ist, gleichviele weibliche und männliche Nachkommen zu

180

6 Entwicklungsbiologie und Musterbildung

erzeugen. Und die Geschlechtsbestimmung wird daher typischerweise irgendwie dem Zufall überlassen, idealerweise mit Wahrscheinlichkeit 1/2 für jedes Geschlecht. Aber wie kriegt ein Organismus Zufallszahlen? Eine Methode besteht darin, in der Umwelt eine Schwelle zu finden, die Ereignisse in zwei gleich große Kategorien einteilt. Wie schon im Abschn. 2.4 dargelegt, braucht das nicht in jedem Einzelfall genau zu funktionieren, sondern nur im Durchschnitt der Population. Insbesondere braucht auch nicht jedes Individuum die gleiche Schwelle zu verwenden. Dies liefert auch die Möglichkeit, dass, wenn sich die optimale Schwelle ändert, diejenigen Individuen, die nun besser liegen, einen Vorteil besitzen und eine größere Nachkommenschaft hinterlassen. Dadurch wird sich auch die durchschnittliche Schwelle in der Population anpassen, und die Population kann beispielsweise mit Temperaturschwankungen zurecht kommen. Es ist also in diesem Sinne für die Population sogar vorteilhaft, wenn die individuelle Schwelle stark variiert. – Hier wird also das Geschlecht nicht genetisch fixiert, sondern in einem festen genetischen Kontext durch ein Umweltsignal bestimmt. Genetisch fixiert ist vielmehr die Wahl des Umweltsignals, nämlich die Bruttemperatur, und die Schwelle, also die Kategorisierung dieses Umweltsignals. Es ist also nicht einfach so, dass die Umwelt das Geschlecht bestimmt, sondern das empfangene Signal setzt, je nachdem ob es unter- oder überschwellig ist, einen genetisch determinierten Mechanismus in Gang.

7

Ethologie (Verhaltensforschung)

Von der Physiologie zu unterscheiden ist auch die Ethologie oder Verhaltensforschung. Diese versteht sich zwar methodisch und inhaltlich ebenfalls als Naturwissenschaft und Teilgebiet der Biologie, strebt aber im Gegensatz zu jener nicht die Rückführung von Lebensprozessen auf letztendlich physikalische Prinzipien an, sondern versucht, die Funktionalität von Verhalten aus sich heraus zu verstehen. Berühmt ist beispielsweise die Entschlüsselung des Kommunikationssystems von Bienen durch Karl von Frisch. Andere Wegbereiter dieser Wissenschaft waren Erich von Holst, Nikolaas Tinbergen und Konrad Lorenz. (Zur Einführung verweisen wir auf Lorenz (1982), Eibl-Eibesfeldt (1999), Franck (1985).) Wesentlich ist die Ablehnung der starren und oft grotesk simplifizierenden Reiz-Reaktions- und StimulusAntwort-Schemata der Schule von Pavlov und des Behaviorismus. Die Ethologie hat den Blick für die komplexe Verschränkung von angeborenen und erlernten Mechanismen, für die Kopplung von ererbten Schemata und von der Umwelt bereitgestellten Auslösern geöffnet.1 Dies sind wichtige konzeptionelle Anstöße gewesen. Trotzdem ist die Ethologie wohl in der letzten Zeit in eine gewisse Krise geraten. Gründe sind vielleicht die Schwierigkeiten einer physiologischen und/oder neurobiologischen Verankerung der entdeckten Verhaltensgesetzmäßigkeiten und eine nicht überzeugende Behandlung der evolutionstheoretischen Aspekte (für eine evolutionsbiologische Kritik des von Lorenz (1974) vorgetragenen Ansatzes siehe Dawkins (1999)). Nachdem schon die Wiener Schule der Verhaltensforschung über eine evolutionäre Philosophie spekuliert hatte (Lorenz 1981, Riedl 1979), als den Versuch, menschliche kognitive Fähigkeiten und Leistungen als stammesgeschichtliche Anpassungen zu erklären,2 ist zur Zeit in Amerika eine Variante dieses Ansatzes populär, die sog. 1 Die in Abschn. 6.3 entwickelten formalen Aspekte sind natürlich auch hier einschlägig. 2 Dieser Ansatz hat zwar einige Philosophen empört, findet aber in der heutigen Kognitionsforschung

nur geringes Interesse, weil er keinen Zugang zu den internen Gesetzmäßigkeiten eines kognitiven Systems eröffnet und insbesondere den Blick für Selbstorganisationsphänomene verstellt. Unter Kognitionsforschern sind andere philosophische Ansätze virulent, wie die von den Neurobiologen Maturana und Varela vertretene Theorie autopoietischer Systeme oder der sog. Konstruktivismus (siehe z. B. Roth (1997) oder für einen allgemeineren Kontext Jost (o. J.b)). An den Einsichten von Kant scheint jedenfalls kein Weg vorbeizuführen. © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_7

181

182

7 Ethologie (Verhaltensforschung)

evolutionäre Psychologie (siehe Pinker (1997) und die dortigen Referenzen). Die theoretische und empirische Begründung scheint mir hierbei aber unbefriedigend zu sein. Für die Zwecke der vorliegenden Schrift führt dies aber wohl zu weit ab, und in diesem Kontext sind konkrete formale Modelle von größerem Interesse. Als Beispiel wollen wir die Theorie der kostspieligen Signale erwähnen. Der Gedanke hierbei ist, dass das Prunkgepränge hypertropher biologischer Formen und die ostentative Zurschaustellung schwierigen und energetisch aufwendigen Verhaltens eine Erklärung darin finden kann, dass auf diese Weise Individuen ihre überlegene Kraft und Lebensfähigkeit gegenüber Paarungspartnern, Konkurrenten oder auch Fressfeinden unter Beweis stellen können und sie dadurch zu einer bevorzugten Paarung animieren bzw. von anstrengenden Kämpfen oder aussichtslosen Verfolgungen abhalten können. Dies ist das Handicapprinzip, das von Zahavi und Zahavi (1997) entwickelt worden ist. Dadurch, das ein Tier sich trotz eines selbst auferlegten Handicaps wie eines energetisch aufwändigen oder Fressfeinde anlockenden Ornamentes behaupten kann, zeigt es anderen seine höhere Leistungsfähigkeit. Es muss sich dabei um ein echtes Handicap handeln, damit weniger lebensstarke Individuen sich dies nicht leisten können und billige Nachahmung ausgeschlossen wird. – Insbesondere halten die Zahavis nicht nur die Idee der Gruppenselektion, sondern auch das im Abschn. 2.1 dargelegte Konzept der inklusiven Fitness von Hamilton (1964) für unsinnig. Ihrer Ansicht nach ist auch scheinbar altruistisches Verhalten nur eine demonstrative Zurschaustellung überlegener Fähigkeiten. Dies erklärt z. B., warum Graudrosslinge (Turdoides squamiceps), eine in kleinen Gruppen lebende Art von Sperlingsvögeln (Passerinen), sich darum reißen, für die Gruppe Wache zu schieben, anstatt selber zu fressen. Der ranghöchste Vogel setzt sich dabei typischerweise durch, und er kann sich dadurch, so das Argument, am besten in der Gruppe in Position setzen und seine Überlegenheit demonstrieren und dadurch seine Fitness als Paarungspartner erhöhen. Nach Hamiltons Theorie wäre dagegen das Wacheschieben ein Verhalten, das die eigene direkte Fitness verringert und nur die indirekte Fitness erhöht, weil die genetisch Verwandten davon profitieren würden. Daher sollten die Vögel gerne auf das Wacheschieben verzichten und es anderen überlassen, was aber nicht der Fall ist. In Zahavi und Zahavi (1997) wird nun alles mögliche Verhalten durch das Handicapprinzip erklärt. Das Prinzip lässt sich auch in spieltheoretischen Modellen formalisieren (vgl. z. B.Grafen 1990, Lachmann und Bergstrom 1999), und es zeigt sich dann, dass ein solches Signal nur dann funktionieren kann, wenn es tatsächlich einen echten Anhaltspunkt für die Kraft und Fitness seines Trägers liefert und seine Nachahmung durch schwächere und weniger lebensfähige Individuen nicht möglich oder zumindest für diese energetisch zu aufwändig und daher nicht lohnend ist. Wie in vielen spieltheoretischen Modellen führt die dynamische Iteration der Interaktionen dann auf nicht ganz einfache mathematische Fragen nach der Existenz und Stabilität der Gleichgewichtspunkte (s. z. B. Lachmann und Bergstrom 1998). Um mehr Gelegenheiten zu finden, mathematische Ansätze vorzustellen, wollen wir allerdings in diesem Kapitel das Konzept des Verhaltens weiter fassen und allgemeiner Interaktionen zwischen Individuen untersuchen. Dabei werden wir uns insbesondere mit der Herausbildung kollektiven Verhaltens aus Interaktionen zwischen Individuen befassen.

7.1 Chemotaxis

183

Dies wird üblicherweise als Selbstorganisation konzeptionalisiert. Das Prinzip hierbei ist, dass sich aus einfachen Interaktionen geringer Reichweite und geringen Umfangs, typischerweise aus paarweisen Wechselwirkungen zwischen einzelnen Individuen, insbesondere dann, wenn die Menge der beteiligten Individuen groß ist und die Interaktionen genügend häufig vorkommen, globale Muster herausbilden können, ohne dass dies von den einzelnen Individuen intendiert oder auch nur verstanden wird. Das so entstehende kollektive Verhalten kann aber für alle Beteiligten nützlich sein.

7.1

Chemotaxis

Wie wir schon verschiedentlich gesehen haben, können sich raumzeitliche Muster durch ein Wechselspiel zwischen einem allgemeinen Diffusionsprozess und einer spezifischeren Reaktionskinetik bilden. Insbesondere können Zellen oder Organismen auf chemische Signale reagieren, die von anderen abgesetzt werden. Diese chemischen Signale heißen Pheromone, und durch solche Pheromone können beispielsweise paarungsbereite Insektenweibchen Männchen anlocken. Die Männchen bewegen sich dann einfach längs des Konzentrationsgradienten, bis sie bei einem Weibchen landen. Das ist natürlich biologisch sehr wichtig, aber mathematisch interessanter wird es, wenn solche individuellen Reaktionen auf chemische Substanzen zu globalen Mustern in der Verteilung einer Population führen. In diesem Abschnitt diskutieren wir ein Kontinuumsmodell für Musterbildung. Die einzelnen Individuen werden also in einem Kontinuum aufgelöst, statt als diskrete Individuen behandelt zu werden. Dies ermöglicht den Einsatz hochentwickelter mathematischer Methoden aus dem Bereich der Partiellen Differentialgleichungen (als allgemeine Referenz zu diesem mathematischen Gebiet sei Jost (2013) angegeben). Modelliert wird die Bildung von Schleimpilzen, die aus Kolonien einzelliger Amöben, Dictyostelium discoideum, entstehen. Diese sondern eine bestimmte chemische Substanz ab, ein Pheromon, und zwar zyklisches AMP, das anziehend auf andere Individuen wirkt. Dies hat also eine konzentrierende Wirkung, aber gleichzeitig gibt es Diffusionseffekte sowohl bei den Individuen als auch bei der chemischen Substanz. In dem Keller-Segel-Modell (Keller und Segel 1970, 1971) das wir hier vorstellen, gibt es daher zwei abhängige Variablen, die Populationsdichte h der Amöben und die Konzentration c der Substanz. Beide sind Funktionen von Ort x und Zeit t. Der Fluss J = Jdiffusion + Jchemotaxis von h hat zwei Komponenten, einen diffusiven Jdiffusion = −d∇h,

(7.1.1)

und einen chemotaktischen Bestandteil, Jchemotaxis = hχ(c)∇c.

(7.1.2)

Die Funktion χ(c) kann dann geeignet gewählt werden, im einfachsten Fall als eine Konstante. Das allgemeine Erhaltungsgesetz

184

7 Ethologie (Verhaltensforschung)

∂h + div J = 0 ∂t

(7.1.3)

ergibt daher

∂h(x, t) = dh(x, t) − div(h(x, t)χ (c(x, t))∇c(x, t)). ∂t Für die Konzentration c soll die Gleichung ∂c(x, t) = δc(x, t) − βc(x, t) + αh(x, t) ∂t

(7.1.4)

(7.1.5)

gelten, wobei wieder ein Diffusionsterm δc(x, t) auftritt, dann ein Verfallsterm −βc(x, t), denn das Pheromon verflüchtigt sich, und schließlich ein Produktionsterm αh(x, t), der proportional zur Populationsdichte ist. Alle Konstanten in (7.1.4), (7.1.5) sind positiv. Schließlich wird noch δ>d (7.1.6) angenommen, da das Pheromon schneller als die Amöbenpopulation diffundiert. In solchen Modellen kann es dann zu oszillierenden Mustern kommen, und Oszillationen sind auch experimentell beobachtet worden. Wichtig für das Verhalten der Kolonie ist natürlich auch die Nahrungskonzentration, und auf der rechten Seite von (7.1.4) muss man dann noch einen Term hinzufügen, der ein nahrungsabhängiges Populationswachstum ermöglicht, während dann in einer weiteren Gleichung die Nahrung durch die Population aufgebraucht wird und höchstens langsam wieder nachwächst. Man kann aber auch einfach das Modell uminterpretieren und c als Nahrungs- statt als Pheromonkonzentration ansehen, denn Nahrungsquellen können die gleiche anziehende Wirkung wie Duftstoffe haben. Allerdings sollten dann wohl α und β in (7.1.5) negativ werden. Für Diskussionen und weitere Entwicklungen des Keller-Segel-Modells verweisen wir auf Murray (2002), Stevens und Othmer (1997), und für die Einbettung in die Theorie der partiellen Differentialgleichungen auf Perthame (2007) und die dort angegebenen Referenzen.

7.2

Schwarmbildung

Insbesondere Tiere, die sich in einem dreidimensionalen Medium bewegen, können Schwärme bilden, die manchmal riesige Ausmaße annehmen können. Bekannte Beispiele sind Heringe, Stare, Krähen, Fledermäuse oder Heuschrecken. Über die Vorteile und evolutionären Gründe ist viel spekuliert worden, aber uns interessiert hier die Tatsache, dass sich das einzelne Individuum der Tatsache, dass es sich in einem großen Schwarm befindet, gar nicht bewusst ist, sondern dass der Schwarm aus einfachen lokalen Interaktionen zwischen Individuen entsteht. Bei der Herausbildung eines kollektiven Verhaltens aus solchen lokalen Interaktionen spricht man auch von Emergenz oder Selbstorganisation, aber wir wollen

7.2 Schwarmbildung

185

uns hier nicht mit diesen allgemeinen Konzepten befassen, sondern Ansätze zur formalen Modellierung von Schwarmverhalten diskutieren. Zunächst einmal wollen wir aber die bemerkenswerte Tatsache hervorheben, dass es auch in Schwärmen, die sich sehr schnell bewegen, und oftmals ziemlich abrupt die Richtung ändern, niemals zu Kollisionen zwischen den Individuen kommt. Dabei sind die zugrundeliegenden Regeln wohl sehr einfach. Im Wesentlichen geht es darum, den Abstand zu den Nachbarn zu regulieren. Aber das alleine kann noch nicht ausreichen. Autofahrer auf der Autobahn versuchen wohl auch, den Abstand zum Vordermann konstant zu halten. Aber wenn dann ein Sonntagsfahrer zu dicht auffährt und, wenn plötzlich die Ehefrau auf dem Beifahrersitz aufschreit, auf die Bremse latscht, so merkt er nicht, und es interessiert ihn vermutlich nicht einmal, dass er dadurch eine Kettenreaktion an Bremsvorgängen auslöst, die schließlich hinter ihm zu einem Stau führen. In dieser Einfachheit ist dies nur eine eindimensionale Situation, und der geringfügig zweidimensionale Aspekt, dass Fahrer auf der Autobahn auch noch die Spur wechseln können, macht die Situation nur noch komplizierter. Wie können also Vögel sich in einer sogar dreidimensionalen Situation mit hoher Geschwindigkeit ohne Kollisionen und Wirbel bewegen, während Menschen im Straßenverkehr dies nicht schaffen? Dies hat natürlich viel mit sensomotorischer Kontrolle zu tun. Hier sind wir aber von einem vollständigen Verständnis wohl noch weit entfernt. In der theoretischen Modellierung von Schwarmverhalten werden stattdessen Modelle entwickelt, in denen sich aus einfachen Verhaltensregeln der Individuen ein kollektives Schwarmverhalten ergibt. Reynolds (1987) hat drei grundlegende Regeln vorgeschlagen: • Kohäsion (Zusammenhalt): Bewege dich zur Mitte Deiner unmittelbaren Nachbarn! • Separation (Abstoßung): Halte genügenden Abstand zu anderen und weiche aus, wenn Dir jemand zu nahe kommt! • Angleichung: Bewege dich in die gleiche Richtung wie deine Nachbarn! Diese Regeln sind nun tatsächlich völlig lokal, da sich jedes Individuum nur an seinen unmittelbaren Nachbarn orientiert. Trotzdem ist die mathematische Implementierung aber nicht ganz einfach, weil sich die Nachbarschaftsverhältnisse dynamisch ändern können. Zumindest eignen sich solche Regeln aber für Computersimulationen. Die mathematischen Modelle (vgl. Edelstein-Keshet (2001) für eine Übersicht) arbeiten entweder mit der Anziehung und Abstoßung zwischen diskreten Agenten oder stellen in partiellen Differentialgleichungen den Schwarm als ein Kontinuum dar. Im ersteren Fall kann man wie in Mogilner et al. (2003) die Bewegungsgleichung für die Position ξ α des α-ten von N Individuum aus einer Differenz von Anziehungs- und Abstoßungstermen gewinnen, ξ˙ α =

 β=1,...,N ;β =α

(F a (|ξ α − ξ β |) − F r (|ξ α − ξ β |)),

(7.2.7)

186

7 Ethologie (Verhaltensforschung)

mit a, A für Attraktion und r , R für Repulsion, wobei die Abstoßung stark und kurzreichweitig, die Anziehung schwächer, aber von längerer Reichweite ist, z. B. F a (y) = A exp(− ay ), oder

F a (y) =

A ym ,

F r (y) = R exp(− ry ) mit R > A und a > r F r (y) =

R yn

mit R > A und n > m.

Im Unterschied zu den Reynoldsschen lokalen Regeln involvieren hier die Interaktionsterme allerdings sämtliche Schwarmmitglieder und nicht nur die jeweils nächsten. Die Kontinuumsmodelle verwenden typischerweise Reaktions-Diffusions-Gleichungen. Solche Gleichungen hatten wir schon in den Abschn. 5.1 und 6.1 kennen gelernt, und wir werden ihnen auch im Abschn. 8.1 begegnen. Ein reiner Diffusionsprozess für die Schwarmdichte p(x, t) an der Raumstelle x = (x 1 , x 2 , x 3 ) zur Zeit t würde durch eine Gleichung der Form ∂ p(x, t) = D p(x, t) (7.2.8) ∂t 3 ∂2 und einer Diffusionskonstanten beschrieben, mit dem Laplaceoperator  = i=1 (∂ x i )2 D > 0. Das Koordinatensystem braucht hierbei nicht statisch zu sein, sondern x kann die relative Position zum jeweiligen Mittelpunkt des Schwarmes darstellen. Mit anderen Worten kann man sich auf die relativen Positionen konzentrieren und die kollektive Bewegung des Schwarmes herausrechnen. Ein Nachteil ist aber, dass sich bei dieser Differentialgleichung Wirkungen instantan ausbreiten, während die Reaktion eines Schwarmes beispielsweise auf eine abweichende Bewegung eines Individuums nur verzögert erfolgt. Dies lässt sich beheben, indem man statt der Wärmeleitungsgleichung (7.2.8) die Telegraphengleichung τ

∂ 2 p(x, t) ∂ p(x, t) + = D p(x, t) ∂t 2 ∂t

(7.2.9)

mit einem (möglicherweise kleinen) Parameter τ > 0 betrachtet, aber dann handelt man sich den Nachteil ein, dass die Lösung p(x, t) nicht unbedingt positiv bleibt, was natürlich in einem biologischen Modell wenig realistisch ist. Auf jeden Fall muss man zur Beschreibung der Musterbildung auf der rechten Seite von (7.2.8) oder (7.2.9) noch nichtlineare Reaktionsterme hinzufügen, wie an anderen Stellen in diesem Buch, bei denen ReaktionsDiffusions-Modelle auftreten. Beispiele finden sich in Okubo und Levin (2013). Es stellt sich natürlich auch die Frage, inwieweit die Schwarmbildung in verschiedenen Medien wie Wasser und Luft und bei so unterschiedlichen Arten wie Heringen und Heuschrecken durch die gleichen abstrakten Regeln beschrieben werden kann und an welcher Stelle artspezifische Mechanismen herangezogen werden müssen. Die vorstehenden Modelle zur Schwarmbildung sind jedenfalls noch in dem Sinne unvollständig, dass sie nur Verhaltensregeln aufstellen, aber nicht deren Umsetzung beschreiben. Trägheits- und andere physikalische Effekte verhindern beispielsweise, dass die Individuen Abstandsregeln sofort und vollständig verwirklichen. Die Modellierung von Verkehrsströmen ist hier schon weiter fortgeschritten, s. Helbing (2001), denn beim Autoverkehr sind

7.3 Kollektive Intelligenz

187

solche Effekte wesentlich für die Staubildung. Schwarmbildende Tiere beherrschen diese Effekte besser, aber das bedeutet nicht, dass sie keine Rolle bei der Schwarmbildung spielen. Viele biologische Systeme nutzen physikalische Gesetzmäßigkeiten geschickt aus, und so ist es durchaus möglich, dass beispielsweise Trägheitseffekte wesentlich für das Entstehen und die Stabilität von Schwärmen sind, statt wie beim Autoverkehr zu Unfällen zu führen.

7.3

Kollektive Intelligenz

Neuronen sind eigentlich ziemlich „dumme“ Zellen. Sie aggregieren Inputs und feuern, wenn eine bestimmte Schwelle überschritten wird. Mehr tun sie (zumindest in dieser Karikatur) nicht. Aus dem kollektiven Wirken von Millionen oder Milliarden von Neuronen ergibt sich aber das (mehr oder weniger) intelligente Verhalten von höheren Tieren und Menschen. Genauso hat eine einzelne Ameise, Termite oder Biene nur beschränkte Fähigkeiten, aber aus dem kollektiven Zusammenwirken vieler Individuen ergeben sich die erstaunlichen Architekturen von Ameisen- oder Termitenhügeln oder das komplexe Sozial- und Kommunikationssystem eines Bienenvolkes. Über die Mechanismen ist vieles bekannt, s. von Frisch (2013), Hölldobler und Wilson (2009) für einige Höhepunkte. Was uns hier interessiert, ist, dass die Mechanismen oft zu sehr effizienten Lösungen von verteilten Problemen führen. Die von Ameisen verwandten Strategien haben sogar formale Optimierungsverfahren inspiriert, wie insbesondere in Bonabeau et al. (1999) beschrieben, und wir wollen das hier kurz darstellen. Ameisen hinterlassen auf ihren Wegen spezifische Duftstoffe, Pheromone, die wiederum Nestgenossen anziehen, was dann zu Verstärkungseffekten führt. Auf diese Weise werden Ameisenstraßen, effiziente Wege zu entdeckten Futterquellen gebahnt. Je ergiebiger die Quelle, umso mehr Ameisen laufen hin, und umso intensiver wird der Weg markiert. Das abstrakte Verfahren kollektiver Problemlösung, das sich hieraus ableiten lässt, heißt Stigmergie. Bemerkenswert hierbei ist, dass die Agenten nicht direkt kommunizieren, sondern nur indirekt über die Spuren, die sie in der Umwelt hinterlassen. Die verwendeten Pheromone verdunsten nach einiger Zeit, so dass erschöpfte Quellen, zu denen die Wege nicht mehr verstärkt werden, in Vergessenheit geraten. Das Modellproblem, das mit einer abstrakten Analogie dieses Verfahrens gelöst wird, ist dasjenige des Handlungsreisenden. Bei diesem Problem soll ein Handlungsreisender eine große Anzahl von Städten abklappern und schließlich wieder zum Ausgangspunkt zurückkehren. Der Gesamtweg soll so kurz wie möglich sein, wobei jede Stadt genau einmal besucht werden soll. (Die Geschichte des Handlungsreisenden ist dabei natürlich nur die narrative Einkleidung eines formalen Optimierungsproblems, das beispielsweise beim Chipdesign oder in Telekommunikationsnetzen eine wichtige Rolle spielt.) Da nun die Gesamtzahl der möglichen Wege exponentiell mit der Anzahl der Städte wächst, ist es schon bei beispielsweise 100 Städten unmöglich, die Länge sämtlicher Wege zu berechnen, um dann unter ihnen den kürzesten zu finden. Auch lokale Suchverfahren finden nicht unbedingt das Optimum. Wenn der Handlungsreisende jeweils von der Stadt

188

7 Ethologie (Verhaltensforschung)

aus, in der er sich gerade befindet, zu der nächstgelegenen noch nicht besuchten Stadt reist, so kann der sich ergebende Gesamtweg erheblich länger als das Optimum sein, wie man leicht an Beispielen austüfteln kann. Lokale Optimierung führt leider bei solchen Problemen typischerweise nicht zu einem globalen Optimum. Man kann sich schnell viele weitere Verfahren einfallen lassen. Beispielsweise kann man sich ein k vorgeben, z. B. k = 5, und einen Graphen konstruieren, deren Knoten die Städte sind und in dem jede Stadt durch eine Kante mit den k nächstgelegenen verbunden wird, wobei das Gewicht einer Kante dann der jeweilige Abstand ist. Dann hat man einen dünn verknüpften gewichteten Graphen, in dem man einen kürzesten Weg suchen kann. Aber auch ein solcher Weg braucht nicht optimal zu sein. Die künstlichen Ameisen im Computer tun nun das Folgende. Sie laufen zwischen Städten (also den formalen Elementen, die für die Städte stehen) hin und her und markieren die Wege, wobei die Markierungen eine bestimmte Verfallszeit haben. Dabei bevorzugen sie schon stärker markierte Wege. Je kürzer der Abstand zwischen zwei Städten, umso öfter können die Ameisen hin- und herlaufen, und umso stärker wird der entsprechende Weg markiert und umso mehr weitere Ameisen zieht er an. Schließlich ergibt sich dann der kürzeste Rundweg als der am stärksten markierte. Dies ist nicht nur ein in der Praxis effizientes Suchverfahren bei derartigen Problemen, sondern lässt sich auch schön mathematisch modellieren. Wir verweisen auf die Literatur, z. B. Dorigo und Stützle (2004). Das elaborierte Kommunikationssystem von Bienen (von Frisch 2013) hat anscheinend noch kein effizientes formales Optimierungsverfahren angeregt.

8

Ökologie

Die Ökologie ist die Lehre von den Lebensgemeinschaften, insbesondere solchen mit vielen beteiligten Arten. In Lebensgemeinschaften stehen verschiedenartige Lebewesen miteinander in Wechselwirkung, und zwar derart intensiv, dass sie hochgradig voneinander abhängig sind. Daher müssen ökologische Modelle stets wesentlich nichtlinear sein. Da eine vollständige Modellierung aller Einzelheiten zu komplex wird, müssen stattdessen qualitative Aspekte herausgearbeitet und/oder stochastische Größen untersucht werden. Das mathematische Werkzeug für die qualitative Analyse ist die Theorie dynamischer Systeme. Eine grundlegende Frage ist beispielsweise diejenige nach der Beziehung zwischen Artenvielfalt und Stabilität gegenüber inneren Schwankungen oder äußeren Störungen. Hier müsste die Theorie der dynamischen Systeme einige grundsätzliche Analyseschemata bereitstellen. Natürlich sollte auch die Entwicklung anspruchsvollerer Simulationsmodelle zur Gewinnung neuer Einsichten beitragen. Stochastische Ansätze sind beispielsweise für Untersuchungen zur Biodiversität hilfreich. Aber auch wenn „Umwelt“ erst einmal verschmutzt klingt und der Name „Biodiversität“ emotional positiv besetzt ist, sollte dies die mathematische Begriffsbildung und Analyse nicht beeinflussen.

8.1

Interagierende Populationen und gekoppelte Differentialgleichungen

Ein wichtiger Kritikpunkt an der Modellierung von interagierenden Populationen durch gekoppelte Systeme von gewöhnlichen Differentialgleichungen ist, dass diese zwar die zeitliche Entwicklung der Gesamtpopulationen, nicht aber die räumliche Verteilung und lokale Inhomogenitäten erfassen können. Für einen Räuber ist es weniger wichtig, ob es irgendwo Beute gibt, sondern ob sich Beute dort, wo er sich aufhält, also in seinem Revier findet. Auch kann es in jeder Population lokale Inhomogenitäten geben, die sich deswegen erhalten oder verstärken können, weil sich die Mitglieder nicht zufällig paaren, sondern höchstens mit denjenigen Partnern, die sie in ihrem Revier antreffen. Schließlich arbeiten Differentialgleichungsmodelle immer mit kontinuierlichen und daher beliebig unterteilbaren Populationen, © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_8

189

190

8 Ökologie

während in der Realität Populationen aus diskreten Individuen bestehen. Besonders bei kleinen Populationen oder geringen Dichten können durch diese Diskretheit wichtige Effekte, bis hin zum Aussterben der Population entstehen, die sich im Differentialgleichungsmodell nicht zeigen. Als Alternative, die diese Nachteile vermeidet, bietet sich daher die Modellierung mit diskreten Agenten an; dies werden wir im nächsten Paragraphen besprechen. Zumindest die ersten beiden Einwände können aber auch dadurch vermieden werden, dass man den Ort als weitere unabhängige Variable einführt und dann mit partiellen statt mit gewöhnlichen Differentialgleichungen arbeitet. Neben dem Reaktionsterm in den Gleichungen tritt dann auch noch ein Term auf, der die räumliche Diffusion beschreibt. Kolmogorov hat als erster in der mathematischen Ökologie derartige Reaktions-Diffusions-Gleichungen eingeführt. Wir wollen aber langsam anfangen, mit dem grundlegenden Modell von Alfred Lotka (1880–1949), welches später in einem anderen Kontext unabhängig von Vito Volterra (1860– 1940) entwickelt wurde, zur Interaktion zweier Arten in einer räumlich homogenen Situation. Je nach Wahl der Parameter lassen sich qualitativ unterschiedliche Typen von Interaktionen modellieren. Wir stellen hier das wichtigste Beispiel vor, zur Wechselwirkung zwischen einer Beutepopulation der Größe u 1 und einer Räuberpopulation u 2 . Der Einfachheit halber gibt es keine Konkurrenz innerhalb der jeweiligen Populationen. u˙ 1 = u 1 (a1 + b12 u 2 )

(8.1.1)

u˙ = u (a2 + b21 u ). 2

2

1

Die Beutepopulation wächst von sich aus, während die Räuber, wenn sich selbst überlassen, langsam zugrunde gehen. Viel Beute erhöht die Räuberzahl, viele Räuber verringern umgekehrt die Beutepopulation. Daher gilt für die Parameter a1 > 0, a2 < 0, b12 < 0, b21 > 0.

(8.1.2)

Die erste offensichtliche Beobachtung ist, dass (u 1 , u 2 ) = (0, 0) ein Fixpunkt ist, und die Linearisierung zeigt, dass es sich um einen Sattelpunkt handelt. Längs der u 1 -Achse, wenn es also keine Räuber gibt, wächst die Lösung gemäß u 1 (t) = u 1(0) ea1 t , u 2 (t) = 0, während sie längs der u 2 -Achse, also bei Abwesenheit von Beute, da a2 < 0 ist, gemäß u 1 (t) = 0, u 2 (t) = u 2 (0)ea2 t schrumpft. Da die beiden Achsen Lösungskurven sind, können sie nicht gekreuzt werden, und daher wird eine Lösung mit nichtnegativen Anfangswerten auch nie negativ werden. Ein weiterer Fixpunkt ist a2 a1 , u¯ 2 = − (8.1.3) u¯ 1 = − b21 b12 Alle anderen Lösungskurven im positiven Quadranten sind periodisch und umlaufen diesen Fixpunkt entgegen dem Uhrzeigersinn. Um dies leicht einzusehen, betrachten wir V (u 1 , u 2 ) := b21 (u¯ 1 log u 1 − u 1 ) − b12 (u¯ 2 log u 2 − u 2 ).

(8.1.4)

8.1 Interagierende Populationen und gekoppelte Differentialgleichungen

191

Mit (8.1.3) und (8.1.1) folgert man u˙ 1 u˙ 2 d V (u 1 (t), u 2 (t)) = −a2 1 − b21 u˙ 1 + a1 2 + b12 u˙ 2 = 0, dt u u und V (u 1 , u 2 ) ist daher eine Bewegungskonstante. V nimmt sein Maximum bei (u¯ 1 , u¯ 2 ) an, und die Kurven V (u 1 , u 2 ) ≡ constant sind daher geschlossene Bahnen um diesen Fixpunkt. Eine solche Bahn wird entgegen dem Uhrzeigersinn durchlaufen, weil z. B. für u 1 (t) > u¯ 1 , u 2 (t) > u¯ 2 u˙ 1 (t) < 0, u˙ 2 (t) > 0 gilt. Für u 1 = u¯ 1 ist u 2 konstant, da bei diesem u 1 -Wert u˙ 2 (t) = 0, und für u 2 = u¯ 2 bleibt 1 u konstant. Die beiden Populationen oszillieren also periodisch um diesen Fixpunkt. Insbesondere bleiben im positiven Quadranten die Populationen beschränkt, denn die Räuber sind auf Beute angewiesen, und die Beutepopulation wird von den Räubern dezimiert. Aber es stirbt auch keine der beiden Populationen aus. Wenn es wenig Räuber gibt, wächst die Beutepopulation und verbessert daher die Lebensbedingungen für die Räuber, die sich dann auch stark vermehren und schließlich die Beutepopulation verringern. Wenn es aber dann nur noch wenig Beute gibt, werden auch die Räuber abnehmen, und der Zykel beginnt von vorne. Wir können auch die Stabilität des Fixpunktes mittels einer linearen Stabilitätsanalyse untersuchen. Dazu setzt man (8.1.5) u¯ 1 + v i in (8.1.1) ein und differenziert nach  und setzt dann  = 0. Dies führt zu v˙ 1 = −a2 bb12 v2 21 21 1 v˙ 2 = −a1 bb12 v .

Wir haben also auf der rechten Seite ein lineares System mit Koeffizientenmatrix   0 −a2 bb12 21 . 21 −a1 bb12 0

(8.1.6)

(8.1.7)

Die Eigenwerte dieses linearen Systems sind √ λ = ± a1 a2 ,

(8.1.8)

und wegen (8.1.2) sind diese Eigenwerte rein imaginär. Wir erinnern daran, dass ein Eigenwert mit positivem Realteil bedeuten würde, dass ein Fixpunkt lokal unstabil wäre, während er bei negativen Realteilen aller Eigenwerte stabil wäre. Da hier aber die Realteile der Eigenwerte verschwinden, kann die lineare Analyse die Stabilitätsfrage nicht klären, aber wir hatten ja gerade schon gesehen, dass der Fixpunkt von periodischen Bahnen umrundet wird. Wir haben die lineare Stabilitätsanalyse aber trotzdem hier vorgestellt, weil sie

192

8 Ökologie

sich auf Systeme mit mehr als zwei Spezies erweitern lässt, worauf wir im Abschn. 8.6 zurückkommen werden. Solche Oszillationen sind allerdings nicht wirklich biologisch plausibel. Durch eine kleine Änderung lassen sie sich aber vermeiden, und der Fixpunkt lässt sich stabilisieren. Wir ersetzen das System (8.1.1) durch u˙ 1 = u 1 (a1 + b12 u 2 ) u˙ 2 = (u 2 )k (a2 + b21 u 1 )

(8.1.9)

mit einem Exponenten k < 1. Die Räuberpopulation wächst also nur sublinear mit dem Beuteangebot. Dies ist biologisch durchaus plausibel, und umfangreiche Daten (s. Hatton et al. 2015) legen einen Exponenten k mit einem Wert von etwa .73 nahe. Das Lotka-Volterra-System (8.1.1) ist jedenfalls sowohl mathematisch einfach als auch leicht interpretierbar. Das Modell lässt sich offensichtlich in vieler Hinsicht erweitern. Z. B. kann man u˙ 1 = u 1 (a1 + b11 u 1 + b12 u 2 ) u˙ 2 = u 2 (a2 + b21 u 1 + b22 u 2 )

(8.1.10)

mit interner Konkurrenz in den jeweiligen Populationen, also b11 < 0, b22 < 0

(8.1.11)

betrachten. Der resultierende Effekt zeigt sich schon bei einer einzigen Population, deren Größe sich gemäß der logistischen Gleichung, die schon von Pierre-François Verhulst (1804– 1849) vorgeschlagen worden war, u(t) ˙ = u(a + bu) mit a > 0, b < 0,

(8.1.12)

entwickelt und einen stabilen Fixpunkt bei u = ab besitzt. Verhulst sah diese Gleichung als eine einfache Beschreibung des Bevölkerungsgesetzes von Thomas Malthus (1766–1834) an, welches Darwin beeindruckt und inspiriert hatte. An diesem Beispiel wollen wir auch kurz erläutern, wie man räumliche Effekte durch die Erweiterung zu einer partiellen Differentialgleichung einbeziehen kann. Jetzt gibt es eine weitere unabhängige Variable neben der Zeit t, und zwar die räumliche Position x. x hat nun zwei Komponenten, x = (x 1 , x 2 ), wenn wir einen zweidimensionalen Lebensraum modellieren, oder drei, x = (x 1 , x 2 , x 3 ), wenn sich die Population in drei Dimensionen ausbreiten kann. Natürlich kann man auch einen abstrakteren Möglichkeitsraum mit mehr Freiheitsgraden modellieren. Die räumliche Ausbreitung wird als Diffusionsvorgang ange 2 sehen und durch den Laplaceoperator  = i (∂∂x i )2 modelliert; wir gelangen dadurch von (8.1.12) zu u(x, ˙ t) = u + u(a + bu) with a > 0, b < 0, (8.1.13)

8.2 Modelle mit diskreter Zeit

193

wobei u = u(x, t) die Dichte der Population an der Stelle x zur Zeit t beschreibt. Durch Anwendungen des Maximumprinzips lassen sich beschränkte invariante Regionen konstruieren, woraus man schließt, dass bei Anfangsbedingungen, die in einem solchen Gebiet liegen, die Lösung dieses Gebiet nicht verlassen kann. Mit anderen Worten bleibt trotz der Diffusion die Population überall beschränkt. Natürlich können auch (8.1.1) und (8.1.10) durch Diffusionsterme erweitert werden, und man gelangt dann zu Systemen von ReaktionsDiffusions-Gleichungen. In unbeschränkten Gebieten können auch neue Phänomene, wie sich fortpflanzende Populationswellen, entstehen. In beschränkten Gebieten sind Randbedingungen erforderlich, um die Lösung eindeutig zu bestimmen. Man kann Raum und Zeit auch inhomogen machen und einen positiven Faktor c(x, t) vor den Diffusionsterm u(x, t) stellen, usw. Die gesamte Theorie ist ausführlich in Smoller (1994) entwickelt. Auch auf die Darstellungen in Jost (2013, 2014) sei verwiesen. Eine andere Erweiterung des grundlegenden Modells führt Zeitverzögerungen in die Dynamik ein. Dies ist dadurch motiviert, dass Anpassungen meist nicht instantan erfolgen. Wir wollen hier wiederum nur das einfachste Beispiel diskutieren, nämlich die logistische Gl. (8.1.12), und zur Vereinfachung normalisieren wir noch die Koeffizienten, um die Gleichung in die Form u(t) ˙ = αu(t)(1 − βbu(t − τ )) (8.1.14) zu bringen, wobei wir schon eine Zeitverzögerung τ eingeführt haben. u möge beispielsweise eine Pflanzenfresserpopulation modellieren. Wenn diese Tiere die Vegetation abfressen, braucht diese einige Zeit, um sich zu erholen, und daher tritt der negative Rückkopplungseffekt in (8.1.14) erst zeitverzögert auf. Für kleine τ ändert sich noch nicht viel, und das System hat weiter ein stabiles Gleichgewicht bei u = 1. Wird aber τ > απ 2 , so wird dieses Gleichgewicht instabil, und es kommt zu Oszillationen, vgl. Rao und Preetish (2012). Solche Oszillationen bei zeitverzögerter Rückkopplung hatte Nicholson (1954) schon 1954 in Populationen von Schmeißfliegen beobachtet.

8.2

Modelle mit diskreter Zeit

Viele Arten haben diskrete Generationen ohne Überlapp. Dies gilt insbesondere für die meisten Insekten in gemäßigten Zonen. Die Tiere passen sich an die Jahreszeiten an, werden im Frühjahr oder Sommer geboren, paaren sich und legen Eier, die sich dann in die Generation des nächsten Jahres entwickeln, und sterben dann. Für solche Arten sollte man daher Modelle mit diskreter Zeit entwickeln. Das einfachste Modell ist die diskrete logistische Gleichung u(t + 1) = r u(t)(1 − u(t)). (8.2.15) Hier sind einige Normalisierungen vorgenommen. Die Populationsgröße u(t) ist auf das Einheitsintervall [0, 1] skaliert worden. r ist die intrinsische Wachstumsrate bei kleiner Population. Hierbei muss 0 ≤ r ≤ 4 gelten, damit u(t) immer im Einheitsintervall bleibt und

194

8 Ökologie

insbesondere keine negativen Werte annehmen kann. Der Term 1−u(t) bewirkt eine negative Rückkopplung bei hohen Populationen. t ∈ N ist die diskrete Zeit, beispielsweise in Jahren gemessen. Nun hat May (1976) aber herausgefunden, dass die Lösungen dieser Gleichung für 3,57 < r ≤ 4 ein chaotisches Verhalten zeigen. (Für 0 ≤ r ≤ 3 gibt es nur ein stabiles Gleichgewicht, während für 3 < r < 3,57 periodische Oszillationen auftreten.) Schon in den einfachsten ökologischen Modellen können also chaotische Dynamiken entstehen.

8.3

Modelle mit diskreten Agenten

Im vorstehenden Abschn. 8.1 hatten wir kontinuierliche Modelle beschrieben. Diese lassen sich mit den heute zur Verfügung stehenden mathematischen Methoden gut behandeln und liefern daher analytische Ergebnisse. Nun sind aber biologische Populationen endlich und möglicherweise heterogen, und in vielen Fällen findet auch die Fortpflanzung nicht kontinuierlich, sondern in diskreten Zeitschritten statt. Desweiteren können Zufallseffekte und Fluktuationen eine wichtige Rolle für die Dynamik spielen. Daher sind seit einiger Zeit Modelle mit diskreten Individuen und einer diskreten Raum- und Zeitstruktur populär. Nun stellen sich aber die analytisch handhabbaren Modelle, wie die Varianten der Ising- und Pottsmodelle der statistischen Physik, als biologisch zu rudimentär heraus, und diejenigen Modelle, die mehr biologische Details und Effekte berücksichtigen, lassen sich dann meist nur in Computersimulationen studieren. Deswegen soll daher hier nur kurz ein Beispiel skizziert werden; wir greifen einen schon in Abschn. 2.3 beschriebenen Ansatz auf. Pepper und Smuts (2002) folgend, gibt es ein diskretes Gitter von der Topologie eines zweidimensionalen Torus (um keine Randbedingungen stellen zu müssen). Es gibt zwei Arten, eine Pflanze, die ortsgebunden ist und sich in jedem Gitterpunkt nach einer diskreten Variante der logistischen Gl. (8.1.12) regeneriert, und einen Pflanzenfresser, der sich in jedem Zeitschritt von einem Gitterpunkt zu einem benachbarten Punkt bewegen kann. Und zwar tut er dies, wenn er soviel von der Nahrung in seinem derzeitigen Gitterpunkt gefressen hat, dass eine Schwelle unterschritten wird. Dann macht er sich auf die Suche nach einem Gitterpunkt, der nicht schon von einem Konkurrenten besetzt ist und genügend frische Nahrung bietet. Und wenn er genügend viel Nahrung aufgenommen hat, kann er sich auch vermehren, und umgekehrt kann er auch an Nahrungsmangel zugrunde gehen. Das lässt sich natürlich einfach simulieren und vielleicht sogar analytisch lösen. Dieses Grundmodell kann nun im Prinzip beliebig erweitert werden. In Pepper und Smuts (2002) wird untersucht, was passiert, wenn es zwei Typen von Fressern gibt, einen rücksichtslosen, der die Pflanzen, die er vorfindet, zu 99 % abweidet (ein bisschen muss übrig bleiben, damit die Pflanze sich irgendwann wieder regenerieren kann), und einen ökologisch verantwortungsvollen, der die Hälfte übrig lässt. Man kann dann simulieren, wie sich die verschiedenen Typen ausbreiten, vermischen, möglicherweise mit typwechselnden Mutationen vermehren, etc. und die resultierenden räumlichen Verteilungsmuster angucken. Bei dieser verbalen Beschreibung soll es hier belassen bleiben.

8.4 Symbiosen

195

Agentenbasierte Modelle haben in der letzten Zeit in einem anderen Gebiet einen großen Popularitätsschub erfahren, der sog. Econophysik (s. z. B. Slanina 2014). Hier geht es darum, die Emergenz ökonomischer oder sozialer Phänomene auf einer Makroebene durch lokale Interaktionen diskreter Agenten auf einer Mikroebene zu verstehen. Im Unterschied zur (neo)klassischen ökonomischen Theorie gibt es hier nicht mehr den repräsentativen Agenten, von dessen individuellem rationalem Verhalten man durch Aggregation zu den Makrogrößen gelangt. Stattdessen können die individuellen Agenten verschiedenartig sein, müssen aber in ihrem Verhalten bestimmten Interaktionsregeln folgen. Sie durchschauen also nicht mehr rational die globale Lage, und sie sind auch nicht unbedingt optimale Spieler im Sinne der Spieltheorie, sondern sie interagieren nur lokal gemäß einfacher Regeln mit ihren jeweiligen Nachbarn oder Geschäftspartnern. Die Modelle werden meist in Computersimulationen durchgespielt, in einfachen Fällen auch mit Methoden der statistischen Physik analytisch behandelt. Offensichtlich lassen sich solche Modelle auch in der Biologie einsetzen, vielleicht sogar mit größerer Plausibilität als in der Ökonomie.

8.4

Symbiosen

Oftmals bilden Vertreter verschiedener Spezies Lebensgemeinschaften, Symbiosen. Zumindest einer zieht daraus einen Vorteil. Wenn dieser ein Parasit ist, so ist das für den anderen nachteilig. Aber es gibt auch wechselseitig vorteilhafte Symbiosen. Parasitäre Beziehungen sind evolutionär instabil, insofern als sie meist in einen evolutionären Wettlauf münden, bei dem der Wirt Maßnahmen entwickelt, um den Parasiten loszuwerden, und dieser sich umgekehrt an die Maßnahmen des Wirtes anpasst. Formal kann das ähnlich wie Räuber-Beute-Beziehungen modelliert werden. Es kommt aber auch häufig vor, dass sich der Parasit im Laufe der Zeit in einen Nützling verwandelt. Hier setzt die wichtige Theorie von Lynn Margulis (1938–2011) (Margulis 1967, 1970) an. Nach ihrer ursprünglich vehement abgelehnten, aber heute weitgehend akzeptierten und auch experimentell verifizierten Vorstellung sind die Mitochondrien, Organellen in eukaryontischen Zellen (Zellen mit Zellkern), aus Bakterien entstanden, die ursprünglich die Zellen parasitiert haben und sich dann zu nützlichen Symbionten weiterentwickelt haben. Sie vermehren sich nicht mehr selbst, sondern nehmen an der Vermehrung der Wirtszellen teil und versorgen diese dafür mit Adenosintriphosphat (ATP), dem Energielieferanten für deren Stoffwechsel. Z. B. findet der Zitronensäurezyklus (s. z. B. Alberts et al. 2007, Nelson und Cox 2005), einer der zentralen Stoffwechselschritte in aeroben Zellen, bei Prokaryonten im Zytoplasma, bei Eukaryonten dagegen in den Mitochondrien statt. Mitochondrien haben ihre eigene DNS, die von derjenigen im Zellkern verschieden ist, was ihren unabhängigen Ursprung belegt. Bei sich geschlechtlich vermehrenden Organismen werden die Mitochondrien nur über die mütterliche Eizelle weitergegeben. Daher kann man durch die genetische Untersuchung an Mitochondrien den maternalen Stammbaum rekonstruieren.

196

8 Ökologie

Ähnliches gilt für die Chloroplasten, die in Pflanzen und Algen die Photosynthese durchführen und die von Cyanobakterien abstammen. Die Theorie geht aber noch weiter. Bakterien tauschen regelmäßig genetisches Material aus. Z. B. können durch die Weitergabe von Transposonen, übertragbaren genetischen Elementen, schnell Resistenzen gegen Antibiotika zwischen verschiedenen Bakterienstämmen weitergegeben werden, was inzwischen zu einem ernsthaften medizinischen Problem geworden ist. Auch sonst kann, wie Margulis hervorgehoben hat, genetisches Material nicht nur vertikal in Stammbäumen, sondern auch horizontal zwischen verschiedenen Spezies übertragen werden. Dies stellt ein Problem für die im Abschn. 2.9 besprochene Rekonstruktion von Stammbäumen aus genetischen Sequenzen dar. Der Vergleich mit einer anderen Wissenschaft, der Linguistik, zu deren wesentlichen Zielen auch die Rekonstruktion von Stammbäumen gehört und die diese sogar schon vor Darwin eingeführt hat (Schleicher 1853, 1861/1862), mag das Problem verdeutlichen. Sprachen entwickeln sich aus Vorgängern. Beispielsweise stammen fast all die vielen verschiedenen in Europa gesprochenen Sprachen mit Ausnahme der finnougrischen Sprachen und des Baskischen von einer gemeinsamen Vorgängersprache ab, dem Indoeuropäischen, welches allerdings nicht direkt belegt, sondern aus Sprachvergleichen erschlossen worden ist. Dieses hat sich dann in verschiedene Tochtersprachen aufgespalten. Von einer dieser Tochtersprachen, dem Lateinischen, stammen dann wiederum die modernen romanischen Sprachen ab. Allerdings gibt es auch Sprachmischungen, und so kann das Englische als romanisch-germanische Mischsprache, die zudem auch noch ein keltisches Substrat enthält, weder der romanischen noch der germanischen Unterfamilie des Indoeuropäischen eindeutig zugeordnet werden, auch wenn man es, wenn man eine Klassifikation erzwingen will, als germanische Sprache einordnet. Überhaupt bewahren auch die meisten heutigen indoeuropäischen Sprachen noch einige vorindoeuropäische Elemente, insbesondere oft bei Gewässernamen. Die Erstellung von reinen Sprachenstammbäumen ist daher nicht nur oft praktisch schwierig, sondern auch historisch nicht völlig gerechtfertigt. Das Phänomen des horizontalen Gentransfers verursacht nun in der biologischen Phylogenetik ähnliche, wenn auch sicherlich nicht so drastische Probleme wie in der historischen Linguistik. In der Biologie glaubt man jedenfalls an einen gemeinsamen Ursprung aller heutigen Lebensformen auf der Erde und versucht, diesem durch sog. tiefe Phylogenien näherzukommen. Dagegen ist es unklar, ob alle heute gesprochenen Sprachen von einer gemeinsamen Ursprache abstammen. Zumindest haben die verschiedenen Ansätze zur Identifizierung gemeinsamer Sprachwurzeln noch keine allgemeine Akzeptanz gefunden.

8.5

Soziale Insekten

Verschiedene Arten der Ordnung der Hymenopteren (Hautflügler), zu denen Ameisen, Bienen und Wespen gehören, aber auch einige nicht zu dieser Ordnung gehörende Insekten wie die Termiten bilden Kolonien, in denen eine oder mehrere Königinnen sich auf die

8.5 Soziale Insekten

197

Eiablage spezialisiert haben, während meist sterile Arbeiterinnen die anderen Aufgaben wie Aufzucht des Nachwuchses, Bau und Unterhalt, Nahrungsbeschaffung und Verteidigung übernehmen. Die Kolonien können oft gewaltige Größen erreichen, und dies und die anscheinend ausgeklügelte Abstimmung und Arbeitsteilung innerhalb der Kolonien hat viele evolutionsbiologische und darüber hinausgehende Überlegungen angeregt. Eine opulente und anregende Monographie ist beispielsweise Hölldobler und Wilson (2009). Dies ist allerdings nicht unser Thema. Wir wollen hier nur zwei Aspekte besprechen. Der erste greift im Abschn. 2.3 vorgestellte Ansätze auf. Das dort dargelegte Konzept der inklusiven Fitness von Hamilton besagt, dass sich altruistisches Verhalten lohnt, wenn die Korrelation r hinsichtlich der entsprechenden Eigenschaft größer als das Kosten-Nutzen-Verhältnis ist, also C , (8.5.16) B vgl. (2.3.11). Nun wird r meist als Grad der genetischen Verwandtschaft zwischen dem altruistischen Individuum und demjenigen, dem die Hilfe zugute kommt, angenommen. Nun sind bei den Hymenopteren die männlichen Tiere nur haploid, tragen also nur einen einfachen Erbgutsatz, weil sie sich aus unbefruchteten Eizellen entwickeln. Sie haben also nur eine Mutter, aber keinen Vater (und auch keine Söhne, allerdings einen Großvater und Enkel), während die Weibchen, wie es die Regel bei sich geschlechtlich vermehrenden Arten ist, diploid sind. Rekombination findet also nur beim weiblichen Genom statt, während das männliche vollständig weitergegeben wird. Dies hat zur Folge, dass Geschwister aus einer solchen haplodiploiden Paarung nicht wie bei beidseitig diploiden Eltern einen genetischen Verwandtschaftsgrad von 1/2 aufweisen, sondern sogar zu 3/4 genetisch verwandt sind. Wenn man dies als r in (8.5.16) einsetzt, lohnt sich also altruistisches Verhalten unter solchen Geschwistern besonders. Dies wurde dann als Erklärung für das soziale Verhalten in Insektenkolonien herangezogen. Das Argument hat allerdings zwei Schönheitsfehler. Erstens passt es nicht auf die Termiten, bei denen beide Geschlechter diploid sind, die aber trotzdem Kolonien bilden.1 Und zweitens funktioniert das auch bei haplodiploiden Arten nur, wenn es in der Kolonie nur eine Königin gibt, die sich auch nur mit einem einzigen Männchen paart. Nun gibt es aber viele Kolonien mit mehreren Königinnen, und ob es nur eine oder mehrere gibt, hängt wohl davon ab, was unter den jeweiligen Umweltbedingungen erfolgreicher ist, s. Hölldobler und Wilson (1977). Und auch wenn sich nur eine einzige Königin durchsetzt, so paart sich diese üblicherweise mit mehreren Männchen (vgl. z. B. Gadagkar 2016). Die entsprechenden Halbgeschwister haben dann aber nur noch einen Verwandtschaftsgrad von 1/4, also sogar einen kleineren als normale Geschwister, und das Argument funktioniert nicht mehr. – Ich finde es bemerkenswert, dass ein derartiges r>

1 Es gibt übrigens auch in anderen Tierstämmen Kolonien, beispielsweise bei den Nacktmullen

(Heterocephalus glaber), einer Säugerart, bei denen sich ein dominantes Weibchen als einzige fortpflanzt und die anderen zu Helferinnen degradiert sind. Allerdings ist hier die Individuenzahl wesentlich geringer als bei den staatenbildenden Insekten.

198

8 Ökologie

Argument zur Erklärung der Koloniebildung sozialer Insekten sich bei vielen theoretischen Biologen einer großen Wertschätzung erfreut, obwohl es ziemlich offensichtlich nicht den biologischen Tatsachen entspricht. – Hölldobler und Wilson (2005) versuchen jedenfalls daher wieder, Kolonienbildung mit Gruppenselektion zu erklären, also die Kolonie selbst statt der einzelnen Individuen als Einheit zu sehen, an der die Evolution angreift.

8.6

Systemtheoretische Perspektiven

Heutzutage ist die Biodiversität ein wichtiges Ziel vieler Konservierungsinitiativen. Auch wenn dies durchaus ein erstrebenswertes Ziel ist, sollte man nicht vergessen, dass es hierbei um einen nicht biologisch, sondern ideologisch motivierten Begriff handelt, entstanden im gleichen Umfeld, in dem auch ethnische Diversität eine positive Bedeutung bekam. Ursprünglich hieß es übrigens biologische Diversität (biological diversity) (vgl. z. B. Eduardo und Carmo 2017), aber um ein griffigeres Schlagwort zu bekommen, hat man dann kurzerhand das Logische weggelassen. Und Biodiversität klingt nun wohl tatsächlich besser als das altmodische Artenvielfalt. Es gibt beispielsweise viele gute Gründe dafür, das schmallippige Breitmaulnashorn vor dem Aussterben zu bewahren, nicht nur, dass sonst einige reiche Männer in Hongkong nicht mehr ihr begehrtes Potenzmittel kriegen würden, aber die Stabilität des Ökosystems, in dem diese Spezies lebt, gehört wohl nicht dazu. Denn es gibt sowieso nur noch so wenige Exemplare, dass auch ein gut konzipiertes und hervorragend durchgeführtes Erhaltungsprogramm auf absehbare Zeit nicht so viele derartige Nashörner hervorbringen könnte, dass sie eine wesentliche Rolle in ihrem Ökosystem spielen könnten. Jedenfalls kann die Mathematik dazu wohl auch nicht allzu viel Tiefsinniges sagen. Das bedeutet allerdings weder, dass ökologische Fragen unwichtig sind, noch, dass die Mathematik in diesem Gebiet nichts beitragen könnte. Ganz im Gegenteil. Insbesondere können mathematische Modelle einiges Licht auf die Frage nach dem Verhältnis von Stabilität und Komplexität von Ökosystemen werfen. Die Modelle sind dabei notwendigerweise abstrakt, weil viele Größen in realen Ökosystemen allenfalls grob geschätzt werden können und man daher die reale Komplexität solcher Systeme nicht direkt formal abbilden kann. Daher muss man sich auf qualitative Überlegungen beschränken, zumindest solange nicht auch im Bereich der Ökologie Big-Data-Methoden eingesetzt werden können. Zur Analyse komplexer Ökosysteme werden daher ironischerweise recht einfache und eigentlich wenig komplexe mathematische Modelle eingesetzt. Aber solche Modelle können wegen ihres höheren Abstraktionsgrades möglicherweise sogar wesentliche qualitative Zusammenhänge besser zum Vorschein bringen als viel detailreichere Alternativen. Ein wesentlicher systematischer Fortschritt wurde von Robert May erzielt, und wir folgen daher hier May (1974/2001).

8.6 Systemtheoretische Perspektiven

199

Ausgangspunkt sind Systeme vom Lotka-Volterra-Typ, die wir schon im Abschn. 8.1 eingeführt haben. Diesmal behandeln wir Systeme mit beliebig vielen interagierenden Populationen, i = 1, . . . , n, n  bi j u j ). (8.6.17) u˙ i = u i (ai + j=1

Wir suchen Gleichgewichtspunkte (u˙ i = 0 für i = 1, . . . n) mit u i > 0 und wollen dann deren Stabilität in Abhängigkeit von der Anzahl n der Populationen und den Kopplungsstärken bi j untersuchen. Ein solcher Gleichgewichtspunkt muss ai +

n 

bi j u j = 0 f¨ur alle i

(8.6.18)

j=1

erfüllen. Wir nehmen an, dass es eine Lösung u¯ i > 0 (i = 1, . . . , n) gibt und wollen deren Stabilität untersuchen. Dazu linearisieren wir das System um diesen Gleichgewichtspunkt, setzen also u i = u¯ i + v i in (8.6.17) ein, differenzieren nach  und setzen dann  = 0. Weil (8.6.18) gilt, führt dies auf n  bi j v j . (8.6.19) v˙ i = u¯ i j=1

Dieses System ist stabil, und der Gleichgewichtspunkt u¯ ist dann linear stabil, wenn alle Eigenwerte der Koeffizientenmatrix L := ( i j )i, j=1,...,n := (u¯ i bi j )

(8.6.20)

einen negativen Realteil haben. Da nun typischerweise die Interaktionsmatrix B := (bi j )i, j=1,...,n nicht explizit bekannt ist, kann man sich nur überlegen, wie das unter bestimmten strukturellen Annahmen wahrscheinlich aussieht. Man nimmt also an, dass die Koeffizienten bi j zufällig aus einem bestimmten Ensemble gezogen sind und fragt, wie bei einem solchen Ensemble die Eigenwerte wahrscheinlich verteilt sind. Dies bedeutet nicht etwa, dass die Dynamik (8.6.17) zufällig abläuft – wir werden unten noch stochastische Dynamiken diskutieren –, sondern nur, dass die Koeffizienten der Dynamik zufällig gewählt sind, diese selbst aber deterministisch bleibt. Jedenfalls führt uns dies in das Gebiet der Zufallsmatrizen. In aller Kürze soll das nun systematisch aufgebaut werden. Wir fangen mit einer (n × n) Matrix M := (m i j ) an, deren Einträge m i j unabhängig voneinander zufällig aus einer Gaussverteilung mit Mittelwort 0 und Varianz σ 2 gezogen werden. Dann verhält sich der größte asymptotisch wie √ (8.6.21) λn ∼ σ n, s. z. B. Edelman et al. (1994), Bordenave und Chafaï (2012) und die dort angegebenen Referenzen. Nun sollten wir allerdings für unsere Interaktionsmatrix noch einige Einschränkungen machen. Zunächst steht sicherlich nicht jede Population mit jeder anderen in direkter

200

8 Ökologie

Wechselwirkung. Daher sollten viele der Einträge bi j = 0 sein. Daher nehmen wir, dass mit einer bestimmten Wahrscheinlichkeit 0 < p < 1 der Eintrag bi j wie gerade diskutiert normalverteilt ist und mit Wahrscheinlichkeit (1 − p) verschwindet. Wir haben jetzt also bei kleinem p eine dünnbesetzte Zufallsmatrix. Dann bekommen wir statt (8.6.21) λn ∼ σ



pn.

(8.6.22)

Schließlich nehmen wir noch an, dass es stets negative Selbstinteraktionen gibt, und zwar genauer bii = −1 für alle i. Wir nehmen also B = M − Id

(8.6.23)

an, wobei M eine dünnbesetzte Zufallsmatrix der gerade beschriebenen Art ist. Dann gilt für den größten Eigenwert asymptotisch bλn ∼ σ



pn − 1.

(8.6.24)

May (1972) folgert daher, dass die Matrix B mit Wahrscheinlichkeit → 1 für n → ∞ • stabil ist, falls σ



• dagegen instabil, falls σ

pn < 1,



pn > 1

(8.6.25) (8.6.26)

ist. In dem hier betrachteten Modell (8.6.17) tritt allerdings nicht die Matrix B = (bi j ) auf, sondern die Matrix L = (u¯ i bi j ), vgl. (8.6.20). Hierbei ist angenommen, dass die u¯ i sämtlich positiv sind, dass also alle Populationen tatsächlich vorkommen, aber die einzelnen Gleichgewichtswerte u¯ i können sehr unterschiedlich sein. Wenn wir diesen Punkt aber mal vernachlässigen, so lassen sich mit May (1974/2001) die folgenden qualitativen Schlüsse ziehen. • Eine größere Anzahl verschiedener Populationen, also ein größeres n, macht das System eher unstabil. In diesem Sinne führt Diversität also nicht zu höherer Stabilität, sondern destabilisiert das System tendenziell. Natürlich ist die Annahme, dass die Wechselwirkungsstärken unabhängig voneinander zufällig gezogen werden, recht krude, und evolutionäre Mechanismen könnten dem entgegenwirken. • Populationen, die mit vielen anderen interagieren (relativ großes p) sollten dies durch jeweils kleine Interaktionsstärken (kleines σ ) kompensieren. • Wenn die Interaktionsmatrix stärker strukturiert ist, wenn beispielsweise das Ökosystem stark modularisiert ist, sinkt der größte Eigenwert, und das System wird tendenziell stabiler.

8.6 Systemtheoretische Perspektiven

201

Wie schon gesagt lassen sich die genauen Werte bi j der Interaktionsstärken meist nicht genau feststellen. Aber oft kennt man zumindest das Vorzeichen; wenn Population j die Population i frisst, so ist bi j < 0, b ji > 0. Es stellt sich dann die Frage, ob man alleine aus der Kenntnis der Vorzeichen schon Rückschlüsse auf die Stabilität ziehen kann. Definition: Eine Interaktionsstruktur W = (wi j ) mit wi j ∈ {+, −, 0} heißt stabil, falls jede Matrix A = (ai j ), für die gilt ⎧ ⎪ ⎪ ⎨> 0 falls wi j = + (8.6.27) ai j < 0 falls wi j = − ⎪ ⎪ ⎩= 0 falls w = 0, ij

deren Einträge also die durch W bestimmten Vorzeichen haben, nur Eigenwerte mit negativem Realteil hat. Insbesondere ist dies auch nützlich für den oben angesprochenen Punkt, dass bei der Stabilitätsanalyse der Lotka-Volterra-Gleichungen nicht die Interaktionsmatrix B, sondern die Matrix L aus (8.6.20) auftritt, die aus B entsteht, indem wir deren i-te Zeile mit der als positiv angenommenen Zahl u¯ i multiplizieren, wodurch kein Vorzeichen verändert wird. Denn wenn die Interaktionsstruktur von B stabil ist, so folgt, dass auch dann auch die Matrix L stabil ist. In Quirk und Ruppert (1965) wurde nun gezeigt, dass eine Interaktionsstruktur W genau dann stabil ist, falls 1. 2. 3. 4.

detW = 0 wii ∈ {−, 0} für alle i, und wi0 i0 = − für mindestens ein i 0 . wi j w ji ∈ {−, 0} für alle i = j wi1 i2 wi2 i3 . . . wik i1 = 0 für i 1 = i 2 = . . . = i k und k ≥ 3.

Die Selbstinteraktionsterme der einzelnen Populationen dürfen also nicht positiv sein, und zumindest einer muss negativ sein, die Interaktionen zwischen zwei verschiedenen Populationen dürfen nicht das gleiche Vorzeichen haben, und es darf keine nichttrivialen Interaktionsketten der Länge ≥ 3 geben. Symbiotische Interaktionen (++) oder kompetitive (−−) Interaktionen sind nicht mit der Bedingung 3. kompatibel, können also zu Instabilitäten führen. Die Bedingung 4. schließt Situationen aus, wo eine Spezies j eine andere Spezies i und eine dritte Spezies k beide von ihnen frisst. Aus der qualitativen Untersuchung dynamischer Systeme lassen sich weitere Resultate mit ökologischen Interpretation gewinnen. May (1974/2001) hat beispielsweise auch gezeigt, dass, wenn sich die Nischen oder Lebensgewohnheiten zweier Arten stark überlappen, was bei diesen zu Instabilitäten führen kann, dies auf das Ökosystem als Ganzes eher einen stabilisierenden Effekt hat. Wir hatten im Abschn. 8.2 schon bemerkt, dass Gleichungen, die das Wachstumsverhalten von Populationen beschreiben, chaotische Dynamiken hervorbringen können. Dort ging es nur um eine einzige Population, aber bei Wechselwirkungen zwischen mehreren

202

8 Ökologie

Population kann natürlich erst recht Chaos auftreten. Z. B. gibt es schon ein Modell mit drei Populationen (Hastings und Powell 1991). welches allerdings etwas kompliziertere Wechselwirkungen als die Lotka-Volterra-Modelle aufweist, bei dem es zu einer chaotischen Dynamik kommt (bei diesem Beispiel ist übrigens die obige Bedingung 4. verletzt). Auch wenn es durchaus mathematische Methoden gibt, um chaotisches von zufälligem Verhalten zu unterscheiden (s. z. B. Pfante et al. 2014), so ist in der Praxis diese Unterscheidung meist schwierig. Wir können also oft nicht entscheiden, ob ein beobachtetes irreguläres Verhalten sich deterministisch aus zugrundeliegenden internen Gesetzmäßigkeiten ergibt oder die Folge zufälliger externer Störungen ist. Man muss auch bei der Übersetzung ökologischer Begrifflichkeiten in mathematische Modelle vorsichtig sein, um die intendierte Bedeutung nicht zu verlieren, sondern idealerweise umgekehrt zu präzisieren. Holling (1973) hat das Konzept der Widerstandsfähigkeit (Resilienz) eines Ökosystems thematisiert. Wenn man diesen Begriff mathematisch im Kontext der dynamischen Systeme, also innerhalb des gerade diskutierten mathematischen Modellierungszuganges, diskutieren und formalisieren will, so gibt es verschiedene Möglichkeiten, wie in Meyer (2016) analysiert. Und zwar kann es sich bei den Störungen um solche der Zustandsgrößen oder der Systemparameter handeln, und dies führt zu unterschiedlichen Formalisierungen. Bei ersteren spielt die Größe und die Geometrie des Einzugsbereiches des Attraktors, bei dem sich das System befindet, die wesentliche Rolle, während letztere das Bifurkationsverhalten beeinflussen können. Eine Modellierung durch ein dynamisches System würde jedenfalls nahelegen, dass sich die Zustandsgrößen schneller als die Systemparameter ändern und dass man daher auch bei Störungen verschiedene Zeitskalen unterscheiden sollte. Auch ist es wesentlich, ob es sich um einmalige Schocks, deterministische Veränderungen oder um zufällige Störungen handelt, wobei sich der Unterschied aus der Systemperspektive allerdings anders als für einen externen Betrachter darstellen kann.

Neurobiologie und Kognitionstheorie; neuronale Netze als Modelle der Kognition und als maschinelle Lernverfahren

In diesem Abschnitt werden wir nicht wie in den vorangegangenen von biologischen Fakten zu formalen Modellen voranschreiten, sondern wir fangen direkt mit den letzteren an und beziehen diese dann im Laufe der Diskussion auf neurobiologische oder kognitive Sachverhalte. Ein Grund hierfür liegt darin, dass in diesem Bereich die Entwicklung, Untersuchung und Anwendung der entsprechenden formalen Modelle, der sog. neuronalen Netze, schon ein selbständiges Wissenschaftsgebiet geworden ist. Auf diese Weise können wir einen höheren Abstraktionsgrad erreichen und vielleicht durch den formalen Einstieg einen besseren mathematischen Zugang gewinnen. Für viele Einzelheiten muss ich allerdings auf meine demnächst erscheinende Monographie Jost (o. J.a) verweisen. Insbesondere werden wir hier keinen Überblick über die verschiedenen Typen neuronaler Netze geben, die in der Literatur vorgeschlagen und diskutiert worden sind, sondern stattdessen versuchen, einige wichtige Prinzipien herauszuarbeiten. Es soll nicht verschwiegen werden, dass das formale Verständnis oder die mathematische Simulation der Gehirntätigkeit noch in weiter Ferne zu liegen scheinen. Angesichts der Tatsache, dass man, wie oben im Abschn. 3.2 erwähnt, aber bisher noch nicht einmal die Proteinfaltung mathematisch verstehen und simulieren kann, braucht dies nicht unbedingt zu verwundern.

9.1

Neuronale Netze als komplexe Systeme

In der Theorie der neuronalen Netze ist „Neuron“ einfach ein Name für eine formale Recheneinheit, seit der einflussreichen Arbeit McCulloch und Pitts (1943). Wir beginnen mit derartigen formalen Ansätzen und werden auf die Beziehung zu Gehirnzellen erst später stoßen. Ein solches formales Neuron kann man sich als einen Knoten in einem diskreten Netzwerk vorstellen. In jedem dieser Netzknoten oder Neuronen vollzieht sich eine bestimmte Aktivitätsdynamik, bestimmt durch eine Differenzen- oder Differentialgleichung, und diese © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_9

203

9

204

9 Neurobiologie und Kognitionstheorie …

Dynamiken in den einzelnen Knoten sind durch Kopplungsterme miteinander verknüpft. Die Verbindungen zwischen den Neuronen heißen Synapsen. Diese Kopplungsterme oder Synapsenstärken sind Systemparameter, die typischerweise ebenfalls einer Dynamik unterworfen sind. Die letztere Dynamik vollzieht sich allerdings auf einer langsameren Zeitskala als die Aktivitätendynamiken in den Neuronen und wird als Lerndynamik interpretiert. Wir betrachten zunächst ein Netz aus Neuronen i = 1, ..., N , dessen Dynamik sich in diskreten Zeitschritten vollzieht. Nach Umskalierung können wir die Zeit im Netz dann durch n ∈ N darstellen. Die Netzwerkdynamik sei gegeben durch ⎛ ⎞  wi j x j (n) + λ0 + σ η⎠ , x i (n + 1) = f ⎝ (9.1.1) j

wobei x i die Aktivität oder den Zustand des Neurons i bezeichnet. wi j ist die Stärke der Synapse vom Neuron j zum Neuron i, λ0 ist ein Schwellwert, η ist Rauschen, welches mit der Stärke σ wirkt. f ist eine auf R definierte Funktion mit beschränktem Wertebereich, z. B. [0, 1] oder [−1, 1]. Vermöge der Transformation x = f (u) wird (9.1.1) in ein Koppelgitter1 überführt  wi j f (u j (n)) + λ0 + σ η. (9.1.2) u i (n + 1) = j

Zu den Dynamiken in Koppelgittern gibt es eine reichhaltige Literatur, meist in physikalischen Fachzeitschriften, insbesondere unter dem Gesichtspunkt der Entstehung von Chaos in räumlich verteilten Systemen, Dies ist zwar nicht unbedingt ein zentrales Thema für die theoretische Neurobiologie, aber die in dieser Literatur gewonnenen qualitativen Einsichten können trotzdem von einem gewissen Nutzen sein. Ein Vorteil besteht auch darin, dass die Grundstruktur mathematisch recht einfach ist und sich die Dynamiken in Koppelgittern und daher auch in nach solchen Prinzipien aufgebauten neuronalen Netzen leicht im Computer simulieren lassen. Normalerweise werden etwas speziellere Koppelgitter betrachtet, nämlich mit symmetrischen (wi j = w ji ) und nichtnegativen (wi j ≥ 0) Synapsenstärken und der Dynamik ⎛ ⎞  1 wi j f (u j (n)) + (1 − ε) f (u i (n)⎠ u i (n + 1) = ε ⎝  (9.1.3) w i j j=i j=i

mit einem Parameter ε > 0. Zum Vergleich von (9.1.2) und (9.1.3) einige Bemerkungen: (i) Für viele Aspekte der Analysis von Koppelgittern reicht es wohl aus, statt der Symmetrie wi j = w ji für alle i, j allgemeiner die Existenz von Multiplikatoren μi , i = 1, ..., N , mit 1 Auf Englisch: coupled map lattice; Dynamiken in derartigen Koppelgittern sind insbesondere von

Kaneko (1984, 1989) untersucht worden, der das Phänomen der Synchronisation von Chaos auf solchen Gittern entdeckt hat.

9.1 Neuronale Netze als komplexe Systeme

μ j wi j = μi w ji

205

(9.1.4)

für alle i, j zu fordern. (Sind diese μi nicht alle gleich, so führt dies zu mehreren Zeitskalen beim Lernprozeß.) (ii) Durch geeignete Einstellung von λ0 lassen sich oft chaotische Dynamiken unterdrücken. (iii) Bei Untersuchungen über Koppelgitter wird meist ein nicht monotones f zugrundegelegt, z. B. die quadratische Abbildung f (x) = ρx(1 − x)

(9.1.5)

mit Parameter ρ ∈ (0,4]. Wir hatten schon im Abschn. 8.2 bemerkt, dass eine solche Abbildung für 3,57 < ρ ≤ 4 schon in einem einzigen Knoten zu einer chaotischen Dynamik führt. Dies tritt dann erst recht in gekoppelten Netzen ein. In der Theorie der neuronalen Netze wird dagegen meist eine monotone Abbildung f gewählt, z. B. die Sigmoide 1 f (x) = 1 + e−κ x mit Parameter κ. (iv) Bei neuronalen Netzen hat man dagegen typischerweise Synapsenstärken wi j beiderlei Vorzeichens; wi j > 0 entspricht exzitatorischer, wi j < 0 inhibitorischer Kopplung. Oft ist die Inhibition von größerer Reichweite als die Exzitation; ist also auf dem Netz ein Abstandsbegriff d(i, j) zwischen Neuronen i and j gegeben, so ist typischerweise ⎧ ⎪ ⎪ ⎨> 0 f¨ur d(i, j) klein wi j

< 0 f¨ur d(i, j) mittelgroß ⎪ ⎪ ⎩= 0 f¨ur d(i, j) sehr groß;

letzteres erhält dem Netz eine gewisse Lokalität. Es ist wohl wesentlich für die Erzeugung eines reichhaltigen dynamischen Repertoirs, dass zumindest eine der beiden Bedingungen (iii) (also f nicht monoton) oder (iv) (wi j von beiderlei Vorzeichen) erfüllt ist. (v) Die Symmetriebedingung wi j = w ji wird zwar auch häufig in Untersuchungen über neuronale Netze angenommen, ist aber biologisch unrealistisch. Die Symmetriebedingung ermöglicht in vielen Fällen die Konstruktion einer Lyapunovfunktion. (vi) Man kann in (9.1.3) auch noch eine Zeitverzögerung n 0 ∈ N einführen und die Dynamik ⎛ ⎞  1 wi j f (u j (n − n 0 )) + (1 − ε) f (u i (n)⎠ (9.1.6) u i (n + 1) = ε ⎝  j=i wi j j=i

206

9 Neurobiologie und Kognitionstheorie …

betrachten, also annehmen, dass die Übermittlung des Zustandes von einem Element zu einem anderen eine Laufzeit n 0 > 0 erfordert. Bemerkenswerterweise kann dies sogar die Synchronisation des Netzwerkes erleichtern, s. Atay et al. (2004). Jedenfalls sind die Netze rückgekoppelt: Der Output x j (n) von Neuron j im n-ten Schritt wird zum Input für Neuron i im nächsten Schritt. Der entscheidende Aspekt für die Aktivitätendynamik eines neuronalen Netzes wie in (9.1.1) ist die Integration räumlich verteilter Information, zumindest in einem lokalen Bereich (wenn die wi j für große Abstände d(i, j) verschwinden), durch die Summation  j j wi j x in jedem Neuron i und die Übersetzung des Ergebnisses in eine differenzierte zeitliche Dynamik, dass also die Reaktion des Neurons i entscheidend vom Wert dieser Summe abhängt. Dies ist noch ausgeprägter bei sog. feuernden Neuronen, also solchen, die genau dann einen Output erzeugen, wenn der Input einen bestimmten Schwellwert überschreitet. Der Output ist dabei von normierter Stärke. Er wirkt impulsartig, also mehr oder weniger momentan, und man arbeitet dann nicht mehr mit einer diskreten, sondern einer kontinuierlichen Zeit und integriert den Input für jedes Neuron über die Zeit mit einer bestimmten Abklingrate auf. Das betreffende Neuron wird also beispielsweise durch eine Zustandsfunktion der Form

  wik κ(t − tk,ν ) (9.1.7) f k

ν

beschrieben, wobei tk,ν die Feuerzeitpunkte der verschiedenen präsynaptischen Neuronen k von i sind. Hierbei nimmt man an, um Kausalität sicherzustellen, dass κ(t) = 0 f¨ur t < 0, und

d κ(t) < 0 f¨ur t ≥ 0. dt

(9.1.8)

Z. B. kann κ(t) = e−αt für t ≥ 0 mit einen Parameter α > 0 sein. Der durch die jeweiligen Synapsenstärken gewichtete Einfluss der präsynaptischen Spikes nimmt in diesem Fall also exponentiell in der Zeit ab. Und wenn dann der Wert von f eine gegebene Schwelle überschreitet, feuert das Neuron und übermittelt dann einen Impuls an die mit ihm postsynaptisch gekoppelten Neuronen , also diejenigen, für die w i  = 0. Diese Neuronen genügen ebenfalls einer Zustandsfunktion vom Typ (9.1.7), und ein Feuern des Neurons i kann nun beispielsweise für ein weiteres Neuron den Zustand überschwellig machen. So kann sich dann eine Erregungskaskaden in dem Netz ausbreiten. Es wird also über einen räumlichen Bereich (die mit dem betrachteten Neuron präsynaptisch verbundenen Neurone) und einen zeitlichen Abschnitt (seit dem letzten Feuern des Neurons, denn bei jedem Feuern wird die innere Aktivität wieder auf Null zurückgesetzt; formal lässt sich das einfach dadurch fassen, dass man in (9.1.7) nur diejenigen präsynaptischen Feuerzeitpunkte tk,ν berücksichtigt, die nach dem letzten Feuern des Neurons liegen) summiert oder integriert, und in eine binäre Alternative (Ruhen oder Feuern) übersetzt.

9.1 Neuronale Netze als komplexe Systeme

207

Letzteres ist die einfachste – und informationstheoretisch wohl sinnvollste – Weise, um den Input zu klassifizieren und damit eine Differenzierung vorzunehmen. Das Vorstehende beschreibt nur die Leistung des einzelnen Neurons oder Elementes. Nun besteht das Netz aber aus vielen solchen Neuronen oder Elementen, und daher sind sicherlich auch globale Aspekte von Bedeutung. Zunächst haben wir die individuellen Elemente und ihre Dynamiken als gleichartig angenommen, mit Ausnahme der Synapsenstärken wi j , die in noch nicht genauer spezifizierter Weise von i und j abhängen. Bei der Analysis von Koppelgittern und auch bei vielen neuronalen Netzen nimmt man allerdings auch hier eine Homogenität an; entweder setzt man eine homogene Gitterstruktur voraus und setzt z. B. wi j = 1, falls i und j Gitternachbarn sind, und wi j = 0 sonst, oder man nimmt die Approximation durch das gemittelte Feld vor und gibt sämtlichen wi j den gleichen Wert. Trotzdem folgt aus dieser strukturellen Homogenität noch nicht unbedingt eine dynamische Homogenität, d. h. die zeitliche Dynamik jedes Elementes kann anders ablaufen. Manchmal synchronisiert aber die Dynamik, d. h. alle Elemente entwickeln sich gleichphasig. Bei Koppelgittern läßt sich dies oft durch geeignete Wahl des Parameters ε in (9.1.3) erreichen (z. B. Jost und Joy 2001). Eine allgemeine Diskussion von Synchronisationsvorgängen findet sich in Pikovsky et al. (2001) und speziell für Koppelgitter in Atay und Jost (2004). Es erhebt sich nun allerdings die Frage, ob dies ein wünschenswertes Verhalten des Netzes ist, denn durch Synchronisation begibt sich das Netz der Differenzierungsmöglichkeit durch unterschiedliches Verhalten verschiedener Neuronen, und die noch verbleibende Differenzierungsmöglichkeit liegt allein in die Struktur der zeitlichen Dynamik. M. a. W., wozu benötigt man mehr als 1 Neuron, wenn sich doch alle gleich verhalten? Abgesehen von dem eher technischen Aspekt, dass kollektives Verhalten robuster und wirkungsvoller nach außen sein kann, ist dies tatsächlich ein wesentlicher und berechtigter Einwand. Genauso wenig sinnvoll wäre es, wenn die zeitliche Dynamik jedes Neurons einen einzigen Attraktor besitzt, dem sie stets zustrebt, auch wenn dieser Attraktor nicht für alle Neuronen der gleiche ist, denn dann können räumlich verteilte Inputstrukturen nicht mehr in unterschiedliche Dynamiken übersetzt werden, d. h. es findet keine differenzierende Reaktion des Systems mehr statt. Umgekehrt soll allerdings auch nicht jeder Input eine nur für ihn spezifische Reaktion des Netzes hervorrufen. Das Netz soll zwar verschieden auf unterschiedliche Inputs reagieren, aber möglichst gleich auf ähnliche Inputs; nur dann findet eine vernünftige Klassifikationsleistung statt (dies läßt sich durch einen geeigneten Komplexitätsbegriff formal fassen). Dies bedeutet, dass zwar Synchronisationsmechanismen und Attraktordynamiken für ein robustes Systemverhalten nützlich sind, dass es aber auch Möglichkeiten der Desynchronisation und der Koexistenz mehrerer Attraktoren oder oszillierende Dynamiken geben muss. Partielle Synchronisationen könnten räumliche Netzstrukturen als spezifische Antwort auf bestimmte Inputs herausbilden. Die Einzugsbereiche verschiedener Attraktoren könnten den vom Netz gebildeten Kategorien entsprechen. Wesentlich für die Herausbildung komplexer Strukturen ist aber vor allen Dingen, dass sich ein reichhaltiges Verhaltensrepertoire eines aggregierten Systems meist erst auf der

208

9 Neurobiologie und Kognitionstheorie …

Grundlage vieler gleichartiger Einzelelemente entfalten kann. Mit wachsender Anzahl dieser Einzelelemente wird nämlich meist ein kohärentes oder synchrones Verhalten instabil, und kleine Störungen können dann Bifurkationen zu immer komplexeren Verhaltensmustern im Gang setzen. Seinen mathematisch einfachsten Ausdruck findet dies darin, dass der kleinste Eigenwert eines Diffusionsoperators mit der Systemgröße abnimmt, und ebenso auch die höheren Eigenwerte, so dass sich bei sonst gleichen Kenngrößen dann immer höher frequente Oszillationen realisieren können, wenn die Systemgröße zunimmt. Dass die internen Differenzierungsmöglichkeiten eines Systems mit seiner Größe zunehmen, ist natürlich eine allgemeine Beobachtung. Hierdurch können sich auch verschiedene räumliche Skalen herausbilden, indem sich bestimmte Untergruppen von Netzelementen annähernd kohärent und synchron verhalten und damit vielleicht selbst als Elemente einer höheren Aggregationsstufe aufgefasst werden können. Ebenso können sich verschiedene zeitliche Skalen entwickeln. Oft ist die langsamste Zeitskala die wichtigste, denn auf den schnelleren Zeitskalen findet typischerweise ein einfaches exponentielles Abklingen statt, während die langsamere Zeitskala zwar meist nur wenige Freiheitsgrade besitzt (in mathematischer Terminologie die Dimension der Zentrumsmannigfaltigkeit), diese Freiheitsgrade aber langfristig die Dynamik dominieren und prägen. Bei der Sprachverarbeitung greifen zum Beispiel mehrere neuronale Zeitskalen ineinander (für eine Diskussion s. z. B. Giraud und Poeppel (2012), Friederici und Singer (2015)). Die kürzeste verarbeitet die Laute, eine mittlere die Bedeutungseinheiten (Silben oder Wörter), während die langsamste der Intonation (Prosodie, Satzmelodie) entspricht. Bisher haben wir die verschiedenen Systemparameter zwar nicht unbedingt als räumlich homogen, aber doch als zeitlich konstant angenommen. Dies ist zunächst wesentlich dafür, dass das Netz ein reproduzierbares Verhalten zeigt, d. h. auf gleiche oder ähnliche Inputs auch gleich reagiert. Dies ist wichtig, wenn das Netz ein System steuert, das sich in einer einigermaßen konstanten Umwelt behaupten muss. Allerdings ist eine solche Umwelt zumindest über längere Zeiträume hinweg nicht völlig konstant, und das Netz muss deswegen auch Anpassungsmöglichkeiten haben oder entwickeln. Dies stellt die einfachste Form des Lernens dar. Lernen bedeutet dann also eine Anpassung von Systemparametern an für das Netz wichtige und meist mehrmals wiederholte Inputs. Dies Lernen kann überwacht sein, was bedeutet, dass erfolgreiches Netzverhalten belohnt und dadurch die Parameteranpassungen, die hierzu geführt haben, verstärkt werden und umgekehrt, dass Misserfolge bestraft werden. Aus dem Vorstehenden deutet sich schon an, dass Lernen, weil sinnvollerweise auf Wiederholungen angewiesen, da man allgemein nur aus Wiederholungen in der Vergangenheit auf Regelmäßigkeit in der Zukunft schließen kann und nur die Vorbereitung auf solche Ereignisse nützlich ist, deren Wiederkehr erwartet werden kann, auf einer langsameren Zeitskala als die eigentliche Netzdynamik stattfindet. Auch hier können sich natürlich mehrere Zeitskalen herausbilden; insbesondere können Belohnung und Bestrafung unterschiedlich schnell stattfinden.

9.1 Neuronale Netze als komplexe Systeme

209

Hierzu ein kleines Beispiel.2 Wir gehen zunächst von dem folgenden Modell für überwachtes Lernen von Bak und Chialvo (2001) aus. Es handelt sich um ein geschichtetes Netz, wo Neuronen in einer Schicht nur Synapsen zu Neuronen in der nächsten Schicht haben. Als Input wird in der Eingangsschicht ein Neuron i 1 aktiviert, in der nächsten dann dasjenige Neuron j2 , für das w j2 i1 am größten ist, dann in der dritten Schicht das Neuron k3 mit größtem wk3 j2 , etc. Ist dann der Output der letzten Schicht der gewünschte, so passiert nichts; anderenfalls werden die Stärken aller in diesem Schritt aktivierten Synapsen verkleinert, um einen festen oder einen zufälligen Betrag. Diese negative Rückkopplung führt ähnlich wie bei selbstorganisierter Kritikalität (hierzu z. B. Jensen 1998) zu vielen Synapsen von ähnlicher Stärke, wodurch das Netz die Fähigkeit erwirbt, flexibel in neuen Situationen, d. h. wenn sich der gewünschte Output zu einem gegebenen Input ändert, zu reagieren, anstatt sich zu stark auf das bisher Erfolgreiche festzulegen. Positive Rückkopplungen würden dagegen die Anpassungsfähigkeit des Netzes verringern. Die Dynamik lässt sich noch dadurch modifizieren, dass bei einem Erfolg eine Synapse einen Bonus erwirbt und dann bei einem späteren Misserfolg nur weniger oder vielleicht auch gar nicht verkleinert wird. Man könnte an die folgende Modifikation denken. Wie vorher werden zu einem Input jeweils die stärksten Verbindungen gesucht und aktiviert. Jede aktivierte Verbindung wird zunächst geschwächt. Außerdem wird eine gewünschte Verbindung belohnt, allerdings auf einer längeren Zeitskala und mit einem möglicherweise anderen Faktor; dies kann also die vorher gehende Schwächung über- oder unterkompensieren und vor allen Dingen über mehrere Zeitschritte wirken. Eine mögliche Interpretation wäre, dass jede Aktivierung Energie kostet, während sich ein erfolgreiches Verhalten erst später auszahlt oder bemerkbar macht. Auch abgesehen von solchen einfachen formalen Modellen ist spekuliert worden, dass sich aktive neuronale Systeme typischerweise in oder in der Nähe von einem Zustand selbstorganisierter Kritikalität (Bak et al. 1987) befinden. Selbstorganisierte Kritikalität ist eine Eigenschaft dynamischer Systeme, die sich von selbst in einen kritischen Zustand nach Art eines Phasenüberganges bewegen, also ohne dass dafür irgendwelche Parameter angepasst werden müssten. Das globale Verhalten eines solchen Systems weist daher räumliche und\oder zeitliche Skaleninvarianz auf, zeigt also langreichweitige Korrelationen. Zur derzeitigen Befundlage in den Neurowissenschaften s. Priesemann et al. (2014), Hesse und Gross (2014). Im Abschn. 9.4 werden wir neuronale Lernregeln im Detail analysieren. An dieser Stelle ist jedoch für die Argumentationskette schon eine kurze Zusammenfassung sinnvoll. Die nach Donald Hebb (1904–1985) (Hebb 1949) benannte Lernregel3 verstärkt Synapsen entsprechend der Korrelation zwischen prä- und postsynaptischer Aktivität. Dieser 2 Bei diesem Beispiel handelt es sich nicht um ein besonders typisches oder wichtiges neuronales Netz,

sondern es wird nur herangezogen, um einen für unsere Darstellung wichtigen Punkt illustrieren zu können. 3 Die grundlegenden Ideen waren allerdings schon früher entwickelt worden. Der erste systematische Entwurf eines modifizierbaren neuronalen Netzes zur Erklärung der psychischen Erscheinungen geht

210

9 Neurobiologie und Kognitionstheorie …

Mechanismus muss allerdings in seiner Wirkung begrenzt werden, damit die Synapsenstärken nicht unbeschränkt wachsen. Die sog. differentielle Hebbregel trägt dem Rechnung, indem nicht die Korrelation zwischen Input und Output, sondern zwischen Input und Outputänderung im jeweils betrachteten Zeitschritt berücksichtigt wird. Eine Variante („spike timing dependent plasticity (STDP)“), die besser auf die zeitlichen Verhältnisse abgestimmt ist und somit besser die zeitliche Gerichtetheit von Kausalität erfasst, verstärkt Synapsen, wenn die prä- vor der postsynaptischen Aktivität stattfindet, und schwächt sie anderenfalls (s. Gerstner et al. 1996, Markram et al. 1997, Bi und Poo 2001, Bi und Poo 1999, Kempter et al. 1998, Kempter et al. 1999, van Hemmen 2001, Song et al. 2000, Abbott und Nelson 2000, Jost 2006, Gilson et al. 2010). Diese Regel, werden wir im Abschn. 9.4 genauer untersuchen, s. (9.4.33). Durch diese Regel wird das Problem der Beschränkung der Synapsenstärken auf elegante Art gelöst, und bei einem geeigneten nichtlinearen Ansatz führt dieser Mechanismus auch zu einer Verstärkung der Input-Output-Korrelation (Jost 2006). Allerdings ist ein solcher Ansatz natürlich nur in einem Modell mit feuernden Neuronen sinnvoll. Damit das Netz interne Stabilität aufbauen kann, ist auch eine sog. Antihebbregel vorgeschlagen worden, welche Synapsenstärken bei Korrelation zwischen In- und Output verringert. Dies führt zu einem Fixpunktlernen; da die Fixpunkte, die das Netz zu erlernen bestrebt ist, aber nicht stabil zu sein brauchen und sogar durch den Lernprozess destabilisiert werden können, ist die resultierende Dynamik nicht unbedingt trivial. Dies führt zu dem allgemeinen Problem, was Ziel und Zweck der Netzaktivität sein soll. Friston (2010) hat hier ein Prinzip der Minimierung einer freien Energie vorgeschlagen, was darauf hinausläuft, dass das Netz bestrebt ist, Überraschungen zu vermeiden und sich in Zustände zu begeben, in denen die Folgezustände möglichst gut vorhersagbar sind. Es scheint mir aber, dass dies durch ein exploratives Prinzip komplementiert werden muss (s. Jost 2004, 2016), denn sowohl die Evolution als auch individuelle Lebewesen beziehen ihre Dynamik aus der Erkundung von Neuem. Und es ist wohl nicht nur so, dass die Einbeziehung von Neuem eine bessere interne Stabilisierung und Vorhersagbarkeit ermöglicht, sondern umgekehrt schafft auch eine solche effiziente interne Stabilisierung die Freiräume für die Erkundung und Einbeziehung von Neuem. Kehren wir aber zum neuronalen Lernen zurück. Die Hebbsche Regel und ihre Varianten ziehen möglichst viel Information aus dem Input heraus, indem sie die wechselseitige Information zwischen In- und Output vergrößern. So kann das Netz Beobachtungen optimal verwerten. Es erhebt sich allerdings die Frage, was überhaupt eine Beobachtung ist und für wen oder was das Netz Information sammelt. Letztendlich kann dies nur für das System, an dem es teilhat oder das es vielleicht selbst sogar bildet, geschehen. Information ist dann keine absolute Größe mehr, sondern hängt von einem inneren Modell ab. Ein System kann eine Beobachtung nur im Rahmen einer Theorie, eines schon entwickelten Modells, machen. Daher hat der Informationsgewinnungsprozess zwei Komponenten; die eine ist die wohl auf Sigmund Exner (1846–1926) (Exner 1894) zurück. Für eine historische Darstellung vgl. Breidbach (1997).

9.2 Neuronale Netze

211

Aufstellung und Verarbeitung von Beobachtungen innerhalb eines festen inneren Modells; die zweite ist die Anpassung dieses Modells an die gemachten Beobachtungen. Das erstere wird sich i. A. auf einer schnelleren Zeitskala als das zweite vollziehen. Lernen ist wohl ein Aspekt dieses zweiten. Dass ein Netz oder System Beobachtungen für sich macht und überhaupt machen kann, und nicht an andere Einheiten weitergibt, ist grundlegend, erfordert aber auch eine sehr sorgfältige Analyse, wobei sich das Problem die Reflexivität nicht umgehen lässt. Eine formale Behandlung erfordert die Einführung absoluter und relativer Komplexitätsbegriffe (s. Jost o. J.b); an dieser Stelle betrachten wir nur die Entropie einer Abbildung, also eines iterierten Prozesses, also eine asymptotische Größe. Diese Entropie ist nur dann positiv, wenn lokal die Genauigkeit vergrößert wird. Etwas metaphorisch gesprochen bedeutet dies, dass das System seine Struktur im Großen stets aus dem Kleinen oder Infinitesimalen heraus reproduzieren kann. In unserer mathematischen Idealisierung beruht die Möglichkeit hierzu auf der Struktur des Kontinuums. In der biologischen Realität dagegen muss dies in einer diskreten Situation geleistet werden.

9.2

Neuronale Netze

Neuronale Netze bestehen aus formalen Einheiten, den sog. „Neuronen“, die durch sog. „Synapsen“ miteinander verbunden sind. Diese Namen deuten darauf hin, dass es sich hierbei um Modelle zur Beschreibung der Vorgänge in biologischen Neuronen, also Gehirnzellen, handelt. Die gewählte Beschreibungsebene kann dabei die physiologische oder die kognitive sein. Im ersten Fall geht es um die Entstehung und Weiterleitung elektrischer Spannungen in Zellen und die Übertragung von elektrischen Strömen zwischen Zellen. Im zweiten Fall geht es darum, Modelle verknüpfter Recheneinheiten zu entwerfen, die bestimmte einfache kognitive Leistungen erbringen können, wie Musterspeicherung und Wiedererkennung, systematische Ordnung zufälliger Eingangsdaten oder Entdeckung impliziter Gesetzmäßigkeiten. Unter diesem Gesichtspunkt spielt das Lernen durch Anpassung der Synapsenstärken eine wichtige Rolle. Die grundlegende Frage nach der Beziehung zwischen diesen beiden Beschreibungsebenen ist noch nicht gelöst. Die physiologischen Neuronenmodelle sind zu kompliziert, um die Informationsverarbeitung in großen Netzen insbesondere unter dem Gesichtspunkt der Emergenz höherer kognitiver Funktionen zu analysieren. Sie müssen daher vereinfacht werden. Dies wirft jedoch die Frage auf, welche der physiologischen Einzelheiten wesentlich sind und welche für die Prinzipien der Informationsverarbeitung keine wichtige Rolle spielen. Konkret feuern biologische Neuronen dann, wenn ihre Erregung eine bestimmte Schwelle überschreitet, und leiten hierdurch Ströme an die mit ihnen synaptisch verbundenen Neuronen weiter. Nach jedem Feuern brauchen sie eine gewisse Erholungsphase, bevor sie wieder erregbar werden. Die Erregung hängt umgekehrt von den Eingangssignalen ab, die das betreffende Neuronen über seine Synapsen von anderen Neuronen oder auch direkt von Sinnesrezeptoren empfängt (wobei allerdings im Gehirn nur ein

212

9 Neurobiologie und Kognitionstheorie …

sehr geringer Anteil der Neuronen direkt- und nicht nur indirekt, d. h. über andere Neuronen vermittelt- mit Inputsensoren verbunden ist). Die Amplitude jedes Feuerereignisses ist konstant. Die entscheidenden Variablen sind dabei die Feuerzeitpunkte. Es ist jedoch nicht klar, ob die relevante Information in den genauen Zeitpunkten steckt, in der Häufigkeit des Feuerns innerhalb eines bestimmte Zeitintervalls, also der Feuerrate, oder gar nur in der Wahrscheinlichkeit dafür, dass das betreffende Neuron in einem solchen Intervall feuert.4 Die letzte Möglichkeit gewinnt dadurch an Plausibilität, dass die Aktivität von Gehirnzellen auch eine stochastische Komponente aufweist, indem z. B. auch ein Neuron, welches keine synaptischen Inputs bekommt, in unregelmäßigen Abständen von selbst feuert. Schließlich ist noch nicht einmal klar, ob die Aktivität eines einzelnen Neurons für sich überhaupt signifikant ist, oder ob es nur auf das mehr oder weniger koordinierte Feuern größerer Gruppen von Neuronen ankommt. Ein einzelnes Neuron würde dann Bedeutung nur durch die Partizipation an verschiedenen derartigen Gruppen gewinnen. Man kann nun versuchen, diese Frage nach dem neuronalen Kode direkt durch Auswertung physiologischer Messungen zu beantworten, indem man also Messdaten über das Feuerverhalten von Gruppen gekoppelter Gehirnzellen einer signaltechnischen Analyse unterzieht. Die hierzu erforderlichen Experimente sind jedoch sehr schwierig. Das Problem besteht in der gleichzeitigen Ableitung der elektrischen Daten einer großen Anzahl von Neuronen. Alternativ kann man versuchen, an die Frage indirekt heranzugehen, indem man untersucht, zu welchen Leistungen die die physiologischen Gegebenheiten stark vereinfachenden Modelle fähig sind. Im allereinfachsten Fall ist ein formales Neuron dann nur noch eine Einheit, die in jedem diskreten Zeitschritt zweier möglicher Zustände (0 oder 1, „Ruhen“oder „Feuern“) fähig ist und ihren Zustand im nachfolgenden Zeitschritt aus den Zuständen der anderen mit ihren verknüpften Einheiten berechnet, wie ein zellulärer Automat oder ein boolesches Netzwerk. Auch die Verknüpfungsstruktur ist in solchen Modellen meist keinen biologisch motivierten Restriktionen mehr unterworfen. Wesentlich ist jedoch meist, dass sich die Parameter, die die Verknüpfungsstruktur festlegen, innerhalb gewisser Grenzen ändern können und auch tatsächlich ändern, allerdings auf einer wesentlich langsameren Zeitskala als derjenigen der neuronalen Aktivitäten. Dieser Vorgang der Parameteränderung wird dann als Lernen interpretiert, und somit sollten die Lernregel, die diesen Vorgang festlegen, oder genauer, die die Änderung der Verknüpfungsstärken in Abhängigkeit von der Aktivitätsdynamik des Netzes beschreiben, besonders wichtig sein. In dieser Situation kann man nun von der physiologischen Beschreibung ausgehen, also zunächst ein Neuron weniger als Schaltelement denn als Nervenzelle betrachten. Die Identifikation von Neuronen als grundlegender physiologischer und funktionaler Einheiten des Gehirns geht auf Santiago Ramón y Cajal (1852–1934) zurück (Ramón y Cajal 1897–1904). Das biophysikalische Grundmodell ist das schon in Abschn. 5.1 vorgestellte, aus elektrophysiologischen Experimenten gewonnene Hodgkin-Huxley-Modell, welches aus vier gekoppelten Differentialgleichungen besteht. Diese beschreiben die Änderungen der elektrischen Spannung entlang eines Axons als Funktion von äußeren und inneren Strömen, wobei 4 Allerdings sollten wir zu diesem Punkt auf die eingehende Analyse in Rieke et al. (1997) verweisen.

9.2 Neuronale Netze

213

letzterer umgekehrt durch diese Spannung und bestimmte chemische Konzentrationen bestimmt wird, deren Änderung wiederum von dieser Spannung abhängt. Dieses Axon, also Nervenkabel, wird als eindimensionales Objekt mit Positionsvariable x aufgefasst. Man bekommt dann eine Reaktions-Diffusions-Gleichung für die Spannung V C Vt =

1 Vx x + Ie − Ii , R

(9.2.1)

wobei Ie und Ii die außen und innen gemessenen Ströme sind. C und R sind physiologische Konstanten. Zum Einstieg in die mathematische Diskussion lässt man den Diffusionsterm R1 Vx x weg. Experimentell entspricht dies dem Space-Clamping, bei dem der Spannungsunterschied zum Äußeren der Zelle künstlich räumlich fixiert wird. Der äußere Strom Ia kann angelegt und somit experimentell kontrolliert werden, während der innere Strom sich durch die Dynamik (5.1.3) ergibt, also Ii = g1 m 3 h(V − V1 ) + g2 n 4 (V − V2 ) + g3 (V − V3 ),

(9.2.2)

mit konstanten g1 , g2 , g3 ; V1 , V2 , V3 und den dynamisch bestimmten chemischen Konzentrationen m, n, h: m t = αm (V )(1 − m) − βm (V )m n t = αn (V )(1 − n) − βn (V )n h t = αh (V )(1 − h) − βh (V )h. Diese Konzentrationen sind stets nichtnegativ und so normalisiert, dass sie auch kleiner als 1 sind. Die α und β sind experimentell bestimmte Funktionen. αn (V ) und αm (V ) verhalten sich etwa wie 21 (1 + tanh V ), αn (V ) wie 21 (1 − tanh V ). Hierbei haben wir wiederum Diffusionsterme m x x , n x x , h x x auf den rechten Seiten weggelassen. Das System besteht dann aus den drei vorstehenden Gleichungen und der durch Einsetzen der Gleichung für Ii resultierenden Gleichung für V : C Vt = g1 m 3 h(V1 − V ) + g2 n 4 (V2 − V ) + g3 (V3 − V ) + Ie .

(9.2.3)

Wir hatten die resultierende Dynamik in Abschn. 5.1 beschrieben. In Abschn. 5.2 hatten wir dann eine Vereinfachung dieses Modells diskutiert, das FitzHugh-Nagumo-System vt = v(a − v)(v − 1) − w + λ wt = bv − cw

(9.2.4)

mit Konstanten 0 < a < 1, b, c > 0. v übernimmt hierbei die Rolle von V und m des Hodgkin-Huxley-Systems, während w die langsameren Variablen n und 1 − h zusammenfasst, und der Parameter λ repräsentiert den äußeren Strom Ie , also einen externen Input.

214

9 Neurobiologie und Kognitionstheorie …

− −λ

−λ

0

v

Abb. 9.1 Die qualitative Dynamik von vt = v 2 + λ

Wesentliche Aspekte der qualitativen Verhaltens, insbesondere das in Abschn. 5.2 beschriebene Bifurkationsverhalten in Abhängigkeit von dem Parameter λ, bleiben nun auch in dem folgenden, noch weiter vereinfachten Modell erhalten: vt = v 2 + λ.

(9.2.5)

Hier ist also die Variable w ganz herausgefallen, und der kubische Term in der Dynamik von v ist ebenfalls weggelassen. Es findet wieder eine Bifurkation bei λ = 0 statt (Abb. 9.1). Für positives λ gibt es keine Ruhelage mehr, und v läuft gegen Unendlich. Für negatives λ √ √ gibt es zwei Ruhelagen, eine stabile bei − −λ, und eine instabile bei −λ. Diese Letztere übernimmt jetzt die Rolle des Schwellwertes. Kleine Störungen von v in der Nähe von √ √ − −λ führen zur Rückkehr zu diesem Punkt, Störungen über −λ hinaus dagegen dazu, daß v nach Unendlich wegläuft. Dies würde jetzt dem Feuern entsprechen. Da der Durchgang durch Unendlich mit anschließendem Rücksetzen zum Wert −∞, von wo aus die Dynamik dann wieder zur stabilen Ruhelage zurückkehrt, aber etwas unschön ist, unterwirft man die Gleichung der nichtlinearen Transformation v = tan

ϑ 2

(9.2.6)

und gelangt zum sog. ϑ-Neuron von Ermentrout und Gutkin (Ermentrout 1996; Gutkin und Ermentrout 1998), beschrieben durch die Gleichung ϑt = (1 − cos ϑ) + (1 + cos ϑ)λ.

(9.2.7)

Wegen der Nichtlinearität der obigen Transformation wird der Input λ nun mit einem nichtlinearen ϑ-Term multipliziert. Der Einfluss des Inputs λ ist in der Nähe von ϑ = 0 am stärksten, in der Nähe des Feuerpunktes ϑ = π am schwächsten. Ein Feuern des Neurons entspricht also jetzt dem Durchgang durch ϑ = π und anschließender Rückkehr in die Nähe von ϑ = 0, also einer Umrundung des Einheitskreises, denn wegen der Periodizität der Cosinusfunktion können wir ϑ = 2π mit ϑ = 0 identifizieren und somit ϑ auf dem Einheitskreis variieren lassen. Die Bifurkation findet natürlich weiter bei λ = 0 statt. Für positives λ läuft ϑ ständig um den Einheitskreis, d. h. in unserer Interpretation beobachten wir ein kontinuierliches Feuern des Neurons. Für negatives λ gibt es zwei Ruhelagen, eine stabile ϑr und eine instabile ϑt . Wird ϑ aus der stabilen Lage ϑr über die Schwelle ϑt hinaus gestört, so läuft ϑ einmal durch ϑ = π und kehrt zu ϑr + 2π = ϑr zurück, d. h. das Neuron feuert einmal, bevor es wieder zur Ruhe kommt.

9.2 Neuronale Netze

215

Nun soll es die Aufgabe eines Neurons sein, auf Input zu reagieren, und diese Reaktion sollte irgendwie von dem erhaltenen Input abhängen. Daher reicht es nicht aus, nur einen festen konstanten Input zu betrachten. λ sollte also (zeitlich) variabel sein. Dann besagt unsere vorstehende Analyse einfach, dass das Neuron auf einen genügend starken Input durch Feuern reagiert, während bei schwachem (hier genauer: negativem) Input nichts passiert. Das Neuron löst also eine einfache Klassifikationsaufgabe, und die Bifurkation ermöglicht somit eine Trennung kontinuierlicher Eingaben in zwei diskrete Muster, Feuern und Ruhen. Soweit ist dies natürlich noch von sehr geringem Interesse für die Kognition. Interessanter kann es erst dann werden, wenn man mehrere Neuronen miteinander koppelt, wenn also die Aktivität eines jeden Neurons in den Input von anderen Neuronen übersetzt wird. Versehen wir die beteiligten Neuronen mit einem Index i, so haben wir jetzt also ein System ϑti = (1 − cos ϑ i ) + (1 + cos ϑ i )λ(ϑ j ), i, j = 1, ..., N .

(9.2.8)

Die entscheidende Frage ist nun natürlich, wie die Funktion λ(ϑ 1 , ..., ϑ N ) aussieht. Zunächst einmal sollte man allerdings noch spezifizieren, dass diese Funktion nun auch noch von dem betrachteten Neuron i abhängt, sofern man nicht die biologische unrealistische Situation betrachten will, dass jedes Neuron auf die anderen (einschließlich sich selbst) in gleicher Weise einwirkt. Da außerdem ein Neuron nur beim Feuern auf andere wirkt, kann man vielleicht mit dem folgenden Ansatz beginnen: λi (ϑ 1 , ..., ϑ N ) = λ0 +

N 

wi j ϕ(ϑ j ) + σ η,

(9.2.9)

j=1

wobei λ0 ein hier am besten negativ zu wählender Schwellwert ist, η Rauschen der Stärke σ , also eine stochastische Komponente darstellt, wi j die synaptische Stärke von Neuron j zu Neuron i verkörpert und die Funktion ϕ(ϑ) positiv in einer Umgebung von ϑ = π ist und ansonsten verschwindet. Die Parameter λ0 und σ könnten auch von i abhängen, und sollten dies wohl in biologisch realistischen Modellen auch tatsächlich tun, aber wir wollen dies im Moment vernachlässigen. ϕ(ϑ j ) ist der Output des Neurons j. Im obigen Modell ist dann der Input, den das Neuron i empfängt, eine lineare Funktion des Outputs der mit i synaptisch verbundenen Neuronen j. In etwas abstrakterer Schreibweise haben wir dann eine Dynamik ⎛ ⎞  ϑ˙ i =  ⎝ϑ i , λ0 + wi j ϕ(ϑ j ) + σ η⎠ , i = 1, ..., N . (9.2.10) j

Dieses Modell bewahrt noch einige wichtige Eigenschaften biologischer Neuronennetze, nämlich neben Parametern wie Schwellwerten, Synapsenstärken und Rauscheffekten vor allem die Tatsache, dass Neuronen feuern und nur wenn sie dies tun, signifikant auf andere Neuronen einwirken können. Jedes Feuern erhöht eine diskrete Invariante, nämlich die Anzahl der Umläufe um den Einheitskreis, denn der innere Zustand eines Neurons wird

216

9 Neurobiologie und Kognitionstheorie …

durch eine Phase auf dem Einheitskreis dargestellt. Die Einwirkung auf andere Neuronen wird durch die Funktion ϕ beschrieben. Die Empfänglichkeit für Einwirkungen anderer Neuronen hängt auch wesentlich vom inneren Zustand des betreffenden Neurons ab, was durch die Abhängigkeit der Funktion  von der Variablen ϑ i ausgedrückt wird. Damit werden auch die genauen Zeitpunkte wichtig, zu welchen andere Neuronen feuern. In jedem Fall wird das Verhalten eines solchen Netzes wesentlich von den Parametern λ0 , wi j , σ abhängen, und die Frage stellt sich, wie diese bestimmt werden. Wir sind jetzt schon in einem Bereich, der nicht mehr besonders realistisch unter physiologischen Aspekten ist, und daher lassen sich diese Parameter nicht mehr experimentell bestimmen. Da neuronale Netze aber kognitive Aktivitäten modellieren sollen, wird man eher fragen, welche Wertebereiche der Parameter zu einem bestimmten Verhalten führen, das man als spezifische kognitive Verarbeitung interpretieren kann. Der entscheidende Punkt in der Theorie neuronaler Netze ist nun, dass diese Parameter nicht ein für alle Mal fixiert werden, sondern dass sie sich nach einer Lernregel in Abhängigkeit von der Netzaktivität ändern. Der Lernvorgang läuft dabei typischerweise wesentlich langsamer oder in kleineren Schritten als die Aktivitätendynamik ab. Man kann nun dabei versuchen, die Parameter so anzupassen, dass ein gewünschtes Netzverhalten produziert wird, beispielsweise durch einen Gradientenabstieg für eine Fehlerfunktion, die die Abweichung der festgestellten Netzdynamik von der gewünschten misst. Man kann aber auch versuchen, herauszufinden, was für Netzwerkdynamiken sich aus lokalen Lernregeln entwickeln können, also zu untersuchen, ob durch Selbstorganisation des Netzes interessante Strukturen entstehen können. Man kann nun natürlich das Modell noch weiter vereinfachen, indem man erstens nicht mehr mit einer kontinuierlichen Zeit, sondern nur noch mit diskreten Zeitschritten arbeitet und zweitens dann die Abhängigkeit von  von der Phase ϑ i eliminiert, da diese dann ohnehin über ein Zeitintervall gemittelt werden müsste. Man würde also nur noch kumulative Aktivitäten innerhalb eines gegebenen Zeitintervalls erfassen. Alternativ könnte man unter Berücksichtigung der stochastischen Komponente dann auch zu Feuerwahrscheinlichkeiten innerhalb dieses Zeitintervalls übergehen. Das nachfolgende Modell erlaubt beide Interpretationen: ⎛ ⎞  wi j x j (t) + σ η⎠ , i = 1, ..., N , (9.2.11) x i (t + 1) = F ⎝λ0 + j

wobei x j (t) jetzt nicht mehr wie vorher ϑ j die Aktivität eines Neurons, welche als interner Zustand nicht mehr so wesentlich ist, sondern wie ϕ(ϑ j ) den Output dieses Neurons darstellt, also das, was auf andere Neuronen einwirkt. Falls wii  = 0, so wirkt das Neuron i weiterhin direkt auf sich selbst ein, allerdings jetzt nur noch in einer Weise, die sich nicht mehr prinzipiell von der Wirkung der anderen Neuronen unterscheidet. Wenn wir x j (t) als Feuerwahrscheinlichkeit interpretieren wollen, müssen wir F noch so normieren, dass stets 0 < F < 1 gilt. Ein typisches Beispiel für eine in diesem Kontext verwandte Funktion ist die Sigmoide

9.3 Stochastische Prozesse

217

1 1 + e−κz mit einem positiven Parameter κ. Eine nützliche Eigenschaft der Sigmoiden ist F(z) =

F  (z) = κ F(z)(1 − F(z)),

(9.2.12)

(9.2.13)

d. h. die Ableitung lässt sich direkt aus den Funktionswerten bestimmen. Interessanterweise ist dies gerade die quadratische Abbildung (9.1.5).

9.3

Stochastische Prozesse

Bisher hatten wir Neuronen entweder als elektrophysikalische Systeme oder als Recheneinheiten in einem verknüpften System beschrieben. So konzeptionell unterschiedlich diese beiden Ansätze auch sind, so ist ihnen doch gemeinsam, dass die Operation eines neuronalen Systems als ein deterministischer Prozess aufgefasst wird, dem man vielleicht noch eine kleine Rauschkomponente überlagern kann. Dies schließt nicht aus, dass sich das Verhalten großer neuronaler Netze besser stochastisch als deterministisch beschreiben lässt, wie auch manche Vielteilchensysteme in der Physik. Es gibt aber auch einen ganz andern Ansatz, der ein Neuron als einen stochastischen Prozess konzeptionalisiert (als Referenzen s. z. B. Tuckwell 2005, Tuckwell 1989). Bei diesem Ansatz sendet ein Neuron zu zufälligen Zeitpunkten Spikes aus. Wie kann dann aber, so wird man fragen, ein solches Neuron Information weitergeben? Nun, diese Information ist in dem wesentlichen Parameter des Prozesses enthalten, der Feuerrate, also der Wahrscheinlichkeit, mit der das Neuron in einem vorgebenen Zeitintervall feuert. Diese Feuerrate kann deterministisch von den empfangenen Inputs abhängen und sich daher zeitlich verändern. Ein Neuron, das einen relevanten Input empfängt, wird mit einer höheren Rate feuern, als eines, das sich langweilt. Der grundlegende stochastische Prozess ist der Poissonprozess. Bei diesem Prozess erfüllt die Wahrscheinlichkeit pt (n) := p(N (t) = n) dafür, dass im Intervall [0, t] N (t) = n Ereignisse stattfinden, dass also in unserer Anwendung das Neuron n mal feuert, die Gleichung der Poissonverteilung (r t)n −r t (9.3.1) e n! für n = 0, 1, . . . . Bei einem homogenen Poissonprozess ist r ≥ 0 eine Konstante, bei einem inhomogenen Prozess eine Funktion r (t) der Zeit. Wie wir gleich sehen werden, kann durch eine Umskalierung der Zeit ein inhomogener Prozess in einen homogenen überführt werden, so dass es ausreicht, die Theorie für homogene Prozesse zu entwickeln. Die Wahrscheinlichkeit dafür, dass das Neuron mindestens einmal feuert, ist p(N (t) = n) =

ρ(t) := p(N (t) ≥ 1) = 1 − e−r t .

(9.3.2)

218

9 Neurobiologie und Kognitionstheorie …

Und der Zeitpunkt des n-ten Spikes hat die Wahrscheinlichkeitsdichte pn (t) =

r (r t)n−1 −r t e . (n − 1)!

(9.3.3)

Und die Wahrscheinlichkeitsdichte dafür, dass, wenn das Neuron n-mal feuert, dies zu den Zeitpunkten t1 , . . . , tn geschieht, ist p(t1 , ..., tn ) =

1 n −r t r e n!

(9.3.4)

Der inhomogene Fall ergibt sich aus dem Vorstehenden durch die richtige Umformulierung. t r (t) sei eine stetige positive Funktion auf R+ , und wir setzen rt := 0 r (τ )dτ . Wir nehmen limt→∞ rt = ∞ an, was z. B. aus der Annahme, dass r (t) positiv nach unten beschränkt ist, folgt. Der inhomogene Poissonprozess mit Ratenfunktion r (t) erfüllt dann analog zu (9.3.1) pt (n) (= p(N (t) = n)) =

(rt )n −rt e n!

(9.3.5)

für n = 0, 1, . . . . Weil nach unseren Annahmen rt eine streng monoton wachsende und stetige Funktion von t mit r0 = 0 und limt→∞ rt = ∞ ist, hat sie eine inverse Funktion ρ(t) mit den gleichen Eigenschaften. Wenn wir daher N  (t) := N (ρ(t)).

(9.3.6)

setzen, erhalten wir, weil rρ(t) = t, aus dem inhomogenen Prozess mit Ratenfunktion r (t) einen homogenen Poissonprozess mit Rate 1, wie oben angekündigt. Statt anzunehmen, dass r (t) positiv ist, reicht es sogar aus, dass r (t) nicht negativ ist. Durch die Umskalierung würde der Prozess dann einfach die Zeiträume, in denen r (t) verschwindet, zu Punkten zusammenziehen. Aus dem Vergleich von (9.3.1) und (9.3.5) erkennen wir, dass wir zu den Formeln im inhomogenen Fall gelangen können, indem wir r t durch rt ersetzen. Für einen inhomogenen Poissonprozess ist also nach (9.3.4) die Wahrscheinlichkeitsdichte dafür, dass die Spikes zu den Zeiten t1 , ..., tn auftreten, durch p(t1 , ..., tn ) =

1 exp(− n!

 0

t

r (τ )dτ )

n 

r (ti )

(9.3.7)

i=1

gegeben Dadurch, dass die Feuerate r (t) eines solchen stochastischen Neurons von dem empfangenen Input oder Stimulus S abhängt, haben wir nun ein sehr einfaches Kodierungsschema gewonnen, r (t) = r (t; S). (9.3.8)

9.3 Stochastische Prozesse

219

Man kann z. B. annehmen, dass das Neuron einen bevorzugten optimalen Stimulus S0 hat, der dann mittels einer Gaussfunktion in die Feuerrate übersetzt wird,   |S − S0 |2 . (9.3.9) r (t; S) = c exp − 2σ 2 Der Normalisierungsfaktor c und die Varianz σ 2 sind Parameter. Mittels (9.3.7) können wir nun auch die beobachtete Spikesequenz gemäß der bayesschen Regeln dekodieren, p(S|t1 , ..., tn ) = p(t1 , ..., tn |S)

p(S) . p(t1 , ..., tn )

(9.3.10)

p(S) ist der Prior für die Stimulusverteilung, p(t1 , ..., tn |S) ist durch (9.3.7) und (9.3.8) gegeben, und p(t1 , ..., tn ) hat hier einfach die Rolle eines Normalisierungsfaktors. Die Kodierung und Dekodierung werde ich in Jost (o. J.a) ausführlicher behandeln. Es sei auch auf die Monographien Dayan und Abbott (2001), Gerstner und Kistler (2002) verwiesen. In (9.3.9) hatten wir angenommen, dass die Feuerrate durch eine Stimulusverteilung bestimmt wird. Die meisten Neuronen haben aber keinen direkten Zugriff auf externe Stimuli, sondern empfangen ihren Input von anderen Neuronen. Wir betrachten also ein Neuron i, dass Inputs von präsynaptischen Neuronen j empfängt, die zu Zeitpunkten t j,μ spiken. Die Stärke der synaptischen Verbindung von j nach i sei mit wi j bezeichnet, und es gebe noch einen Kern κ(s) mit κ(s) = 0 für s < 0 (um Kausalität zu wahren), der für positives s positiv und monoton fallend ist. Dann können wir die lineare Beziehung   ri (t) = r0 + wi j κ(t − t j,μ ) (9.3.11) t j,μ

j

für die Feuerrate von i postulieren, mit einer Basisrate r0 > 0 (Neuronen feuern auch dann gelegentlich, wenn sie keinen Input bekommen). Wir haben also eine explizite Relation für die Übersetzung der Inputspikes in die postsynaptische Feuerrate. Konsistenterweise nehmen wir an, dass die präsynaptischen Neuronen ebenfalls durch Poissonprozesse mit Raten r j dargestellt werden. Dann können wir über die Inputs mitteln und bekommen nach Burkitt et al. (2007)  ∞  wi j κ(t − τ )r j (τ )dτ, (9.3.12) ri (t) = r0 + 0

j

Der Kern sollte durch





κ(s)ds = 1

(9.3.13)

0

normalisiert sein. Wenn nun die Inputraten r j (s) = r j für alle s konstant sind, so ist auch die Rate von i konstant,

220

9 Neurobiologie und Kognitionstheorie …

ri = r 0 +



wi j r j .

(9.3.14)

j

Synaptisch linear gekoppelte Poissonneuronen erfüllen also eine schöne Konsistenzbeziehung.

9.4

Neuronales Lernen

Die populärste Lernregel ist diejenige, die auf D. Hebb zurückgeht und die Synapsenstärken entsprechend den Korrelationen zwischen prä- und postsynaptischer Aktivität ändert, also

wi j : = wi j (t + 1) − wi j (t) = εx i (t + 1)x j (t),

(9.4.1)

mit einem (kleinen) positiven Parameter ε, und analog

λ0 = εx i (t + 1).

(9.4.2)

Eine Variante ist ∂F ∂wi j  ∂F =ε (λ0 + wi j x j (t) + σ η) ∂wi j

wi j = ε

= εx j (t)F  (y i ), mit y i := λ0 +



(9.4.3)

wi j x j (t) + σ η

Im Falle der Sigmoide wird dies zu

wi j = εx j (t)κ F(y i )(1 − F(y i )).

(9.4.4)

Analog hierzu ∂F i (y ) ∂λ0 = ε F  (y i )

λ0 = ε

= εk F(y i )(1 − F(y i )),

(9.4.5)

letztere Gleichung wiederum nur für die Sigmoide. Der Gedanke der vorstehenden Lernregeln ist, dass Korrelationen zwischen prä- und postsynaptischer Aktivität, also zwischen dem Input, den das Neuron i vom Neuron j

9.4 Neuronales Lernen

221

empfängt, und dem Output, dem es, also das Neuron i, produziert, zu einer Verstärkung der betreffenden Synapse führen. Dies lässt sich auch informationstheoretisch begründen, ebenso wie die Variante, die die Korrelation zwischen Sensitivität bzgl. des betreffenden Parameters und Output benutzt. Das Problem ist allerdings, dass die Parameter bei der Hebbschen Lernregel typischerweise über alle Grenzen wachsen, so dass man künstliche Sättigungswerte einführen muss. Eine Alternative ist die differentielle Hebbsche Lernregel

wi j = ε(x i (t + 1) − x i (t))x j (t)

λ0 = ε(x (t + 1) − x (t)), i

i

(9.4.6) (9.4.7)

oder wieder die Variante

wi j = ε(x i (t + 1) − x i (t))

∂F i (y ) ∂wi j

= ε(x i (t + 1) − x i (t))x j (t)κ F(y i )(1 − F(y i )) ∂F

λ0 = ε(x i (t + 1) − x i (t)) ∂λ0 i i = ε(x (t + 1) − x (t))κ F(y i )(1 − F(y i )),

(9.4.8)

wobei wiederum die zweiten Gleichungen jeweils nur für die Sigmoide gültig sind. Statt des absoluten Outputs werden jetzt also die Outputänderungen betrachtet. Im Falle einer kontinuierlichen Dynamik erhalten wir schließlich analog das gekoppelte System    x˙ i (t) = F λ0 + wi j x j (t) + σ η w˙ i j (t) = ε x˙ i (t)

∂F i (y ) ∂wi j

1 ∂ (F 2 (y i )) ε 2 ∂wi j 1 ∂ = ε (x˙ i )2 2 ∂wi j

=

λ˙ 0 (t) = ε x˙ i (t)

(9.4.9)

∂F i (y ) ∂λ0

1 ∂ (F 2 (y i )) ε 2 ∂λ0 1 ∂ = ε (x˙ i )2 2 ∂λ0

=

(9.4.10)

222

9 Neurobiologie und Kognitionstheorie …

Entsprechende Lerndynamiken lassen sich natürlich auch mit der oben betrachteten Aktivitätendynamik    (9.4.11) ϑ˙ i = φ ϑ i , wi j ϑ j koppeln. Typisch für die meisten Modelle lernender Netze ist allerdings, dass sich die Aktivitäten und die Lerndynamik auf unterschiedlichen Zeitskalen abspielen. Aktivitäten ändern sich schnell, in Echtzeit, während das Lernen ein langsamer Gewöhnungseffekt auf der Grundlage vieler ähnlicher Aktivitätsmuster ist. In den obigen Systemen müsste man dem dadurch Rechnung tragen, dass der Parameter ε sehr klein gewählt wird. In vielen Anwendungen, in denen es nur um das einmalige Lernen in einer stationären Datenmenge geht, ist ε auch als abklingende Funktion von t gewählt, die mit der richtigen Rate bei wachsendem t gegen Null strebt, nicht zu langsam, damit das System gegen einen stabilen Zustand konvergieren kann, und nicht zu schnell, damit das Netz genügend anpassungsfähig ist und nicht zur Ruhe kommt, bevor genügend viele Daten ausgewertet worden sind, damit das Netz also genügend Zeit hat, um einen möglichst optimalen Zustand zu erreichen. Die Formalisierung dieser Überlegungen führt typischerweise auf eine zu t −1 proportionale Rate. Ein wesentlicher Punkt ist außerdem, dass der Einfluss von Neuron j auf die Aktivität von Neuron i verstärkend oder hemmend ist, je nachdem ob wi j positiv oder negativ ist. Nervenzellen im Gehirn, also biologische Neuronen, treten in zwei verschiedenen Typen auf; beim ersten Typ sind für ein Neuron j alle nichtverschwindenden Koeffizienten wi j positiv, also exzitatorisch, anregend, beim zweiten dagegen negativ, also inhibitorisch, hemmend. In formalen Netzen können für ein Neuron j aber auch einige der wi j positiv und andere negativ sind, und durch eine Lernregel können sich die Vorzeichen auch ändern. Die biologische Situation lässt sich aber auch in solchen Netzen durch die Einfügung von zusätzlichen Zwischenneuronen, die einen exzitatorischen Eingang als Hemmung weitergegeben, wiederherstellen, zumindest, wenn es nicht erlaubt ist, Vorzeichen von Synapsenstärken durch Lernmechanismen oder andere Parameteranpassungen zu ändern. Daher werden wir im Folgenden auch Neuronen mit synaptischen Ausgängen beiderlei Vorzeichens betrachten. Das Wechselspiel von Anregung und Hemmung kann möglicherweise eine ganze Reihe von neurophysiologischen Befunden erklären. Hier könnten auch Ähnlichkeiten zu dem in der Biologie manchmal zu Erklärung von Musterbildung herangezogenen Turingmechanismus (siehe Abschn. 6.1) bestehen, bei dem ein Aktivator X die Produktion eines Inhibitors Y anregt, welcher wiederum die Produktion von X drosselt und bei dem Y mit einer höheren Rate als X diffundiert. Ähnlich geht man auch in der neuronalen Modellierung meist davon aus, dass die Inhibition eine größere Reichweite als die Exzitation hat, während letztere in der unmittelbaren Umgebung des aktiven Neurons dominiert. Es ist auch möglich, dass Veränderungen von inhibitorischer und exzitatorischer Aktivität auf unterschiedlichen Zeitskalen stattfinden.

9.4 Neuronales Lernen

223

Um die informationstheoretischen Aspekte der Hebbschen Lernregel diskutieren zu können, betrachten wir eine sehr stark vereinfachte Situation, nämlich diejenige von Neuronen i, deren Aktivität y i eine gewichtete lineare Kombination von Inputs x j und einem Rauschterm ρ i ist, also  wi j x j + ρ i (9.4.12) yi = j

Die Unterscheidung zwischen den Neuronen vom Typ i, deren Aktivität wir jetzt mit y i statt x i bezeichnen, und solchen vom Typ j, deren Aktivität weiterhin mit x j bezeichnet wird, entspricht der Situation einer gerichteten Netzwerkdynamik, bei dem die Neuronen j einer Schicht A ihre Aktivität in die Neuronen i einer Schicht B leiten, ohne eine Rückkopplung von B zu A. Außerdem haben wir hier im Gegensatz zu den bisher diskutierten Modellen eine lineare Aktivitätsübertragung angenommen. Informationstheoretisch würde man nun, z. B. Linsker (1988) folgend, versuchen, die Gewichte wi j so zu wählen, dass Schicht B möglichst viel Information über die Aktivität in Schicht A enthält, d. h. man würde versuchen, die wechselseitige oder Transinformation zwischen A und B, I (A, B) = H (B) − H (B|A)

(9.4.13)

zu maximieren, wobei H (B) die in B gemessene Entropie, H (B|A) die bedingte Entropie ist, welche die noch übrigbleibende Unsicherheit in B bei Kenntnis von A misst. I (A, B) drückt die Verringerung der Unsicherheit in B durch die Kenntnis von A aus. Diese Entropien sollen sich aus der Beobachtung der Aktivitäten über längere Zeiten oder größere Mengen von Inputeingaben ergeben. Wir nehmen also an, dass die Aktivitäten bestimmten Wahrscheinlichkeitsverteilungen folgen. Nun nehmen wir weiterhin an, dass diese Verteilungen gaußsch mit Kovarianzmatrix K sind. Die Entropie einer solchen Verteilung ist bekanntlich 1 log((2π e)n |K |), 2 wobei |K | die Determinante von K und n die Anzahl der Freiheitsgrade, also die Anzahl der Neuronen in der betrachteten Schicht ist. (Die Verteilung selbst ist gegeben durch 1 T −1 1 |K |1/2 e− 2 (y−μ) K (y−μ) , wobei μ = (μ1 , ..., μn ) die Mittelwerte repräsentiert.) (2π )n/2 Folgt also die Aktivität in Schicht B einer Gaußverteilung mit Kovarianzmatrix K (B), und das Rauschen einer Gaußverteilung mit Kovarianzmatrix K (ρ), so erhalten wir I (A, B) = H (B) − H (B|A) 1 1 = log |K (B)| − log |K (ρ)|. 2 2

(9.4.14)

Zur Vereinfachung der folgenden Rechnungen sei nun die Kovarianzmatrix K (ρ) diagonal mit konstantem Diagonalterm r . Das Rauschen in den einzelnen Zellen der Schicht B sei also gleich stark und unkorreliert. Dieses Rauschen wird natürlich als nicht beeinflussbar

224

9 Neurobiologie und Kognitionstheorie …

angenommen, und so bleibt der Ausdruck |K (B)| zur Maximierung übrig. Ist (βik )i,k=1,...,n die Kovarianzmatrix bei Abwesenheit von Rauschen, so haben wir die Entwicklung |K (B)| = r n + r n−1 (β11 + ... + βnn + ...|βik |)

(9.4.15)

Ist die Intensität σ des Rauschens klein, so dominiert der letzte Term. Offensichtlich lässt sich die Maximierung nur sinnvoll durchführen, wenn wir vermeiden, dass die Matrixelemente βik über alle Grenzen wachsen. Daher müssen wir zusätzliche Zwangsbedingungen einführen, z. B.  wi2j = 1 f¨ur alle i = 1, ..., n. (9.4.16) j

In diesem Fall wird |(βik )| maximiert, wenn die verschiedenen Neuronen in Schicht B dekorreliert sind, also (9.4.17) βik = 0 f¨ur i  = k. Dies braucht nicht unbedingt zu bedeuten, dass jedes Neuron in B genau auf ein Neuron in A reagiert, also wi j = 0 für i  = j. Sind insbesondere in B weniger Neuronen als in A, so erwartet man eine Hauptkomponentenanalyse. Ist dagegen r groß, so ist der für die Maximierung entscheidende Ausdruck β11 + ... + βnn . Hier treten keine Korrelationen zwischen den verschiedenen Zellen mehr auf, und am effizientesten wäre es dann, die wi j für alle i gleich zu wählen, um jeden der Terme βii gleichzeitig auf die gleiche Weise zu maximieren. Alle Zellen in Schicht B hätten dann also den gleichen Output. Wir sehen hier also zwei extreme Situationen: Bei vernachlässigbarem Rauschen werden die Neuronen der Schicht B dekorreliert, d. h. jede Zelle zieht unabhängige Daten aus Schicht A heraus, und es gibt keine Redundanzen. Ist das Rauschen dagegen dominant, so kann dies am besten dadurch kompensiert werden, dass die Aktivität in Schicht B redundant wird. Wir können jedoch auch schreiben I (A, B) = H (A) − H (A|B).

(9.4.18)

Bezeichnet (wi j ) Die zu (wi j ) inverse Matrix, so wird (9.4.12) zu x j = w ji y i + w ji ρ i .

(9.4.19)

(Wir nehmen also an, dass (wi j ) invertierbar ist; insbesondere setzt dies voraus, dass es in den beiden Schichten gleich viele Neuronen gibt; allerdings braucht man nur eine Linksinverse, d. h. man muss die x j aus den y i rekonstruieren können, und dies braucht nicht unbedingt

9.4 Neuronales Lernen

225

injektiv zu sein; jedenfalls darf aber beim Übergang von A nach B keine Information verloren gehen, was eine sehr problematische Annahme ist.) Dann brauchen wir nicht mehr anzunehmen, dass die Aktivität in A oder B einer Gaußverteilung genügt, denn H (A) ist gegeben und kann nicht durch die Wahl der wi j verändert werden. Wir nehmen nur an, dass ρ Gaußsch ist. Dann haben wir H (A|B) =

1 log |K (w−1 ρ)|, 2

(9.4.20)

und dieser Ausdruck muss dann bzgl. W = (wi j ) minimiert werden. Damit dies nichttrivial wird, muss man wieder eine Normalisierung wie  wi2j = 1 f¨ur alle i (9.4.21) j

annehmen. Da I (A, B) = H (B) − H (B|A) = H (A) − H (A|B)

(9.4.22)

ist, konnten wir im Vorstehenden zum Zwecke I (A, B) → max entweder H (B) → maximieren (H (B|A) wurde als nicht reduzierbares Prozessrauschen aufgefasst) oder H (A|B) → minimieren (H (A) ist die nicht beeinflussbare Entropie der Daten) Wir erhöhen also die Komplexität in Schicht B (interne Komplexität nach der in Jost (2004) eingeführten Begrifflichkeit), um die gegebenen Daten mit möglichst geringer Unsicherheit zu modellieren, oder, anders ausgedrückt, um in Schicht B möglichst viel Datenmaterial darstellen zu können, also die externe Komplexität zu erhöhen. Wir wollen also unter der Einschränkungen des durch B definierten Modells möglichst viel über A wissen. Folgerung: Lernen ist nicht nur effizientere Repräsentation schon erworbenen Daten, also Reduktion der internen Komplexität, sondern auch (gezielte und durch Rückkopplung gesteuerte) Ausweitung der Datenmengen, involviert also auch eine Erhöhung der externen Komplexität (für eine genauere Diskussion der hier verwandten Komplexitätskonzepte vgl. Jost o. J.b). Es muss jedoch hervorgehoben werden, dass an dieser Stelle ein wesentliches konzeptionelles Problem besteht: Wir haben nämlich keine Rückkopplung in unserem Netz angenommen! Dieser Aspekt muss leider hier ausgeklammert und anderer Stelle aufgegriffen werden (s. Jost o. J.a, o. J.b). Mit diesen Einsichten können wir wieder zur Diskussion von Exzitation und Inhibition zurückkehren. Regt die Aktivität einer Zelle in Schicht B andere Zellen an, so entsteht

226

9 Neurobiologie und Kognitionstheorie …

Redundanz, und dies kann Rauscheffekte ausgleichen. Dies ist also sinnvoll bei vergleichsweise schwachen Signalen. Weiterhin könnte man erwarten, dass eine solche Redundanz am leichtesten zwischen benachbarten Zellen aufgebaut werden kann, weil aufgrund topographischer Arrangements in den Verbindungen zwischen den Schichten zu erwarten ist, dass benachbarte Zellen ohnehin ähnliche Inputs aus der vorherigen Schicht empfangen. Inhibition führt dagegen zu Dekorrelation, und diese wäre leichter zwischen Zellen zu bewerkstelligen, die ohnehin weitgehend verschiedene Inputs empfangen, also zwischen weiter voneinander entfernt liegenden Zellen. Daher wäre zu erwarten, dass in biologischen Netzen Inhibition eine größere Reichwerte als Exzitation besitzt. Im Extremfall von winner-take-allRegeln, bei denen die durch ein Inputsignal am stärksten aktivierte Zelle die Reaktionen aller anderen Zellen unterdrückt5 , erstreckt sich die Inhibition auf die gesamte Schicht. Starke Inhibition wäre dann auch bei neuen Datensätzen sinnvollerweise der zeitlich erste Schritt für ein Netz, damit zunächst möglichst viele verschiedene Komponenten erfasst werden können. Ein sekundärer Schritt wäre dann eine lokale Exzitation, um genauere Einzelheiten herauszufinden und auch vergleichsweise schwache Signale noch von Rauscheffekten trennen zu können. Diese Gesichtspunkte bilden die Grundlage vieler konkreter Konstruktionen von neuronalen Netzen, insbesondere von solchen zur Modellierung physiologischer Daten. Wir betrachten noch einmal die obige Variante der differentiellen Hebbschen Lernregel,

wi j = ε(x i (t + 1) − x i (t)) = ε(F(y) − x i (t))

∂F i (y ) ∂wi j

∂F i (y ) ∂wi j

ε ∂ (F(y i ) − x i )2 2 ∂wi j ε ∂

λ0 = (F(y i ) − x i )2 2 ∂λ0 =

(9.4.23) Durch diese Lernregel wird also der Unterschied zwischen x i (t) und dem Wert im nächsten Schritt, x i (t + 1), vergrößert. Wie gerade besprochen, wird durch eine solch Regel möglichst viel Information aus den Inputdaten herausgezogen. Nun besteht aber auch die Möglichkeit, dass das Neuron träge oder, wie man in der Literatur auch sagt, hedonistisch ist. Dies bedeutet, dass es bestrebt ist, seinen Zustand beizubehalten. Dies lässt sich auch dahingehend interpretieren, dass x i (t) auch als Vorhersage für den Output im nächsten Schritt aufgefasst wird. Unter diesem Gesichtspunkt wäre also die Lernregel

5 wie insbesondere bei den selbstorganisierenden Karten von Kohonen (1995).

9.4 Neuronales Lernen

227

ε ∂ (F(y i ) − x i )2 2 ∂wi j ε ∂

λ0 = − (F(y i ) − x i )2 . 2 ∂λ0

wi j = −

Das hier eingeführte Minuszeichen führt also jetzt dazu, dass die Lernregel bestrebt ist, die Aktivitätendynamik der Neuronen einem Fixpunkt zuzuführen. Allerdings braucht dieser Fixpunkt nicht stabil zu sein, so dass die tatsächliche Aktivitätendynamik in der Nähe eines solchen Fixpunktes wieder ausweicht. Eine analoge Lernregel ist natürlich auch im Falle einer kontinuierlichen Dynamik möglich: cik sei ein Parameter der Aktivitätendynamik, also wi j oder λ0 . Die Lernregel ist dann c˙ik = −

ε ∂ (x˙ i (t))2 2 ∂cik

(9.4.24)

R. Der (2001) betrachtet allgemeiner die Situation, wo es neben dem Kontrollparametern cik , welche die tatsächliche Aktivitätsdynamik bestimmen, auch noch Parameter γik gibt, welche Vorhersagen des Systems modellieren:

 i k ξ˙ (t) =  γik x (t) . (9.4.25) k

Es soll dann der Unterschied zwischen der tatsächlichen Veränderung x(t) ˙ und der vom System prognostizierten Veränderung ξ˙ (t) minimiert werden, wobei sowohl die Parameter cik der Aktivitätensdynamik als auch die Parameter γik der Vorhersagedynamik adaptiert werden können. Das Lernen ist dann ein Gradientenabstieg für die Fehlerfunktion ξ˙ i (t) − x˙ i (t))2 = ((



γik x (t)) − F( k

k



2 cik x (t)) k

,

(9.4.26)

k

also ε ∂ ( − F)2 2 ∂cik ε ∂ γ˙ik = − ( − F)2 . 2 ∂γik c˙ik = −

Es ist auch möglich, daß die Aktivitätendynamik noch einen Rauschterm η enthält, z. B.

 i k x˙ (t) = F cik x (t) + η. (9.4.27) k

228

9 Neurobiologie und Kognitionstheorie …

Dann wäre die Fehlerfunktion also ( − F − η)2 , und die Lernregel hätte dann entsprechend auch eine stochastische Komponente. Die verschiedenen Formen des Hebbschen Lernens vergrößern den Informationsgewinn aus den Inputdaten, erhöhen also die externe Komplexität. Der gerade diskutierte Gradiertenabstieg für die Abweichung zwischen tatsächlicher und vorhergesagter Aktivität vereinfacht dagegen die Dynamik und verringert die interne Komplexität des Systems. Es erhebt sich die Frage, wie diese beiden Prozesse zusammenpassen und miteinander verknüpft werden können. Eine einfache Möglichkeit wäre, bei der Lernregel für die Parameter cik das Minuszeichen wegzulassen, hier also den Informationsgewinn anzustreben, es dagegen bei der Adaptationsregel für die Parameter γik beizubehalten, hier also zu versuchen, dem System eine möglichst akkurate Vorhersage zu ermöglichen. Allerdings vernachlässigen die gerade diskutierten Varianten der Hebbschen Lernregel einen wesentlichen Aspekt des biologischen synaptischen Lernens, nämlich die Reihenfolge von prä- und postsynaptischer Aktivität. Dies wird in der STDP-Regel (spike time dependent synaptic plasticity) berücksichtigt. Diese Lernregel ist zuerst theoretisch in Gerstner et al. (1996) entwickelt und experimentell in Markram et al. (1997) gefunden worden. Eine weitere wichtige experimentelle Untersuchung ist Bi und Poo (2001). Für theoretische Darstellungen der synaptischen Plastizität verweisen wir auch auf Kempter et al. (1999), van Hemmen (2001), Gerstner und Kistler (2002), Gilson et al. (2010). Wir beschreiben nun die Regel anhand der Darstellung in Jost (2006, o. J.a). Die Lernregel bezieht sich auf feuernde, oder wie man inzwischen auch im Deutschen sagt, spikende Neuronen. Ein Spike, also ein Feuerereignis, wird hierbei allerdings nicht wie im Hodgkin-Huxley-Modell (s. Abschn. 5.1) biophysikalisch modelliert, sondern einfach als ein punktförmiges Ereignis aufgefasst und durch eine Delta-Funktion beschrieben. Das beobachtete oder imaginierte Feuern eines Neurons in einem Zeitintervall [0, T ] wird also durch eine Reihe  δ(t − tν ) (9.4.28) ρ(t) := ν

beschreiben, wobei die tν die Zeitpunkte sind, in denen das Neuron feuert. Gemäß der Definition der Diracschen Deltafunktion gilt also 

T 0



δ(t − tν ) f (t)dt =

ν



f (tν )

(9.4.29)

ν

für jede stetige Funktion f : [0, T ] → R. Hieraus ergibt sich dann die Feuerrate    δ(t − tν ) (9.4.30) r (t) := ν

9.4 Neuronales Lernen

229

als Mittel über ein Versuchsensemble. Diese Versuche können sich auf ein einziges Neuron oder auch auf einen Pool von Neuronen beziehen. Wenn man annimmt, dass der zugrunde liegende Prozess ergodisch ist, kann man r (t) auch einfach als Mittel über eine lange Beobachtungszeit eines einzelnen Neurons bilden, und so wird es in der Praxis üblicherweise auch gemacht. Lernen findet an den Synapsen zwischen Neuronen statt, und daher müssen wir nun zwei Neuronen i und j betrachten. Das postsynaptische Neuron i ist unser eigentliches Ziel, und es empfängt Input von dem präsynaptischen Neuron j. Wir betrachten daher ri j (s, t) := ρ j (t + s)ρi (t) .

(9.4.31)

Schließlich mitteln wir noch über ein Zeitintervall der Länge T , welches wesentlich größer als der typische Abstand aufeinanderfolgender Spikes, aber klein gegenüber der Zeit ist, auf dem der Lernprozess signifikante Ergebnisse zeigt (für eine genauere Diskussion der auftretenden Zeitskalen vgl. van Hemmen 2001). Wir betrachten also   1 t 1 t ri j (s, τ )dτ = ρ j (τ + s)ρi (τ ) dτ. (9.4.32) Ri j (s, t) := Tl t−Tl Tl t−Tl Die einfachste Form – man könnte noch weitere Terme auf der rechten Seite hinzufügen – der STDP-Lernregel ist dann  ∞ d (s)Ri j (s, t)ds (9.4.33) wi j (t) =  dt −∞ mit einem kleinen  und einem Kern , der die folgenden Eigenschaften hat. 1. (s) = 0, wenn der Zeitunterschied s zwischen dem prä- und dem postsynaptischen Spike betragsgroß ist, wenn also die beiden Feuerereignisse zu weit auseinander liegen. 2. (s) > 0, wenn das prä- kurz vor dem postsynaptischen Neuron feuert, wenn also s negativ, aber von kleinem Betrag ist. Dann wird durch die Lernregel (9.4.33) die Synapse von j nach i verstärkt. Dies ist das wesentliche kausale Prinzip, in dem Sinne, dass in dieser Situation der prä- zur Auslösung des postsynaptischen Spikes beiträgt. Dies ist auch der eigentliche Grundgedanke der Hebbschen Regel. 3. (s) < 0, wenn umgekehrt das prä- erst kurz nach dem postsynaptischen Neuron feuert, wenn also s positiv, aber klein ist. In diesem Fall wird also die Synapse von j zu i geschwächt. Man kann hier an einen berühmten Ausspruch von Gorbachov denken. 4. Man kann noch die Normalisierung  ∞ (s) = 0 (9.4.34) −∞

verlangen, damit die Synapsenstärke wi j nicht unbeschränkt wachsen kann, aber auch nicht immer abnimmt.

230

9 Neurobiologie und Kognitionstheorie …

Man könnte noch einwenden, dass diese Lernregel die Kausalität verletzt, weil im Falle s > 0 auch zukünftige Ereignisse eine Rolle spielen, aber dies lässt sich leicht beheben, indem man (s) = 0 für s ≥ δ annimmt und das Integral in (9.4.32) nur bis t − δ und nicht bis t laufen lässt. Wenn es eine lineare Beziehung zwischen Input und Output gibt, wie in (9.3.12), (9.3.14). so kann man wie in Gilson et al. (2010) explizite Formeln gewinnen. Aber auch in nichtlinearen Situationen kann man mit dieser Lernregel analytisch arbeiten, s. Jost (2006). Wenn man nämlich beispielsweise eine Funktional- oder Differentialgleichung für den postsynaptischen Feuerprozess ρi (t) in (9.4.32) und (9.4.33) einsetzt, kann man die Rechenregel (9.4.29) benutzen, um die Faltung mit dem präsynaptischen Feuerprozess auszuwerten. Es werde beispielsweise wie in (9.1.7) das postsynaptische Neuron durch eine Zustandsfunktion

  wik κ(t − tk,ν ) (9.4.35) f ν

k

beschrieben, wobei tk,ν die Feuerzeitpunkte der verschiedenen präsynaptischen Neuronen k von i sind, wobei wie in (9.1.8) angenommen wird, dass κ(t) = 0 f¨ur t < 0, und

d κ(t) < 0 f¨ur t ≥ 0. dt

(9.4.36)

Dann wird aus (9.4.33) d wi j (t) =  dt



−∞

 =



∞ −∞

1 Tl



t



δ(τ + s − t j,μ ) f

t−Tl μ

1  f Tl μ



 k

 k

wik



wik



κ(τ − tk,ν ) dτ (s)ds

ν

κ(t j,μ − tk,ν − s) (s)ds.

(9.4.37)

ν

Es wird also der Unterschied t j,μ − tk,ν zwischen den Feuerzeitpunkten des Neurons j und der anderen präsynaptischen Neuronen wichtig. Wenn wir (9.4.34) annehmen, können wir diesen Ausdruck noch weiter umformen. Der Einfachheit halber nehmen wir noch an, dass  antisymmetrisch ist, also (−s) = −(s), (9.4.38) auch wenn sich diese Forderung durch eine nichtlineare Transformation der Zeit abschwächen lässt. Dann gilt nämlich für jede differenzierbare funktion φ  ∞  ∞  ∞ s ˙ )dτ (s)ds. (9.4.39) φ(τ φ(s)(s)ds = (φ(s) − φ(−s)(s)ds = −∞

0

0

−s

9.4 Neuronales Lernen

231

Der Term in (9.4.37) wird dann zu ⎞ ⎛ ⎞ ⎛  ∞    1 ⎝   wik κ(t j,μ − tk,ν − s)⎠− f ⎝ wik κ(t j,μ − tk,ν + s))⎠ (s)ds. f( Tl μ 0 ν ν k

k

(9.4.40) Weil (s) < 0 für s > 0, ist der Beitrag dieses Ausdrucks bei s > 0 positiv, falls     f ( k wik ν κ(t j,μ − tk,ν + s  )) > f ( k wik ν κ(t j,μ − tk,ν − s)), wenn also der Zustand von i nach dem Spike bei t j,μ größer als vorher ist. Wegen (9.4.36) erwarten wir, falls t j,μ − tk,ν + s ≥ 0 > t j,μ − tk,ν − s, also t j,μ − s < tk,ν ≤ t j,μ + s, einen positiven Beitrag, wohingegen wenn k zu früh feuert, also tk,ν ≤ t j,μ − s, sich ein negativer Beitrag ergeben sollte. Wenn also ein Spike des präsynaptischen Neurons j die Synapse zu i stärken soll, so muss es andere eingehende Spikes antizipieren oder „vorhersagen“ können, welche wiederum den Zustand von i und damit seine Feuerwahrscheinlichkeit erhöhen. Wenn man diese Überlegung fortspinnt und zwei exzitatorische präsynaptische Neuronen j und k betrachtet, so gelangt man zu dem folgenden Schluss. Wenn regelmäßig erst j, dann k und schließlich i feuert, werden die beiden Synapsenstärken wi j und wik wachsen. Irgendwann wird dann wi j stark genug sein, dass das Feuern von j alleine schon das Feuern von i induziert. i wird dann vor k feuern, und daraufhin wird dann wik geschwächt, denn k wird nun nicht mehr benötigt, um i zum Feuern zu bringen, denn j kann das schon alleine. Beispielsweise kann j wie in einer Pavlovschen Konditionierung das Feuern von k vorhersagen und dann schon alleine die Reaktion von i auslösen. Bisher hatten wir stillschweigend angenommen, dass das präsynaptische Neuron j exzitatorisch ist, dass also sein Feuern die Feuerwahrscheinlichkeit des postsynaptischen Neurons i erhöht. STDP spielt aber auch eine Rolle, wenn dieses präsynaptische Neuron j inhibitorisch ist. Dann wird nämlich die Synapse verstärkt, wenn die inhibitorische Wirkung nicht einsetzt, also das postsynaptische Neuron feuert, obwohl das präsynaptische Neuron kurz vorher aktiv war. Durch STDP wird also die Inhibition verstärkt, und als Resultat des Lernprozesses sollte das postsynaptische Neuron dann schließlich nicht mehr feuern, wenn das präsynaptische inhibitorische Neuron gerade gefeuert hat. Man kann auch den Einfluss von STDP auf die dynamische Selbstorganisation eines neuronalen Netzwerkes untersuchen. Allerdings benötigt man dann noch weitere Mechanismen, um die Dynamik unter Kontrolle zu halten, und zwar in Lazar et al. (2009) eine intrinsische Plastizität und eine synaptische Skalierung; ersteres bedeutet, dass Neuronen ihre Feuerschwelle anpassen, damit die durchschnittliche Aktivität nicht zu groß wird, und letzteres bedeutet, dass Neuronen die Gesamtstärke ihres synaptischen Inputs regulieren, um die mittlere Feuerrate in einem bestimmten Bereich zu halten. In Effenberger et al. (2015) haben wir ein Modell entwickelt, das nur STDP und synaptische Skalierung benutzt, aber trotzdem viele in realen neuronalen Netzwerken beobachtete Strukturmerkmale reproduziert.

232

9.5

9 Neurobiologie und Kognitionstheorie …

Die Feuermuster von Neuronen

Im Abschn. 9.3 haben wir das Feuermuster eines Neurons als einen stochastischen Punktprozess beschrieben,  δti , (9.5.1) ti

als Folge von Diracfunktionalen an den Feuerzeitpunkten ti . Das Feuern eines Neurons wird hier also ein instantanes, zeitlich punktförmiges, nicht ausgedehntes Ereignis angesehen. Auch das Hodgkin-Huxley-Modell, das wir im Abschn. 5.1 beschrieben haben, sagt, dass das Feuern eines Neurons sehr schnell vor sich geht, und daher ist es, auch wenn man von diesem Modell ausgeht, eine naheliegende Approximation, das Feuern eines Neurons als zeitlich punktförmig anzusehen. Und auch bei neurophysiologischen Messungen werden die Feuerfolgen oder Feuerzüge (spike trains) von Neuronen üblicherweise in der Form 9.5.1 dargestellt. Wenn man nun die Feuerfolgen mehrerer Neuronen aufzeichnet, so ergibt sich die Frage, wie ähnlich oder korreliert diese sind. Im Lichte von Theorien, die die Perzeption von Objekten durch das synchrone Feuern von Neuronengruppen erklären wollen (Singer und Gray 1995, von der Malsburg 1973, von der Malsburg et al. 2010, s. auch die Diskussion in Jost 2016), möchte man entscheiden, wann mehrere Neuronen gleichzeitig feuern. Nun ist aber die Bestimmung der Feuerzeitpunkte notwendigerweise etwas ungenau. Daher, und auch weil die Signalübertragung in einem neuronalen System Zeit benötigt, also kein instantaner Informationsaustausch möglich ist, lässt sich experimentell kein genaues Übereinstimmen von Feuerzeitpunkten feststellen, sondern es kann sich nur um eine approximative Gleichheit handeln, dass also Feuerzeitpunkte genügend nahe beieinanderliegen. Eine solche approximative Gleichheit ist aber nicht mehr transitiv. Wenn sich also die Feuerzeitpunkte der Neuronen A und B höchstens um einen vorgegeben Betrag  > 0 voneinander unterscheiden, und die Zeitpunkte von B und C ebenfalls höchstens  auseinanderliegen, und man also schließt, dass A und B wie auch B und C synchron feuern, so kann man noch nicht folgern, dass auch A und C synchronisiert sind. Eine andere Möglichkeit besteht darin, das beobachtete Zeitintervall in kleine Abschnitte von beispielsweise 10 Millisekunden Dauer zu unterteilen. Wenn dann A und B im gleichen Zeitabschnitt feuern, so deutet man dies als synchrone Aktivität. Aber hier hat man natürlich das Problem, dass die Feuerzeitpunkte beliebig nahe beieinander liegen können, sich beispielsweise nur um 2 Millisekunden voneinander unterscheiden, aber trotzdem in verschiedene Abschnitte fallen. Wegen dieser Schwierigkeiten kann es sinnvoller sein, nicht einzelne Feuerzeitpunkte, sondern ganze Feuerfolgen miteinander zu vergleichen. Und hierzu kann ich nun eine neue mathematische Methode vorschlagen, und zwar die Verwendung des Wassersteinabstandes.  M δt A und Nj=1 δt B die Feuerfolgen der Dies funktioniert folgendermaßen. Es seien i=1 i j Neuronen A und B in dem betrachteten Zeitintervall [0, T ]; A möge als M-mal, B N -mal feuern. Wir betrachten dann die beiden Wahrscheinlichkeitsmaße

9.5 Die Feuermuster von Neuronen

μ A :=

233

M N 1  1  δt A und μ B := δt B auf [0, T ]. i j M N i=1

(9.5.2)

j=1

Nun ist der Wassersteinabstand zweier solcher Wahrscheinlichkeitsmaße μ A , μ B auf [0, T ] definiert als  |tiA − t jB |π(tiA , t jB ), (9.5.3) W1 (μ A , μ B ) := inf π ∈ [μ A ,μ B ]

i, j

 wobei [μ A , μ B ] die Menge derjenigen Wahrscheinlichkeitsmaße π auf [0, T ] × [0, T ] ist, die   π(tiA , t jB ) = μ A (tiA ) f¨ur alle i, π(tiA , t jB ) = μ B (t jB ) f¨ur alle j (9.5.4) j

i

erfüllen, die also μ A und μ B als Marginalmaße haben. Ein Maß π , das das Infimum in (9.5.3) annimmt, stellt eine optimale Kopplung zwischen μ A und μ B dar. Genau die gleiche Konstruktion werden wir im Abschn. 10.2 zum Vergleich zweier Wahrscheinlichkeitsmaße auf einem Graphen verwenden, s. (10.2.3). Ein minimierendes π in (9.5.3) findet also eine optimale Korrelation zwischen den beiden durch die Anzahl der jeweiligen Feuerereignisse (M bzw. N ) normalisierten Feuerfolgen, arrangiert die beiden also so ähnlich wie möglich. Und wenn sie übereinstimmen, ist ihr Abstand natürlich 0. Nun kann man eine Abstandsschwelle vorgeben, unterhalb derer die beiden Feuerfolgen als synchron angesehen werden können. Zwar hat man weiterhin das Problem, dass dies keine transitive Relation ist, aber da wir nun über möglicherweise viele Feuerereignisse mitteln (M und N könnten sehr groß sein), sollte das nicht mehr wesentlich ins Gewicht fallen. Und es können dann auch die Feuerfolgen eines Neurons bei wiederholter Präsentation des gleichen Stimulus miteinander verglichen werden. Den Nullpunkt des Intervalls lässt man dann mit dem Auftreten des Stimulus zusammenfallen, und man zeichnet dann die Feuerereignisse in einem nachfolgenden Zeitintervall der Länge T auf. Dann kann man durch Vergleich der Feuerfolgen feststellen, ob das Neuron immer ähnlich reagiert oder ob sich das Verhalten an den Stimulus gewöhnt. Wenn man nun die Feuerfolgen von Neuronen gemessen hat, so kann man sie mit informationstheoretischen Methoden analysieren, s. z. B. Grün und Rotter (2010), Wibral et al. (2014). Insbesondere möchte man natürlich wissen, wo in diesen Feuerfolgen die wesentliche Information steckt und was zwischen verschiedenen Neuronen übertragen wird. Da traditionelle informationstheoretische Maße wie die Transferentropie dies allerdings nur ungenügend erfassen, beginnt man nun, die schon im Abschn. 6.3 beschriebene Theorie der Informationszerlegungen (Williams und Beer 2010, Harder et al. 2013, Griffith und Koch 2014, Bertschinger et al. 2014, Chicharro und Panzeri 2017, Rauh et al. 2017 etc.) anzuwenden. Ein wichtiger Ansatz (Wibral et al. 2017) beginnt so: Wenn ein externer Input X 1 , beispielsweise sensorische Information, und ein Kontextinput X 2 , beispielsweise Gedächt-

234

9 Neurobiologie und Kognitionstheorie …

nisinhalte, Information an einen Output S übertragen, so sollte dies nach den folgenden Prinzipien geschehen. 1. Die den beiden Inputs gemeinsame Information sollte übertragen werden, damit das diese Information prozessierende Outputneuron bevorzugt solche Information für die weitere Verarbeitung überträgt, bei dem die externe Eingabe durch interne kontextuelle Information unterstützt wird. 2. Auch Information, die nur aus der externen Quelle stammt, sollte übertragen werden, auch wenn sie durch die Kontextinformation nicht unterstützt wird, damit auch neue externe Information weiterverarbeitet werden kann, die nicht durch im System schon vorhandene Information bestätigt wird. 3. Information, die nur aus internen Quellen stammt, sollte dagegen nicht unbedingt übertragen werden. 4. Es sollte das erkannt werden, was sich nur aus der Zusammenfügung der beiden Quellen ergibt. 5. Die verfügbare Bandbreite sollte optimal genutzt werden. Daher muss also unterschieden werden zwischen der Information, die nur in einer der beiden Quellen vorhanden ist, solcher, die beiden Quellen gemeinsam ist, und schließlich der komplementären oder synergistischen Information, die sich nur aus beiden Quellen gemeinsam erschließen ist. Das grundlegende Beispiel für Letztere liefert die XOR-Funktion. Hier gibt es drei binäre Variablen X 1 , X 2 und S, und es ist S = 0, wenn X 1 und X 2 den gleichen Wert, also beide entweder 0 oder 1, und S = 1, wenn X 1 und X 2 verschiedene Werte haben. Wenn man nur einen dieser beiden Werte kennt, hat man keine Ahnung, was der Wert von S ist, aber wenn beide bekannt sind, ist auch der Wert von S vollständig bestimmt. X 1 und X 2 tragen also komplementär oder synergistisch zur Information über S bei. Und in der angesprochenen Theorie wird die gemeinsame Information zwischen X 1 , X 2 und S in die jeweils für die beiden X i spezifische, die gemeinsame und die komplementäre Information zerlegt, also genau das, was man in dem beschriebenen neurophysiologischen Beispiel wissen möchte. Man kann also die in den Feuermustern von Neuronen enthaltene Information mit modernen informationstheoretischen Methoden analysieren. Es stellt sich dann die Frage, worüber hier informiert wird, also nach dem Inhalt der Information. Dies lässt sich aufdecken, wenn man eine Korrelation mit einem Ereignis in der Außenwelt feststellt. Natürlich braucht nicht die Aktivität jedes Neurons mit irgendwelchen Ereignissen in der Außenwelt korreliert zu sein, aber solange wir noch nicht mittels elektrophysiologischer Messungen Gedanken lesen können, müssen wir uns wohl auf Neuronen beschränken, die in der einen oder anderen Weise auf sensorische Information reagieren. Ein solches Neuron besitzt ein rezeptives Feld, also einen bestimmten Bereich des Inputraumes, auf den es ausgerichtet ist. Es feuert, wenn ein sensorischer Stimulus aus diesem rezeptiven Feld kommt. So wird also die Netzhaut des Auges durch rezeptive Felder im visuellen Kortex abgedeckt. Wenn ein Lichtreiz auf eine

9.5 Die Feuermuster von Neuronen

235

bestimmte Stelle der Netzhaut auftrifft, so feuern diejenigen Neuronen, in deren rezeptiven Feldern diese Stelle liegt. Die rezeptiven Felder der verschiedenen Neuronen in einem kortikalen Bereich sind dabei topographisch organisiert, denn die rezeptiven Felder benachbarter Neuronen sind typischerweise ähnlich und überlappen sich. Weiter voneinander entfernte Neuronen haben dagegen meist disjunkte rezeptive Felder. Aber Neuronen im visuellen Kortex reagieren nicht nur auf Positionen von Lichtreizen, sondern auch auf abstraktere geometrische Eigenschaften von visuellen Stimuli. Die erste wichtige Entdeckung wurde von Hubel und Wiesel (1959) gemacht. Sie fanden Neuronen im primären visuellen Kortex der Katze, die durch intensives Feuern auf dunkle Streifen vor einem hellen Hintergrund mit einer bestimmten Richtung, beispielsweise 45◦ , reagierten. Verschiedene Zellen in diesem Bereich reagierten auf verschiedene Richtungen, und zusammen repräsentierten sie alle möglichen Richtungen. Wieder andere Neuronen reagierten auf Kanten oder Streifen, die in einer bestimmten Richtung bewegt wurden. Die Aktivität eines solchen Neurons, und von mehr als einem Neuron konnte man damals nicht gleichzeitig ableiten, schien also nicht von dem Rest des Netzwerkes, sondern nur von dem speziellen Stimulus abzuhängen, also auf einen genau bestimmten, präzisen Aspekt der Außenwelt zu reagieren. Nun ist der primäre visuelle Kortex nicht etwa direkt mit der Netzhaut des Auges verbunden, sondern die visuellen Signale werden erst durch Zwischenstufen im Thalamus ausgewertet und prozessiert, bevor sie an den Kortex weitergegeben werden. Linsker (1986a, b, c) hat daher die Entstehung orientierungsspezifischer Neuronen in einem mehrschichtigen Netzwerk modelliert. Das Prinzip dabei ist sehr einfach. Jede Neuronenschicht ist wie ein zweidimensionales euklidisches Gitter angeordnet, und ein Neuron τ in einer Schicht Si empfängt Inputs von den Neuronen der vorhergehenden Schicht Si−1 , und zwar mehr von den direkt unter ihm liegenden Neuronen als von den weiter entfernten. In dem Diagramm stellen wir die Schichten ein- statt zweidimensional dar, um das Prinzip zu erläutern (Abb. 9.2). Die Wahrscheinlichkeit, dass in der Zeichnung eine Verbindung von σ ∈ Si−1 zu τ ∈ Si besteht, kann z. B. zu exp −|τ − σ |2 proportional sein, wobei |τ − σ | den horizontalen Abstand misst, wie angedeutet.

Schicht Si

Schicht Si−1 Abb. 9.2 Übergang zwischen Schichten

236

9 Neurobiologie und Kognitionstheorie …

Dabei sollen die Verbindungen für sehr kleine Werte von |τ − σ | exzitatorisch sein, bei größeren Werten dagegen inhibitorisch, und wegen des exponentiellen Abfalls bei ganz großen Werten gar nicht vorhanden sein. Das rezeptive Feld eines Neurons lässt sich also schematisch so wie in der nachstehenden Skizze charakterisieren, wenn wir jetzt von oben auf die darunterliegende Schicht blicken, wobei τ über dem Zentrum der beiden Kreise liegt (Abb. 9.3). Man spricht hier von einer Zentrum-Umgebungs-Zelle. Man kann hier auch den unten diskutierten Laplaceoperator (10.2.10) denken. Wenn σ0 das direkt unter τ liegende Neuron ist und σα die n unmittelbaren Nachbarn von σ0 sind und schließlich vi−1 die Aktivität in der Schicht Si−1 bezeichnet, so würde die Aktivität von τ dann etwa berechnet als vi (τ ) := vi−1 (σ0 ) := vi−1 (σ0 ) −

1 vi−1 (σα ). n α

(9.5.5)

Das ist zwar jetzt nicht genau das in der vorstehenden Skizze Dargestellte, folgt aber dem gleichen Prinzip, dass nämlich von dem Wert im Zentrum die Werte in der Umgebung, in (9.5.5) genauer der Mittelwert der Umgebung, abgezogen werden. Man kann nun die Analogie noch weiter treiben und i statt als Schicht- als Zeitindex auffassen. Eine iterierte Mittelwertbildung wird also durch das Fortschreiten der Schichten realisiert. Allerdings kann dies nicht alles sein, denn mit wachsendem i würde vi sonst gegen eine Konstante konvergieren. Aber das lässt sich beispielsweise durch laterale Inhibition in den jeweiligen Schichten aufheben. Zwei nahe beieinanderliegende Neuronen in einer Schicht werden durch inhibitorische Verbindungen verknüpft und zwingen sich dadurch gegenseitig, auf verschiedene Aspekte des Inputs zu reagieren. Wenn die unterste Schicht S0 , die wir als Eingangsschicht auffassen können, zufällig feuert, und sich die Stärken der vorhandenen Synapsen zwischen den Schichten gemäß einer Hebbschen Lernregel entwickeln, wie wir sie im Abschn. 9.4 besprochen haben, so lernt das System zunächst die zweidimensionale euklidische Geometrie, die in den Gaußschen Kernen für die Verbindungen zwischen den Schichten implizit enthalten ist. Durch Symmetriebrechungen aufgrund der lateralen Inhibition entstehen dann in höheren Schichten rezeptive Felder, die zunächst Kanten und dann auch Streifen bestimmter Richtungen bevorzugen. Einige solche rezeptive Felder sind in dem nachstehenden Diagramm skizziert (Abb. 9.4).

Abb. 9.3 ZentrumUmgebungs-Zelle

9.5 Die Feuermuster von Neuronen

+

+

+ + +

-

-

-

+

-

+

-

+

237

+ +

-

-

-

+

+

+ +

+

-

+ +

+

-

-

+

-

Abb. 9.4 Rezeptive Felder richtungssensitiver Neuronen

Wenn die Eingabeschicht an den mit + gekennzeichneten Stellen aktiv ist, wird das Neuron angeregt, durch die mit − markierten Stellen gehemmt. So kann es auf helle oder dunkle Kanten und Streifen einer bestimmten Richtung reagieren. Dabei spielt es keine Rolle, wo sich der Streifen oder die Kante in der Eingabeschicht befindet, sondern es kommt nur auf die Richtung an. Durch die Analyse des Linskermodelles lässt sich also verstehen, wie rezeptive Felder von der Art, wie sie Hubel und Wiesel entdeckt haben, zustande kommen können. Ob das nun aber auch der in der Entwicklung des Katzenhirnes verwirklichte Mechanismus ist, ist natürlich eine andere Frage. Es gibt auch Zellen, die auf bestimmte Personen reagieren, beispielsweise die berühmten Großmutterzellen, die feuern, wenn man seine Großmutter oder deren Bild sieht oder an sie denkt. Wie das Feuern solcher Zellen mit der allgemeinen Reizverarbeitung im Gehirn zusammenhängt und woran man seine Großmutter überhaupt erkennt, ist allerdings unklar. Ein andersartiger Zelltyp wurde von O’Keefe und Dostrovsky (1971), O’Keefe (1976), O’Keefe und Nadel (1978) im Hippocampus der Ratte entdeckt. Der Hippocampus ist eine dreischichtige Struktur im Säugerhirn, die phylogenetisch älter als der sechsschichtige Neokortex (zu welchem auch der visuelle Kortex gehört) und für die Bildung von Gedächtnisinhalten zuständig ist, s. z. B. Andersen et al. (2007). Wenn man seinen Hippocampus verliert, bleiben zwar alte Erinnerungen erhalten, aber man kann sich nichts Neues mehr merken. In der (allerdings nicht allgemein anerkannten) Gehirntheorie von Hawkins (2006) ist der Hippocampus sogar die oberste Instanz in der kortikalen Hierarchie. Die von O’Keefe identifizierten Zellen sind Ortszellen. Eine solche Zelle feuert, wenn sich die Ratte an einem für diese Zelle spezifischen Ort in einem zuvor erkundeten Gelände befindet. Benachbarte Zellen reagieren typischerweise nicht auf benachbarte Orte, so dass die Menge der Ortszellen also keine topographische Repräsentation des Geländes liefert (s. Kap. 11 in Andersen et al. (2007)). Zur Analyse der Geländekartierung durch solche Ortszellen bietet sich eine Beschreibung mittels Konzepten der algebraischen Topologie an; dies wird von Curto und anderen Topologen vorangetrieben, s. Curto (2017). Wir wollen kurz die relevanten Begriffe vorstellen. Eine offene Überdeckung U eines topologischen Raumes X besteht aus offenen

238

9 Neurobiologie und Kognitionstheorie …

 Mengen Ui (i ∈ I := {1, . . . , N }) mit i=1,...,N Ui = X . Die Überdeckung U heißt gut artig, wenn alle Durchschnitte j∈J U j , J ⊂ I , zusammenziehbar, also topologisch trivial sind. Eine kombinatorische Repräsentation der Überdeckung U ist der simpliziale Komplex  mit Vertices i und einem Simplex für jeden nichttrivialen Schnitt j∈J U j  = ∅. Dieser ˇ Komplex heißt Cechkomplex. Ein wichtiger Satz der simplizialen Topologie besagt, dass ˇ dieser Cechkomplex homotopieäquivalent zu dem zugrundeliegenden topologischen Raum X ist, wenn die Überdeckung U gutartig ist. Aus der Kombinatorik der Schnitte der die Überdeckung konstituierenden Mengen lässt sich also die Topologie des ursprünglichen Raumes rekonstruieren. In unserer neurobiologischen Situation repräsentieren die Indices  nun die Ortszellen, und die Ui deren rezeptive Felder. Ob der Schnitt j∈J U j  = ∅ ist, lässt sich nun feststellen, wenn die zur Indexmenge J gehörenden Neuronen gleichzeitig feuern, wenn sich das Tier an einer geeigneten Stelle im Gelände befindet. So kann also aus dem Feuermuster der Neuronen die Topologie des Geländes rekonstruiert werden. Die Größe der rezeptiven Felder passt sich dabei an die Skala des Geländes an; in einem weitläufigen Gelände sind die rezeptiven Felder entsprechend größer. Und wenn sich die Ratte längs gerichteter Wege bewegt, werden auch die Ortszellen richtungssensitiv (McNaughton et al. 1983). Andere Zellen im Hippocampus kodieren die Blickrichtung der Ratte (Taube et al. 1990). Eine Klasse von Neuronen mit vielleicht noch interessanteren rezeptiven Feldern, die sog. Gitterzellen, wurde von der Forschergruppe von E. und M.-B. Moser im entorhinalen Kortex der Ratte entdeckt (Hafting et al. 2005). Durch eine clevere Analyse von fMRI-Daten (functional magnetic resonance imaging) konnte die Existenz solcher Gitterzellen auch im entorhinalen Kortex des Menschen nachgewiesen werden (Doeller et al. 2010). Der entorhinale Kortex gehört zur Hippocampusformation und ist gewissermaßen das Eingangstor zum eigentlichen Hippocampus (s. z. B. Schünke et al. (2006) für die neuroanatomischen Strukturen). In diesem Areal gibt es übrigens auch Ortszellen mit den oben besprochenen Eigenschaften. Um die rezeptiven Felder von Gitterzellen zu beschreiben, überdecken wir das als euklidische Ebene vorgestellte Gelände durch Sechsecke, wie in Abb. 9.5 dargestellt. Das rezeptive Feld einer Gitterzelle besteht dann aus periodisch wiederholten solchen Sechsecken, beispielsweise den rot markierten. Eine andere Gitterzelle hat dann als rezeptive Felder die grünen Sechsecke. Wenn also die Zelle mit den roten rezeptiven Feldern feuert, weiß man, dass man in sich einem der rot gekennzeichneten Sechsecke befindet, allerdings nicht, in welchem davon. Wenn man die jeweils zu einer Gitterzelle gehörenden Sechsecke identifiziert, erhält man einen Torus. Zwar sind die rezeptiven Felder der Gitterzellen im entorhinalen Kortex wohl nicht ganz so säuberlich nebeneinander gereiht, wie in der Abbildung suggeriert, sondern sie können einander überlappen, aber die Sechseckparzellierung beschreibt das wesentliche Prinzip des Arrangements. Im Hippocampus gibt es Gitterzellen für verschiedene räumliche Skalen, und in Stemmler et al. (2015) ist beschrieben worden, wie aus der Kombination der Feuermuster von Gitterzellen auf verschiedenen Skalen die Position des Tieres rekonstruiert werden kann.

9.5 Die Feuermuster von Neuronen

239

Abb. 9.5 Rezeptive Felder von Gitterzellen

Das Vorstehende deutet darauf hin, dass der Hippocampus der Ratte im Zusammenspiel von Orts-, Kopfrichtungs- und Gitterzellen wesentlich für deren räumliche Orientierung ist. Die Aktivitäten dieser Zellen werden anscheinend in einem bestimmten Frequenzband, dem Thetaband (6–12 hz),6 zusammengebunden. Beim Menschen reagieren viele Zellen des Hippocampus aber auch auf nicht räumliche Stimuli, wie Häuser oder Gesichter. Der Hippocampus ist, wie schon erwähnt, wichtig für die Gedächtnisbildung, genauer für die Bildung von explizten, deklarativen Gedächtnisinhalten. Es ist derzeit allerdings umstritten, welches die wesentliche Funktion des Hippocampus ist, das räumliche oder das deklarative Gedächtnis, s. Kap. 13 in Andersen et al. (2007). Das prozedurale Gedächtnis wird dagegen eher im motorischen Kortex und im Cerebellum (Kleinhirn) gebildet, also in Verbindung mit der Bewegungssteuerung. Viele Zellen im perirhinalen Kortex, der ebenfalls zur Hippocampusformation gehört, reagieren dagegen auf Stimuli, die etwas dem Subjekt Bekanntes, Familiäres beinhalten (Brown et al. 1987). In diesem Zusammenhang ist vielleicht eine Entdeckung aufschlussreich, die wir in einem ganz anderen Kontext, der Gesichtserkennung, gemacht haben (Stollhoff et al. 2011). Wir haben Menschen mit einer angeborenen Form der Prosopagnosie untersucht, der Unfähigkeit, andere Menschen anhand ihres Gesichtes zu erkennen. Dabei haben wir distinkte Subtypen gefunden. Personen des einen Types hatten anscheinend deswegen Probleme bei der Gesichtserkennung, weil sie nicht zwischen bekannten, familiären Gesichtern und unbekannten unterscheiden konnten. Und dieses Defizit war assoziiert mit einem 6 Die Neurophysiologen benutzen eine unsystematisch wirkende Nomenklatur durch griechische

Buchstaben für verschiedene Frequenzbänder.

240

9 Neurobiologie und Kognitionstheorie …

Defizit bei der Orientierung im Gelände, wo sie ebenfalls nicht zwischen schon bekannten und neuen Umgebungen unterscheiden konnten und daher oftmals Schwierigkeiten hatten, sich zurechtzufinden. Man kann daher spekulieren, dass die Erkennung von Stimuli als bekannt, familiär eine wesentliche Rolle für die Kognition spielt, und dass bestimmte Zellen in der Hippocampusformation hieran wesentlich beteiligt sind, und dass dieser Aspekt der Kognition ursprünglich aus Mechanismen der räumlichen Orientierung entstanden ist.

Die Perspektive der Systembiologie

10

Das wesentliche Ziel der Systembiologie ist das Verständnis biologischer Systeme als Ganzes. Für ein solches Verständnis sind detaillierte Untersuchungen der kleinsten Bestandteile und Abläufe, wie einzelner Gene oder Expressionswege, und die dazu komplementären großflächigen Datensammlungen durch Hochdurchsatzmethoden zwar hilfreich und notwendig, aber alleine nicht ausreichend. Biologische Strukturen und Prozesse müssen auf eine biologische Funktion bezogen werden, die sich typischerweise erst durch die Wechselwirkung verschiedener Bestandteile und Abläufe ergibt. Abstrakt geht es darum, zu verstehen, wie Interaktionen zwischen vielen, möglicherweise verschiedenartigen Elementen oder Komponenten auf zum Teil auch unterschiedlichen zeitlichen und räumlichen Skalen zur Herausbildung eines operational geschlossenen Systems auf einer höheren Organisationsstufe führen, welches durch die selektive Aufnahme von externem Input als Rohstoff, Energie, Signal oder Information eine interne Dynamik herausbildet und aufrechterhält, die sich nicht vollständig in einzelne Module trennen lässt und robust gegen zufällige und systematische Störungen ist. Für biologische Systeme ist es dabei wesentlich, sie und ihre Eigenschaften wie Robustheit oder Sensitivität, Zusammenhang oder Modularität als Ergebnis eines Evolutionsprozesses zu begreifen. Dieser Evolutionsprozess schließt neben streng selektierten funktionalen Komponenten auch historische Zufälle, neutrale Drift und Ergebnisse struktureller Formzwänge ein. Das Wechselspiel zwischen kontingenten Einzelereignissen und universellen Gesetzmäßigkeiten wie Skalengesetzen führt letztendlich dazu, dass sich existierende biologische Strukturen in einem sehr speziellen, keineswegs zufälligen Teil des Zustandsraums befinden. Durch diese Kombination eines allgemeinen Zuganges mit spezifisch biologischen Einsichten soll ein neuartiges Verständnis biologischer Systeme erreicht werden, das über die Analyse einzelner Bestandteile hinausgeht und das entsprechende biologische, biochemische und bio-physikalische Detailwissen mit den in der letzten Zeit gewonnenen

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_10

241

242

10 Die Perspektive der Systembiologie

und noch zu gewinnenden Omics- und Strukturdaten und vermittels formaler, insbesondere mathematischer Methoden in einer auf die biologische Funktion bezogenen Gesamtsicht integriert.

10.1

Moleküle und Daten

In diesem Abschnitt möchte ich eine umfassende Perspektive der Integration des verfügbaren und noch zu gewinnenden biologischen Wissens mit dem Spektrum mathematischer Konzepte und Methoden vorstellen, ohne dabei auf konkrete mathematische Ansätze und Verfahren einzugehen. Das gerade dargelegte abstrakte Ziel lässt sich sinnvollerweise nur in Verbindung mit der experimentellen Untersuchung und der systematischen Integration der großflächig gewonnenen Daten eines konkreten biologischen Systems verfolgen, um die allgemeinen, die evolutionären und die spezifischen Struktur- und Organisationsprinzipien auf den verschiedenen Ebenen herausarbeiten und unterscheiden zu können. Ein wichtiges Beispiel wäre die Säugerzelle. Ein Säuger wie der Mensch weist Hunderte verschiedener Zelltypen auf, die sich trotz (fast) identischer genetischer Grundlage in ihrer Struktur oft dramatisch unterscheiden. Hochdurchsatzmethoden haben in den letzten Jahren gezeigt, dass komplexe eukaryontische Zellen durch ein Netzwerk ineinander verwobener Regulationsmechnismen gesteuert werden: Transkription, prä-mRNA-Prozessierung, Spleißen, Export, posttranskriptionelle Modifikation, Translation, und posttranslationale Modifikation sind nur einige der stringent kontrollierten Prozesse. Zudem wurde klar, dass neben den proteinkodierenden Genen noch ein Universum von Transkripten existiert, das anscheinend vorwiegend oder ausschließlich regulatorische Funktion hat. Zum Verständnis eines Systems dieser Komplexität gehört neben der Kenntnis der (Graphen)struktur des heterogenen Netzwerkes auch das Verständnis der grundlegenden Mechanismen der Interaktionen. Dies schließt insbesondere neben den (bio)physikalischen Wechselwirkungen von DNS, RNS und Proteinen auch die Transportprozesse in der Zelle ein. Dies führt auf einen bisher wenig beachteten Aspekt der Modellierung, nämlich das Zusammenspiel von Regulationsmechanismen mit der räumlichen Organisation: Wie beeinflussen die räumliche Organisation und der intrazelluläre Transport die Expression und damit auch die Funktion von Genen, und wie wird umgekehrt die morphologische Diversität von modernen Zellen auf molekularer Ebene reguliert? Aus der Grundlage der strukturellen Modelle muss dann ein dynamisches Verständnis erarbeitet werden, das insbesonders der Erkenntnis gerecht werden muss, dass verschiedene Mechanismen auf verschiedenen räumlichen und zeitlichen Skalen greifen. Eigenschaften des Gesamtsystems müssen entsprechend typischerweise als Multiskalen-Phänomene beschrieben werden. Die beobachtbare Diversität innerhalb eines Organismus und die Verfügbarkeit von Daten aus verschiedenen Organismen machen vergleichende Ansätze besonders attraktiv, die sich auch innerhalb der einzelnen „Omics“-Bereiche als fruchtbar erwiesen haben.

10.1 Moleküle und Daten

243

Derzeit verfügbare Methoden in diesen Gebieten sind meist auf paarweise Vergleiche beschränkt, aber wie Einzelfälle etwa in der vergleichenden Genomik zeigen, lassen direkte Mehrweg-Vergleiche deutliche Verbesserungen erwarten. Insbesondere eröffnen solche Vergleiche auch evolutionäre Gesichtspunkte. Beispielsweise könnten die Unterschiede zwischen Menschen und anderen Primaten systematisch ausgewertet und zusätzliche experimentelle Vergleiche zwischen anderen nahe verwandten Arten durchgeführt werden. Unter diesen Gesichtspunkten können dann auch konkrete Omics-Daten einbezogen werden, u. a. • • • • • • • • • • • • • •

Genverdoppelungen Transkriptionsfaktoren und ihre Bindungsstellen auf der DNS (chip-on-chip-Technologie) Anzahl und Verteilung dieser Bindungsstellen pro Gen Auswirkungen von Mutationen auf diese Transkriptionsfaktoren und dann wiederum deren Auswirkungen auf das Regulationsnetzwerk Transkriptionskontrolle durch epigenetische Faktoren wie DNS-Methylierung (mittels Chips gemessen) und Histone, wieder insbesondere unter evolutionären Aspekten Alternative Genvarianten, die aus einem Transkript gespleißt werden (splicing arrays), und wie sich die Häufigkeit dieser Varianten evolutionär verändert Regulations- und Kontrollfunktionen von Intronen, Evolution von Intronsequenzen Interferierende RNS-Sequenzen (RNAi; tiling arrays) Gezielte Proteinbindung an Membranen und Organellen (tissue arrays) Signaltransduktionswege Phosphorilierungsmuster von Proteinen und deren evolutionäre Veränderbarkeit im Vergleich mit der Sequenzevolution (Proteomics) Systematische Katalogisierung der Stoffwechselprodukte und -faktoren und deren Wechselwirkungen (Metabolomics) Wechselwirkungen zwischen Proteinen …

Die experimentelle Untersuchung und die Datenanalyse müssen dabei eng mit der Modellierung, der Modellanalyse und der Simulation biologischer Systeme verbunden werden, um herausfinden zu können, welche Eigenschaften der Bestandteile und welche aus den Omicsund Strukturdaten gewonnenen Kenngrößen für die Systemfunktion wesentlich sind. Dies erfordert neben Datengewinnung im Omics-Bereich und statistischer und bioinformatischer Datenanalyse vor allem eine umfassende und methodisch breite mathematische Modellierung und die Computersimulation biologischer Prozesse. Verschiedene der allgemeineren formalen Fragestellungen sind uns natürlich schon in früheren Abschnitten begegnet, beispielsweise 3.3. Auch das Wissenschaftliche Rechnen spielt heute eine wesentliche Rolle, auch wenn es in diesem Buch nicht systematisch angesprochen wird. Die in der Systembiologie notwendigerweise auftauchenden hochdimensionalen Systems erfordern gute Approximationen und intelligente Speicher- und Rechenmethoden. Je größer die Datenmengen, desto wichtiger

244

10 Die Perspektive der Systembiologie

wird es, das Design adäquater numerischer Diskretisierungen durch das Computerprogramm direkt zu kontrollieren, statt es dem jeweiligen Benutzer zu überlassen. Für die Zuverlässigkeit solcher Kodes sind neueste mathematische numerische Methoden notwendig. Weiterhin müssen neue, auf die biologischen Datensätze zugeschnittene statistische Verfahren entwickelt werden, denn bei den großen Datensätzen werden meist weniger schon vorher formulierte Hypothesen überprüft, wie es einem weit verbreiteten naturwissenschaftlichen Klischee entsprechen würde, sondern es müssen Strukturen und Zusammenhänge erst mit statistischen Methoden entdeckt und erschlossen werden. Allerdings geht das vorliegende Buch auch hierauf nicht weiter ein. Zu dem mathematischen Methodenspektrum gehören die mathematischen Gebiete der (nichtlinearen) dynamischen Systeme und partiellen Differentialgleichungen, der stochastischen Analysis, der Informationstheorie, der Graphentheorie und andere Bereiche der diskreten Mathematik und der Netzwerktheorie. Vieles davon habe ich versucht, in meinem Lehrbuch Jost (2014) in einer auf die Biologie zugeschnittenen Form zu entwickeln. Hilfreich sind insbesondere auch neuere Entwicklungen, die formale Konzepte mit der Analyse konkreter Systeme verbinden, wie die Theorie der neuronalen Netze. Besonders wichtig sind die neuen mathematischen Methoden und Theorien zur Analyse und Modellierung mehrskaliger Systeme. Sie erlauben, das Zusammenspiel von Prozessen auf verschiedenen Skalen detailliert zu verstehen und gleichzeitig wesentliche Mechanismen für die Emergenz von Systemeigenschaften auf höheren Skalen zu isolieren. Wir brauchen Erfahrung mit der Untersuchung eines breiten Spektrums komplexer Systeme, um allgemeine Prinzipien wie Selbstorganisation in einer konkreten biologischen Situation identifizieren und von spezifischeren Mechanismen des untersuchten Systems unterscheiden zu können.

10.2

Netzwerke

Der im vorstehenden Abschnitt aufgeführten Vielzahl von Daten steht eine Vielzahl von mathematischen Methoden gegenüber, wie wir gerade schon angesprochen haben. Es würde aber dem Konzept dieses Buches widersprechen und vielleicht ohnehin nicht sinnvoll sein, nun auch eine entsprechende Liste zu erstellen. Stattdessen wollen wir an dieser Stelle eine mathematische Theorie besprechen, die recht vielseitig in der Datenanalyse, nicht nur in der Biologie, eingesetzt werden kann, und zwar die Analyse von Netzwerken. Manchmal wird dies sogar zum Kern der Systembiologie erklärt, was allerdings ziemlich voreilig wirkt. Nichtsdestoweniger stellt die Netzwerkanalyse ein wichtiges formales Werkzeug dar. Die mathematischen Aspekte haben sich seit der Darstellung in Jost (2014) beträchtlich weiterentwickelt, und auch deswegen mag die nachfolgende Zusammenfassung nützlich sein.

10.2 Netzwerke

245

In der einfachsten Form geht es um die Analyse eines Systems binärer Beziehungen zwischen Paaren von Elementen. Biologische Beispiele sind • • • • • • • • • •

Moleküle, die miteinander reagieren Gene, die koreguliert werden Proteine, die miteinander wechselwirken Metaboliten, die ineinander umgewandelt werden Neuronen, die durch Synapsen verbunden sind Zellen, die Signale austauschen Bakterien, die untereinander genetisches Material austauschen Tiere, die sich miteinander paaren Tiere, die soziale Beziehungen in Gruppen haben …

Ein Blick auf diese und andere Beispiele zeigt allerdings auch, dass die strukturellen Beziehungen reichhaltiger als nur binär sein können. Sie können eine Stärke besitzen, wie das Gewicht einer Synapse zwischen Neuronen, sie können gerichtet sein, wie die synaptische Verbindung von einem prä- zu einem postsynaptischen Neuron, sie können unterschiedliche Vorzeichen haben, wie exzitatorische und inhibitorische Verbindungen zwischen Neuronen oder kooperative und antagonistische Beziehungen in Gruppen, und sie können auch mehr als zwei Elemente involvieren, wie die meisten chemischen Reaktionen. Trotzdem ist es sinnvoll, mit dem einfachsten Fall anzufangen und diesen dann nachfolgend zu verallgemeinern. Ein Netzwerk mit binären Relationen wird mathematisch als ein Graph modelliert. Die Elemente des Netzes bilden die Knoten des Graphen, und zwei Knoten sind durch eine Kante verbunden, wenn die entsprechenden Elemente in Relation stehen. Ein Graph  ist ein Paar (V , E), bestehend aus einer endlichen Menge V von Knoten und einer Menge E von ungeordneten Paaren von verschiedenen Knoten, den Kanten des Graphen. Wenn E eine Kante e = (i, j) mit i, j ∈ V enthält, so sind i und j also miteinander verbunden, und wir nennen sie dann Nachbarn und schreiben i ∼ j. Wir nehmen auch an, dass der Graph  zusammenhängend ist, was bedeutet, dass wir zu je zwei Knoten i, j ∈ V eine Familie i 0 = i, i 1 , . . . , i n = j finden können, derart, dass (i k−1 , i k ) ∈ E für k = 1, . . . , n, dass wir also einen Kantenzug von i nach j finden können. Der Abstand d(i, j) zwischen den Knoten i und j ist dann definiert als das kleinste n, für das sich ein solcher Kantenzug finden lässt. Der Grad deg i des Knotens i ist definiert als die Anzahl der Kanten, in denen i enthalten ist, oder äquivalent, als die Anzahl der Nachbarn von i. Zwei Graphen heißen isomorph, wenn es eine Bijektion zwischen den Knoten gibt, die Kanten in Kanten überführt, wenn also zwei Knoten in dem einen Graphen genau dann Nachbarn sind, wenn ihre Bilder in dem anderen Graphen dies sind. Das Isomorphismenproblem für Graphen, also die Aufgabe, festzustellen, ob zwei gegebenen Graphen

246

10 Die Perspektive der Systembiologie

zueinander isomorph sind, ist allerdings NP-schwer, so dass es schon für Graphen von moderater Größe praktisch nicht mehr lösbar ist. Überhaupt wächst die Anzahl der verschiedenen Graphen mit n Knoten sehr schnell als Funktion von n, wobei ich allerdings wegen der Bedingung, dass die Graphen zusammenhängend sein sollen, keine explizite Formel für diese Anzahl kenne. Insbesondere ist die detaillierte Klassifikation von Graphen kein sinnvolles Problem. Man kann nur gröbere Klassen unterscheiden. Eine wichtige solche Klasse besteht aus den vollständigen Graphen K n ; K n ist definiert als derjenige Graph mit n Knoten, bei dem jeder Knoten mit jedem anderen verbunden ist. Große empirische Netzwerke sind natürlich typischerweise nicht vollständig. Eine andere wichtige Klasse besteht aus den bipartiten Graphen. Ein Graph heißt hierbei bipartit, wenn die Knoten in zwei Klassen eingeteilt werden können, derart, dass es Kanten nur zwischen Elementen verschiedener Klassen geben darf. Ein offensichtliches Beispiel sind Paarungsbeziehungen zwischen männlichen und weiblichen Individuen. Auch zur Modellierung von Beziehungen zwischen verschiedenartigen Elementen sind bipartite Graphen gut geeignet. Z. B. kann man Bindungen zwischen RNS und Proteinen, wie im Abschn. 3.3 besprochen, durch einen bipartiten Graphen darstellen, dessen eine Klasse von Knoten RNSen und dessen andere Klasse Proteine sind. Auch chemische Reaktionsnetzwerke können durch einen bipartiten Graphen dargestellt werden, dessen eine Klasse von Knoten Reaktionen und dessen andere Klasse chemische Stoffe sind. Ein Stoff wird mit einer Reaktion durch eine Kante verbunden, wenn der Stoff an der Reaktion beteiligt ist. Später werden wir allerdings chemische Reaktionsnetzwerke durch Hypergraphen modellieren. Die meisten empirischen Netzwerke fallen allerdings in keine derart stringent definierte Klasse. Und auch bipartite Graphen gibt es viel zu viele, als dass man sie auch nur bei moderaten Knotenzahlen auflisten könnte. Empirische Netzwerke, die als Graphen modelliert werden, werden daher meist besser entweder durch eine reduzierte Beschreibung oder durch qualitative statistische Eigenschaften dieser Graphen charakterisiert. Was ist damit gemeint? Man kann z. B. die Knoten zählen. Das ist allerdings banal. Oder man kann die Knoten klassifizieren. Das vielleicht Einzige, was einem dazu einfällt, ist vielleicht der Grad, also die Anzahl der Nachbarn. Für jedes k kann man also schauen, wieviele Knoten vom Grad k es gibt und dann diese Anzahlen m(k) als Funktion von k plotten. Man stellt dann fest, dass die meisten empirischen Netzwerke skalenfrei sind, dass also m(k) asymptotisch etwa wie ein Polynom k −γ mit einem Exponenten γ > 0 (typischerweise liegt γ zwischen 2 und 3) abfällt, statt exponentiell, wie man vielleicht naiverweise erwartet hätte. Man kann dann einen Schritt weiter gehen und schauen, wie sich die Grade der Nachbarn eines Knoten verteilen, ob also z. B. typischerweise Knoten von großem Grad auch Nachbarn von großem Grad besitzen, in welchem Fall man den Graphen assortativ nennt. Ein solcher Zugang, also Statistiken der Knoten aufzustellen, scheint aber aus dem Grunde verfehlt zu sein, dass das Entscheidende bei einem Graphen nicht die Knoten, sondern die Kanten sind. Wir sollten also besser Kantenstatistiken betrachten. Hier gibt es nun Konzepte, die kurioserweise als Krümmungen bezeichnet werden. Dieser Name kommt aus der Riemannschen Geometrie,

10.2 Netzwerke

247

in der, wie Riemann (1868/2013) festgestellt hat, die von ihm eingeführten Krümmungen einen vollständigen Satz lokaler Invarianten für eine differentialgeometrische Metrik darstellen. Auch bestimmte gemittelte Riemannsche Krümmungen, die sog. Riccikrümmungen, enthalten noch wesentliche Informationen über eine solche Metrik, s. Jost (2017a). Und es stellt sich dann heraus, dass diese Krümmungsgrößen natürliche Analoga für Graphen (oder allgemeinere metrische Räume besitzen), und diese Analoga werden daher auch Riccikrümmungen genannt, obwohl in einem Graphen eigentlich nichts gekrümmt ist. Dies zeigt nur, dass auch mathematische Einsichten nicht immer dem logisch einfachsten Weg folgen. Nun also zur Definition dieser diskreten Krümmungen. Es gibt zwei Varianten, eine, die auf Forman (2003) zurückgeht, und eine andere, die von Ollivier (2007, 2009) stammt. Die formansche Riccikrümmung einer Kante e = (v0 , v1 ) ist denkbar einfach, F(e) = 4 − deg v0 − deg v1 .

(10.2.1)

Wesentliche Vorteile sind erstens, dass sich diese Definition sehr natürlich sowohl auf gewichtete und gerichtete Graphen als auch auf simpliziale Komplexe verallgemeinern lässt, und dass sie zweitens die oben für Knoten definierten Größen des Grades und der Assortativitát in einer für Kanten definierten Größe zusammenfasst. Die negativen Vorzeichen und die Konstante 4 erklären sich aus der Analogie zur Riccikrümmung der Riemannschen Geometrie. Kanten mit sehr negativer Riccikrümmung sollten besonders wichtig für das Netzwerk sein, weil an ihren Enden eine starke Dispersion stattfindet. Wenn wir der Anschaulichkeit halber schon einmal annehmen, dass die Kante gerichtet ist, also z. B. von v0 nach v1 läuft, und Information im Netzwerk verteilt, so würde eine Kante mit sehr negativer Krümmung am Anfang v0 viel Information aus verschiedenen Quellen sammeln oder am Ende v1 die Information auf viele Ziele verteilen, oder beides. Die Forman-Ricci-Krümmung ist in Saucan et al. (2018) systematisch für empirische Netzwerke ausgewertet worden. Bei Genregulationsnetzwerken zeigt sich beispielsweise, dass das entsprechende Netzwerk aus zwei Unterstrukturen besteht. Die eine davon involviert die sog. Haushaltsgene, die im Wesentlichen in allen differenzierten Zellen eines Organismus aktiv sind, während die andere die spezifischeren Gene erfasst, die die Struktur einer differenzierten Zelle ausmachen. Eine solche zweistufige Struktur könnte ein wichtiges Merkmal vieler biologischer und anderer Netzwerke sein. Für die Ollivier-Ricci-Krümmung einer Kante sind ein paar Vorbereitungen erforderlich. Für einen Knoten i definieren wir das Wahrscheinlichkeitsmaß  1 falls k ∼ j (10.2.2) m i (k) := deg i 0 andernfalls. Es wird also eine Einheitsmasse gleichmässig auf die Nachbarn von i verteilt. m i (k) kann auch als die Wahrscheinlichkeit dafür angesehen werden, dass ein Irrläufer auf dem Graphen, der in jedem Schritt zu einem beliebigen Nachbarknoten seines jetzigen Aufenthaltsknotens

248

10 Die Perspektive der Systembiologie

springt, wobei alle Nachbarn mit gleicher Wahrscheinlichkeit gewählt werden können, wenn er in i startet, im nächsten Schritt in k landet. Schließlich erinnern wir uns noch an den Wassersteinabstand zweier Feuerzüge im Abschn. 9.5, s. (9.5.3), und definieren den Wassersteinabstand zwischen zwei Wahrscheinlichkeitsmaßen μ, ν auf  als  inf d(k, )π(k, ), (10.2.3) W1 (μ, ν) :=  π ∈ [μ,ν]

k,∈V

 wobei [μ, ν] diejenigen Wahrscheinlichkeitsmaße π auf V × V enthält, die als Marginalmaße μ und ν haben, also   π(k, ) = μ(k) f¨ur alle k, π(k, ) = ν() f¨ur alle . (10.2.4) 

k

Und d(k, ) ist der oben definierte Abstand zwischen den Knoten. Dieser Wasserstein- oder Transportabstand zwischen den beiden Maßen misst die Kosten, die mindestens entstehen, wenn man die mit dem ersten Maß gewichteten Knoten in mit dem zweiten Maß gewichtete Knoten transportiert. Die Kosten für den Transport von einem Knoten in einen anderen sind dabei durch den Abstand der beiden Knoten gegeben. Man will also die beiden Maße durch ein π so koppeln, dass Transporte zwischen möglichst nahe beieinander liegenden Punkten stattfinden. Das werden wir unten noch illustrieren. Die Ollivier-Ricci-Krümmung der Kante e = (i, j) ist dann κ(i, j) := 1 − W1 (m i , m j ).

(10.2.5)

Man kann diesen Abstand auch leicht auf den allgemeinen Fall zweier nicht notwendig benachbarter Knoten ausdehnen, durch κ(i, j) := 1 −

W1 (m i , m j ) . d(i, j)

(10.2.6)

Die Krümmung ist also positiv oder negativ, je nachdem ob der optimierte durchschnittliche Abstand zwischen Nachbarn von i und j kleiner oder größer als derjenige zwischen i und j selbst ist. Wir kehren aber wieder zu der Situation zurück, wo i und j direkte Nachbarn sind. Wie in der nachfolgenden Abbildung illustriert, helfen Drei-, Vier- und Fünfecke, in denen i und j enthalten sind, den Wassersteinabstand klein zu halten. Ein Dreieck bedeutet nämlich, dass i und j einen gemeinsamen Nachbarn k haben, der überhaupt nicht transportiert zu werden braucht. Bei einem Viereck braucht der Knoten 1 nur über eine Kante in den Knoten 2 transportiert werden, und der Transport kostet also nur eine Einheit. In einem Fünfeck beträgt der durch den Transport zu überwindende Abstand zwischen m 1 und m 2 2 Kanten. Wenn wir den Nachbarn n 1 von i in den Nachbarn n 2 von j transportieren wollen, betragen die Transportkosten dagegen 3.

10.2 Netzwerke

249



.. ...... ............ ...... ...... ...... ...... ...... ...... . . . . . . ...... ...... ...... ...... ...... . . . . . ...... .... . . . ...... . . .... ...... . . . . . ...... .... . . . ...... . . .... ...... . . . . . . ... . . ...... . . . .. .... ... . . ... ... .. .... .. . . ... ... .. .. . . . . . ... ... .. ... ... ... ... ... ... ... ... ... .. ... ... ... .. ... ... . . . . . ... ... .. ... ... ... ... ... ... ... ... ... .......... .. ... ...... ... ... .......... .. ... .......... . . ... .......... . . . .......... ... .......... ... ..... .......... ... .... .......... .......... . ... ... . . . . . .......... . . . . . . . . ..... .......... ... .... .................................................................................................................................. ................. ........... .......... .......... ... ... .......... .......... . . . . . . . . . .......... . . . . . .......... ........ .... .... .......... .......... ... .......... .......... ... . .......... ... . . .. .. . .... .... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. ... .... ... ... .....................................................................................................

k

m1 •



• m2



i•



j

n1 •

• n2







1

2

Für eine Kontrolle des Wassersteinabstandes zwischen zwei Knoten durch die Drei-, Vierund Fünfecke, die die beiden Knoten enthalten, vgl. Jost und Liu (2014), Bhattacharya und Mukherjee (2015). In Samal et al. (2018) ist untersucht worden, wie sehr sich die Formanund die Ollivier-Ricci-Krümmungen von Graphen voneinander unterscheiden. Zunächst ist die Formankrümmung negativ, außer wenn die Summe der beiden Knotengrade höchstens 4 ist, was natürlich nur in sehr wenigen Beispielen vorkommt. Für einen vollständigen Graphen K n ist die Formankrümmung jeder Kante umso negativer, je größer n, während die Ollivierkrümmung- mit wachsendem n gegen die obere Schranke 1 strebt, weil es so viele Dreiecke gibt. Die beiden Krümmungen verhalten sich also hier ganz unterschiedlich.



..... ......... ... .. ... ... .... ..... . . .. ... .... ... ... ... .... ... ... ... ... ... ... . ... . ... .. . . ... . . . .. ... . . . . ... ..... .. . . . . . ... ..... ............ .. . . . . . ... . . . ....... ..... .. . . . . . . . . . . . ....... ..... .. ............ . . . ....... ... . .... . ................. . .............................................................................................................







Für einen Stern, also einen Graphen, bei dem m periphere Knoten mit einem zentralen Knoten verbunden sind, verschwindet die Ollivierkrümmung für alle Kanten, während die Formankrümmung 3 − m ist.

250

10 Die Perspektive der Systembiologie

Für einen Doppelstern werden dagegen beide für die zentrale Kante (i, j) negativ.

i

j

Vor allem aber stellen diese Krümmungen nützliche Werkzeuge zur qualitativen Untersuchung von empirischen Netzwerken dar, s. z. B. Saucan et al. (2018), Samal et al. (2018). Wir hatten schon gesehen, dass die Ollivierkrümmung mit der Anzahl der Dreiecke zusammenhängt. Die relative Anzahl von Dreiecken wird durch den lokalen Häufungskoeffizienten gemessen, der von Watts und Strogatz (1998) eingeführt wurde, c(i) :=

Anzahl der tats¨achlichen Kanten zwischen Nachbarn von i , Anzahl der m¨oglichen Kanten zwischen Nachbarn von i

(10.2.7)

Der Nenner ist einfach die Anzahl der Paare ( j, k) von Nachbarn j, k von i, ist also gleich deg i  2 . Dieser Koeffizient wird für einen vollständigen Graphen maximal und nimmt dort den Wert 1 an. Ein Dreieck ist ein bestimmtes Motiv, also ein bestimmter kleiner Untergraph eines gegebenen Graphen. Man kann dann auch die relative Häufigkeit anderer Motive zählen, wie dies in Milo et al. (2002) systematisch durchgeführt wird. Die statistischen Abhängigkeiten zwischen den verschiedenen Motiven stellen allerdings ein subtiles Problem dar, s. Olbrich et al. (2010). Doch kehren wir zu den Riccikrümmungen zurück. Wir wollen nun allgemeinere Klassen von Netzwerken betrachten. Zunächst einmal nehmen wir an, dass die Kanten gewichtet sind. Jede Kante e = (i, j) hat also ein Gewicht we = wi, j . Auch einen ungewichteten Graphen können wir wichten, indem wir einfach jeder Kante das Gewicht 1 verpassen. Auch die Knoten können Gewichte wi haben. Dann ist die Riccikrümmung der Kante e = (i, j) definiert als

10.2 Netzwerke

251

⎛ F(e) = we ⎝

wj wi + − we we e

i

 ∼ e, e j ∼ e





wj wi ⎠, +√ √ we wei we we j

(10.2.8)

wobei ei diejenigen Kanten durchläuft, die im Punkte i zu e benachbart, also die Kanten, die außer e selbst i als einen ihrer Endpunkte haben. Entsprechend e j . Falls alle Gewichte = 1 sind, reduziert sich dies auf (10.2.1) (man beachte, dass in den Summen e selbst nicht berücksichtigt wird, so dass sich jeweils deg −1 ergibt). Weiterhin kann man dann solche Krümmungsgrößen auch für gerichtete Netzwerke definieren Sreejith et al. (2016). Wenn die gerichtete Kante e von i nach j läuft, kann man (10.2.8) in den einlaufenden und den auslaufenden Beitrag aufspalten. Der einlaufende Beitrag berücksichtigt alle Größen, die i enthalten, der auslaufende die mit j. Man kann dann auch in Knoten die Beiträge aller einlaufenden oder aller auslaufenden Kanten separat betrachten. Es gibt einige mögliche Kombinationen, und welche man verwendet, sollte natürlich auch davon abhängen, was man in den Daten sucht. Auch die Ollivier-Ricci-Krümmung kann auf gewichtete und/oder gerichtete Netzwerke ausgedehnt werden, indem man die Gewichte in den Transportkosten und die Richtungen in den Transportmöglichkeiten berücksichtigt. Die Details sollen aber nicht an dieser Stelle, sondern in nachfolgenden Publikationen weiterverfolgt werden. Wir wollen stattdessen einige Erweiterungen ansprechen, bei denen auch Relationen mit mehr als zwei beteiligten Elementen berücksichtigt werden. In den meisten der oben aufgeführten Beispiele involvieren die Interaktionen häufig mehr als zwei Partner. Wir können dies unter zwei verschiedenen formalen Gesichtspunkten betrachten. Wir entwickeln zunächst den ersten. Als Beispiel betrachten wir das Toponomprojekt aus Schubert et al. (2006). Hier wird mit raffinierten Färbemethoden und Zellschnitten sichtbar gemacht, welche Proteine in einer Zelle typischerweise kolokalisiert sind, d. h. zusammen vorkommen und daher die Möglichkeit einer Wechselwirkung haben. Es seien die drei Proteine A, B, C betrachtet, und A und B, B und C, und auch A und C mögen jeweils häufig zusammen auftreten. Dies sagt uns aber noch nicht, ob auch alle drei gemeinsam vorgefunden werden. Wenn wir aber umgekehrt, dass sie alle drei gemeinsam auftreten, so können wir natürlich schließen, dass auch jedes Paar gemeinsam vorkommt. Formal sei eine Menge I von Elementen i 1 , . . . , i n gegeben. Eine Menge  von Teilmengen von I heißt ein simplizialer Komplex, wenn für jedes S ∈  dann auch jedes S  ⊂ S in  liegt. Ist also z. B. das Tripel {i 1 , i 2 , i 3 } in , so auch alle Paare {i 1 , i 2 }, {i 2 , i 3 }, {i 1 , i 3 }, alle Einzelmengen {i 1 }, {i 2 }, {i 3 } und aus mathematischen Gründen auch ∅. Aber auch wenn alle drei Paare (und damit auch alle drei Einzelmengen) in , so impliziert das noch nicht, dass auch das Tripel in  liegt. Wenn wir uns die Simplizes in  als geometrische Simplizes vorstellen, so bildet ein Tripel ein ausgefülltes Dreieck, während die drei Paare die drei Seiten und die Einzelmengen die Eckpunkte bilden. Das Dreieck kann also ausgefüllt sein oder nicht, je nachdem ob das Tripel zu  gehört oder nicht. Ob das Dreieck ausgefüllt ist oder nicht, bewirkt einen topologischen Unterschied, der durch die

252

10 Die Perspektive der Systembiologie

Homologiegruppen1 und die entsprechenden algebraischen Invarianten, die Bettizahlen, ausgedrückt wird, s. z. B. Jost (2015, 2019). Man kann auch gewichtete simpliziale Komplexe betrachten, also in dem Toponombeispiel die Häufigkeit der Kolokalisation berücksichtigen. Auch für solche Objekte lässt sich eine Riccikrümmung definieren (Forman 2003) und fur empirische Netzwerke untersuchen (Weber et al. 2017). Das zweite relevante formale Modell ist dasjenige des Hypergraphen. Wir betrachten wieder eine Menge I von Elementen i 1 , . . . , i n . Jetzt sei eine beliebige Menge von Untermengen von I , also ohne die für einen simplizialen Komplex zusätzliche geforderte Bedingung der Abgeschlossenheit unter der Teilmengenrelation. Als Beispiel betrachten wir ein chemisches Reaktionsnetzwerk. Die i j stehen also jetzt für chemische Substanzen, die miteinander reagieren können. Jede hier mögliche chemische Reaktion involviert bestimmte Substanzen als Edukte oder Produkte, und diese Substanzen konstituieren dann ein Element von . Wenn eine oder mehrere Substanzen fehlen, wird die Reaktion möglicherweise nicht mehr stattfinden, und daher haben wir keine Teilmengenbedingung, und ist also im Allgemeinen kein simplizialer Komplex mehr. Nun gibt es aber bei chemischen Reaktionsnetzwerken noch etwas mehr Struktur als die gerade beschriebene eines Hypergraphen. Chemische Reaktionen sind gerichtet und meist nicht gut umkehrbar, und wir können bei einer Reaktion die Menge der Edukte, der Inputs, und diejenige der Produkte, der Outputs, unterscheiden. Diese Mengen brauchen nicht unbedingt disjunkt zu sein, denn oft gibt es Substanzen, wie Katalysatoren, die zwar für eine Reaktion erforderlich sind, durch diese aber nicht verändert werden. In Leal et al. (2018) werden Riccikrümmungen vom formanschen Typ für gerichtete Hypergraphen eingeführt und zur Analyse metabolischer Netzwerke eingesetzt. In Jost und Mulas (2018) haben wir einen Hypergraphen, bei dem wir für jeden Hypersimplex, also jedes Element von , zwei nicht notwendigerweise disjunkte Teilmengen vorliegen haben, deren Vereinigung der Hypersimplex ist, als chemischen Hypergraphen bezeichnet. Es stellt sich heraus, dass diese simple Zusatzstruktur eine erheblich reichhaltigere mathematische Analyse ermöglicht. Dies gilt insbesondere für die Spektralanalyse, ein etabliertes Verfahren zur Analyse (Chung 1997; Banerjee und Jost 2008a; Jost 2014) und zum qualitativen Vergleich von Netzwerken (Banerjee und Jost 2007, 2008b, 2009) und auch von simplizialen Komplexen (Horak und Jost 2013) und von chemischen Hypergraphen (Jost und Mulas 2018). Wir wollen hier nur die Grundlagen schildern und für mathematische Einzelheiten und Erweiterungen auf die angeführte Literatur verweisen. Es sei also wie oben  ein endlicher, zusammenhängender Graph mit Knotenmenge V und Kantenmenge E. Wir definieren zunächst ein L 2 -Produkt für Funktionen, die auf der Knotenmenge V von  definiert sind und reelle Werte annehmen:  (u, v) := deg i u(i)v(i). (10.2.9) i∈V

1 Hier geht es natürlich um den mathematischen und nicht um den biologischen Begriff der Homologie.

10.2 Netzwerke

253

Statt des Koeffizienten n i = deg i könnte man auch einen anderen Koeffizienten wählen, z. B. 1, aber wir verfolgen dies hier nicht. Wir definieren dann den Laplaceoperator

: L 2 (V ) → L 2 (V ) durch

v(i) := v(i) −

1  v( j). deg i

(10.2.10)

j, j∼i

(Die Vorzeichenkonvention wird in der Literatur unterschiedlich gehandhabt; oft ist der Laplaceoperator als der Negative des Operators in (10.2.10) definiert.) Der Laplaceoperator vergleicht also den Wert einer Funktion v im Knoten i mit dem Durchschnitt der Werte in den Nachbarknoten. Wir erkennen unmittelbar einige Eigenschaften: 1. ist selbstadjungiert bzgl. (., .): (u, v) = ( u, v)

(10.2.11)

( u, u) ≥ 0

(10.2.12)

2. ist nichtnegativ: für alle u, wie aus der Cauchy-Schwarz-Ungleichung folgt. 3. u = 0 genau dann, wenn u konstant ist. Dies folgt aus der Annahme, dass der Graph zusammenhängend ist. Hieraus ergeben sich Konsequenzen für die Eigenwerte von , also diejenigen λ, für die es eine Lösung u = 0 von

u = λu (10.2.13) gibt, und zwar • Wegen 1. sind alle Eigenwerte reell. • Wegen 2. sind sie nichtnegativ. • Wegen 3. ist dann der kleinste Eigenwert λ1 = 0, und dieser Eigenwert ist einfach, also λk > 0 f¨ur k ≥ 2.

(10.2.14)

(Wenn  nicht als zusammenhängend vorausgesetzt wird, gibt die Vielfachheit des Eigenwertes 0 die Anzahl der Komponenten von  an.) Wir ordnen die Eigenwerte dabei an als λ1 = 0 < λ2 ≤ . . . ≤ λ N ,

254

10 Die Perspektive der Systembiologie

wobei N die Anzahl der Knoten von  ist; da die Anzahl der Freiheitsgrade für eine Funktion auf  mithin N ist, gibt es genau N Eigenwerte, die allerdings nicht alle voneinander verschieden sein müssen, sondern mit Vielfachheiten auftreten können. Weiterhin gilt λ N ≤ 2,

(10.2.15)

mit Gleichheit genau dann, wenn der Graph bipartit ist. Eine weitere Eigenschaft ergibt sich Banerjee und Jost (2008a), wenn wir aus einem Graphen  einen neuen Graphen   erzeugen, indem wir einen Knoten von  verdoppeln. Dies bedeutet, dass wir einen Knoten i 0 ∈ V auswählen und einen Graphen mit Knotenmenge V  = V ∪ {i 0 } erzeugen, dergestalt, dass i 0 genau die gleichen Nachbarn wie i 0 hat. Die Kantenmenge von   besteht also den Kanten von V und den von i 0 ausgehenden, gerade beschriebenen Kanten.



......... ...... ........... ...... ...... ...... ...... ...... ...... . . . . . . ...... ...... ...... ...... ...... . . . . . ...... .... . . ...... . . . ...... .... . . . . . ...... .... . . . ...... . . ...... ...... . . . ... .... . . ... ... .. .... . . ... ... ... .. .. . . . ... ... .. .. . . ... . . . ... . ... ... ... ... ... ... ... ... ... ... ... .. ... ... ... .. . . . . . . ... ... .. ... ... ... ... ... ... ... ... .......... ... ... ... .. ... .......... .......... ... .. ... .......... ... .......... . . . . . ... .......... .......... ... ... .......... ... ... .......... . .. .......... ... ... .................... .......... ..... .... ................................................................................................................................ .. ..... . ... .................... .......... ..... .......... ... .......... ... .......... .......... ... . ... . . . . . . .......... . . ... ... ...... . . .......... . . . . . . . . . . ... .......... ...... .. . .... ... . .......... .. ... . . . ... . . . ... .. . ... . .. ... ... ... ... ... ... ... ... ... . . . ... ... ..... ... ... ....

i0







i1









i2





i0 •

In der Abbildung haben i 0 und i 0 wie gefordert die gleichen Nachbarn, nämlich i 1 und i 2 . Eine Knotenverdopplung schlägt sich dann im Spektrum von   nieder, und zwar dadurch, dass der Laplaceoperator  von   gegenüber einen zusätzlichen Eigenwert λ = 1 aufweist. Und zwar erfüllt die Funktion ⎧ ⎪ f¨ur i = i 0 ⎪ ⎨1 u(i) = −1 f¨ur i = i 0 ⎪ ⎪ ⎩0 sonst die Eigenwertgleichung  u(i) = u(i) für alle i ∈ V  . Die wichtigen Cheegerabschätzungen (Dodziuk 1984; Alon und Milman 1985) besagen, dass der kleinste positive Eigenwert λ2 kontrolliert, wie schwer  durch Entfernen von

10.2 Netzwerke

255

Kanten in zwei etwa gleich große Komponenten zerlegt werden kann, wie stark sich also der zusammenhängende Graph  von einem nichtzusammenhängenden Graphen unterscheidet, denn für einen nichtzusammenhängenden Graphen wäre ja λ2 = 0. Ähnlich gibt auch 2−λ N an, wie stark sich der Graph von einem bipartiten Graph unterscheidet (Bauer und Jost 2013), denn für einen bipartiten Graphen wäre ja λ N = 2, s. (10.2.15). So liefert das Spektrum, also die Menge der Eigenwerte des Laplaceoperators, viel qualitative Information über den zugrundeliegenden Graphen. Allerdings bestimmt das Spektrum den Graphen nicht vollständig, denn alle vollständigen bipartiten Graphen K m,n , d. h., die bipartiten Graphen mit zwei Knotenuntermengen der Größen m und n, bei denen jeder Knoten der einen mit jedem Knoten der anderen Menge verbunden ist, mit festem Wert von m + n = N haben alle das gleiche Spektrum. Aus dem Vorstehenden folgt, dass dieses Spektrum aus den Eigenwerten 0 und 2 jeweils mit Vielfachheit 1 und aus dem Eigenwert 1 mit Vielfachheit N − 2 besteht, denn ein solcher Graph kann aus einer einzelnen Kante, also K 1,1 , durch fortgesetzte Knotenverdoppelung gewonnen werden. Es ist auch nicht verwunderlich, dass das Spektrum den zugrundeliegenden Graphen nicht vollständig bestimmt. Wir hatten bemerkt, dass das Graphenisomorphismusproblem NP-schwer ist, während die Bestimmung des Spektrums in polynomialer Zeit gelöst werden kann. Es gibt auch Zusammenhänge zwischen der oben definierten Ollivier-Ricci-Krümmung und dem Spektrum. Und zwar gibt eine positive untere Schranke κ für diese Krümmung sowohl eine Schranke (10.2.16) λ2 ≥ κ als auch eine Schranke 2 − λ N ≥ κ,

(10.2.17)

s. Bauer et al. (2012), denn viele Dreiecke machen einerseits die Zerlegung eines Graphen schwer und sind andererseits nicht mit der Bipartitheit verträglich, denn ein bipartiter Graph kann überhaupt keine Dreiecke aufweisen. Der kleinste positive Eigenwert λ2 und seine Abschätzung, beispielsweise wie hier durch die Riccikrümmung, sind insbesondere deswegen wichtig, weil man durch diesen Eigenwert wiederum abschätzen kann, wie schwierig es ist, den Graphen durch Zerschneiden möglichst weniger Kanten in zwei große Teile zu zerlegen. Die Größe, die dies quantifiziert, ist analog zu einer, die Cheeger in der Riemannschen Geometrie eingeführt hat, die allerdings in einem anderen Zusammenhang in der Graphentheorie schon früher von Polya betrachtet worden war. Wir nennen sie deshalb die Polya-Cheeger-Konstante; meist heißt sie allerdings nur Cheeger-Konstante. Wir bezeichnen mit |E 0 | die in einer Kantenmenge E 0 ⊂ E enthaltene Anzahl von Kanten. Die Polya-Cheeger-Konstante ist dann   |E 0 |   , (10.2.18) h() := inf E0 min( i∈V1 deg i, j∈V2 deg j)

256

10 Die Perspektive der Systembiologie

wobei durch das Entfernen der Kanten aus E 0  in die beiden Komponenten V1 , V2 zerlegt werden soll. Wir wollen also den Graphen in zwei möglichst große Teile durch Zerschneiden möglichst weniger Kanten zerlegen. Dies kann man natürlich fortsetzen, indem man diese Teile wiederum nach dem gleichen Prinzip zerlegt, bis man dies nicht mehr mit kleinen Werten von h schaffen kann. Es gilt dann die Abschätzung  λ2 ≤ h ≤ 2λ2 , 2

(10.2.19)

die Konstante h lässt sich also durch den Eigenwert λ2 von unten und von oben kontrollieren (Dodziuk 1984; Alon und Milman 1985). Entsprechend kontrolliert der größte Eigenwert λ N , oder genauer die Größe 2 − λ N , wie verschieden der gegebene Graph von einem bipartiten Graphen ist. Hierzu führen wir eine zu h duale Konstante ein. Es seien nun V1 , V2 ⊂ V zwei disjunkte Knotenmengen, wobei wir nun allerdings nicht mehr unbedingt V1 ∪ V2 = V fordern, und wir definieren 2|E(V1 , V2 )|  , deg i + j∈V2 deg j i∈V1

h := max  V1 ,V2

(10.2.20)

wobei |E(V1 , V2 )| die Anzahl der Kanten zwischen V1 und V2 ist. Dann gilt (Bauer und Jost 2013)  λN 2λ N − 3 ≤ h ≤ . (10.2.21) 2 Insbesondere ist also nach (10.2.15) im bipartiten Fall h = 1, und dies ist der größtmögliche Wert, den h annehmen kann. Die entsprechenden Eigenfunktionen u 2 und u N für λ2 und λ N liefern auch entsprechende Klassen. Weil die Eigenfunktionen zu verschiedenen Eigenwerten orthogonal bezüglich des Produktes (10.2.9) sind, die Eigenfunktionen u k für k ≥ 2 orthogonal zu den Konstanten, den Eigenfunktionen für λ1 = 0, erfüllen also  deg i u k (i) = 0. (10.2.22) i

Wir können daher die Knotenmengen Vk+ = {i ∈ V : u k (i) > 0}, Vk− = {i ∈ V : u k (i) < 0} als Klassen heranziehen, für eine Zerlegung im Falle k = 2 und als Approximation der beiden entgegengesetzten Klassen, die es bei bipartiten Graphen in reiner Form gibt, für k = N. So kann man also durch die Untersuchung des Spektrums eines empirischen Netzwerkes eine Reihe von qualitativen Eigenschaften identifizieren. Außerdem haben strukturell ähnliche Graphen auch ähnliche Spektra, und dies ist für eine grobe Klassifikation sehr nützlich (Banerjee und Jost 2007, 2008b, 2009; Gu et al. 2015, 2016). Die vorstehend skizzierten Methoden lassen sich auch, wenn auch nicht immer ohne zusätzliche mathematische Schwierigkeiten, auf gerichtete Netzwerke und Flüsse in Netzen (s. z. B. Abschn. 4.2) erweitern.

10.3 Das Connectom: Das Netzwerk des Gehirns

257

Es gibt auch noch eine Vielzahl anderer Algorithmen für die Graphenzerlegung, also die Identifikation von Moduln oder wie auch immer man Untermengen der Knotenmenge nennen mag, die nur lose mit dem Rest, aber intensiv untereinander verbunden sind, vgl. den Überblick in Fortunato (2010). Manche sind sehr präzise, aber dafür rechenintensiv, und eignen sich daher eher für kleinere Netzwerke, während andere schnell sind, aber dafür nur gröbere Ergebnisse liefern. Auch die Ollivier-Ricci-Krümmung (10.2.5) kann hierfür eingesetzt werden, indem man Kanten besonders negativer Krümmung durchschneidet, bis eine Zerlegung in zwei nicht mehr verbundene Klassen erzielt ist. Genauere Resultate werden wir an anderer Stelle vorstellen, in Zusammenarbeit mit Emil Saucan und Areejit Samal. Die Ollivierkrümmung kann lokal berechnet werden, da nur die Nachbarschaften zweier benachbarter Knoten relevant sind, aber trotzdem ist die Berechnung nicht ganz einfach. Die Formankrümmung ist viel einfacher zu berechnen und ist empirisch gut mit der Ollivierkrümmung korreliert (Samal et al. 2018). Allerdings hatten wir oben gesehen, dass sich die beiden Krümmungen bei Dreiecken unterschiedlich verhalten, so dass es nicht die beste Strategie ist, zur Zerlegung eines Graphen einfach die Kanten mit besonders negativer Formankrümmung zu eliminieren. Dieses Problem kann jedoch dadurch behoben werden, dass man aus dem Graphen einen polyedrischen Komplex macht, indem man Dreiecke ausfüllt, und dann dessen Formankrümmung auswertet. Da sich wichtige Knoten in einem Netzwerk aber auch dadurch auszeichnen können, dass sie zu mehreren Moduln gehören, also Verbindungen zwischen verschiedenen Moduln herstellen, kann es auch sinnvoll sein, statt der Knotenmenge die Kantenmenge zu zerlegen (Ahn et al. 2010).

10.3

Das Connectom: Das Netzwerk des Gehirns

Dasjenige biologische Netzwerk, das zur Zeit am systematischsten erforscht wird, ist wohl das Netzwerk der Verbindungen im menschlichen Gehirn, das Connectom (Sporns 2011, 2012). Es handelt sich hierbei um das strukturelle Netzwerk der anatomischen Verknüpfungen zwischen Neuronen, Neuronengruppen und Gehirnregionen. Dieses ist zu unterscheiden von dem funktionalen Netzwerk des Zusammenwirkens der verschiedenen Elemente, bildet aber das Substrat für letzteres. Im Unterschieden zu anderen omics-Projekten, wie Genomics, Transcriptomics oder Metabolomics, zeichnet sich das Connectomics-Projekt dadurch aus, dass im Einklang mit den im vorstehenden Abschn. 10.2 formulierten Prinzipien tatsächlich nicht die Auflistung der Elemente, sondern die Herausarbeitung der Verknüpfungsstruktur im Zentrum steht. Es gibt schon ein Lebewesen, bei dem die Verknüpfungsstruktur vollständig bekannt ist, den Nematoden Caenorhabditis elegans (White et al. 1986). Dieser ca. 1 mm lange und 0,1 mm dicke Rundwurm lebt im Erdreich und ernährt sich von Bakterien in verfaulenden Pflanzenresten. Er kann nicht sehen oder hören, sondern nimmt chemische, thermale und taktile Reize auf. Er besitzt genau 302 Neuronen (und 56 Glia- und andere Hilfszellen für

258

10 Die Perspektive der Systembiologie

diese Neuronen) bei insgesamt 959 Körperzellen, ein eindrucksvolles Verhältnis, und deren Verschaltung kann in Form einer Matrix oder eines Graphen dargestellt werden. Da die Verschaltung genetisch bestimmt ist, gibt es zwischen den verschiedenen Exemplaren keine Unterschiede. Die ca. 7500 Synapsen sind sämtlich kartiert, und es gibt auch eine Simulationsumgebung (Szigeti et al. 2014), um dieses Netzwerk zu explorieren. Die Neuronen feuern nicht, sondern senden analoge elektrische Signale, und das Lernen findet nicht an Synapsen statt, sondern in den Signalwegen innerhalb der Neuronen. Größere Tiere haben natürlich mehr Neuronen. Die Fruchtfliege Drosophila melanogaster besitzt beispielsweise ca. 250.000, Nagetiere wie Mäuse oder Ratten haben 70–200 Mio., Vögel noch mehr, bis hin zum Raben mit 2 Mrd., was die gleiche Größenordnung wie beim Schwein oder Hund ist, Rhesusaffen, die beliebten Versuchstiere der Hirnforschung bei Primaten, mehr als 6 Mrd., und Menschen bis zu 100 Mrd., die durch ca. 150 Billionen Synapsen miteinander verbunden sind. Man kann also Caenorhabditis elegans nicht einfach hochskalieren. Außerdem gibt es verschiedene Skalen, auf denen Verbindungen anatomisch bestehen und funktional relevant sind, so dass zum Verständnis des menschlichen Connectoms ein Multiskalenzugang erforderlich ist. Wegen der Vielfalt und Heterogenität der Daten und des großen Skalenspektrums lässt sich da nun so ziemlich alles anwenden, was wir oben entwickelt oder zumindest angesprochen haben. Die Erkundung des menschlichen Connectoms und die Entwicklung der hierzu erforderlichen und geeigneten mathematischen Methoden bilden derzeit ein aktives Forschungsprojekt (Bassett und Sporns 2017). Es zeichnen sich auch speziesübergreifende Organisationsprinzipien ab (van den Heuvel et al. 2016), wie die Modularität, also die Unterteilung in funktionale Teilnetze, die in sich eng verknüpft, aber nur lose mit dem Rest des Netzwerkes verbunden sind, bei gleichzeitiger effizienter Verknüpfung, die bewirkt, dass Signale schnell von einer Region in jede andere übertragen werden können. Dabei gibt es typischerweise eine zentrale Gruppe von stark verknüpften Knoten, über die dann die Verbindungen in die verschiedenen Regionen laufen. Auf Englisch wird dies mit dem m. E. wenig treffenden Ausdruck „rich club“ bezeichnet. Wir hatten im Abschn. 10.2 gesehen, dass man die Zerlegbarkeit eines Netzes durch das Spektrum seines Laplaceoperators kontrollieren kann, s. (10.2.19), und ebenso auch die Abweichung von der Bipartitheit, s. (10.2.21). Die Berechnung dieses Spektrums, für die es effiziente numerische Verfahren gibt, liefert also praktische Verfahren der qualitativen Analyse (Banerjee und Jost 2009), die auch für die Connectomuntersuchung nützlich sein sollten. Die anatomische, strukturelle Verknüpfung des Gehirns sollte das Substrat für die funktionale Verknüpfung bilden. Um Letztere zu bestimmten, kann man beispielsweise Korrelationen zwischen Voxeln, kleinen räumlichen Würfelzellen, analog zu den Pixeln der Bildanalyse, in bildgebenden Verfahren bestimmen, die die Gehirnaktivität bei kognitiven Prozessen messen. Allerdings sind die statistischen Schwierigkeiten dabei erheblich, und um statistisch belastbare Resultate zu erhalten, muss man typischerweise Mittlungen über mehrere Versuchspersonen vornehmen, die die gleiche kognitive Aufgabe lösen. Hierzu ist in Lohmann et al. (2016) ein sehr sorgfältiges Verfahren entwickelt worden. Natürlich

10.4 Evolution und Kontrolle

259

werden dadurch individuelle Unterschiede in der Arbeitsweise des Gehirns verwischt, ganz abgesehen davon, dass es wegen Unterschieden in der Gehirnanatomie schon sehr schwierig ist, die Daten verschiedener Personen geometrisch aufeinander zu beziehen.

10.4

Evolution und Kontrolle

Wir hatten uns schon im Kap. 2 mit den Konzepten der Evolutionsbiologie auseinandergesetzt. In diesem Abschnitt wollen wir nun die skizzierte systembiologische Perspektive in einen evolutionstheoretischen Kontext einbetten. Dazu muss Letzterer allerdings auch modifiziert werden. In diesem Sinne werde ich hier in Jost (2018) entwickelte Vorstellungen rekapitulieren. Was zeichnet eine biologische Struktur aus, und was ermöglicht ihren Erhalt oder ihre Reproduktion? Wie kann sie sich also in ihrem Stoffwechsel selbst aufrechterhalten, sich in ihrer Eigenart fortpflanzen und Störungen verkraften? Und wie kann in der Evolution Neues entstehen? Stößt die Evolution irgendwann an ihre Grenzen, oder hat sie diese gar schon erreicht, oder kann das Leben immer komplexer werden? Selbsterhalt und Innovation sind also die beiden wesentlichen Aspekte. Diese sind miteinander verschränkt. Um sich in einer sich verändernden und konkurrenzgeprägten, weil ressourcenbeschränkten, Umwelt erhalten zu können, müssen biologische Systeme sich ständig anpassen und neue Strategien entwickeln, also Selbsterhalt durch Innovation. Wir werden argumentieren, dass solche Innovationen in der Erweiterung und Verbesserung der Kontrolle von Prozessen bestehen. Aber zunächst kurz zu den Quellen der Innovation. Auf der Ebene des Genoms gibt es zwei Möglichkeiten. Die eine besteht in der Neukombination schon in dem Genpool einer Spezies oder auch bei horizontalem Gentransfer anderswo vorhandener Elemente. Die andere besteht in der Variation durch Mutation des vorhandenen genetischen Materials, sowohl durch Austausch einzelner Nukleotide wie durch größere Umordnungen wie Verdoppelungen von Genclustern oder räumliches Rearrangement, wodurch neuartige Ablesekombinationen ermöglicht werden. Auf der Ebene des Proteoms kann es dann zu neuen Faltungsformen kommen. In was für eine dreidimensionale Struktur sich ein Protein faltet, bestimmt seine Funktion in der Zelle und insbesondere seine Interaktionen mit anderen Proteinen. Es gibt hier einen riesigen und vermutlich bisher noch keineswegs ausgeschöpften Möglichkeitsraum. Dies alleine garantiert allerdings noch keinen fast unbegrenzten Komplexitätszuwachs. Kein Lebewesen ist autonom, sondern jedes ist für seine Lebensbedingungen auf seine Umwelt angewiesen, und jeder einzelne zelluläre Prozess kann nur in Interaktion mit anderen funktionieren. Einem einzelnen Protein nützt es nichts, kompliziert gefaltet zu sein, sondern eine solche Faltung ist nur die Voraussetzung für eine Wechselwirkung mit anderen kompliziert gefalteten Proteinen oder eine subtile Interaktion mit anderen Stoffen. Komplexität entwickelt sich nicht in Isolation, sondern in der Wechselwirkung mit anderen komplexen Systemen (für einen systematischen Zugang zu Komplexitätsmaßen s. Ay et al. 2011). Um aus diesen Komplexität extrahieren zu können,

260

10 Die Perspektive der Systembiologie

müssen diese geeignet kontrolliert werden. Damit sind wir beim Thema der Kontrolle, und wir wollen dieses Thema nun biologisch konkretisieren. Wir haben schon verschiedentlich betont, dass weder beim Stoffwechsel noch bei der Reproduktion das materielle Substrat erhalten bleibt. Der biologische Stoffwechsel ist ein aktiver Prozess, der ständig Moleküle austauscht. Z. B. kann man im Zitronensäurezyklus (s. z. B. Alberts et al. 2007, Nelson und Cox 2005), einem der wichtigen Schritte im Stoffwechsel aerober Zellen, verfolgen, wie ein in einem Acetyl-CoA-Molekül hereinkommendes Kohlenstoffatom nach zweimaligem Umlauf wieder als Bestandteil eines Kohlendioxidmoleküls ausgeschieden wird. Wichtig ist dabei, dass das Vorprodukt Acetyl-CoA in den Prozess eingespeist wird. Dies geschieht wiederum durch vorgelagerte Prozesse, die Glykolyse und die oxidative Decarboxylierung von Pyruvat zu Acetyl-CoA. Und die für den ersten dieser Prozesse, die Glykolyse, benötigten Zuckermoleküle müssen wiederum als Nahrung zugeführt werden. Und auch der in aeroben Zellen nachgelagerte Prozess, die oxidative Phosphorilierung, dient der Gewinnung von energieliefernden Molekülen (AdenosinTriphosphat, ATP), die dann benutzt und dabei in andere, weniger energiehaltige Moleküle überführt werden. Und ATP wird dann wiederum ziemlich universell in der Zelle eingesetzt, um die Energie für Reaktionen zu liefern. ATP selbst wird dabei aufgebraucht, oder genauer in eine weniger energiereiche Substanz, ADP, überführt (s. Abschn. 4.1), die dann in den gerade beschriebenen Prozessen, also dem Zitronensäurezyklus und der Oxidation, wieder in ATP zurückverwandelt werden muss. Die angesprochenen Reaktionen ermöglichen dann wiederum das Funktionieren der Zelle, in Vielzellern in einem Organismus. Insbesondere liefert das die Energie für die Nahrungsbeschaffung, womit sich der Kreis wieder schließt. Die Nahrungsbeschaffung dient aber nicht nur dem Erhalt des Organismus, sondern auch seinem Aufbau in der Individualentwicklung und ermöglicht letztendlich die Fortpflanzung. Und bei der Fortpflanzung wird bei Vielzellern kaum materielles Substrat weitergegeben, sondern nur die Keimzellen, die die Instruktionen zum Aufbau des Organismus in einer geeigneten Umwelt enthalten. So sind schnelle Prozesse innerhalb der Zelle mit organismischen Prozessen wie der Nahrungsbeschaffung und dem generationsübergreifenden Prozess der Fortpflanzung miteinander verknüpft und verwoben. Es geht also um die Kontrolle und Regulation von Prozessen auf sehr verschiedenen Ebenen. Dabei handelt es sich um die Überführung eines allgemeinen Inputs, z. B. Nahrung, in einen spezifischen Output, Aminosäuren, aus denen Proteine gebildet werden, und um die Kanalisierung und Reproduzierbarkeit von Vorgängen. Ein biologisches System muss also Vorgänge unter seine Kontrolle bringen und diese dann für einen Strukturaufbau einsetzen. Kontrollmechanismen können und müssen vielleicht sogar meist sehr unspezifisch sein, wegen der Komplementarität zwischen der Information, die in dem zu kontrollierenden Vorgang enthalten ist, und derjenigen, die für die Kontrolle benötigt wird . Die letztere kann viel geringer als die erstere sein. Dies zeigt das Beispiel der Viren. Ein Virus kontrolliert auf sehr einfache Weise, mit sehr geringer genetischer Information, einen oftmals hochkomplexen zellulären Vorgang und setzt diesen für seine eigene Reproduktion ein. Und auf einer viel höheren Ebene fangen Räuber oft mit sehr einfachen Tricks Beutetiere ein, die

10.4 Evolution und Kontrolle

261

eine hochkomplexe Struktur aufgebaut haben, die dann dem Räuber als Nahrung dient und seinen eigenen Strukturaufbau ermöglicht. Man muss nur wissen, was man fressen muss, aber nicht, wie das zustande kommt. Das Letztere ist viel komplizierter als das Erstere. Kontrollmechanismen sind oft sehr allgemein, und gerade deswegen können sie unterschiedliche Vorgänge kontrollieren. Hierfür gibt es auf allen biologischen Skalen Beispiele. • Im Abschn. 3.3 hatten wir schon verschiedene Aspekte der Genregulation besprochen. Zunächst einmal gibt es Proteine, die unspezifisch binden und dadurch beispielsweise in Vertebratenzellen ganze Regionen der DNS der Ablesung entziehen. Nicht nur für die Genexpression, sondern auch für die DNS-Replikation und -Reparatur gibt es unspezifische Kontrollmechanismen. In einem spezifischeren Schritt operieren dann bei demjenigen Teil der DNS, der nicht der Ablesung entzogen ist, bestimmte Proteine als Transskriptionsfaktoren. Solche Proteine binden an bestimmte Sequenzmotive in der Nähe von abzulesenden Regionen und steuern dadurch deren Ablesung. Diese Sequenzmotive sind aber vielleicht gerade nicht für die abzulesende Region spezifisch, sondern für die bindenden Proteine. Auf diese Weise kann ein- und derselbe Transskriptionsfaktor möglicherweise die Ablesung verschiedener Sequenzen kodieren, aus denen Gene entstehen, die verschiedene Proteine kodieren, die gemeinsam eine bestimmte zelluläre Funktion ausführen. • Dies geht auf der Ebene der RNS weiter. Wie wiederum im Abschn. 3.3 erläutert, wird die Verarbeitung der RNS durch Wechselwirkung mit Proteinen und regulierenden RNSen gesteuert, und die entsprechenden Sequenzmotive sind für die kontrollierenden Faktoren spezifisch, nicht aber für die kontrollierten kodierenden Sequenzabschnitte. So kann die Kontrolle systematischer Ablesungen von Genkomplexen auf verschiedenen Ebenen stattfinden. Auch die reichhaltige Kombinatorik dieser regulierenden und kontrollierenden Komplexe hatten wir angesprochen. Wir verweisen auch auf die systematischen Überlegungen in Boi (2011). • Die Hoxgene hatten wir schon in den Abschn. 1.3 und 3.2 besprochen. Diese Hoxgene stellen allgemeine Regulations- und Kontrollmechanismen zur Herausbildung spezifischer Strukturen wie Gliedmaßen oder Augen dar. Homologe Hoxgene operieren in verschiedenen Arten zur Herausbildung artspezifischer Strukturen, und umgekehrt kann auch ein- und dasselbe Hoxgen in einer Art die Entstehung verschiedener Strukturen regulieren. Überhaupt hat wohl erst die Verdoppelung von Hoxgenclustern die erfolgreiche Evolution der verschiedenen Vertebratenstämme ermöglicht, denn auf diese Weise wurde das Repertoire allgemeiner Kontrollmechanismen erweitert. • Monod, Changeux und Jacob (Monod et al. 1963) haben das Konzept der allosterischen Inhibition als allgemeines biologisches Prinzip entwickelt. Dies besagt, dass die Aktivität eines Proteins dadurch unterbunden oder auch auf andere Weise reguliert werden kann, dass an einen nicht funktionalen Abschnitt ein anderes Protein anbindet, wodurch die Konformation des zu regulierenden Proteins verändert und der eigentliche funktionale Bereich unzugänglich gemacht wird.

262

10 Die Perspektive der Systembiologie

• Es gibt auch eine Reihe von Proteinen, beispielsweise Interleukin-6, die in einer eukaryontischen Zelle sehr verschiedene regulatorische Aufgaben übernehmen, von der Mitwirkung in bestimmten Signalübertragungskaskaden bis hin zur Auslösung der Apoptose, des Zelltodes. • Insekten besitzen ein allgemeines Kontrollprinzip zur Übertragung von Sinnesinputs in motorische Outputs. Die Kopplung, also welcher Input in welchen Output übersetzt wird, kann dabei variieren, obwohl der Kontrollmechanismus als solcher der gleiche bleibt, und dies ermöglicht den Insekten schnelle evolutionäre Anpassungen, von der Erschließung neuer Nahrungsquellen bis hin zur differenzierten Arbeitsteilung in den Kolonien sozialer Insekten. • Ebenfalls im Abschn. 1.3 hatten wir dargelegt, dass ein wesentlicher Evolutionsmechanismus in der Umschichtung von Kontrollmechanismen in der Individualentwicklung besteht. Insbesondere können bei Insekten oder Amphibien Prozesse zwischen der juvenilen Larven- und der adulten Phase verschoben werden. So haben Amphibien normalerweise eine Larvenphase, während der sie im Wasser leben und mit Kiemen atmen, und nach einer Metamorphose dann eine adulte Phase, in der sie Lungen zur Atmung haben und meist an Land leben und sich fortpflanzen. Der Axolotl (Ambystoma mexicanum) hat aber die Metamorphose aufgegeben und verbringt sein ganzes Leben in der Larvenphase. Eine einfache Umordnung der Entwicklungsschritte hat also drastische Konsequenzen für Lebensweise und Fortpflanzung. Es brauchen also keine neuen Module geschaffen werden, sondern es müssen nur die vorhandenen umgeordnet werden. Kontrollen können in verschiedener Weise miteinander kombiniert, beispielsweise durch • Sequentielle Reihung: der Output eines Prozesses liefert den Input für einen neuen kontrollierten Prozess. • Hierarchische Schichtung: Kontrollen höherer Stufe kontrollieren Kontrollen niedriger Stufe. • Reziproke Kontrolle: Kontrollen kontrollieren sich wechselseitig. Wir verweisen insbesondere auf den Abschn. 8.4, in welchem wir die fundamentale evolutionäre Rolle von Symbiosen dargelegt hatten. Mit dem konzeptionellen Ansatz der Kontrolle und Regulation von Prozessen durch andere Prozesse ermöglichen wir auch einen systematischen quantitativen Zugang zur Analyse biologischer Prozesse mit den Methoden der Informationstheorie. Dabei wird für jeden biologischen Prozess quantifiziert, wieviel Information in dem Prozess selber enthalten ist, und wieviel Information noch zu seiner Kontrolle zusätzlich erforderlich ist. Natürlich sind Kontroll- und Regulationsmechanismen auch für andere Systeme konstitutiv, z. B. für soziale Systeme. Allerdings sind biologische Systeme auf eine viel innigere Art mit physikalischen Strukturen und Gesetzen verwoben, von der dreidimensionalen Geometrie des Raumes, in dem beispielsweise die zellulären Prozesse ablaufen und durch die

10.4 Evolution und Kontrolle

263

regulatorische Strukturen mit geometrischen Lagebeziehungen verknüpft werden (wofür wir im Abschn. 3.3 den Begriff des Topons eingeführt haben), bis zur Rolle der Schwerkraft für die Ontogenese höherer Organismen. In diesem Kapitel haben wir drei verschiedene Aspekte der Systembiologie angesprochen, die modernen Methoden zur Gewinnung von Hochdurchsatzdaten, die mathematischen Methoden der Netzwerkanalyse und das evolutionsbiologisch gedachte Konzept der Kontrolle und Regulation. Alle drei Zugänge sind sicherlich wichtig, aber es fragt sich, wie sie zusammengebracht werden können. Aus den Daten lässt sich mit den Methoden der Netzwerkanalyse viel herausziehen, aber damit ist noch nicht klar, wie dies in die evolutionsbiologische Perspektive eingeordnet werden kann. Es gibt das berühmte Diktum von Theodosius Dobzhansky (1900–1975), einem der Architekten der neodarwinistischen Synthese, „Nothing in Biology Makes Sense Except in the Light of Evolution“. Zwar ist diese Formulierung vielleicht etwas zu einseitig, denn es gibt auch physikalische Gesetzmäßigkeiten, denen das Leben unterworfen ist, aber nichtsdestoweniger ist der evolutionäre Kontext entscheidend für das Verständnis biologischer Prozesse und Strukturen. Nun kommt der evolutionäre Aspekt wohl bei der Gewinnung und Analyse biologischer Daten wohl häufig zu kurz. Der vorliegende Abschnitt präsentiert einen Ansatz, durch den eine Integration möglich sein sollte. Für eine solche Integration müsste man jedenfalls einerseits die Daten auf biologische Funktionen beziehen und andererseits simplistische evolutionsbiologische Ansätze, wie beispielsweise in Abschn. 2.1 beschrieben und kritisiert, überwinden.

Zusammenfassung und Ausblick

11

Die Biologie ist vielfältig, nicht nur, weil die Formen des Lebens vielfältig sind, sondern auch, weil lebendige Formen erst aus dem Zusammenwirken sehr verschiedener Skalen und Ebenen verstanden werden können. Entsprechend vielfältig sind auch die mathematischen Methoden, die in der Biologie zum Einsatz kommen oder das Potential dazu haben. Das kann verwirrend sein, und man möchte gerne einen systematischen Überblick gewinnen. Nun ist allerdings die Biologie selbst keine systematische Wissenschaft, oder zumindest heute keine systematische Wissenschaft mehr. Im 18. Jahrhundert hatte Linné ein systematisches Klassifikationssystem der biologischen Arten entwickelt, das auch heute noch von Botanikern und Zoologen benutzt wird. Aber dieses System hat auch systematische Probleme, und wir haben uns mit einigen von diesen Problemen auseinandergesetzt. Zunächst beruht eine solche Klassifikation auf der Identifikation von unterscheidenden Merkmalen. Welche Merkmale hierzu herangezogen werden, mag auf Außenstehende willkürlich wirken, während Biologinnen und Biologen sich auf eine nicht bruchlos formalisierbare Intuition und Erfahrung berufen mögen. Der Schlüssel mag darin liegen, dass verschiedene Merkmale nicht unabhängig voneinander sind, sondern typischerweise miteinander korreliert sind. Vom Standpunkt der Morphologie aus, also der vergleichenden Betrachtung von Formen, hatten wir im Abschn. 2.10 versucht, dies zu formalisieren. Korrelationen zwischen Merkmalen können dabei verschiedene Gründe haben. Es kann sich um aufeinander abgestimmte Anpassungen an Funktionen à la Cuvier handeln, aber auch um strukturelle Einschränkungen durch Baupläne à la Geoffroy St. Hilaire, wie im Abschn. 1.3 dargelegt. Wenn man nicht nur rezente Arten miteinander vergleicht, sondern auch fossile Formen heranzieht, um à la Darwin phylogenetische Abstammungsverhältnisse zu rekonstruieren, so kann man auch die stammesgeschichtlichen Veränderungen von Merkmalen für die Klassifikation heranziehen. Das kladistische System von Hennig, das wir im Abschn. 2.9 dargestellt haben, beruht auf einer stringenten Logik solcher Veränderungen. Allerdings entwickelt sich das Leben nicht nach einer stringenten phylogenetischen Logik, und so führen auf verschiedenen Merkmalskomplexen beruhende Klassifikationen manchmal zu Widersprüchen. Ohnehin müssen bei © Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3_11

265

266

11 Zusammenfassung und Ausblick

der Vielfalt von biologischen Merkmalen auch statistische Methoden herangezogen werden, und aus unterschiedlichen Typen von Korrelationen sollten sich, wie wir im Abschn. 2.10 formal dargelegt haben, auch Rückschlüsse darauf ziehen lassen können, was funktionale Anpassungen und was strukturelle Einschränkungen darstellt. Heutzutage ist aber sowieso die Stammbaumrekonstruktion auf der Grundlage paläontologischer Daten durch das Vergleichen genetischer Sequenzen ersetzt worden. Aber auch hier fügen sich die Daten nicht immer in einen widerspruchsfreien Stammbaum ein, und es sind daher geometrische und stochastische Methoden zur Auswahl von Bäumen entwickelt worden, die die Daten bestmöglich repräsentieren, s. Abschn. 2.9. Durch Darwin ist aber nicht nur die hierarchische statische Ordnung von biologischen Formen durch eine in einem Stammbaum darzustellende Hierarchie von Abstammungslinien ersetzt worden, sondern es hat sogar der grundlegende Begriff der linnéschen Systematik, die Art oder Spezies, eine historische Dimension gewonnen und ist dadurch schwammig geworden. Wenn sich Arten ändern oder aufspalten, so können variierende oder sich gerade verzweigende Arten nicht mehr rein statisch erfasst werden. Und während die immer anzutreffende Variation innerhalb von Arten für die Systematiker ein ärgerliches Hindernis bei ihrer Arbeit darstellt und eine real vorgefundene Form auf einen abstrakten Ideltyp bezogen werden sollte, wird diese Variation in der darwinschen Selektion zu einem Reservoir zur Entwicklung besser angepasster Populationen. Eine Art ist daher als dynamische Fortpflanzungsgemeinschaft zu konzipieren, und es gibt keine Idealtypen mehr, sondern jedes Exemplar stellt eine individuelle, aus einem Genpool gezogene Variante dar. In einer Art balancieren sich also die Divergenzen durch unterschiedliche Selektionsdrücke in variierenden Habitaten, auf die eine Population möglicherweise verteilt ist, und die Konvergenzen durch sexuelle Rekombination (Breidbach und Jost 2004). Wenn nun eine Population durch äußere Ereignisse auf verschiedene Habitate verteilt wird, zwischen denen kein genetischer Austausch mehr möglich, so sollten diese Teilpopulationen durch genetische Zufälle und unterschiedliche Anpassungen auseinanderdriften und zu eigenen Arten werden. Dies ist die sogenannte allopatrische Speziation, von dem einflussreichen Evolutionsbiologen Mayr als einzige Möglichkeit der Artbildung angesehen (Mayr 1969). Dies ist allerdings nicht unwidersprochen geblieben, und man hat auch konkrete Beispiele sympatrischer Speziationen gefunden, wo sich also eine Art in zwei neue Arten aufspaltet, zwischen denen sich dann Fortpflanzungsbarrieren entwickeln, obwohl zunächst Paarungen zwischen Individuen verschiedener Teilpopulationen noch möglich sind und wohl auch typischerweise vorkommen, allerdings im Laufe der Zeit immer seltener werden. Auch wenn das Mayrsche Diktum, dass man in der Evolutionsbiologie in Populationen und nicht in Klassen oder Typen denken solle, weitgehend akzeptiert ist, ist der Begriff der biologischen Art weiterhin höchst umstritten. Noch problematischer ist der Begriff der Fitness. Fitness soll den Fortpflanzungserfolg messen. Dies kann sich auf Vorgänger beziehen, und man kann dann im Prinzip einfach deren Nachkommenschaft zählen. Dass ein Individuum, oder um es neutraler auszudrücken, eine biologische Struktur mehr Nachkommen hat als eine andere, kann zufällige Gründe haben,

11 Zusammenfassung und Ausblick

267

aber es kann auch daran liegen, dass die eine besser als die andere an ihre Lebensbedingungen angepasst war. Letzteres ist natürlich biologisch interessanter als ersteres, aber trotzdem noch zu simpel. Denn nicht nur die ursprüngliche Struktur, sondern auch die Zwischenglieder bis zu den rezenten Exemplaren sollten besser angepasst gewesen sein. Und wenn es keine zufälligen Änderungen durch Mutationen oder andere Effekte zwischen der ursprünglichen und den rezenten Strukturen gegeben hat, sollten auch die Bedingungen, an die die Strukturen angepasst waren, die gleichen geblieben sein. Nun kann man die Logik herumdrehen. Die ursprüngliche Struktur hat deshalb mehr Nachkommen generiert, weil sie schon Anpassungen an Umweltbedingungen, denen ihre Nachkommen ausgesetzt später waren, vorweggenommen hat. Das führt nun auf zwei Aspekte. Erstens wird Fitness in der Literatur auch gerne rezenten Formen zugeschrieben, als erwarteter Fortpflanzungserfolg, also mathematisch eine Wahrscheinlichkeitsverteilung für die Anzahl der Nachkommen in späteren Generationen. Diese Wahrscheinlichkeiten sind allerdings bedingte Wahrscheinlichkeiten, und zwar bedingt auf die derzeitigen Lebensbedingungen. Man muss also die Erwartung hineinstecken, dass sich die relevanten Aspekte in der Zukunft nicht verändern werden. Aber zweitens kann der Fortpflanzungserfolg über Generationen hinweg nicht nur auf einer Anpassung an feste Bedingungen, sondern auch auf einer Anpassungsfähigkeit an sich verändernde Bedingungen beruhen. Das führt dann auf Konzepte wie Evolvierbarkeit, die allerdings noch nicht wirklich formal befriedigend gefasst sind. Es wird auch viel über Robustheit geschrieben (z. B. unter wesentlicher Einbeziehung neuerer molekularbiologischer Erkenntnisse Wagner 2005), als Fähigkeit, Störungen zu verkraften. Die Störungen können dabei systematisch oder zufällig sein. Aber auch das ist nicht so einfach, denn statt einfach seine Struktur trotz Störungen aufrecht zu erhalten, kann man auch seine Struktur flexibel verändern, um so beispielsweise die in Störungen steckende Energie für eigene Zwecke auszunutzen. Und wenn man auch Störungen eines bestimmten Typs, insbesondere kurzfristige Störungen, besser absorbieren oder abpuffern kann, macht man sich dadurch vielleicht gerade verletzlicher gegenüber anderen Störungen, beispielsweise solchen, die erst auf einer längeren Zeitskala auftreten. Auch zur biologischen Robustheit gibt es schon formale Ansätze, z. B. Carlson und Doyle (2002), Ay und Krakauer (2007), aber sicher auch noch Spielraum für weitere Entwicklungen. Vor allem stellt sich aber die Frage, worauf sich Fitness eigentlich bezieht und wodurch sie erhöht werden kann. Wir hatten schon im Abschn. 2.1 argumentiert, dass es biologisch und logisch unsinnig ist, Fitness nur auf Gene zu beziehen. Ganz abgesehen davon, dass solchen Argumentationen wie in Dawkins (1992, 1996) ein völlig unreflektierter Genbegriff zugrunde liegt, worauf wir gleich noch zurückkommen werden, können die Träger der Fitness sicher nicht nur in bestimmten DNS-Schnipseln verortet werden, denn wichtiger als die in einzelnen Genen enthaltene Strukturinformationen sind wohl die regulatorischen Mechanismen, die aber typischerweise nicht auf einzelne Gene, sondern auf das Zusammenwirken von Gruppen von Genen abzielen und sehr indirekt, z. B. im räumlichen Arrangement des Genoms, implementiert sein können. Außerdem können Gene mutieren, und hierin mag vielleicht gerade ein langfristiger Fitnessvorteil liegen. Es wird jedenfalls ein abstrakterer

268

11 Zusammenfassung und Ausblick

Begriff von Einheiten der Selektion benötigt (für einen wichtigen Ansatz s. Laubichler und Renn 2015). Im Abschn. 2.1 hatten wir dieses Problem allerdings dadurch umgangen, dass wir nicht von der Reproduktion einer Struktur, sondern von der Fortsetzung eines Prozesses ausgegangen sind und daher den Fitnessbegriff auf Stammlinien beziehen konnten (Jost 2003). Wie schon angeklungen, ist der in Argumentionsketten der theoretischen Evolutionsbiologie verwendete Genbegriff zu naiv. Was aber viel schlimmer ist, auch in der Molekularbiologie, wo man eigentlich glaubt, Gene konkret als molekulare Strukturen identifizieren zu können, ist der Genbegriff meist unklar und verworren. Auch wenn, wie gerade dargelegt, das Gen nicht als Einheit der Selektion taugt, so soll dieser Begriff doch noch Einheiten der Vererbung, und daher auch Einheiten der Rekombination und der Mutation, und gleichzeitig Einheiten der Funktion erfassen. Dadurch wird der Begriff aber überstrapaziert. Mutieren können nun einzelne Nukleotide, also kleinere Einheiten als Gene, aber es kann auch zu Umordnungen des Genoms durch Inversionen, Deletionen, Verdoppelungen etc. kommen. Und für die Rekombination gibt es erst einmal eine Organisationsstufe zwischen den einzelnen Genen und dem Genom, nämlich die Chromosomen, die frei miteinander rekombiniert werden können. Aber auch innerhalb von Chromosomen kann es zum Kreuztausch kommen. Dann müssen die entsprechenden Chromosomenteile der Eltern komplementär miteinander verbunden werden, was sehr präzise Steuerungsmechanismen verlangt. Außerdem gibt es beispielsweise noch Transposons, die im Genom hin und her springen, oder den horizontalen Gentransfer zwischen verschiedenen Spezies, der insbesondere bei Bakterien weit verbreitet ist, aber auch bei höheren Organismen eine wichtige Rolle spielt (Margulis 1970). Vor allem aber realisiert sich Biologie in Strukturen und Funktionen. Es gilt dann aufzudecken, was die Determinanten dieser Strukturen und Funktionen sind. Und auch wenn es insbesondere im Zeitalter der billigen Genomsequenzierung nahe liegt, diese Determinanten in der DNS zu verordnen, ist es nun doch nicht so, dass eine biologische Funktion einfach aus einem zusammenhängenden Stück der DNS, einem offenen Ableserahmen (ORF), entsteht, das dann als Ganzes abgelesen und in ein Polypeptid übersetzt wird. Schon die Ablesung, also die Konversion eines DNS-Abschnittes in ein RNS-Molekül, ist an bestimmte Bedingungen geknüpft. Schon im Anschluss an das Operon-Modell (Jacob und Monod 1961) wurde klar, dass Gene indirekt wirken können, als Transkriptionsfaktoren, die die Ablesung von DNS-Abschnitten steuern, statt eine direkte biologische Funktion, beispielsweise im Stoffwechsel der Zelle, auszuüben. Darüberhinaus gibt es allgemeine Mechanismen wie die DNS-Methylierung, die ganze Teile der DNS der Ablesung entziehen oder zugänglich machen, und die übrigens auch nicht nur genetisch, sondern auch epigenetisch vererbt werden können (Jablonka und Lamb 2005). Und vor allem kommt es weniger darauf an, ob ein einzelnes Gen exprimiert wird oder nicht, sondern darauf, dass Gruppen von Genen in koordinierter Weise aktiviert werden. Darauf werden wir gleich noch zurückkommen. Aber zunächst einmal zu Struktur und Funktion. Abstrakt wird dies unter dem Begriff des Phänotyps gefasst, im Unterschied zum Genotyp, also dem, was im Genom steckt. Nun ist die Beziehung zwischen den beiden nicht bijektiv. Schon intrinsisch können verschiedene

11 Zusammenfassung und Ausblick

269

Genotypen zum gleichen Phänotyp führen. Als wir im Abschn. 3.4 in einem stilisierten Modell wie in Fontana und Schuster (1998) als Phänotypen sekundäre RNS-Strukturen betrachtet hatten, hatten wir schon gesehen, dass es sog. neutrale Becken gibt, also Bereiche im Genotypraum, die den gleichen Phänotyp erzeugen. Dies steht nicht nur im Einklang mit der Theorie von Kimura (1963/1983), dass die meisten genetischen Mutationen neutral in dem Sinne sind, dass sie keine phänotypischen Auswirkungen haben, sondern liefert auch ein wichtiges Schema für phänotypische Übergänge, wenn fortgesetzte Mutationen an den Rand eines solchen neutralen Beckens führen. Der gleiche Genotyp kann aber umgekehrt auch je nach äußeren Bedingungen zu sehr verschiedenen Phänotypen führen. Der Phänotyp leitet sich nämlich nicht allein aus dem Genotyp ab, sondern aus dem Wechselspiel des Genoms mit externen Faktoren. Dies hatten wir u. a. im Abschn. 6.3 angesprochen. Vor allem aber braucht im Genom nur das kodiert werden, was nicht als strukturelle Information von der Umwelt bereit gestellt wird. Oder anders ausgedrückt, muss ein Lebewesen nur befähigt werden, das, was es zum Leben und zur Fortpflanzung benötigt, aus der Umwelt zu beziehen. Zum Beispiel muss es lernen, das Richtige zu fressen, ohne dabei wissen zu müssen, welche tollen Substanzen wie Vitamine sich in seinem Futter befinden. Weil die Umwelt viel Struktur bereit stellen kann, braucht im Genom nur noch die dazu komplementäre Information vorhanden zu sein, wobei wir für die genaueren informationstheoretischen Konzepte auf Bertschinger et al. (2014) verweisen. In extremer Form gilt dies für Viren, die nur eine Strategie brauchen, um eine Wirtszelle zu finden und sich in diese einzuschleusen und dann deren Reproduktionsmechanismus zu kapern. Und dies führt nun zu den Überlegungen im Abschn. 10.4, dass nämlich die wesentliche Fähigkeit des Lebens darin besteht, Prozesse zu kontrollieren. Nur dadurch lässt sich der sich aus dem Zweiten Hauptsatz der Thermodynamik ergebende Strukturzerfall vermeiden, indem nämlich aus der Kontrolle anderer Prozesse Energie für den eigenen Strukturaufbau und -erhalt bezogen wird. Und komplexe Lebensformen beruhen dann auf einer Hierarchie von solchen Kontrollen. Nahrungsketten sind ein relativ banales Beispiel, aber auch das Zusammenspiel verschiedener Substanzen und Abläufe in einer Zelle oder einem Organismus lässt sich wohl nur so verstehen. Insbesondere kommt es dabei auch zu gegenseitigen Kontrollen. Nur so lässt es sich jedenfalls verstehen, dass aus einem ziemlich kleinen Genom (die Gensequenzierer gehen von nur ca. 20.000 menschlichen Genen aus, wobei aber, wie wir im Abschn. 3.3 schon argumentiert haben und hier noch einmal aufgreifen werden, ein konzeptionell ungeeigneter Genbegriff benutzt wird) ein so komplexes Lebewesen wie die Leserin dieses Buches hervorgehen kann. Nun wird der Phänotyp, das Erscheinungsbild eines Organismus, der sich in seiner Umwelt behaupten muss, wesentlich durch die funktionalen Moleküle in seinen Zellen bestimmt. Wie das genau passiert, ist im Detail oft noch nicht genau verstanden, s. Kap. 5, aber wir wollen hier mal im Bereich der molekularen Zellbiologie bleiben. Die zellulären Funktionen werden von Proteinen, manchmal auch von funktionalen RNS-Molekülen ausgeübt. Proteine bestehen aus einem oder mehreren Polypeptiden, die wiederum nach dem genetischen Kode aus mRNSen übersetzt werden. Im Abschn. 3.3 hatten wir schon

270

11 Zusammenfassung und Ausblick

thematisiert, dass die Sachlage nicht so einfach ist, dass es ein Gen in der DNS als bestimmten ununterbrochenen Abschnitt gibt, der als RNS abgelesen wird, welche dann im Ribosom in ein Polypeptid übersetzt wird. Vielmehr werden auf der RNS-Ebene typischerweise verschiedene DNS-Abschnitte in einem komplexen Regulationsprozess zusammengeschnitten und zusammengefügt, und eine Art von kombinatorischem Kode entscheidet dann, was jeweils übersetzt wird. Vor allem legt dies einen Genbegriff nahe, der von dem funktionalen Produkt ausgeht (Scherrer und Jost 2007a, b), denn dies ist das biologisch Entscheidende. Dann kann man fragen, wo die Information zur Herstellung eines solchen Produktes herkommt. Man kann also einerseits versuchen, zurückzuverfolgen, welches die ursprünglichen Bestandteile des Genoms sind, die zu einem solchen Produkt beigetragen haben und welche regulatorischen Schritte auf dem Weg dorthin vollzogen werden. Andererseits kann man natürlich auch fragen, zu welchen Produkten ein bestimmter Abschnitt im Genom beitragen kann oder was ein externes Signal alles bewirken kann. Biologisch ist es nun so, dass Kodierung und Regulation nicht säuberlich voneinander getrennt, sondern miteinander verwoben sind. Gruppen von Nukleotiden, die in Tripeln jeweils eine bestimmte Aminosäure kodieren, können gleichzeitig regulatorische Rollen übernehmen. In der DNS mögen die Promotorund Repressorabschnitte noch von den eigentlichen kodierenden Regionen getrennt sein, aber nach der Ablesung können in der gefalteten mRNS, die ein Polypeptid kodiert, oder in ihren Vorläufern, wie der pre-mRNS, spezifische kleine Nukleotidmotive Andockstellen für regulatorische Proteine oder andere RNSen bilden. Sequenzen können also gleichzeitig kodierende und regulatorische Funktionen haben. In Scherrer und Jost (2007a, b) haben wir hierfür den Begriff des Genons eingeführt, als Kontraktion aus Gen und Operon, um die regulatorischen Sequenzmotive in der mRNS zu erfassen, mit Analoga auf den früheren Stufen der DNS und der pre-mRNS. Diese interagieren mit Signalen, die in Form von Proteinen oder anderen RNS-Molekülen auf die betreffende mRNS treffen. Auf diese Weise kann z. B. ein kombinatorischer Kode implementiert werden, der die koordinierte Übersetzung von für die jeweilige Zellfunktion erforderlichen Genen ermöglicht (Jost und Scherrer 2014). Funktion und Regulation können allerdings nicht nur durch kombinatorische Kodes gesteuert werden, sondern auch durch räumliche Anordnungen. Bei Proteinen hängt die Funktion von der dreidimensionalen Faltungsstruktur ab, und räumliche Konfigurationen sind auch entscheidend für die regulative Wechselwirkungen zwischen Molekülen. Auch die räumliche Anordnung der DNS ist wesentlich für die Regulation. Insbesondere hat der überwiegende Anteil der DNS im menschlichen Genom weder eine kodierende Funktion, noch enthält er Sequenzmotive, an die Transkriptionsfaktoren binden. Man hat dies daher als Gerümpel (junk DNA) bezeichnet. Tatsächlich dienen solche Abschnitte nicht nur als Abstandshalter zwischen kodierenden Regionen, sondern organisieren im Zusammenspiel mit spezifischen Proteinen vor allem auch die räumliche Struktur der DNS, damit z. B. gemeinsam abzulesende Regionen nahe zusammen gebracht werden können, s. z. B. Boi (2011). Daher haben Klaus Scherrer und ich den Begriff des Topons für eine räumliche Konfiguration von regulatorischer Signifikanz als Gegenstück zum Genon eingeführt.

11 Zusammenfassung und Ausblick

271

Allerdings erfordert ein genaueres Verständnis einer solchen geometrischen Regulation wohl noch viele weitere Untersuchungen. Komplementiert werden müssen diese Ansätze durch Forschungen zum systematischen Zusammenwirken vieler verschiedener und verschiedenartiger Bestandteile in einer Zelle oder einem Organismus, wozu wir im Abschn. 10.2 schon einige mathematische Methoden skizziert haben. Dabei ist die Mathematik allerdings keineswegs nur ein Hilfsmittel der Datenanalyse. Vielmehr muss die Mathematik mit der Biologie auf allen Stufen interagieren, sowohl als Führerin bei der logischen Klärung der Grundbegriffe als auch als Partnerin bei der Entwicklung und Analyse von Modellen und als Helferin bei der Auswertung großer und unübersichtlicher Datensätze, und diese Rollen lassen sich heutzutage auch nicht mehr säuberlich voneinander trennen. Die Informationstheorie beispielsweise stellt 1) Konzepte bereit, mit denen sich analysieren und quantifizieren lässt, was für Kodierung und Regulation benötigt wird und wie intern Kodiertes und extern vorhandene Strukturen ineinandergreifen, kann 2) in Zusammenarbeit mit der Molekularbiologie konkrete Modelle für die biologische Informationsübertragung entwickeln und 3) Korrelationen und Regelmäßigkeiten in bioinformatischen Daten extrahieren. Außerdem ist die Informationstheorie wesentlich für das Verständnis des Verhältnisses von neurobiologischen Dynamiken und kognitiven Prozessen, s. Kap. 9. Ähnliches trifft auf andere mathematische Gebiete zu, die in diesem Buch an verschiedenen Stellen auftreten, wie die dynamischen Systeme, die Stochastik oder die Kombinatorik. Mathematische Modelle haben den Vorteil, dass sie aus konzeptionellen Ansätzen konkrete quantitative Aussagen ableiten und Datenanalysemethoden gewinnen können. Schlussbemerkung: Mein Anliegen bei den vorstehenden Ausführungen war es nicht sowohl, einen Überblick über etablierte mathematische Modelle und schon geleistete Anwendungen mathematischer Methoden in der Biologie zu geben, als Chancen für Wechselwirkungen zwischen den beiden Disziplinen zu erkunden und aufzuzeigen. Bei einer solchen Zusammenarbeit mit der Biologie steht die Mathematik aber auch in Konkurrenz mit der Physik und der Informatik. Das vielseitig einsetzbare Instrumentarium der statistischen Physik und die systematische algorithmische Vorgehensweise der Informatik sind durchaus potente Konkurrenten für das strukturell-algebraische Denken und die sorgfältigen analytischen Abschätzungen der Mathematik. Ich hoffe, dass Mathematikerinnen und Mathematiker trotzdem den Mut aufbringen werden, sich ohne Vorurteile gegenüber andersartigen Denkweisen auf biologische Fragestellungen einzulassen und hierdurch die interdisziplinäre Forschung mitzugestalten.

Literatur

L. Abbott, S. Nelson, Synaptic plasticity: taming the beast, Nature Neuroscience Suppl. 3, 1178–1183, 2000 C. Adami, C. Ofria und T. C. Collier (2000). Evolution of biological complexity. Proceedings of the National Academy of Sciences, USA, 97:4463–4468. B. Aguda und A. Friedman, Models of cellular regulation, Oxford Univ. Press, 2008 Y.-Y. Ahn, J. Bagrow, S. Lehmann, Link communities reveal multiscale complexity in networks, Nature 466 (2010), 761–765 B. Alberts, A. Johnson, P. Walter, J. Lewis, M. Raff, K. Roberts, Molecular biology of the cell, Garland Science, New York, 5 2007 N. Alon und V. Milman, λ1 , isoperimetric inequalities for graphs, and superconcentrators, J. Combin. Theory Ser. B 38 (1985), no. 1, 73–88. S.-I. Amari, Dynamics of pattern formation in lateral-inhibition type neural fields, Biol. Cybernet. 27 (1977) 77–87. S. Amari, Information geometry and its applications, Springer, Applied Mathematical Sciences Volume 194, 2016 A. Amores, A. Force et al., Zebrafish hox clusters and vertebrate evolution, Science 282, 1711–1714, 1998 R. Amundson, The changing role of the embryo in evolutionary theory. Roots of evo-devo, Cambridge Univ. Press, 2005 P. Andersen, R. Morris, D. Amaral, T. Bliss und J. O’Keefe (Hrsg.), The hippocampus book, Oxford Univ. Press, 2007 A. Anderson und A. Chaplain, Continuous and discrete mathematical models of tumor-induced angiogenesis, Bull. Math. Bio. 60 (1998), 857–899 J. Andersen, R. Penner, C. Reidys, M. Waterman, Topological classification and enumeration of RNA structures by genus, J. Math. Biol. (2013) 67:1261–1278 https://doi.org/10.1007/s00285012-0594-x F. Andrés und G. Coupland, The genetic basis of flowering responses to seasonal cues. Nature Reviews Genetics 13, 627–639, 2012 T. Appel, The Cuvier-Geoffroy debate: French science in the decades before Darwin, Oxford Univ. Press, 1987

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3

273

274

Literatur

W. Arthur, The emerging conceptual framework of evolutionary developmental biology, Nature 415, 757–764, 2002 F. M. Atay, J. Jost, On the emergence of complex systems on the basis of the coordination of complex behaviors of their elements, Complexity 10, 17–22, 2004 F. M. Atay, J. Jost, Qualitative inference for dynamical systems, in: M. Stumpf (Hrsg.), Handbook of Statistical Systems Biology, Wiley, 2011 F. M. Atay, J. Jost und A. Wende (2004). Delays, connection topology, and synchronization of coupled chaotic maps. Physical Review Letters, 92(14), 144101. N. Ay, J. Jost, H.V. Lê, L. Schwachhöfer, Information geometry, Springer, Ergebnisse der Mathematik, 3. Folge, Bd. 64, 2017 N. Ay, D.C. Krakauer. Geometric Robustness Theory and Biological Networks. Theory in Biosciences (2007) 93–121. N. Ay, E. Olbrich, N. Bertschinger, J. Jost, A geometric approach to complexity, Chaos 21, 037103, 2011. J. C. Baez, B. S. Pollard, J. Lorand und M. Sarazola (2018). Biochemical Coupling Through Emergent Conservation Laws. arXiv preprint arXiv:1806.10764. P. Bak, D. Chialvo, Adaptive learning by extremal dynamics and negative feedback, Phys. Rev. E, 031912, 2001 P. Bak, C. Tang und K. Wiesenfeld (1987). Self-organized criticality: an explanation of 1/f noise. Physical Review Letters. 59 (4): 381–384. A. Banerjee und J. Jost (2007). Spectral plots and the representation and interpretation of biological data. Theory in Biosciences, 126(1), 15–21. A. Banerjee und J. Jost (2008). On the spectrum of the normalized graph Laplacian. Linear algebra and its applications, 428(11–12), 3015–3022. A. Banerjee und J. Jost (2008). Spectral plot properties: Towards a qualitative classification of networks. NHM, 3(2), 395–411. A. Banerjee und J. Jost (2009). Graph spectra as a systematic tool in computational biology. Discrete Applied Mathematics, 157(10), 2425–2431. W. Banzhaf, B. Baumgaertner, G. Beslon, R. Doursat, J. A. Foster, B. McMullin, ... und R. White (2016). Defining and simulating open-ended novelty: requirements, guidelines, and challenges. Theory in Biosciences, 135(3), 131–161. Y. Barash, J. A. Calarco, W. Gao, Q. Pan, X. Wang, O. Shai, B. J. Blencowe, B. J. Frey, Deciphering the splicing code. Nature 465, 53–59 (2010) Y. Barriel, Character, in: T. Heams, P. Huneman, G. Lecointre, M. Silberstein (Hrsg.), Handbook of evolutionary thinking in the sciences, pp. 115–140, Springer, 2015 D. Bassett und O. Sporns, Network neuroscience, Nat. Neurosci. 20(3) (2017), 353–364 F. Bauer and J. Jost, Bipartite and neighborhood graphs and the spectrum of the normalized graph Laplacian, Comm. Anal. Geom. 21 (2013), no. 4, 787–845 F. Bauer, J. Jost und S. Liu, Ollivier-Ricci curvature and the spectrum of the normalized graph Laplace operator. Math. Res. Lett. 19, 1185–1205 (2012) M. Bedau (1998). Four puzzles about life. Artificial Life, 4:125–140. M. A. Bedau, J. S. McCaskill, N. H. Packard, S. Rasmussen, C. Adami, D. G. Green, ... und T. S. Ray (2000). Open problems in artificial life. Artificial life, 6(4), 363–376. U. Behn, Idiotype Network. In: Encyclopedia of Life Sciences (ELS). John Wiley, Chichester. https:// doi.org/10.1002/9780470015902.a0000954.pub2, 2011 U. Behn, L. van Hemmen, B. Sulzer, Memory to Antigenic Challenge of the Immune System: Synergy of Idiotypic Interactions and Memory B-Cells. J. Theor. Biol. 165, 1–25, 1993 G. Bell, Mathematical model of clonal selection and antibody production. I, J. Theor. Biol. 29, 191–232, 1970

Literatur

275

G. Bell, Mathematical model of clonal selection and antibody production. II, J. Theor. Biol. 33, 339–378, 1971 A. Benzi, R. Sutera, A. Vulpiani: The mechanism of stochastic resonance. J. Phys. A: Math. Gen. 14, 453–457 (1981) N. Bertschinger, J. Rauh, E. Olbrich, J. Jost, N. Ay, Quantifying unique information. Entropy 16, 2161–2183, 2014 B. B. Bhattacharya und S. Mukherjee, Exact and asymptotic results on coarse Ricci curvature of graphs. Discrete Mathematics 338, 23–42 (2015) G.-Q. Bi, M.-M. Poo, Synaptic modification by correlated activity: Hebb’s postulate revisited, Annu. Rev. Neurosci. 24, 139–166, 2001 G.-Q. Bi, M.-M. Poo, Distributed synaptic modification in neural networks induced by patterned stimulation, Nature 401, 792–796, 1999 W. Bialek, Biophysics, Princeton Univ. Press, 2012 L. Boi, Plasticity and complexity in biology: Topological organization, regulatory protein networks, and mechanisms of genetic expression. In: G.Terzis u. R.Arp (eds.), Information and living systems, MIT Press, 2011, pp. 205–250 E. Bonabeau, M. Dorigo, G. Theraulaz, Swarm intelligence. From natural to artificial systems, Oxford University Press, New York, 1999 C. Bordenave, D. Chafaï, Around the circular law. Probab. Surveys 9 (2012) E. Boyle, Y. Li, E. Pritchard, An Expanded View of Complex Traits: From Polygenic to Omnigenic, Cell 169, 1177–1186, 2017 S. Bratulic, M. Toll-Riera und A. Wagner (2017). Mistranslation can enhance fitness through purging of deleterious mutations. Nature communications, 8, 15410. O. Breidbach, Die Materialisierung des Ichs. Zur Geschichte der Hirnforschung im 19. und 20.Jahrhundert, Suhrkamp, Frankfurt/M., 1997 O. Breidbach, Goethes Metamorphosenlehre, Wilhelm Fink, München, 2006 O. Breidbach, J. Jost, Working in a multitude of trends – species balancing populations, J. Zool. Syst. Evol. Research 42, 202–207, 2004 J. Brown, B. Enquist, G. West, A general model for the origin of allometric scaling laws in biology. Science, 276(5309), 122–126, 1997 M. Brown, F. Wilson, I. Riches, Neuronal evidence that inferomedial temporal cortex is more important than hippocampus in certain processes underlying recognition memory. Brain Research 409 (1987), 158–162 P. H. Brownell und J. Leo van Hemmen (2001). Vibration sensitivity and a computational theory for prey-localizing behavior in sand scorpions. American Zoologist, 41(5), 1229–1240. J. Bull, Sex determination in reptiles. Q. Rev. Biol. 55, 3–21, 1980 A. Burkitt, M. Gilson, J. L. van Hemmen, Spike-timing-depen- dent plasticity for neurons with recurrent connections. Biol. Cybern. 96(5):533–546, 2007 F.M. Burnet, The Clonal Selection Theory of Acquired Immunity (Vanderbuilt University, Nashville, TN), 1959 D. Burnham, A. Feduccia, L. Martin, A. Falk, Tree climbing – a fundamental avian adaptation, J. Syst. Paleontology 9, 103–107, 2011 J. Call, M. Tomasello (Hrsg.), The gestural communication of apes and monkeys, Lawrence Erlbaum Associates, Mahwah, N.J., und London, 2007 J. M. Carlson und J. Doyle, Complexity and robustness, PNAS 99(2002), 2538–2545 L. Cavalli-Sforza, M. Feldman, Darwinian selection and „altruism“, Theor. Pop. Biol. 14, 268–280, 1978 D. Challet, M. Marsili und Y.Z. Zhang, Minority games. Oxford Univ. Press, 2005

276

Literatur

D. Chicharro und S. Panzeri, Synergy and Redundancy in Dual Decompositions of Mutual Information Gain and Information Loss, Entropy 19(2), 71, 2017; https://doi.org/10.3390/e19020071 F. Chung, Spectral graph theory, AMS, 1997 B. Clarke, Stoichiometric network analysis. Cell Biophys. 12, 237–253, 1988 R. Coico, G. Sunshine, Immunology, Wiley Blackwell, 7 2015 H. Colonius, H. Schulze, Tree structures for proximity data, British J. Math. Stat. Psychology 34, 167–180, 1981 A. Coolen, The mathematical theory of minority games. Oxford Univ. Press, 2005 A. Creager, The life of a virus. Tobacco mosaic virus as an experimental model, 1930–1965, Univ. Chicago Press, 2002 A. Creager, The paradox of the phage group: Essay review, J. Hist. Biol. 43, 183–193, 2010 F.H.C. Crick (1958). On Protein Synthesis. In F.K. Sanders. Symposia of the Society for Experimental Biology, Number XII: The Biological Replication of Macromolecules. Cambridge University Press. pp. 138–163 J. Crow und M. Kimura, Introduction to population genetics, Harper and Row, New York, 1970 K. Crow, P. Stadler et al., The „fish specific“ hox cluster duplication is coincidental with the origin of teleosts, Mol. Biol. Evol. 23, 121–136, 2006 C. Curto, What can topology tell us about the neural code? Bull. AMS 54 (2017), 63–78 G. Cuvier, Die Umwälzungen der Erdrinde in naturwissenschaftlicher und geschichtlicher Beziehung, übersetzt v. J. Nöggerath, Band 1, Eduard Weber, Bonn, 2 1830, neu hrsg. v. P. Heuer, OlmsWeidmann, Hildesheim, Zürich, New York, 2009; franz. Original: M. le Baron Cuvier, Discours sur les révolutions de la surface du globe, et sur les changemens qu’elles ont produit dans le règne animal, Paris, 5 1828 A. Danchin, S. Noria, S., Genome structures, operating systems and the image of the machine. In: Molecules in Time and Space (pp. 195–208). Springer, Boston, MA, 2004 d’Arcy Thompson, On growth and form, Cambridge Univ. Press, 1917 Ch. Darwin, The origin of species, 1859, hrsg. v. J. Burrow, Penguin Classics, London, 1985 R. Dawkins, Auf welche Einheiten richtet sich die natürliche Selektion, in: H. Meier (Hrsg.), Die Herausforderung der Evolutionsbiologie, 53–78, Piper, München, 3 1992 R. Dawkins, Das egoistische Gen, Rowohlt, Reinbek bei Hamburg, 1996 (Übersetzung von: The selfish gene, Oxford University Press, 2 1989) R. Dawkins, The extended phenotype, Oxford Univ. Press, 1982, 1999 P. Dayan, L.F. Abbott, Theoretical Neuroscience, MIT Press, 2001 R. De Boer, P. Hogeweg, Memory hut no suppression in low-dimensional symmetric idiotypic networks. Bull. math. BioI. 51, 223–246, 1989 R. De Boer, P. Hogeweg, Unreasonable implications of reasonable idiotypic network assumptions. Bull. math. Bioi. 51, 381–408, 1989 J. Delile, M. Herrmann, N. Peyriéras, R. Doursat, A cell-based computational model of early embryogenesis coupling mechanical behaviour and gene regulation, Nat Commun 2017 01 23; 8:13929. P. Delves, S. Martin, D. Burton, I. Roitt, Roitt’s essential immunology, Wiley Blackwell, 13 2017 R. Der, Self-organized acquisition of situated behaviors, Theory Biosci. 120, 179–187, 2001 U. Dieckmann und M. Doebeli. On the origin of species by sympatric speciation. Nature, 400:354– 357, 1999. Th. Dobzhansky (1973). Nothing in Biology Makes Sense Except in the Light of Evolution. The American Biology Teacher. 35 (3): 125–129. https://doi.org/10.2307/4444260. JSTOR 4444260 J. Dodziuk, Difference equations, isoperimetric inequality and transience of certain random walks, Trans. AMS 284, 787–797, 1984 C. Doeller, C. Barry und N. Burgess, Evidence for grid cells in a human memory network, Nature 463 (2010), 657–661

Literatur

277

M. Dorigo und T. Stützle. Ant Colony Optimization. MIT Press, Cambridge, MA, 2004. D. Drasdo und S. Höhme, A single-cell-based model of tumor growth in vitro: monolayers and spheroids. Physical Biology 2, 133–147, 2005 A. Dress, Trees, tight extensions of metric spaces, and the cohomological dimension of certain groups: A note on combinatorial properties of metric spaces, Adv. Math. 53, 321–402, 1984 A. Dress, Minimum entropy trees. A new heresy in tree reconstruction, 2001 A. Dress, Recent progress in phylogenetic combinatorics, https://doi.org/10.1142/97818481610920001,Proceedings of the 6th Asia-Pacific Bioinformatics Conference, APBC 2008, 14–17 January 2008, Kyoto, Japan A. Dress, Basic phylogenetic combinatorics. Cambridge University Press, 2012 H. Driesch, Die Biologie als selbständige Grundwissenschaft und das System der Biologie, W. Engelmann, Leipzig, 2 1911 F. Duchesneau, J. Smith, The Leibniz-Stahl controversy translated, edited, and with an introduction by Francois Duchesneau and Justin E. H. Smith, Yale University Press, New Haven, Conn., London, 2016 F. Dumortier, R. Roussarie, Canard cycles and center manifolds. Mem. Am. Math. Soc. 577, 1996 F. Dyson, Origins of Life, Cambridge Univ. Press, 2 1999 A. Edelman, E. Kostlan, and M. Shub, How many eigenvalues of a random matrix are real?, J. Amer. Math. Soc. 7, (1994), 247–267 L. Edelstein-Keshet (2001). Mathematical models of swarming and social aggregation. In Proceedings of the 2001 International Symposium on Nonlinear Theory and Its Applications, Miyagi, Japan (pp. 1–7). A. Eduardo und R. Carmo, An objective view of biological diversity: how history and epistemology shaped current treatment, Theory Biosc. 136, 113–122, 2017 F. Effenberger, J. Jost, A. Levina, Self-organization in balanced state networks by STDP and homeostatic plasticity, PLoS Comput Biol 0(0): e1004420. https://doi.org/10.1371/journal.pcbi.1004420, 2015 P. Eggenberger, Cell interactions as a control tool of developmental processes for evolutionary robotics, in: P. Maes et al.(Hrsg.), From animals to animats, pp. 440–448, MIT Press, 1996 P. Eggenberger, Evolving morphologies of simulated 3-D organisms based on differential gene expression, in: P.Husbands, I.Harvey (Hrsg.), Fourth European Conference on Artificial Life, pp. 205–213, MIT Press, 1997 T. Ehrig, J. Jost, M. Warglien, A Formal Framework for Strategic Representations and Conceptual Reorganization. 2018 I. Eibl-Eibesfeldt, Grundriß der vergleichenden Verhaltensforschung, Piper, München, 8 1999 M. Eigen, Selforganization of matter and evolution of biological macromolecules, Naturwissenschaften 58, 465– , 1971 M. Eigen, From strange simplicity to complex familiarity, Oxford Univ. Press, 2013 M. Eigen, P. Schuster, The Hypercycle: a principle of natural self-organization, Springer, 1979 C. Eizaguirre, T. L. Lenz, A. Traulsen und M. Milinski (2009). Speciation accelerated and stabilized by pleiotropic major histocompatibility complex immunogenes. Ecology letters, 12(1), 5–12. N. Eldredge, S.J. Gould, Punctuated equilibria: an alternative to phyletic gradualism, in: T. Schopf (Hrsg.), Models in Paleobiology, 82–115, Freeman, Cooper and Co., San Francisco, 1972; wieder abgedruckt in: N. Eldredge, Time frames, Princeton Univ. Press, Princeton, N.J., 1985, 2 1989 M. Elowitz, S. Leibler, A synthetic oscillatory network of transcriptional regulators, Nature 403, 335–338, 2000 B. Ermentrout, Type I membranes, phase resetting curves, and synchronization, Neural Comp. 8, 979–1001, 1996 B. Ermentrout, D. Terman, Mathematical foundations of neuroscience, Springer, 2010

278

Literatur

I. Eshel, On the changing concept of evolutionary population stability as a reflection of a changing point of view in the quantitative theory of evolution, J. Math. Biol. 34, 485–510, 1996 W.J. Ewens, Mathematical population genetics I, Springer, 2 2004 S. Exner, Entwurf zu einer physiologischen Erklärung der psychischen Erscheinungen, Pt 1. Leipzig: Franz Deuticke, 1894. A. Fábregas-Tejeda und F. Vergara–Silva, The emerging structure of the Extended Evolutionary Synthesis: where does Evo-Devo fit in?, Theory Biosci. (2018) 137: 169–184 M. Feldman, L. Cavalli-Sforza, Further remarks on Darwinian selection and „altruism“, Theor. Pop. Biol. 19, 251–260, 1981 N. Fenichel: Geometric singular perturbation theory for ordinary differential equations. Journal of Differential Equations, 31, 53–98 (1979) R. A. Fisher. The Genetical Theory of Natural Selection. Clarendon Press, Oxford, 1930 R. FitzHugh, Impulses and physiological states in models of nerve membrane, Biophys. J. 1, 445–466, 1961 W. Fontana, P. Schuster, Shaping spaces: the possible and the attainable in RNA genotype-phenotype mapping, J. theor. Biol. 194, 491–515, 1998 M. Forger, S. Sachse, Lie superalgebras and the multiplet structure of the genetic code, I: codon representations, Journal of Mathematical Physics 41.8 (2000): 5407–5422. R. Forman, Bochner’s method for cell complexes and combinatorial Ricci curvature. Discrete and Computational Geometry 29, 323–374 (2003). S. Forrest, C. Beauchemin, Computer immunology, Immunological Reviews 216, 176–197, 2007 S. Fortunato, Community detection in graphs, Physics Reports 486 (2010), 75–174 D. Franck, Verhaltensbiologie, dtv, Georg Thieme, Stuttgart, 2 1985 S. Frank, Foundations of social evolution, Princeton University Press, 1998 M.I. Freidlin und A.D. Wentzell, Random Perturbations of Dynamical Systems (Springer, Berlin, 1998) A. Friederici, W. Singer, Grounding language processing on basic neurophysiological principles, Trends in Cognitive Sciences, June 2015, Vol. 19, No. 6 M. Friedrich, Ancient mechanisms of visual sense organ development based on comparison of the gene networks controlling larval eye, ocellus, and compound eye specification in Drosophila, Arthropod. Struct. Dev. 35, 357–378, 2006 K. Friston, The free-energy principle: a unified brain theory? Nature Review Neurosc.11, 127–138, 2010 D. Futuyma, Evolutionary biology, Sinauer Associates, Sunderland, Mass., 3 1998 R. Gadagkar, Ant, bee and wasp social evolution, Elsevier, 2016 T. Gardner, C. Cantor, J. Collins, Construction of a genetic toggle switch in Escherichia coli, Nature 403, 339–342, 2000 S. Gavrilets. Fitness Landscapes and the Origin of Species. Princeton University Press, 2004. W. Gehring, Master control genes in development and evolution, Yale Univ. Press, 1998 M. Geiß, J. Anders, P.F. Stadler et al., Reconstructing gene trees from Fitch’s xenology relation, J. Math. Biol. (2018) 77: 1459. https://doi.org/10.1007/s00285-018-1260-8 W. Gerstner, W. Kistler, Spiking neuron models, Cambridge Univ. Press, 2002 W. Gerstner, R. Kempter, J. van Hemmen und H. Wagner, A neuronal learning rule for sub-millisecond temporal coding. Nature 383: 76–78, 1996 W. Gerstner, R. Kempter, J. L. Van Hemmen und H. Wagner (1998). Hebbian Learning of Pulse Timing in the Barn Owl Auditory System. M. Gilson, A. Burkitt und L. J. Van Hemmen (2010). STDP in recurrent neuronal networks. Frontiers in computational neuroscience, 4, 23.

Literatur

279

A. Giraud, D. Poeppel, Cortical oscillations and speech processing: emerging computational principles and operations. Nat. Neurosci. 15, 511–517, 2012 D. Goldberg, Genetic algorithms, Addison-Wesley, 1989 A. Goldbeter, Biochemical oscillations and cellular rhythms: the molecular bases of periodic and chaotic behaviour. Cambridge university press, 1997 S.J. Gould, The structure of evolutionary theory, Belknap Press (Harvard Univ. Press), 2002 J. Goulet, J. Engelmann, B. P. Chagnaud, J. M. P. Franosch, M. D. Suttner und J. L. Van Hemmen (2008). Object localization through the lateral line system of fish: theory and experiment. Journal of Comparative Physiology A, 194(1), 1–17. A. Grafen, A geometric view of relatedness, Oxford Surveys in Evolutionary Biology 2, 28–89, 1985 A. Grafen, Biological signals as handicaps, J. Theor. Biol. 144, 517–544, 1990 A. Grafen, Formal Darwinism, the individual-as-maximising-agent analogy, and bet-hedging. Proceedings of the Royal Society, Series B 266, 799–803, 1999 A. Grafen, A first formal link between the Price equation and an optimisation program. Journal of Theoretical Biology 217, 75–91, 2002 A. Grafen, Optimisation of Inclusive Fitness, Journal of Theoretical Biology, 238(3), 541–563, 2006 R. Green et al., A draft sequence of the Neandertal genome, Science 328(2010), 710–722 V. Griffith, C. Koch, Quantifying Synergistic Mutual Information. In Guided Self-Organization: Inception; Prokopenko, M., Ed.; Springer: Berlin/Heidelberg,; Volume 9, 159–190, 2014 S. Grün und St. Rotter (eds.), Analysis of parallel spike trains, Springer, 2010 J. Gu, B. Hua und S. Liu (2015). Spectral distances on graphs. Discrete Applied Mathematics, 190, 56–74. J. Gu, J. Jost, S. Liu und P. F. Stadler (2016). Spectral classes of regular, random, and empirical graphs. Linear algebra and its applications, 489, 30–49. I. Gucwa (= I.Kosiuk), P. Szmolyan, Geometric singular perturbation analysis of an Autocatalotor model, Discrete and Continuous Dynamical Systems – Series S, 2, 783–806, 2009 B. Gutkin, B. Ermentrout, Dynamics of membrane excitability determine interspike interval veriability: A link between spike generation mechanisms and cortical spike brain statistics, Neural Comp. 10, 1047–1065, 1998 B. Gutkin, J. Jost, H. Tuckwell, Transient termination of spiking by noise in coupled neurons. EPL (Europhysics Letters). 2007; 81(2):20005. B. Gutkin, J. Jost, H. Tuckwell, Random perturbations of spiking activity in a pair of coupled neurons. Theory in Biosciences. 2008; 127(2):135–9. B. Gutkin, J. Jost, H. Tuckwell, Inhibition of rhythmic neural spiking by noise: the occurrence of a minimum in activity with increasing noise. Naturwissenschaften. 2009;96(9): 1091–7. T. Hafting, M. Fyhn, S. Molden, M. B. Moser und E. I. Moser, Microstructure of a spatial map in the entorhinal cortex. Nature 436, 801–806 (2005) Y. Haile-Selassis et al., A new hominin foot from Ethiopia shows multiple pliocene bipedal adaptations, Nature 483, 565–569, 2012 J. Haldane, Population genetics, New Biol. 18, 34–51, 1955 W. Hamilton, The genetical evolution of social behaviour, I und II, J. Theor. Biol. 7, 1–16 und 17–52, 1964 W. Hamilton, Narrow roads of gene land: The collected papers of W.D. Hamilton, i: Evolution of social behaviour, W.H. Freeman/Spektrum, Oxford, 1996 M. Harder, C. Salge, D. Polani, A bivariate measure of redundant information. Phys. Rev. E 87, 012130, 2013 J. Harer, D. Zagier, The Euler characteristic of the moduli space of curves. Invent Math 85, 457–485, 1986 A. Hastings, T. Powell (1991) Chaos in a three-species food chain. Ecology 72:896–903

280

Literatur

I. Hatton et al., The predator-prey power law: Biomass scaling across terrestrial and aquatic biomes, Science 349 (6252), 2015, J. Hawkins, Die Zukunft der Intelligenz, Rowohlt, Reinbek bei Hamburg, 2006 (Übersetzung der engl. Originalausgabe: On intelligence, Henry Holt, New York, 2004) D. Hebb, Organization of behavior. New York: Wiley, 1949 R. Heinrich, S. Schuster, The regulation of cellular systems, Chapman & Hall, 1996 D. Helbing (2001). Traffic and related self-driven many-particle systems. Reviews of modern physics, 73(4), 1067. M. Hellmuth, N. Wieseke, M. Lechner, H.-P. Lenhof, M. Middendorf, P. F. Stadler, Phylogenomics with paralogs, Proceedings of the National Academy of Sciences 112 (7) 2058–2063, 2015; https:// doi.org/10.1073/pnas.1412770112 W. Hennig, Phylogenetische Systematik, Paul Parey, Berlin und Hamburg, 1982 (deutscher Originaltext des zuerst 1966 auf Englisch publizierten Werkes) J. Hesse und T. Gross (2014). Self-organized criticality as a fundamental property of neural systems. Frontiers in Systems Neuroscience, 8, 166. A. Hodgkin und A. Huxley, A quantitative description of ion currents and its application to conductance and excitation in nerve membranes, J. Physiol. 117, 500–544, 1952 J. Hofbauer, K. Sigmund, The theory of evolution and dynamical systems, Cambridge University Press, 1988 J. Hofbauer, K. Sigmund, Evolutionary games and population dynamics, Cambridge University Press, 1998 J. Hofrichter, J. Jost, T.D. Tran, Information geometry and population genetics, Springer, 2017 P. Hogeweg, Evolving mechanisms of morphogenesis: on the interplay between differential adhesion and cell differentiation. Journal of Theoretical Biology, 203, 317–333, 2000 B. Hölldobler u. E.O. Wilson, The Number of Queens: An Important Trait in Ant Evolution, Naturwissenschaften 64, 8–15, 1977 B. Hölldobler u. E.O. Wilson, The superorganism, W.W.Norton, New York, London, 2009 C.S. Holling, Resilience and Stability of Ecological Systems, Annu. Rev. Ecol. Syst. 4 (1973), 1–23. D. Horak und J. Jost (2013). Spectra of combinatorial Laplace operators on simplicial complexes. Advances in Mathematics, 244, 303–336. J. Hornos, Y. Hornos, Algebraic model for the evolution of the genetic code, Phys. Rev. Lett. 71, 4401–4404, 1993 D. Hubel und T. Wiesel, Receptive fields of single neurons in the cat’s striate cortex, J. Physiol. 148 (1959), no. 3, 574–591 B. Inden und J. Jost (2015, December). Effects of several bioinspired methods on the stability of coevolutionary complexification. In Computational Intelligence, 2015 IEEE Symposium Series on (pp. 1094–1101). IEEE. B. Inden und J. Jost, Evolving neural networks to follow trajectories of arbitrary complexity, Preprint, 2018 E. Izhikevich, Dynamical systems in neuroscience, MIT Press, 2007 E. Jablonka und M. Lamb, Evolution in four dimensions, MIT Press, 2005 F. Jacob, Die Logik des Lebenden. Eine Geschichte der Vererbung, S. Fischer Verlag, Frankfurt/M., 1972, 2002 (übersetzt aus dem Französischen) F. Jacob, J. Monod, Genetic regulatory mechanisms in the synthesis of proteins, J. Molecular Biol. 3, 318–356, 1961 I. Jahn (Hrsg.), Geschichte der Biologie, Spektrum, Heidelberg, Berlin, 3 2000 H. J. Jensen (1998). Self-Organized Criticality. Cambridge: Cambridge University Press. N. K. Jerne, 1974. Towards a network theory of the immune system. Ann. Immunol. (Inst. Pasteur) 125C, 373–389, 1974

Literatur

281

N. K. Jerne, Idiotypic networks and other preconceived ideas. Immunol. Rev. 79, 5 –24, 1984 N. K. Jerne, The generative grammar of the immune system. EMBO J. 4, 243– 247, 1985 M. Jobling, M. Hurles, C. Tyler-Smith, Human evolutionary genetics, Garland Science, New York, 2004 J. Jost, On the notion of fitness, or: The selfish ancestor, Theory Biosci. 121, 331–350, 2003 J. Jost, External and internal complexity of complex adaptive systems, Theory Biosci. 123, 69–88, 2004 J. Jost, Postmodern analysis, Springer, 3 2005 J. Jost, Dynamical systems. Examples of complex behavior, Springer, 2005 J. Jost, Formal Aspects of the Emergence of Institutions, Structure and Dynamics 1(1), https:// escholarship.org/uc/item/6p64s9j0, 2005 J. Jost, Temporal correlation based learning in neuron models, Theory Biosci. 125, 37–53, 2006 J. Jost, Dynamical networks, pp. 35–62 in: J. Feng, J. Jost, M. Qian (Hrsg.), Networks: From Biology to Theory, Springer, 2007 J. Jost, Partial differential equations, Springer, 3 2013 J. Jost, Mathematical methods in biology and neurobiology, Springer, 2014 J. Jost, Mathematical concepts, Springer, 2015 J. Jost, Sensorimotor contingencies and the dynamical creation of structural relations underlying percepts, in: Strüngmann Forum Reports 18, The pragmatic turn: toward action-oriented views in cognitive science, hrsg. v. A. Engel, K. Friston, D. Kragic, pp. 121–138, MIT Press, Cambridge, 2016 J. Jost, Riemannian geometry and geometric analysis, Springer, 7 2017 J. Jost, Object Oriented Models vs. Data Analysis – Is This the Right Alternative?, in: J. Lenhard, M. Carrier (eds.), Mathematics as a tool, Boston Studies in the Philosophy and History of Science 327, pp. 253–286, Springer, 2017 J. Jost, Relations and dependencies between morphological characters, Theory Biosci. DOI https:// doi.org/10.1007/s12064-017-0248-z, 2017 J. Jost, Leibniz und die moderne Naturwissenschaft, Monographie, Reihe Wissenschaft und Philosophie, Springer, 2019 J. Jost, Mathematical Principles of Topological and Geometric Data Analysis J. Jost, Mathematical neurobiology: Concepts, tools, and questions, J. Jost, Complexity and cognition, Monographie, in Vorbereitung J. Jost, N. Bertschinger, E. Olbrich, Emergence. A dynamical systems approach, New Ideas Psych. 28, 265–273, 2010 J. Jost, M. Joy, Spectral properties and synchronization in coupled map lattices, Phys. Rev. E, 016201, 2001 J. Jost, X. Li-Jost, Calculus of variations, Cambridge Univ. Press, 1997 J. Jost und S. Liu, Ollivier’s Ricci curvature, local clustering and curvature-dimension inequalities on graphs. Discrete Computational Geometry 51, 300–322 (2014). J. Jost und R. Mulas, Hypergraph Laplace Operators for Chemical Reaction Networks, arXiv:1804.01474. J. Jost, J. Pepper, Individual optimization efforts and population dynamics: A mathematical model for the evolution of resource allocation strategies, with applications to reproductive and mating systems, Theory Biosci. 127, 31–43, 2008 J. Jost, K. Scherrer, Information theory, gene expression, and combinatorial regulation – A quantitative analysis, Theory Biosci. 133, 1–21, 2014 J. Jost, K. Scherrer, A conceptual analysis of genetic coding and regulation in the light of modern molecular biology, Preprint

282

Literatur

J. Jost, W.K. Wang, A reaction-diffusion system for substances decreasing each other’s production rates, Preprint J. Jost, Y. Wang, Optimization and phenotype allocation, Bull. Math. Biol. 76, 184–200, 2014 A. Kabalak, E. Smirnova und J. Jost, Non-cooperative game theory in biology and cooperative reasoning in humans. Theory in Biosciences, 134(1–2), pp. 17–46, 2015 K. Kaneko, Period-doubling of Kink-antikink Patterns, Quasi-periodicity in Antiferro-like Structures and Spatial Intermittency in Coupled Map Lattices — toward a prelude to a Field Theory of Chaos, Prog. Theor. Phys. 72 (1984), 480–486 K. Kaneko, Pattern dynamics in spatiotemporal chaos, Physica D 34, 1–41, 1989 G. Kardon, T. Heanue et al., The Pax/Six/Eya/Dach network in development and evolution, in: G. Schlosser und G. Wagner (Hrsg.), Modularity in development and evolution, Univ. Chicago Press, 2004, S. 59–80 S. Kauffman, The origins of order, Oxford University Press, New York, 1993 S. Kauffman, Der Öltropfen im Wasser, Piper München, 1996 (Übersetzung von: At home in the universe, Oxford University Press, New York, 1995) L. Kauppi, A. Jeffreys, S. Keeney, Where the crossovers are: recombination distributions in mammals, Nature Reviews Genetics 5, 413–424, 2004 J. Keener, J. Schneyd, Mathematical physiology, 2 Bde., Springer, 2 2009 E. Keller, L. Segel, Initiation of slime mold aggregation viewed as an instability, J. Theor. Biol. 26, 399–415, 1970 E. Keller, L. Segel, Model for chemotaxis, J. Theor. Biol. 30, 225–234, 1971 R. Kempter, W. Gerstner, J.L. van Hemmen, H. Wagner, Extracting oscillations: Neuronal coincidence detection with noisy periodic spike input, Neural Comput.10, 1987–2017, 1998 R. Kempter, W. Gerstner, J.L. van Hemmen, Hebbian learning and spiking neurons, Phys. Rev. E 59, 4498–4514, 1999 F. Képès, C. Vaillant. Transcription-Based Solenoidal Model of Chromosomes. Complexus 1, 171– 180, 2003 M. Kimmel, D. Axelrod, Branching processes in biology, Springer, 2002 M. Kimura, The neutral theory of molecular evolution, Cambridge Univ. Press, 1963, 1983 J. Kingman, The coalescent, Stoch. Proc. Appl. 13, 235–248, 1982 S. Klamt, J. Stelling, Two approaches for metabolic pathway analysis?, TRENDS in Biotechnology 21, 64–69, 2003 E. Klipp, R. Herwig, A. Kowald, C. Wierling, H. Lehrach, Systems biology in practice, Wiley-VCH, 2005 C. Koch, Biophysics of computation, Oxford Univ.Press, New York, 1999 T. Kohonen, Self-organizing maps, Springer, 1995 I. Kosiuk, P. Szmolyan, Scaling in singular perturbation problems: blowing up a relaxation oscillator. SIAM Journal on Applied Dynamical Systems, 10(4), 1307–1343, 2011 I. Kosiuk, P. Szmolyan, Geometric analysis of the Goldbeter minimal model for the embryonic cell cycle. Journal of mathematical biology, 72(5), 1337–1368, 2016 E. B. Kramer und P. J. Farabaugh, The frequency of translational misreading errors in E. coli is largely determined by tRNA competition. RNA 13, 87–96 (2007). C. Kuehn, Multiple time scale dynamics, Springer, 2015 M. Lachmann, C. Bergstrom, Signalling among relatives. II. Beyond the tower of Babel, Theor. Pop. Biol. 54, 146–160, 1998 M. Lachmann, C. Bergstrom, When honest signals must be costly, SFI Working Paper 99-08-059, 1999 F. Lara Ochoa, J. Murray, A non-linear analysis for spatial structure in a reaction-diffusion model, Bull. Math. Biol. 45, 917–930, 1983

Literatur

283

M.D. Laubichler (2006): Biologie als selbstständige Grundwissenschaft und die allgemeinen Grundlagen des Lebens, in M. Hagner and M.D. Laubichler (eds.) Der Hochsitz des Wissens; Das Allgemeine als wissenschaftlicher Wert, Diaphanes Verlag, Zürich, pp. 185–205. M. Laubichler und J. Maienschein (2008). From Embryology to Evo-Devo: A History of Developmental Evolution. Journal of the History of Biology 41 (3):579–582. M.D. Laubichler und J. Renn, Extended evolution: A conceptual framework for integrating regulatory networks and niche construction. Journal of Experimental Zoology Part B: Molecular and Developmental Evolution 324(7):565–577, 2015 A. Lazar, G. Pipa, J. Triesch, SORN: a self-organizing recurrent neural network, Frontiers Comput.Neurosc. https://doi.org/10.3389/neuro.10.023.2009 W. Leal, G. Restrepo, P. Stadler, J. Jost, Forman-Ricci Curvature for Hypergraphs, Preprint, arXive J. Lehman und K. Stanley, Abandoning Objectives: Evolution through the Search for Novelty Alone. Evolutionary Computation journal, (19):2, 189–223, 2011 H. Li und R. Durbin, Inference of human population history from individual whole-genome sequences, Nature 475(2011), 493–497 W.-H. Li, Molecular evolution, Sinauer Ass., Sunderland, Mass., 1997 B. Lindner, L. Schimansky-Geier, Analytical approach to the stochastic Fitzhugh-Nagumo system and coherence resonance, Phys. Rev. E 6019997270. R. Linsker, From basic network principles to neural architecture: Emergence of spatial-opponent cells, PNAS 83, 7508–7512, 1986 R. Linsker, From basic network principles to neural architecture: Emergence of orientation selective cells, PNAS 83, 8390–8394, 1986 R. Linsker, From basic network principles to neural architecture: Emergence of orientation columns, PNAS 83, 8779–8783, 1986 R. Linsker, Self-organization in a perceptual network, Computer 21(3), 105–117 (1988) S. Liu et al., Autopolyploidy leads to rapid genomic changes in Arabidopsis thaliana, Theory Biosc. 136, 199–206, 2017 G. Lohmann et al., Task-related edge density (ted) – a new method for revealing dynamic network formation in fmri data of the human brain. PLOS ONE, 11:1–22, 06 2016. https://doi.org/10.1371/ journal.pone.0158185. K. Lorenz, Das sogenannte Böse, Borotha-Schoeler, Wien, 1963, dtv, München, 1974 K. Lorenz, Die Rückseite des Spiegels. Versuch einer Naturgeschichte menschlichen Erkennens, Piper, München, 1973, dtv, München, 5 1981 K. Lorenz, Vergleichende Verhaltensforschung, Springer, Wien, 1978, dtv, München, 1982 L. Sagan (=L.Margulis), On the origin of mitosing cells, Journal of Theoretical Biology. 14 (3), 225–274, 1967 L. Margulis, Origin of Eukaryotic Cells, Yale University Press, 1970 H. Markram, J. Lübke, M. Frotscher, B. Sakmann, Regulation of synaptic efficacy by coincidence of synaptic APs and EPSPs, Science 275, 213–215, 1997 K. Maundrell, E. S. Maxwell, O. Civelli, A. Vincent, S. Goldberg, J.-F. Buri, M.-T. Imaizumi-Scherrer und K. Scherrer, Messenger RNP complexes in avian erythroblasts: Carriers of post-transciptional regulation? Mol. Biol. Rep. 5, 43–51, 1979 K. Maundrell und K. Scherrer, Characterization of Premessenger- RNA Containing Nuclear Ribonucleoprotein Particles from Avian Erythroblasts. Eur J Biochem. 99, 225–238, 1979 R. May, Will a Large Complex System be Stable?, Nature 238, 413–414, 1972 R. May, Stability and complexity in model ecosystems, Princeton Univ.Press, 2 1974, mit einer neuen Einleitung nachgedruckt 2001 R. May, Simple mathematical models with very complicated dynamics. Nature 261.5560 (1976): 459.

284

Literatur

J. Maynard Smith, Models of the evolution of altruism, Theor. Pop. Biol. 18, 151–159, 1980 J. Maynard Smith, Evolution and the theory of games, Cambridge University Press, 1982 J. Maynard Smith, E. Szathmáry, The major transitions in evolution, Oxford University Press, 1997 J. Maynard Smith, Evolutionary genetics, Oxford Univ. Press, 2 1998 E. Mayr, The biological meaning of species, Biological Journal of the Linnean Society, 1:311–320, 1969. E. Mayr, Biological classification. Toward a synthesis of opposing methodologies, Science 214, 510–516, 1981 E. Mayr, The growth of biological thought, Harvard Univ. Press, Cambridge, Mass., 1982 W. McCulloch und W. Pitts (1943). A logical calculus of the ideas immanent in nervous activity. Bulletin of Mathematical Biophysics, 5:115–133 J. McKee, Correlates and catalysts of hominin evolution in Africa, Theory Biosc. 136, 123–140, 2017 B. McNaughton, C. Barnes und J. O’Keefe, The contributions of position, direction, and velocity to single-unit activity in the hippocampus of freely moving rats, Exp. Brain Res. 52 (1983), 41–49 M.Meier-Schellersheim, X. Xu, B. Angermann, E. Kunkel, T. Jin, R. Germain, Key role of local regulation in chemosensing revealed by a new molecular interaction-based modeling method. PLoS Comput. Biol. 2, 710–724, 2006 R. Merks, The molecular Bauplan. Group of Theoretical Biology and Bioinformatics. Department of Biology. Utrecht University. The Netherlands, 1997 K. Meyer, A mathematical review of resilience in ecology, Nature Resource Modelling 29 (2016), 339–352 L. Michaelis; M.L. Menten (1913). Die Kinetik der Invertinwirkung. Biochem Z. 49: 333–369 Z. Michalewicz, Genetic algorithms + data structures = evolution programs, Springer, 1996 C. Michener und R. Sokal, A quantitative approach to a problem of classification, Evolution 11, 130–162, 1957 S. Miller, H. Urey, Organic compound synthesis on the primitive earth. Science, 130, 1959, pp. 245–251. R. Milo, S. Shen-Orr, S. Itzkovitz, N. Kashtan, D. Chklovskii und U. Alon (2002). Network motifs: simple building blocks of complex networks. Science, 298(5594), 824–827. A. Minelli, The development of animal form, Cambridge Univ.Press, 2003 M. Mitchell, An introduction to genetic algorithms, MIT Press, 1996 A. Mogilner, L. Edelstein-Keshet, L. Bent und A. Spiros (2003). Mutual interactions, potentials, and individual distance in a social aggregation. Journal of mathematical biology, 47(4), 353–389. J. Monod, J. P. Changeux und F. Jacob (1963). Allosteric proteins and cellular control systems. Journal of Molecular Biology, 6(4), 306–329. M. Morange, A history of molecular biology, Harvard Univ.Press, 1998 S. Motta, V. Brusic, Mathematical Modelling of the Immune System, in: G. Ciobanu et al. (eds.), Modelling in Molecular Biology, pp. 193–218, Springer, 2000 S. Mühlhausen, H.-D. Schmitt, K.T. Pan, U. Plessmann, H. Urlaub, L. Hurst, M. Kollmar, Endogenous Stochastic Decoding of the CUG Codon by Competing Ser- and Leu-tRNAs in Ascoidea asiatica, Current Biol. 2018, DOI: https://doi.org/10.1016/j.cub.2018.04.085 C. B. Muratov, E. Vanden-Eijnden, W.N. E, Self-induced stochastic resonance in excitable systems. Physica D 210, 227–240 (2005) J. Murray, Mathematical biology, 2 Bde., Springer, Berlin, 3 2002 D. Nelson, M. Cox, Lehninger: Principles of Biochemistry, W.H. Freeman, New York, 4 2005 A. Nicholson, An outline of the dynamics of animal populations, Aust. J. Zool. 2, 9–65, 1954 K. Nickelsen (Hrsg.), Die Entdeckung der Doppelhelix. Die grundlegenden Arbeiten von Watson, Crick und anderen, Springer, 2017

Literatur

285

K.J. Niklas und U. Kutschera, From Goethe’s plant archetype via Haeckel’s biogenetic law to plant evo-devo 2016, Theory Biosci. (2017) 136: 49–57 D. Noble, Modeling the heart – From genes to cells to the whole organ, Science 295 (2002), 1678– 1682 C. Nüsslein-Volhard, E. Wieschaus, Mutations affecting segment number and polarity. Nature 287, 795–801, 1980 B. Øksendal, Stochastic differential equations, Springer, 4 1995 S. Ohno, Evolution by gene duplication, Springer, 1970 J. O’Keefe,Place units in the hippocampus of the freely moving rat, Ex. Neurol. 51 (1976), 78–109 J. O’Keefe und J. Dostrovsky, The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat, Brain Res. 34 (1971), no. 1, 171–175. J. O’Keefe und L. Nadel, The hippocampus as a cognitive map, Clarendon Press Oxford, 1978. A. Okubo und S. A. Levin (2013). Diffusion and ecological problems: modern perspectives (Vol. 14). Springer. E. Olbrich, T. Kahle, N. Bertschinger, N. Ay, J. Jost, Quantifying structure in networks, The European Physical Journal B - Condensed Matter and Complex Systems 77, 239–247, 2010 Y. Ollivier, Ricci curvature of metric spaces. Comptes Rendus Mathematique 345, 643–646 (2007) Y. Ollivier, Ricci curvature of Markov chains on metric spaces. Journal of Functional Analysis 256, 810–864 (2009). L. Olsson, G.S. Levit und U. Hoßfeld, The “Biogenetic Law” in zoology: from Ernst Haeckel’s formulation to current approaches, Theory Biosci. (2017) 136: 19–29 P. Olofsson, Branching processes with local dependencies, Ann. Appl. Prob. 6, 238–268, 1996 L. Orgel, The maintenance of the accuracy of protein synthesis and its relevance to aging, Proceedings of the National Academy of Science USA 49 (4): 517–521, 1963 J. Oxley, Matroid theory, Oxford Univ. Press, 1992 B. Palsson, Systems biology, Cambridge Univ. Press, 2015 J. Pearl, Causality: Models, Reasoning and Inference. Cambridge University Press, 2000 J. Pepper, The evolution of evolvability in genetic linkage patterns, Santa Fe Institute Preprint 200202003, 2002 J. Pepper, B. Smuts, The evolution of cooperation in an ecological context: An agent-based model, in: T. Kohler, G. Gumerman (Hrsg.), Dynamics of human and primate societies, Oxford University Press, New York, 1999 J. Pepper, B. Smuts, A mechanism for the evolution of altruism among nonkin: positive assortment through environmental feedback. American Naturalist 160, 205–213, 2002 A. Perelson, C. De Lisi, Receptor clustering on a cell surface. I. Theory of receptor cross-linking by ligands bearing two chemically identical functional groups. Math. Biosciences 48, 71–110, 1980 A. Perelson, M. Mirmirani, und G. F. Oster, Optimal strategies in immunology. B cell differentiation and proliferation, J. Math. Biol. 3, 325–367, 1976 A. Perelson, G. Oster, Theoretical studies of clonal selection: minimal antibody repertoire size and reliability of self-non-self discrimination, J. Theor. Biol. 81, 645–670, 1979 A. Perelson, G. Weisbuch, Immunology for physicists, Rev. Mod. Phys. 69, No. 4, 1219–1267, 1997 B. Perthame, Transport equations in biology, Birkhäuser, 2007 I. Peter und E. H. Davidson (2015). Genomic control process: development and evolution. Academic Press. O. Pfante, E. Olbrich, N. Bertschinger, N. Ay und J. Jost, 2014. Closure measures for coarse-graining of the tent map. Chaos: An Interdisciplinary Journal of Nonlinear Science, 24(1), p. 013136. P. Phillipson, P. Schuster, An analytical picture of neuron oscillations, Int.J.Bifurc.Chaos 14, 1539– 1548, 2004

286

Literatur

A.S. Pikovsky, J. Kurths, Coherence resonance in a noise-driven excitable system. Phys. Rev. Lett., Vol. 78, No. 5, (1997) A.S. Pikovsky, M. Rosenblum, J. Kurths, Synchronization. A Universal Concept in Nonlinear Sciences; Cambridge University Press: Cambridge, 2001. S. Pinker, How the mind works, W.W. Norton, New York/London,1997 G.R. Price, Extension of covariance selection mathematics, Ann. Human Genetics 35, 485–590, 1972 V. Priesemann, M. Wibral, M. Valderrama, R. Pröpper, M. Le Van Quyen, T. Geisel, ... und M. H. Munk (2014). Spike avalanches in vivo suggest a driven, slightly subcritical brain state. Frontiers in systems neuroscience, 8, 108. S. Prohaska, P. Stadler, D. Krakauer, D. C. Innovation in gene regulation: the case of chromatin computation. Journal of theoretical biology, 265(1), 27–44, 2010 S. Ptak, M. Przeworski, Evidence for population growth for humans is confounded by fine-scale population structure, Trends Gen. 18(11), 559–563, 2002 R. Quiring, U. Walldorf, U. Kloter, and W. Gehring, Homology of the eyeless gene of Drosophila to the Small eye gene in mice and Aniridia in humans, Science 265, 785–789, 1994 J. Quirk und R. Ruppert, Qualitative economics and the stability of equilibrium. The review of economic studies 32. 4 (1965): 311–326. S. Ramón y Cajal, Textura del sistema nervioso del hombre y de los vertebrados, Madrid, 3 Bde., 1897–1904 (frz. Übersetzung: Histologie du système nerveux del’homme et des vertebres, 2 Bde., Paris, 1909–1911) C. R. Rao, Information and the accuracy attainable in the estimation of statistical parameters, Bull. Calcutta Mathematical Society 37 , 81–89, 1945 S.S. Rao, M.H. Huntley, N.C. Durand, E.K. Stamenova, I.D. Bochkov, J.T. Robinson, A.L. Sanborn, I. Machol, A.D. Omer, E.S. Lander and E.L. Aiden, 2014. A 3D map of the human genome at kilobase resolution reveals principles of chromatin looping. Cell, 159(7), pp. 1665–1680. M. Rao und K.L. Preetish, Stability and Hopf Bifurcation Analysis of the Delay Logistic Equation, arXiv preprint arXiv:1211.7022 (2012). J. Rauh, P. Banerjee, E. Olbrich, J. Jost, N. Bertschinger, On Extractable Shared Information, Entropy 19(7), 328, 2017; https://doi.org/10.3390/e19070328 D. Reich et al., Genetic history of an archaic hominin group from Denisova cave in Siberia, Nature 468 (2010), 1053–1060 C. Reidys, Combinatorial Computational Biology of RNA. Pseudoknots and Neutral Networks, Springer, 2011 C. Reidys, P. Stadler, Combinatorial landscapes. SIAM review. 2002; 44(1):3–54. J. Reinke, 1901. Einleitung in die Theoretische Biologie. Berlin: Gebrüder Paetel. C. Reynolds (1987). Flocks, herds and schools: A distributed behavioral model. Computer Graphics. 21 (4): 25–34. R. Riedl, Biologie der Erkenntnis. Die stammesgeschichtlichen Grundlagen der Vernunft, Paul Parey, Berlin/Hamburg, 1979 F. Rieke, D. Warland, R. de Ruyter van Steveninck, W.Bialek, Spikes. Exploring the neural code, MIT Press, 1997 B. Riemann, Ueber die Hypothesen, welche der Geometrie zu Grunde liegen, Abh. Ges. Math. Kl. Gött. 13, 133–152, 1868; mit einem Kommentar herausgegeben von J. Jost, Klassische Texte der Wissenschaft, Springer, 2013; erweiterte englische Ausgabe in: Classic Texts in the Sciences, Birkhäuser, 2016 G. Roth, Das Gehirn und seine Wirklichkeit, stw 1275, Suhrkamp, Frankfurt/M., 1997 A. Samal, R. P. Sreejith, J. Gu, S.P. Liu, E. Saucan und J. Jost, Comparative analysis of two discretizations of Ricci curvature for complex networks, Scientific Reports | (2018) 8:8650 | https://doi. org/10.1038/s41598-018-27001-3

Literatur

287

E. Saucan, A. Samal, M. Weber und J. Jost, Discrete curvatures and network analysis. MATCH Commun. Math. Comput. Chem. 80, 605–622 (2018) K. Scherrer, Cascade regulation. A model of integrative control of gene expression in eukaryotic cells and organisms, Eukaryotic gene regulation 1 (ed. Kolodniy), pp. 57–129, Boca Raton, Florida: CRC Press Inc., 1980 K. Scherrer, J. Jost, The Gene and the Genon Concept: A Functional and Information-theoretic Analysis, Molecular Systems Biology 3 (87), 2007 K. Scherrer, J. Jost, Gene and genon concept: Coding versus regulation, Theory Biosci. 126, 65–113, 2007 K. Scherrer, J. Jost, Response to commentaries on our paper Gene and genon concept: coding versus regulation, Theory Biosc. 128, 171–177, 2009 C. Schilling, B.O. Palsson, Assessment of the metabolic capabilities of Haemophilus influenzae Rd through a genome scale pathway analysis. J. Theor. Biol. 203, 249–283, 2000 C. Schilling, M. Letscher, B.O. Palsson, Theory for the systemic definition of metabolic pathways and their use in interpreting metabolic function from a pathway-oriented perspective. J. Theor. Biol. 203, 229–248, 2000 C. Schilling, S. Schuster, B. Palsson, R. Heinrich, Metabolic pathway analysis: basic concepts and scientific applications in the post-genomic era. Biotechnol. Prog. 15, 296–303, 1999 S. Schindler, Diplomarbeit, Leipzig, 2002 S. Schindler, O. Breidbach, J. Jost, Preferring the fittest mates: an analytically tractable model, J. Theor. Biol. 317, 30–38, 2013 A. Schleicher, Die ersten Spaltungen des indogermanischen Urvolkes. Allgemeine Zeitung für Wissenschaft und Literatur (August 1853) A. Schleicher, Compendium der vergleichenden Grammatik der indogermanischen Sprachen. (Kurzer Abriss der indogermanischen Ursprache, des Altindischen, Altiranischen, Altgriechischen, Altitalischen, Altkeltischen, Altslawischen, Litauischen und Altdeutschen.) (2 Bde.) Weimar, H. Böhlau, 1861/62 M. Schmelz, S. Grueneisen, A. Kabalak, J. Jost und M. Tomasello, Chimpanzees return favors at a personal cost. Proceedings of the National Academy of Sciences, 114(28), 7462–7467, 2017 M. Schoenauer, Evolutionary algorithms, in: T. Heams, P. Huneman, G. Lecointre, M. Silberstein (Hrsg.), Handbook of evolutionary thinking in the sciences, pp. 621–635, Springer, 2015 E. Schrödinger, What is Life? The physical aspect of the living cell, Cambridge University Press, 1944 W. Schubert, B. Bonnekoh, A. Pommer, L. Philipsen, R. Bockelmann, Y. Malykh, H. Gollnick, M. Friedenberger, M. Bode, and A. Dress. Analyzing proteome topology and function by automated multidimensional fluorescence microscopy. Nature Biotech. 24, 1270–1278, 2006 M. Schünke et al., Kopf- und Neuroanatomie. Prometheus. LernAtlas der Anatomie, Georg Thieme, Stuttgart, New York, 2006 P. Schuster, Landscapes and molecular evolution, Physica D 107, 351–365, 1997 P. Schuster, Ursprung des Lebens aus Sicht der Chemie, in: P. Walde, F. Kraus (Hrsg.): An den Grenzen des Wissens. Vdf Hochschulverlag an der ETH Zürich, Zürich 2007, pp. 1–35 P. Schuster, W. Fontana, P. Stadler, I. Hofacker, From sequences to shapes and back: a case study in RNA secondary structures, Proc. Royal Soc. (London) B, 255, 279–284, 1994 S. Schuster, T. Dandekar, D. Fell, Detection of elementary flux modes in biochemical networks: a promising tool for pathway analysis and metabolic engineering. Trends Biotechnol. 17, 53–60, 1999 S. Schuster, D. Fell, T. Dandekar, A general definition of metabolic pathways useful for systematic organization and analysis of complex metabolic networks, Nature Biotech. 18, 326–332, 2000

288

Literatur

S. Schuster, C. Hilgetag, On elementary flux modes in biochemical reaction systems at steady state. J. Biol. Syst. 2, 165– 182, 1994 C. Schütte, Conformational dynamics: Modelling, theory, algorithm and application to biomolecules, FU Berlin, 1999 C. Schütte, W. Huisinga, Biomolecular conformations can be identified as metastable states of molecular dynamics, 2002 P. Seiden, F. Celada, A model for simulating cognate recognition and response in the immune system. J. Theor. Biol. 158, 329–357, 1992 J. Senk, K. Korvasová, J. Schuecker, E. Hagen, T. Tetzlaff, M. Diesmann, M. Helias, Conditions for traveling waves in spiking neural networks, arXiv preprint arXiv:1801.06046(2018) E. Shamsara, M. Yamakou, F. Atay u. J. Jost, Dynamics of neural fields with exponential temporal kernel, 2019 G. Shepherd, Neurobiology, Oxford Univ. Press, 3 1994 S. Shuster, Alternative reproductive behaviors: Three discrete male morphs in Paracerceis sculpta, an intertidal isopod from the northern Gulf of California, J. Crust. Biol. 7, 318–327, 1987 S. Shuster, The reproductive behaviour of α-,β- and γ -males of Paracerceis sculpta, a marine isopod crustacean, Behaviour 121, 231–258, 1992 S. Shuster, M. Wade, Mating systems and strategies, Princeton Univ. Press, 2003 M. Simunek, U. Hossfeld, F. Thümmler, O. Breidbach, Mendelian Dioskuri. Correspondence of Armin with Erich von Tschermak–Seysenegg, 1898–1951 (=Studies in the History of Sciences and Humanities, vol. 27), Praha, 2011 M. Simunek, U. Hossfeld, O. Breidbach, ‘Further Development’ of Mendel’s legacy? Erich von Tschermak-Seysenegg in the context of Mendelian–biometry controversy, 1901–1906. Theory in Biosciences, 131(4), 243–252, 2012 M. Simunek, M. Mielewczik, G. Levit, U. Hossfeld, Armin von Tschermak-Seysenegg (1870–1952): Physiologist and Co-’Rediscoverer’of Mendel’s laws. Theory in Biosciences, 136(1–2), 59–67, 2017 W. Singer and C. Gray. 1995. Visual feature integration and the temporal correlation hypothesis. Annu. Rev. Neurosci. 18: 555–586 B. Skyrms, Signals, Oxford Univ. Press, 2010 F. Slanina, Essentials of econophysics modelling, Oxford Univ. Press, 2014 M. Smerlak, A. Youssef, Limiting fitness distributions in evolutionary dynamics, J. Theo. Biol. 416, 68–80, 2017 M. Smerlak, A. Youssef, Universal statistics of selected values, EPL, 117 (2017) 50003 https://doi. org/10.1209/0295-5075/117/50003 E. Smith und H. Morowitz, The origin and nature of life on earth, Cambr. Univ. Press, 2016 J. Smoller, Shock waves and reaction-diffusion equations, Springer, 2 1994 M. Snyder, M. Gerstein, Defining genes in the genomics era, Science 300, 258–260, 2003 J. Söding, A. Lupas, More than the sum of their parts: On the evolution of proteins from peptides. Bioessays 25:837–846, 2003 S. Song, K. Miller, L. Abbott, Competitive Hebbian learning through spike-timing dependent synaptic plasticity, Nature Neuroscience 3, 919–926, 2000 O. Sporns, Networks of the brain, MIT Press, 2011 O. Sporns, Discovering the human connectome, MIT Press, 2012 R. P. Sreejith, J. Jost, E. Saucan und A. Samal (2016). Forman curvature for directed networks. arXiv preprint arXiv:1605.04662.b B. Stadler, P. Stadler, G. Wagner, W. Fontana, The topology of the possible: Formal spaces underlying patterns of evolutionary change, Journal of Theoretical Biology. 2001; 213(2):241–274.

Literatur

289

B. Stadler, P. Stadler, M. Shpak, G. Wagner, Recombination spaces, metrics and pretopologies, Zeitschrift für physikalische Chemie. 2002; 216(2/2002):217. M. Stemmler, A. Mathis, A. Herz, Connecting multiple spatial scales to decode the population activity of grid cells, Sci. Adv. 2015; 1:e1500816 C. Stephens, H. Waelbroek, Analysis of the effective degrees of freedom in genetic algorithms, Phys. Rev. D 57, 3251–3264, 1998 A. Stevens, H. Othmer, Aggregation, blow-up, and collapse: The ABC’s of taxis in reinforced random walks, SIAM J. Appl. Math. 57, 1044–1081, 1997 R. Stollhoff, J. Jost, T. Elze und I. Kennerknecht, Deficits in Long-Term Recognition Memory Reveal Dissociated Subtypes in Congenital Prosopagnosia, PLoS ONE 6 (2011), e15702 K. Strimmer, A. von Haeseler, Quartet puzzling: A quartet maximum likelihood method for reconstructing tree topologies, Mol. Biol. Evol. 13, 964–996, 1996 B. Sulzer, A. Neumann, L. van Hemmen, U. Behn, Memory in idiotypic networks due to competition between proliferation and differentiation. Bull. Math. Biol. 55, 1133–1182, 1993 B. Sulzer, L. van Hemmen, U. Behn, Central immune system, the self, and autoimmunity. Bulletin of Mathematical Biology 56: 1009–1040, 1994 B. Szigeti et al. OpenWorm: an open-science approach to modeling Caenorhabditis elegans. Front. Comput. Neurosci. 8 (2014), 137 J. Taube, R. Muller, J. Ranck, Head-direction cells recorded from the postsubiculum in freely moving rats, I. Description and quantitative analysis, J. Neurosc. 10 (1990), 420–435 R. Thom, Modèles Mathématiques de la Morphogénèse, Christian Bourgois, Paris, 1973 R. Thom, Semio physics: A sketch, Addison Wesley, 1990 N.W. Timoféef-Ressovsky, K. Zimmer, M. Delbrück, Über die Natur der Genmutation und der Genstruktur, Nachr.Ges.Wiss.Göttingen, Fachgr.VI, N.F. 1, 189–245, 1935 G. Toepfer, Zweckbegriff und Organismus, Königshausen und Neumann, Würzburg, 2004 G. Toepfer, Historisches Wörterbuch der Biologie, 3Bde., Metzler, Stuttgart, Weimar, 2011 M. Tomasello, Origins of human communication, MIT Press, 2008 T.D. Tran, J. Hofrichter, J. Jost, An introduction to the mathematical structure of the Wright–Fisher model of population genetics, Theory Biosc. 132, 73–82, 2013 T.D. Tran, J. Hofrichter, J. Jost, The free energy method and the Wright-Fisher model with 2 alleles, Theory in Biosciences 134, 83–92, 2015 H. Tuckwell, Introduction to theoretical neurobiology, 2 vols., Cambridge Univ. Press, 1988, 2 2005 H. Tuckwell, Stochastic processes in the neurosciences, SIAM, 1989 H. Tuckwell, J. Jost, Moment analysis of the Hodgkin – Huxley system with additive noise. Physica A: Statistical Mechanics and its Applications. 2009; 388(19):4115–25. H. Tuckwell, J. Jost, Weak noise in neurons may powerfully inhibit the generation of repetitive spiking but not its propagation. PLoS computational biology. 2010; 6(5):e1000794. H. Tuckwell, J. Jost, Analysis of inverse stochastic resonance and the long-term firing of Hodgkin– Huxley neurons with Gaussian white noise. Physica A: Statistical Mechanics and its Applications. 2012; 391(22):5311–25. H. Tuckwell, J. Jost, B. Gutkin, Inhibition and modulation of rhythmic neuronal spiking by noise. Physical Review E. 2009; 80(3):031907. A. Turing, The chemical basis of morphogenesis, Phil. Trans. Roy. Soc. B 327, 37–72, 1952 M. van den Heuvel, E. Bullmore und O. Sporns, Comparative Connectomics, Trends Cognitive Sciences 20(5), 2016, 345–361 G. S. van Doorn, P. Edelaar und F. J. Weissing. On the origin of species by natural and sexual selection. Science, 326(5960):1704–1707, 2009 J.L. van Hemmen, Theory of synaptic plasticity, in: F. Moss, S. Gielen (eds.), Handbook of biological physics (Vol. 4), neuro-informatics, neural modelling, Elsevier, 2001, pp. 771–823

290

Literatur

J.L. van Hemmen (2016), Acoustic Boundary-Condition Dynamics and Internally Coupled Ears, SIAM News 49(8) F. Varela, A. Coutinho, Second generation immune networks. Immunology Today 12: 159–166, 1991 A. P. Vedurmudi, J. Goulet, J. Christensen-Dalsgaard, B. A. Young, R. Williams und J. L. van Hemmen (2016). How internally coupled ears generate temporal and amplitude cues for sound localization. Physical review letters, 116(2), 028101. P. Villoutreix et al., An integrated modelling framework from cells to organism based on a cohort of digital embryos, Sci Rep. 2016; 6: 37438. https://doi.org/10.1038/srep37438 A. Vincent, O. Akhayat, S. Goldenberg und K. Scherrer, Differential repression of specific mRNA in erythroblast cytoplam: possible role for free mRNP proteins. EMBO Journal 2, 1869–1876, 1983 A. Vincent, O. Civelli, J. F. Buri und K. Scherrer, Correlation of specific coding sequences with specific proteins associated in untranslated cytoplamic messenger ribonucleoprotein complexes of duck erythroblasts. FEBS Letters 77, 281–286, 1977 A. Vincent, O. Civelli, K. Maundrell und K. Scherrer, Identification and Characterization of the Translationally Repressed Cytoplasmic Messenger-Ribonucleoprotein Particles from Duck Erythroblasts. Eur J Biochem. 112, 617–633, 1980 A. Vincent, S. Goldenberg, N. Standart, O. Civelli, M.-T. Imaizumi-Scherrer, K. Maundrell und K. Scherrer, Potential role of mRNP proteins in cytoplasmic control of gene expression in duck erythroblasts. Mol. Biol. Rep. 7, 71–81, 1981 K.E. von Baer, Über Entwicklungsgeschichte der Thiere: Beobachtung und Reflexion. 3 Bde. in 1 Bd., Nachdruck der Ausg. Königsberg 1828–1888, mit einer Einl. hrsg. v. O.Breidbach, OlmsWeidmann, Hildesheim, Zürich, New York, 1999 C. von der Malsburg, 1973. Self-organization of orientation-sensitive cells in the striate cortex. Kybern. 14:85–100 C. von der Malsburg, W.Phillips and W.Singer (eds.). 2010. Dynamic coordination in the brain, MIT Press K. Von Frisch (2013). Tanzsprache und Orientierung der Bienen. Springer-Verlag. H. von Helmholtz, Handbuch der Physiologischen Optik, Leopold Voss, Hamburg, Leipzig, 3 1909– 11, Nachdruck Olms-Weidmann, Hildesheim, Zürich, New York, 2003 H. von Helmholtz, Die Lehre von den Tonempfindungen als physiologische Grundlage für die Theorie der Musik, Vieweg, Braunschweig, 3 1870 M. Vose, The simple genetic algorithm, MIT Press, 1999 D. Walgraef, Spatio-temporal pattern formation, Springer, New York, 1997 A. Wagner, Robustness and evolvability in living systems, Princeton Univ. Press, 2005 G. Wagner (Hrsg.), The character concept in evolutionary biology, Academic Press, 2001 G. Wagner, Homology, genes, and evolutionary innovation, Princeton Univ. Press, 2014 G. Wagner und D. Erwin, Phylogenetic patterns as tests of speciation models, pp. 87–122 in: New approaches to speciation in the fossil record (Hrsg. D. Erwin u. R. Anstey), Columbia Univ. Press, 1995 G. Wagner, M. Laubichler, Character Identification in Evolutionary Biology: The Role of the Organism, Theory Biosci. (2000) 119: 20–40 G. Wagner, P. Stadler, Quasi-Independence, Homology and the Unity of Type: A Topological Theory of Characters, J. theor. Biol. (2003) 220, 505–527 J. Watson und F. Crick, A structure for desoxyribose nucleic acid, Nature 171, 737–738, 1953 D. J. Watts und S. H. Strogatz, Collective dynamics of ‘small-world’ networks. Nature 393 (1998) 440–442. M. Weber, E. Saucan und J. Jost (2017). Characterizing complex networks with Forman-Ricci curvature and associated geometric flows. Journal of Complex Networks, 5(4), 527–550. R. Wehner und W. Gehring, Zoologie, Thieme, Stuttgart, New York, 25 2013

Literatur

291

JG White, E Southgate, JN Thomson, S Brenner, The structure of the nervous system of the nematode Caenorhabditis elegans, Philos. Trans. Royal Soc. Lond. B Biol. Sci. 1986; 314:1–340. T. White et al., Ardipithecus ramidus and the paleobiology of early hominids, Science 326, 75–86, 2009 M. Wibral, V. Priesemann, J. Kay, J. Lizier, W. Phillips, Partial information decomposition as a unified approach to the specification of neural goal functions, Brain and Cognition 112 (2017), 25–38 M. Wibral, R. Vincente, J. Lizier (eds.), Directed information measures in neuroscience, Springer, 2014 G. Williams, Domains, levels and challenges, Oxford Univ.Press, 1992 P. Williams, R. Beer, Nonnegative Decomposition of Multivariate Information. arXiv 2010, arXiv:1004.2515v1. E.O. Wilson, The insect societies, Harvard University Press, 1971 E.O. Wilson u. B. Hölldobler, Eusociality: Origin and consequences, PNAS 102, 13367–13371, 2005; Korr.: PNAS 102, 16119, 2005 H.R. Wilson, J.D. Cowan, A mathematical theory of the functional dynamics of cortical and thalamic nervous tissue, Biol. Cybernet. 13 (1973) 55–80. A. Winfree, The geometry of biological time, Springer 2 2000 C. Wiuf, J. Hein, The ancestry of a sample of sequences subject to recombination, Genetics 151, 1217–1228, 1999 C. R. Woese (1965). On the evolution of the genetic code. Proceedings of the National Academy of Sciences, 54(6), 1546–1552. S.Wright, Evolution in Mendelian populations, Genetics 16, 97–159, 1931 S. Wright, in: Adaptation and selection, pp. 365–389, Princeton Univ. Press, 1949 A. Wuensche, siehe www.ddlab.com H.Y. Xiong et al. (2105), The human splicing code reveals new insights into the genetic determinants of disease, Science 347, Issue 6218, 1254806 M. Yamakou, J. Jost, A simple parameter can switch between different weak-noise–induced phenomena in a simple neuron model, EPL, 120 (2017) 18002 M. Yamakou, J. Jost, Coherent neural oscillations induced by weak synaptic noise, Nonlinear Dynamics, 1–24, 2017 M. Yamakou, J. Jost, Weak-noise-induced transitions with inhibition and modulation of neural spiking dynamics, Biological Cybernetics, 112(5) (2018): 445–463. A. u. A. Zahavi, The handicap principle, Oxford Univ, Press, 1997

Stichwortverzeichnis

A Abbildung, quadratische, 217 Abhängigkeiten zwischen Merkmalen, 94 Ableserahmen, offener, 106, 113, 268 Ablesung, 113, 268 Abschnitt, paraloger, 128 Abstand, 245 Abweichung, große, 162 Acetyl-CoA-Molekül, 260 Adaptation, 22 ADP (Adenosindiphosphat), 139, 260 Ahn, 35 glücklicher, 91 Aktionspotential, 153 Aktivator, 176 Algorithmus evolutionärer, 62, 123 genetischer, 62, 63, 67, 117 Alignment, 89 Allel, 15, 30, 63, 68, 74, 111 rezessives, 30, 111 Altruismus, altruistisch, 45, 50 Ambystoma mexicanum, 262 Ameise, 187 Aminosäure, 6, 20, 103–105, 113, 129 AMP, zyklisches, 183 Amphibie, 262 Amplifikation, 163 Analogie, 13, 125 Anpassung, 14, 22 Ansatz, phenetischer, 89 Anti-Antikörper, 167

Antibiotikaresistenz, 196 Antigen, 164, 165 Antikörper, 164–166 Apomorphie, apomorph, 86, 127 Apoptose, 262 Arabidopsis thaliana, 27, 177 Archetyp, 14 Archosaurier, 89 Aristoteles, 1 Aromatase, 179 Art, 2, 6, 12–16, 25, 26, 31, 36, 39, 46, 60–62, 67, 82–87, 90–92, 100, 101, 106, 108, 112, 173, 189, 190, 193, 201, 261, 265, 266 Artbildung, 84 Artenvielfalt, 198 Arthropode, 13, 25 Asteraceae, 85 ATP (Adenosintriphosphat), 139, 195, 260 Auge, 25, 126 Auslese, natürliche, 14 Autapomorphie, 89 Autoimmunreaktion, 167 Autokatalysator, 143 Automat, zellulärer, 212 Avery, Oswald, 19 Axolotl, 262 Axon, 152, 212

B B-Zelle, 164, 165, 167

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2019 J. Jost, Biologie und Mathematik, https://doi.org/10.1007/978-3-662-59480-3

293

294 Baer, Karl Ernst von, 13, 25, 173 Bahn, heterokline, 146 Bakteriophage, 19, 20 Bandbreite, 234 Basen, komplementäre, 103 Baum metrischer, 90 phylogenetischer, 90 Bauplan, 13, 67, 92 Bausteinhypothese, 65 Becken, neutrales, 123, 124, 269 Bedingungen, präbiotische, 130 Bettizahl, 252 Beute, 260 Bevölkerungsgesetz, 192 Beweglichkeit, 6, 10 Bewegung, zweibeinige, 79 Bewegungssteuerung, 239 Biene, 181, 187, 188 Bifurkation, 156, 202, 214, 215 Bindung, kovalente, 103 Bindungsmotiv, 115, 163 Bindungsstelle, 243 Biodiversität, 189, 198 Bioinformatik, 128 Biologie, 16 Blatt (eines metrischen Baumes), 90 Blüteninduktion, 177 Blutkreislauf, 151 Bonobo, 80 Boveri, Theodor, 17

C Caenorhabdities elegans, 26, 257 ˇ Cechkomplex, 238 Cephalopode, 25 Cerebellum, 239 Chaos, chaotisch, 133, 194, 201 Chaperon, 22, 110 Chase, Martha, 20 Cheeger-Abschätzung, 254 Cheeger-Konstante, 255 Chemotaxis, 151, 183 Chip-on-chip-Technologie, 243 Chloridion, 155 Chloroplast, 196 Chromatid, 108 Chromatin, 113

Stichwortverzeichnis Chromatinregulierung, 113 Chromosom, 17–19, 38, 107, 108, 268 cis-trans-Test, 116 Cistron, 116 Codon, 112, 116 Computervirus, 168 Connectom, 257 Correns, Carl, 3 Corvid, 81 Crick, Francis, 19, 20 Cuvier, Georges, 12–14, 92, 93, 265 Cyanobakterien, 196

D d’Arcy Thompson, 8, 27 Danio rerio, 27 Darwin, Charles, 1, 2, 4, 13–15, 24, 26, 31, 56, 126, 192, 265, 266 de Vries, Hugo, 3 Decarboxylierung, oxidative, 260 Dekorrelation, 226 Delbrück, Max, 19 Deletion, 38, 127 Descartes, René, 16 Desynchronisation, 207 Dichte, 74 Dictyostelium discoideum, 183 Differeenzierung, geschlechtliche, 52 Diploidie, diploid, 68, 75, 108, 197 Divergenz, evolutionäre, 89 Diversität, 163, 200 DNS (Desoxyribonukleinsäure), 6, 20, 104 Methylierung, 243, 268 Reperatur, 261 Replikation, 261 Dobzhansky, Theodosius, 263 Dogma, zentrales, 20, 28 Dominanz, dominant, 30, 111 Doppelschleife, 20 Doppelsterngraph, 250 Doppelstrang der DNS, 6, 20 Dreieck (in Graph), 248, 250 Dreierfolge, 104 Driesch, Hans, 8, 18 Drift, genetische, 5, 68, 74, 111 Drosophila melanogaster, 18, 19, 27, 173, 258

Stichwortverzeichnis E Econophysik, 195 Eigenfunktion, 256 Eigenschaft, 93 omnigene, 110 polygene, 110 Eigenwert, 175, 191, 199, 208, 253, 255 größter, 256 kleinster, 255 Eingangsschicht, 236 Einstreuung, 87 Einzugsbereich (eines Attraktors), 133, 202 Eizelle, 54 Eldredge, Niles, 24 Embryo, 13 Embryologie, 13, 173 Energie, freie, 136, 137, 210 Gibbs, 136 Helmholtz, 136 Energiedifferenz, 138 Energiefunktion, 110 Energieschwelle, 136 Enkel, 55 Entropie, 19, 72, 77, 115, 116, 136, 211, 223 minimale, 91 Entwicklung, 6 regulative Theorie, 17 Entwicklungsbiologie, 15, 173 Entwicklungsprozess, 173 Enzym, 17, 104, 137 Epigenesis, 16 Epitop, 164 Erbeinheit, 15, 112 Erbinformation, 107 Erhaltungsgesetz, 183 Erregungskaskade, 206 Escherichia coli, 26 Ethologie, 181 Euchromatin, 113 Eukaryont, 114, 195, 262 Eulercharakteristik, 123 Eva, 91 Evo-Devo, 10, 25, 173 Evolution, 14, 241, 259 des Menschen, 78 neutrale, 111 Evolutionsbiologie, 17 Evolutionstheorie, 2, 16 Evolvierbarkeit, 24, 35, 51, 267

295 Exaptation, 23 Existenzbedingungen, 12 Exner, Sigmund, 210 Exon, 105, 114 Expression, 113 Expressionsvorgang, 116 Exzitation, 205, 222, 225

F Fahne von Unterräumen, 66 Faktor, epigenetischer, 243 Faserbündel, 98 Feder, 101 Fehlübersetzung, 105 Fehlerkatastrophe, 132 Feld, rezeptives, 234, 236, 238 Feuerfolge (spike train), 232, 233 Feuermuster, 232, 234 Feuern (eines Neurons), 153, 161, 211 Feuerrate, 217, 219 Feuerzeitpunkt, 206 Feuerzug (spike train), 232 Fisher-Metrik, 71, 72, 76 Fisher, Ronald, 31, 52, 71, 74 Fishersches Gesetz, 69 Fitness, 22, 23, 30–36, 38, 41–44, 46–49, 52, 56, 58–60, 62–66, 68–70, 73, 111, 118, 123, 130, 182, 266–268 absolute, 64 axiomatische, 35 durchschnittliche, 47 inklusive, 34, 35, 182, 197 mittlere, 48, 64, 69, 130 relative, 64 Fitnessänderung, 48 Fitnessfunktion, 64, 65, 67 Fitnesslandschaft, 60 Fitnessunterschied, 69 Fitnessvarianz, 48 Fitnessverteilung, 49, 67 FitzHugh-Nagumo-Modell, 157, 159, 213 Fläche, topologische, 123 Fledermaus, 88, 126 Flügel, 88, 126 Flussanalyse, metabolischen, 141 Flussmoden, elementare, 141 Fokker-Planck-Gleichung, 23, 76 Forman-Ricci-Krümmung, 247, 249, 257

296 Fortpflanzung, 6, 260 geschlechtliche, 51, 62 Fortpflanzungsgemeinschaft, 26 Fortpflanzungsrate, 14 Fortpflanzungsstrategie, 52 Freiheitsgrad, 208 Frequenzband, 239 Fruchtfliege, 18 Fundamentaltheorem der natürlichen Selektion, 48 Fünfeck (in Graph), 248

G Gallus gallus, 27 Galton, Francis, 3 Galton-Watson-Prozess, 38 Gamet, 52, 54 Gaußverteilung, 223 Gedächtnis deklaratives, 239 prozedurales, 239 räumliches, 239 Gedächtnisbildung, 237 Gedächtniszelle, 164, 166 Gegenreihung (alignment), 126 Gehring, Walter, 25 Gen, 3, 6, 15, 16, 18, 21, 29, 40, 105, 106, 109, 112, 116 eigensüchtiges, 38 homöotisches, 88 molekularbiologische Definition, 116 Gen-Umwelt-Diskussion, 179 Genetik, 18, 173 Genexpression, 113, 146, 261 Genom, menschliches, 22 Genomschnipsel, 128 Genomsequenzierung, 128 Genon, 115, 116, 270 Genort heterozygoter, 111 homologer, 111 Genotyp, 5, 24, 30, 34, 43, 68, 93, 118, 123, 268, 269 Genregulation, 147, 261 Genregulationsnetzwerk, 173, 177 Gentransfer, horizontaler, 85, 128, 196, 259, 268 Genverdoppelung, 109, 243

Stichwortverzeichnis Genverdopplung, 24 Geoffroy St.-Hilaire, Étienne, 9, 12–14, 92, 265 Geologie, 14 Geschlecht einer Fläche, 123 Geschlechterverhältnis, 31, 57 Geschlechtsbestimmung, 179 Geschwisterhilfe, 37 Gesichtserkennung, 239 Gestalterkennung, 92 Gitterzelle, 238 Gleichgewicht, 36, 40 punktiertes, 123 Gleichgewichtsbedingung, 42 evolutionäre, 35 Gleichgewichtsverhältnis, 136 Gleichung diskrete logistische, 193 logistische, 192 quadratische, 205 Glykolyse, 260 Goethe, Johann Wolfgang von, 12, 13 Goldschmidt, Richard, 24 Gould, Stephen J., 5, 9, 11, 23, 24, 67, 83, 123 Grad eines Knotens, 245 Gradientenabstieg, 227 Gradientenaufstieg, 61 Gradientendynamik, 73 Graph, 245 bipartiter, 254–256 isomorpher, 245 vollständiger, 249 vollständiger bipartiter, 255 zusammenhängender, 245 Graphenisomorphismusproblem, 255 Graphentheorie, 244 Graphenzerlegung, 256, 257 Grenzzykel, 161 Großmutterzelle, 237 Gruppe monophyletische, 86, 87, 96 zentrale, 258 Gruppenkoordination, 81 Gruppenselektion, 45, 46, 182, 198

H Haeckel, Ernst, 25 Haldane, John, 34 Hamilton, William, 32, 50

Stichwortverzeichnis Hamilton-Bedingung, 49 Hammingabstand, 124 Handicapprinzip, 182 Handlungsreisender, 187 Haploidie, haploid, 68, 75, 108, 197 Haptotaxis, 151 Hardy-Weinberg-Gesetz, 69 Harem, 57 Harvey, William, 151 Hauptkomponentenanalyse, 93, 224 Hebb, Donald, 209 Hebbsche Lernregel, 209, 220, 223, 236 differentielle, 210, 221, 226 Helfer-T-Zelle, 164 Helmholtz, Hermann von, 168 Hennig, Willi, 86, 265 Hermaphrodyt, 51 Hershey, Alfred, 20 Herz, 151 Heterocephalus glaber, 197 Heterochromatin, 113 Heterozygot, 69 Hippocampus, 237–239 Hippocampusformation, 238, 239 Histologie, 16 Histon, 113, 128, 243 HIV-Virus, 164 Hochdurchsatzmethoden, 241 Hodgkin, Alan, 152 Hodgkin-Huxley-Modell, 153, 154, 156, 157, 212, 228, 232 Homininen, 78 Homo, 78 Homologie, 13, 14, 24, 25, 125, 128 dynamische, 13 serielle, 13, 128 spezielle, 13, 128 Homologiegruppe, 251 Homoplasie, 87 Homotopieäquivalenz, 238 Homozygot, 69 Hopfbifurkation, 156, 161, 176 Hoxgen, 24, 25, 88, 126, 174, 261 Humboldt, Alexander von, 14 Hund, 258 Huxley, Andrew, 152 Hybridisierung, 88 Hydrolyse von ATP, 139 Hymenoptera, 108, 196

297 Hypergraph, 252 chemischer, 252 gerichteter, 252 Hyperpolarisierung, 155 Hyperzykel, 130, 131 Hyperzykelgleichung, 130

I Idiotyp, 165 Immunität, 164 Immunsystem, 163 adaptives, 165 menschliches, 163 Individualentwicklung, 173, 262 Individuum, 6 Information, 112, 260, 262 externe, 234 gemeinsame, 234 komplementäre, 116, 178, 234, 269 kontextuelle, 234 sensorische, 233, 234 synergistische, 178, 234 wechselseitige, 223 Informationsgeometrie, 71, 76 Informationsgewinn, 228 Informationstheorie, 244, 262 Informationszerlegung, 116, 178, 233 Inhibition, 205, 222, 225 allosterische, 261 laterale, 236 Inhibitor, 176 Innovation, 97, 101, 259 Input, externer, 233 Insekten, 88, 262 soziale, 46, 108, 262 Insektenkolonie, 197 Insertion, 127 Instruktionen zur Bildung von Proteinen, 112 Insulin, 19 Intelligenz, 179 menschliche, 80 Interaktionsmatrix, 199 Interaktionsstruktur, stabile, 201 Interleukin-6, 262 Intron, 105, 106, 114, 243 Inversion, 38, 109, 127 Ionenkanal, 152, 153

298 J Jacob, François, 21

K Kaliumion, 153 Kanalisierung, 260 Kant, Immanuel, 181 Kante, 245 Katalyse, 17 Kausalität, 206, 219 Keimbahn, 17, 29 Keimzelle, 52, 54, 55, 107, 108, 260 Keller-Segel-Modell, 183 Kimura, Motoo, 4, 74, 111, 269 Kinetik, biochemische, 135 Kladismus, 86, 265 Kladistik, 89, 90, 96 Kladogramm, 82, 86 Klassifikationssystem, 12 Kleinhirn, 239 Klonselektion, 165 Knockout eines Gens, 109 Knoten, 245 eines metrischen Baumes, 90 Knotentheorie, 114 Knotenverdoppelung, 254, 255 Koaleszenztheorie, 91 Kode genetischer, 20, 104, 113 neuronaler, 212 Koevolution, 23 Kognition, 10 Kohärenzresonanz, 160 Kohäsion, 185 Kolmogorovgleichung, 23, 77 rückwärtige, 76 vorwärtige, 76 Kolokalisation, 251 Komplementärstrang, 107 Komplementarität, 16, 260 Komplementaritätsgleichung, 55 Komplex polyedrischer, 257 simplizialer, 238, 251 Komplexität, 211, 259 externe, 225 interne, 225, 228 von Ökosystemen, 198

Stichwortverzeichnis Kondensator, 152 Konjugation, 52 Konstruktivismus, 181 Kontextinformation, 234 Kontextinput, 233 Kontinuitätsgleichung, 74 Kontinuumsmodell für Musterbildung, 183 Kontrolle, 166, 170, 259–263, 269 reziproke, 262 sensomotorische, 185 Kontrollfunktion, 166 Kontrollmechanismus, 260, 262 Konvergenz, 87 Konzentration, 135 Konzentrationsgradient, 17 Koordination, rhythmische, 79 Koppelgitter, 204, 205, 207 Kopplungsgleichgewicht, 70 Korbblütler, 85 Kortex entorhinaler, 238 perirhinaler, 239 visueller, 235 Kosten-Nutzen-Analyse, 52, 56 Kotkugel, 56 Kovarianz, 47 Kovarianzmatrix, 76, 223 Krümmung für gerichtete Netzwerke, 251 Krankheitskeim, 163 Kreislauf, katalytischer, 130 Kreuztausch, 18, 64, 66, 67, 69, 106, 108, 268 Kritikalität, selbstorganisierte, 209 Krokodil, 89 Krümmung, 72 Künstliches Leben, 10

L Lamarck, Jean-Baptiste, 2, 12, 19 Laplaceoperator, 169, 174, 186, 236, 253, 255 Larvenphase, 262 Leben, 6 künstliches, 67 Lebensgemeinschaft, 189 Lebensweise, 93 Leibniz, Gottfried Wilhelm, 3 Lerndynamik, 204 Lernen, 208 überwachtes, 208

Stichwortverzeichnis Lernregel, 212, 216, 229 neuronale, 209 Leser, geneigter, 54 Linguistik, 196 Linné, Carl, 1, 12, 85, 265 Linskernetzwerk, 235 Löwenzahn, 85 Lokalisation von Schallquellen, 168 Loligo forbesii, 152 Lotka, Alfred, 190 Lotka-Volterra-Gleichung, 44 Lotka-Volterra-Modell, 190, 192, 199 Lucy, 91 Luria, Salvatore, 19 Lyapunovfunktion, 131, 205 Lyell, Charles, 14 Lymphozyt, 164–166

M Macaca mulatta, 27 Makrophage, 164 Malthus, Thomas, 192 Männer, reiche, 198 Mannigfaltigkeit, kritische, 145, 160 Margulis, Lynn, 85, 195 Markierung, 163 Massenwirkung, Gesetz der, 137 Matrix, stoichiometrische, 140 Matroidtheorie, 142 Matthaei, Heinrich, 20 Maus, 258 Maximierungsverfahren, 61 Maximumprinzip, Pontryaginsches, 166 Mayr, Ernst, 15, 89, 266 Mehrzelligkeit, 54 Meiose, 63, 69, 107, 108 Membrankapazität, 153 Membranspannung, 152 Mendel, Gregor, 3–5, 7, 15, 28, 107 Mensch, 258 Meristem, 177 Merkmal, 22, 25, 56, 59, 81–83, 86, 89, 92, 93, 112, 265 Merkmalskomplex, 97 Merkmalswert, 86 Merkmalszustand, 86 Metabolit, 140 Metabolomik, 243

299 Metamorphose, 12, 262 Metastabilität, 61 Metrik, 90 Riemannsche, 71, 72 Michaelis-Menten-Theorie, 139 Mikroraster (microarray), 128 Mimikry, 88 Minderheit, 56 miRNS, 114 Mistkäfer, 56 Mitochondrien, 91, 195 Mitose, 107 Modellorganismus, 26 Modul, 257 Modularität, 258 Molekulargenetik, 125 Moment (einer Wahrscheinlichkeitsverteilung), 76 Monod, Jacques, 21 Monophylie, 87 Monster, hoffnungsvolles, 24 Moranmodell, 75 Morgan, Thomas Hunt, 18 Morphologie, 13, 92, 265 Mosaiktheorie der Entwicklung, 17 Motiv (in Graph), 250 Motzkinpfad, 120 mRNS (messenger RNS), 21, 105 Muller, Hermann, 18 Multinomialformel, 75 Multinomialverteilung, 76 Multiskalenzugang, 258 Muster, räumliches, 176 Musterbildung, 174 Mutation, 4, 14, 18, 33, 38, 60, 62, 77, 164, 243, 259, 267 neutrale, 123, 269

N Nachbarn, 245 Nachkomme, glücklicher , 63 Nahrungsbeschaffung, 260 Nashbedingung, 42 Natriumion, 153 Natur vs. Umwelt, 176 Neandertaler, 78, 84, 88 Nebenmaxima, 60, 61 Nebenminima, 110

300 Nematode, 257 Neodarwinismus, 4, 5, 15 Neokortex, 237 Netz, neuronales, 203 Netzwerk, 244, 245 Boolesches, 132, 212 idiotypisches, 165, 166 metabolisches, 252 Netzwerkanalyse, 244 Netzwerktheorie, 244 Neuron, 10, 203, 211 formales, 203, 212 inhibitorisches, 153 postsynaptisches, 153 präsynaptisches, 153, 206, 219 richtungsselektives, 235 Neuronenmodell, 28, 152 Neutralität, selektive, 4 Nietzsche, Friedrich, 23 Nirenberg, Marshall, 20 Normal hyperbolisch, 144 Nukleinsäure, 103 Nukleotidbase, 104 Nukleotidkette, 112

O Ökologie, 60, 189 Ökosystem, 198 Ohno, Susumo, 24 Oken, Lorenz, 16 Ollivier-Ricci-Krümmung, 247, 249–251, 255, 257 Omics-Daten, 243 Ontogenese, 173 Ontogenie, 25 Operon, 21, 115, 268, 270 Ordnungsparameter, 176 ORF (open reading frame, offener Ableserahmen), 113 Organisation, topographische, 235 Organisator, 18 Orientierung, räumliche, 239, 240 Orientierungsdefizit, 240 Orthant, 71 Orthogenesis, 24 Orthologie, ortholog, 128 Ortszelle, 237, 238 Oszillation, 184, 192

Stichwortverzeichnis räumliche, 175 Oszillator, 170 Owen, Richard, 9, 13, 14, 126, 128 Oxidation, 260

P Paarung assortative, 58 fitnessbasierte, 59 Paarungskämpfe, 56 Paläontologie, 2, 12, 14, 92 Paracerceis sculpta, 58 Parasit, 51, 195 Passerinen, 182 Pavlovsche Konditionierung, 181 Peptidkette, 104 Perron-Frobenius, Satz von, 37 Pfad, evolutionärer, 125 Phänotyp, 4, 5, 30, 43, 51, 59, 93, 109, 111, 118, 123, 124, 173, 178, 268, 269 Phasenübergang, 176 Pheromon, 183, 187 Phosphorilierung, 6, 243 oxidative, 260 Photosynthese, 6, 196 Phylogenese, 173 Phylogenetik, 196 Phylogenie, tiefe, 196 Pixel, 258 Plasmazelle, 166 Plastizität, intrinsische, 231 Plesiomorphie, 86 Poissonneuron, 217 Poissonprozess, 217 Polya-Cheeger-Konstante, 255 Polymerase, 114 Polypeptid, 20, 105, 116, 129 Populationsgenetik, 4, 15, 34, 68 Potential, 153 Potentialfunktion, 72 Präformation, 16 Präadaption, 78 Prägarbe, 97 Prätopologie, 125 Price, George, 41, 46 Price-Gleichung, 46–49 Prinzip der Sparsamkeit, 89 Problem

Stichwortverzeichnis geschichtetes, 145 reduziertes, 145 Prokaryont, 195 Proliferation, 166 Prosopagnosie, 239 Protein, 6, 17, 20, 104, 105, 110, 112, 260, 269 Proteinbindung, 243 Proteinfaltung, 22, 110 Proteinkodierung, 111 Proteinsynthese, 109 Proteom, 107 Proteomik, 243 Protogenon, 115 Prozess, autokatalytischer, 132, 176 Pseudoknoten, 118, 120, 123 Psychologie, evolutionäre, 182 Punktmutation, 127

Q Quartärstruktur, 110

R Rabe, 258 Ramón y Cajal, Santiago, 212 Randbedingung, Neumannsche, 174 Rang einer Matrix, 94 Ratenkonstante, 137 Ratte, 237, 239, 258 Räuber, 260 Räuber-Beute-Beziehung, 190, 195 Rauhheit, 60 Raum, topologischer, 237 Rauschen, 162, 204, 215, 223 weißes, 156 Rauschterm, 156 Reaktion, enzymatische, 138 Reaktions-Diffusions-Gleichung, 149, 174, 186, 190, 193, 213 Reaktionskaskade, 147 Reaktionsnetzwerk, 132 chemisches, 252 Rechnen, Wissenschaftliches, 243 Redundanz, 226 des genetischen Kodes, 104 Reflexivität, 211 Refraktärphase, 153 Refraktärzeit, 155

301 Regulation, 113, 260 Regulationskaskade, 110 Regulationsnetzwerk, 243 Reihung, sequentielle, 262 Reizbarkeit, 6, 10 Rekombination, 18, 51, 52, 62, 63, 69, 77 Relaxationsoszillator, 146, 161 Replikation, 21 Replikatorgleichung, 44, 68, 73, 130, 132 Repressor, 148 Reproduktion, 260 Reproduktionserfolg, 55 Reproduzierbarkeit, 260 Reptil, 89 Reputation, 81 Resilienz, 202 Resonanz stochastische, 160 inverse, 156, 160, 162 selbstinduzierte, 160, 162 Ressourcenaufteilung, 56 Reversion, 87 Rezeptor, 165 Rhesusaffe, 258 Rhythmus, 170 Ribosom, 117 Riccikrümmung, 247, 249, 250, 252 Riemannsche Fläche, 123 RNP-Komplex, 115, 129 RNS (Ribonukleinsäure), 5–7, 20, 21, 103–106, 114–117, 129, 130, 135, 147, 242, 246, 261, 268–270 ribosomale (rRNS), 129 RNS-Welt, 129 sekundäre Struktur, 117 small interfering (siRNS), 114 transfer RNS (tRNS), 105 Roboter, 79 Robustheit, 267 Röntgenkristallspektroskopie, 19 Roux, Wilhelm, 17 Rückkopplung, 147 zeitverzögerte, 193 Rückkopplungseffekt, 170 Ruhepotential, 152

S Saccharomyces cerevisiae, 26

302 Samenzelle, 54 Sanger, Frederick, 19 Satz von Fenichel, 144, 161 Scarabaeus aeratus, 56 Schalldruck, 170 Schallrichtung, 170 Schaltergen, 174 Schema, 63, 65 Schichtung, hierarchische, 262 Schimpanse, 78 Schlange, 88 Schleiden, Matthias Jakob, 16 Schleim, Klümpchen, 33 Schleimpilz, 183 Schmarotzer, 46 Schnitt einer Prägarbe, 98 globaler, 98 partieller, 98 Schrödinger, Erwin, 19 Schwann, Theodor, 16 Schwarmbildung, 184 Schwarmverhalten, 185 Schwein, 258 Schwellwert, 215 Schwingungsgleichung, gedämpfte, 169 Sechseckparzellierung, 238 Sekundärstruktur, 103, 110, 117 symbolische Darstellung, 118 Selbsterhalt, 259 Selbstkatalyse, 132 Selbstorganisation, 9, 27, 132, 174, 176, 183, 184, 244 Selbstreplikation, 128 Selektion, 2, 4, 14, 23, 77 sexuelle, 56, 57 Selektionsschritt, 62 Separation, 185 Sequenzanalyse, 19 Sequenzdaten, genetische, 88 Sequenzierung, 109 Sequenzmotiv, 261 Sexualität, 80 Shahshahani-Metrik, 72 Sigmoide, 205, 216 Signal, kostspieliges, 182 Signalkaskade, 147 Signaltransduktionsweg, 243 Signalübertragung, 262

Stichwortverzeichnis Simplex, 71, 72 Sinnesphysiologie, 168 Skalengesetz, 27 Skalierung, synaptische, 231 Skalierungsgesetze, 9 Smith, John Maynard, 41 Sozialstruktur, 80 Space-Clamping, 213 Spannungsunterschied, 152 Speicherung von Information, 112 Spektralanalyse, 252 Spektrum, 255 Spemann, Hans, 18 Spezialisierung, 54 Speziation, 84 allopatrische, 266 sympatrische, 266 Spezies, s.Art, 2 Sphäre, 71 Spieltheorie, 42 Spleißen, 114 alternatives, 106, 114, 243 Spontanzeugung, 12 Sprache, 80 Stabilität, 44 von Ökosystemen, 198 Stabilitätsbedingung, 42 Stammbaum, 14, 82, 85, 126, 196, 266 Stammbaumrekonstruktion, 4 Stammesgeschichte, 173 Stammzelle, 18 Stapel, 118 Stasis, 123 STDP-Regel (spike time dependent synaptic plasticity), 228 Stein-Schere-Papier-Spiel, 58 Sterngraph, 249 Steuerungsmechanismus, 126 Stimulus bekannter, 240 optimaler, 219 Stoffwechsel, 6, 16, 129, 260 Stoichiometrie, 140 Strategie evolutionär stabile, 41, 42 extern stabile, 43 intern stabile, 43 Strongylocentrotus purpuratus, 26, 117 Struktur, biologische, 259

Stichwortverzeichnis Strukturaufbau, 128, 260 Strukturzerfall, 269 Suchstrategie, 61 Suchverfahren, populationsbasiert, 61 Symbiose, 195, 262 Symplesiomorphie, 86, 87 Synapomorphie, 86, 87, 89 Synapse, 153, 204, 209, 211, 221, 236 Synapsenstärke, 204–206, 210, 211 Synchronisation, 170, 206, 207 von Chaos, 204 Synthese, neodarwinistische, 15, 263 System autopoietisches, 181 soziales, 262 Systematik, evolutionäre, 89 Systembiologie, 109, 241, 244 Systemparameter, 202

T T-Zelle, 164, 165 zytotoxische, 164 Taraxacum, 85 Taxon, 100 Telegraphengleichung, 186 Tensor, metrischer, 72 Tensorprodukt, 93 Tertiärstruktur, 104, 110, 117 Teufel, 12 Thalamus, 235 Theorie der unterbrochenen Gleichgewichte, 5 Thermodynamik, 135 Theta-Neuron, 214 Thetaband, 239 Thymus, 165 Tissue array, 243 Topologie, simpliziale, 238 Topon, 114, 115, 263, 270 Toponom, 251 trans-Information, 116 Transferentropie, 233 Transinformation, 223 Transkriptionsfaktor, 21, 106, 113, 243, 268 Transkriptionskontrolle, 243 Translation, 21 Transmutation, 12 Transportabstand, 248 Transposon, 196, 268

303 Transskription, 21, 39 Transskriptionsfaktor, 261 Triplet, 20 Trittbrettfahrer, 66 Tschermak-Seysenegg, Armin von, 3 Tschermak-Seysenegg, Erich von, 3 Tumor, 151 Turdoides squamiceps, 182 Turingmechanismus, 27, 174, 176, 222

U Überdeckung, offene, 237 Überleben der Tüchtigsten, 2, 14 Übersetzung, 104, 113 Umschaltvorgang, 148 Umschaltzeit, 166 Umwelt, 189, 259 Unterscheidung zwischen Selbst und Fremdem, 163 Unterschied, phänotypischer, 22 Urform, 12, 14 Ursuppe, 33

V Variationsrechnung, 114 Verdopplung, 38 von Hoxgenclustern, 261 Vererbung, 6, 14, 68 epigenetische, 29 Vererbungsgesetze, 107 Vererbungslehre, 173 Verhältnis von Struktur und Funktion, 13 Verhalten, 6 altruistisches, 48 kollektives, 183 Verhaltensforschung, 181 Verhulst, Pierre-François, 192 Verkehrsströme, 186 Verknüpfung, anatomische, 258 Vermehrung, 129 Vertebrat, 13, 24, 25, 163, 168, 261 Verteilung, räumliche, 135 Verwandtenselektion, 32, 45 Verwandtschaftsgrad, 50 Verzweigungsprozess, 37, 165 Vielzeller, 67 Viereck (in Graph), 248

304 Viererbaum, 90 Virus, 16, 114, 260, 269 Vitalismus, 8 Vogel, 23, 89, 101, 126, 258 Voltage Clamp Technik, 152 Volterra, Vito, 190 Vordergliedmaßen, 126 Vorderhirn, 78 Vorfahr, 14 gemeinsamer, 86 Voxel, 258 Vrba, Elisabeth, 23 W Wachstumsgesetz, 13 Wählermodell, 75 Wahrscheinlichkeitsverteilung, 70 Wallace, Alfred, 1, 2, 14 Wärmeleitungsgleichung, 186 Wassersteinabstand, 232, 248 Wasserstoffbrückenbindung, 103, 117 Watson, James, 20 Wechselwirkung, epistatische, 109 Weismann, August, 17, 29 Werden, 9 Widerstandsfähigkeit, 202 Wienerprozess, 156 Wirt, 195 Wissenschaftsministerin, 45 Wright-Fisher-Modell, 74, 76, 77 Wright-Mannigfaltigkeit, 70, 74

Stichwortverzeichnis Wright, Sewall, 23, 60, 74 Wurzel (eines Stammbaums), 86

X Xenologie, 128 Xenopus laevis, 27 XOR-Funktion, 234

Z Zeitskala, 143, 160, 208 Zeitverzögerung, 205 Zellbiologie, 17 Zelldifferenzierung, 107, 113 Zelle, 6, 16, 135 totipotente, 18 virtuelle, 147 Zellmembran, 152 Zellteilung, 107 Zelltheorie, 16 Zentrum-Umgebungs-Zelle, 236 Zentrumsmannigfaltigkeit, 208 Zerlegbarkeit, 258 Zerstörung, 163 Zitronensäurezyklus, 195, 260 Zufall, 14, 23 Zufallsmatrix, 200 Zufallsvariable, 76 Zweiter Hauptsatz der Thermodynamik, 19, 269 Zwitter, 50, 51, 54, 55, 63 Zytologie, 16