Gewöhnliche Differentialgleichungen und dynamische Systeme [2 ed.] 978-3-030-12361-1

Die Theorie gewöhnlicher Differentialgleichungen und dynamischer Systeme spielt eine zentrale Rolle in der Modellierung

623 86 5MB

German Pages 433 Year 2019

Report DMCA / Copyright

DOWNLOAD FILE

Polecaj historie

Gewöhnliche Differentialgleichungen und dynamische Systeme [2 ed.]
 978-3-030-12361-1

Table of contents :
Prolog......Page 5
Notationen......Page 10
Inhaltsverzeichnis......Page 11
Abbildungsverzeichnis......Page 15
Teil I Gewöhnliche Differentialgleichungen......Page 17
1 Einführung......Page 18
1.1 Erste Beispiele......Page 19
1.2 Systeme von Differentialgleichungen......Page 26
1.3 Fragestellungen der Theorie......Page 27
1.4 Linienelement und Richtungsfeld......Page 29
1.5 Trennung der Variablen......Page 31
1.6 Lineare Differentialgleichungen......Page 34
1.7 Die Phasenebene......Page 37
Übungen......Page 43
2.1 Lipschitz-Eigenschaft und Eindeutigkeit......Page 45
2.2 Existenz von Lösungen......Page 49
2.3 Fortsetzbarkeit und maximales Existenzintervall......Page 52
2.4 Differential- und Integralungleichungen......Page 54
2.5 Globale Existenz......Page 57
Übungen......Page 61
3.1 Homogene Systeme......Page 64
3.2 Inhomogene Systeme......Page 67
3.3.1 Die d'Alembert-Reduktion......Page 68
3.3.2 Systeme mit konstanten Koeffizienten......Page 70
3.4 Lineare Gleichungen höherer Ordnung......Page 79
3.4.1 Die d'Alembert-Reduktion für Gleichungenhöherer Ordnung......Page 80
3.4.2 Variation der Konstanten......Page 83
3.4.3 Konstante Koeffizienten......Page 85
Übungen......Page 90
4.1 Stetige Abhängigkeit......Page 92
4.2.1 Differentialungleichungen......Page 95
4.2.2 Positivität von Lösungen......Page 96
4.2.3 Periodische Lösungen......Page 98
4.3.1 Autonome Systeme......Page 101
4.3.2 Nichtautonome Systeme......Page 103
4.4 Dynamische Systeme......Page 106
Übungen......Page 108
5.1 Stabilitätsdefinitionen......Page 111
5.2 Ebene lineare autonome Systeme......Page 114
5.3 Stabilität linearer Systeme......Page 121
5.4 Das Prinzip der linearisierten Stabilität......Page 123
5.5 Ljapunov-Funktionen......Page 133
5.6 Dynamik von Viren......Page 141
Übungen......Page 146
Teil II Dynamische Systeme......Page 148
6.1 Der Existenzsatz von Peano......Page 149
6.2 Nichtfortsetzbare Lösungen......Page 150
6.3 Stetige Abhängigkeit......Page 151
6.4 Differentialungleichungen......Page 154
6.5 Eindeutigkeit......Page 157
6.6 Anwendungen......Page 158
Übungen......Page 161
7.1 Invariante Mengen......Page 163
7.2 Invarianzkriterien......Page 169
7.3 Konvexe invariante Mengen......Page 171
7.4 Positiv homogene autonome Systeme......Page 175
7.5 Differentialungleichungen und Quasimonotonie......Page 180
7.6 Autonome quasimonotone Systeme......Page 184
7.7 Ein Klassenmodell für Epidemien......Page 187
Übungen......Page 190
8.1 Ljapunov-Funktionen......Page 192
8.2 Stabilität......Page 197
8.3 Ljapunovs direkte Methode......Page 200
8.4 Limesmengen und das Invarianzprinzip......Page 203
8.5 Mathematische Genetik......Page 208
8.6 Gradientenartige Systeme......Page 210
8.7 Chemische Reaktionssysteme......Page 212
8.8 Die Methode von Lojasiewicz......Page 218
8.9 Ljapunov-Funktionen und Konvergenzraten......Page 225
Übungen......Page 231
9.1 Transversalen......Page 233
9.2 Poincaré-Bendixson-Theorie......Page 237
9.3 Periodische Lösungen......Page 242
9.4 Lienard-Gleichung......Page 244
9.5 Biochemische Oszillationen......Page 248
9.6 Der Index isolierter Equilibria......Page 251
Übungen......Page 256
10.1 Sattelpunkte autonomer Systeme......Page 258
10.2 Ebene Wellen für Reaktions-Diffusionsgleichungen......Page 263
10.3 Das Hartman-Grobman Theorem......Page 266
10.4 Normal stabile Equilibria......Page 273
10.5 Normal hyperbolische Equilibria......Page 280
10.6 Teilchen im Potentialfeld mit Dämpfung......Page 286
10.7 Die stabile und die instabile Faserung......Page 289
Übungen......Page 295
11.1 Der Funktionalkalkül......Page 297
11.2 Floquet-Theorie......Page 300
11.3 Lineare periodische Gleichungen......Page 306
11.4 Stabilität periodischer Lösungen......Page 309
11.5 Parameterabhängigkeit periodischer Lösungen......Page 318
Übungen......Page 323
12.1 Umkehrpunkte......Page 324
12.2 Pitchfork-Verzweigung......Page 330
12.3 Hopf-Verzweigung......Page 336
12.4 Periodische Lösungen Hamiltonscher Systeme......Page 342
12.5 Stabilität bei Hopf-Verzweigung......Page 343
12.6 Chemische Reaktionstechnik......Page 347
12.7 Verzweigung und Symmetrien......Page 353
Übungen......Page 360
13.1 Mannigfaltigkeiten im Rn......Page 361
13.2 Wohlgestelltheit......Page 365
13.3 Linearisierung......Page 367
13.4 Zwangsbedingungen......Page 368
13.5 Geodätische......Page 372
13.6 Das Zweikörperproblem......Page 377
Übungen......Page 383
14.1 Das FitzHugh-Nagumo System......Page 384
14.2 Wellenzüge für das FitzHugh-Nagumo System mit Diffusion......Page 389
14.3.1 Konvexe Funktionen......Page 397
14.3.2 Subdifferentiale......Page 400
14.4 Subdifferentialgleichungen......Page 407
14.4.1 Differential-Inklusionen......Page 408
14.4.2 Differential-Variationsungleichungen......Page 412
14.4.3 Asymptotisches Verhalten......Page 418
Epilog......Page 421
Lehrbücher und Monographien......Page 426
Originalliteratur......Page 427
Stichwortverzeichnis......Page 430

Citation preview

Grundstudium Mathematik

Jan W. Prüss Mathias Wilke

Gewöhnliche Differentialgleichungen und dynamische Systeme 2. Auflage

Grundstudium Mathematik

Jan W. Prüss • Mathias Wilke

Gewöhnliche Differentialgleichungen und dynamische Systeme 2. Auflage

Jan W. Prüss Institut für Mathematik Martin-Luther-Universität Halle-Wittenberg Halle (Saale), Deutschland

Mathias Wilke Institut für Mathematik Martin-Luther-Universität Halle-Wittenberg Halle (Saale), Deutschland

ISSN 2504-3641 ISSN 2504-3668 (electronic) Grundstudium Mathematik ISBN 978-3-030-12361-1 ISBN 978-3-030-12362-8 (eBook) https://doi.org/10.1007/978-3-030-12362-8 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. Birkhäuser © Springer Nature Switzerland AG 2011, 2019 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Birkhäuser ist ein Imprint der eingetragenen Gesellschaft Springer Nature Switzerland AG und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Gewerbestrasse 11, 6330 Cham, Switzerland

Prolog

Seit der Formulierung der Grundgesetze der klassischen Mechanik durch Newton im 17. Jahrhundert bilden gewöhnliche Differentialgleichungen ein exzellentes Werkzeug in der mathematischen Modellierung physikalischer Prozesse. Heute findet dieser Typ von Gleichungen in allen Naturwissenschaften – einschließlich der Life Sciences – in ständig wachsendem Maße Anwendung. Daher gehört ein Kurs über die Theorie gewöhnlicher Differentialgleichungen unabdingbar zur Grundausbildung von Mathematikern, Physikern und Ingenieuren, und sollte auch im Studium der Life Sciences und der Wirtschaftswissenschaften präsent sein. Natürlich gibt es in der deutschsprachigen Literatur diverse sehr etablierte Lehrbücher, sodass der Leser dieses Buches sich fragen wird, warum noch eines. Um diese Frage zu beantworten, sollte man zur Kenntnis nehmen, dass sich die Schwerpunkte der Theorie mit den Jahren verschoben haben, nicht zuletzt durch die enormen Fortschritte in der Numerik und Computertechnologie, speziell durch die Entwicklung moderner Computeralgebrasysteme. So erscheint es uns heute nicht mehr angebracht zu sein, in einem Kurs über gewöhnliche Differentialgleichungen viel Zeit mit expliziten Lösungen, mit klassischen Integrationsmethoden, Potenzreihenentwicklungen, etc. zu verbringen. Hierzu verweisen wir auf die klassische Literatur zu gewöhnlichen Differentialgleichungen und auf die zu speziellen Funktionen. Vielmehr sollte das Verständnis des qualitativen Verhaltens der Lösungen im Vordergrund stehen. Computeralgebrasysteme sind zur Visualisierung von Lösungen ein sehr gutes, zeitgemäßes Werkzeug, und sollten daher unbedingt in solchen Kursen zur Illustration eingesetzt werden. Wir sehen heute den Schwerpunkt von Modulen zur Theorie gewöhnlicher Differentialgleichungen in den Aspekten Nichtlinearität und Dynamik. Studierende der Mathematik und der Physik sollten frühzeitig mit dem Begriff der Stabilität vertraut gemacht werden, und elementare Techniken aus diesem Bereich kennenlernen. Deshalb werden auch Randwertprobleme – mit Ausnahme periodischer Randbedingungen, die in dynamischen Systemen natürlicherweise durch periodisches Verhalten der Lösungen auftreten, – in diesem Buch nicht betrachtet, denn sie spielen für die Dynamik eine untergeordnete Rolle, und können viel effektiver im Rahmen

V

VI

Prolog

von Veranstaltungen über Funktionalanalysis oder über partielle Differentialgleichungen behandelt werden. Ein weiterer Aspekt, der uns dazu bewogen hat, dieses Lehrbuch zu verfassen, resultiert aus der Neuorganisation der Studiengänge im Rahmen der Modularisierung für die Bachelor- und Masterprogramme. Dies erfordert eine Straffung der bisherigen Lehrveranstaltungen und somit auch eine Neu-Orientierung hinsichtlich der zu vermittelnden Lernziele und Lerninhalte. Durch die größere Praxisorientierung dieser Studiengänge muss auch der Aspekt der Modellierung stärkere Berücksichtigung finden. Dieses Lehrbuch trägt diesen Entwicklungen Rechnung. Es ist aus Vorlesungen entstanden, die der erstgenannte Autor an der Martin-Luther-Universität Halle-Wittenberg und an anderen Universitäten über gewöhnliche Differentialgleichungen und dynamische Systeme gehalten hat. Das Buch ist in zwei Teile gegliedert. Der erste Teil Gewöhnliche Differentialgleichungen hat einen Umfang von 2 SWS Vorlesung + 1 SWS Übung, und ist in Halle im 3. Semester in die Analysis III integriert. Der zweite Teil Dynamische Systeme wird in Halle im 5. Semester als Bachelor-Vertiefungsmodul ebenfalls mit dem Umfang 2 +1 SWS angeboten. Interessierte Studenten können daran ihre Bachelor-Arbeit anschließen. Natürlich ist es auch möglich, das gesamte Buch als Grundlage für ein 4 + 2Modul im dritten oder im vierten Semester des Bachelor-Studiums zu nehmen. Der zweite Teil kann alternativ als Text für ein Seminar über Dynamische Systeme verwendet werden. Für den ersten Teil werden nur die Grundvorlesungen in Analysis und moderate Kenntnisse der linearen Algebra vorausgesetzt, das wichtigste Hilfsmittel ist das Kontraktionsprinzip von Banach. Daher ist dieser Kurs auch für Physiker, Ingenieure, sowie für Studenten der Life Sciences und der Wirtschaftswissenschaften mit den entsprechenden Vorkenntnissen zugänglich. Aus didaktischen Gründen werden hier zwei Beispiele, nämlich das Pendel und das Volterra–Lotka System, jeweils mit oder ohne Dämpfung, in verschiedenen Zusammenhängen wiederholt diskutiert. Dies soll aufzeigen, was die einzelnen Sätze leisten, und dass nur aus ihrem Zusammenspiel ein vollständiges Bild der Dynamik eines Modells entsteht. Der zweite Teil wendet sich hauptsächlich an Studenten der Mathematik und Physik, da hier ein etwas tiefergehendes Verständnis der Analysis benötigt wird. Mathematisch sind hier das Kompaktheitskriterium von ArzelàAscoli und der Satz über implizite Funktionen in Banachräumen zentral. Auf weitere funktionalanalytische Methoden wird hier dem Kenntnisstand der anvisierten Leser- bzw. Hörerschaft entsprechend nicht zurückgegriffen. In diesem Teil werden anspruchsvollere Anwendungen zu den jeweiligen Themen diskutiert. Der Aufbau dieses Lehrbuchs ist folgendermaßen. In Teil I wird mit einer Einführung in die Thematik begonnen, in der grundlegende Begriffsbildungen eingeführt und Problemstellungen erläutert werden – die bereits in den Teil II hineinragen –, und es werden viele Beispiele angegeben, die zeigen sollen, dass gewöhnliche Differentialgleichungen omnipräsent und für die Modellierung von konkreten dynamischen Systemen unerlässlich sind. Wir betonen bereits in der Einführung geometrische Aspekte, um Studenten auf die

Prolog

VII

Herausforderungen, welche die Analysis eines konkreten Systems bietet, vorzubereiten, aber auch um die Schönheit der Theorie zu illustrieren. Kap. 2 befasst sich mit Existenz und Eindeutigkeit, der Satz von Picard und Lindelöf steht im Vordergrund. Differentialund Integral-Ungleichungen – wie das Lemma von Gronwall – werden schon hier entwickelt, um Methoden zum Beweis globaler Existenz zur Verfügung zu haben. Danach behandeln wir die Theorie linearer Systeme, ohne auf die Jordan-Zerlegung von Matrizen zurückzugreifen, da diese heute nicht mehr generell in Modulen zur linearen Algebra gelehrt wird. Um das invariante Denken zu schulen, verwenden wir die Spektralzerlegung linearer Operatoren, die bereitgestellt wird. In Kap. 4 geht es um stetige und differenzierbare Abhängigkeit der Lösungen von Daten und Parametern. Dieses Thema ist leider unbeliebt, aber von großer Bedeutung, nicht nur für die Theorie gewöhnlicher Differentialgleichungen, sondern auch in anderen Bereichen der Mathematik, speziell in der Differentialgeometrie und für die Theorie der Charakteristiken im Gebiet der partiellen Differentialgleichungen. In diesem Buch beweisen wir die entsprechenden Resultate und arbeiten auch wichtige Anwendungen aus. Das letzte Kapitel des ersten Teils ist der elementaren Stabilitätstheorie gewidmet. Es werden beide Teile des Prinzips der linearisierten Stabilität, das in Anwendungen von großer Bedeutung ist, im Detail bewiesen, und die sehr leistungsfähige Methode von Ljapunov wird in einfachen Fällen ausgeführt. Der erste Teil endet mit einer vollständigen Analysis eines aktuellen dreidimensionalen Virenmodells. Teil II ist für die Vertiefung von Teil I, also die qualitative Theorie dynamischer Systeme auf der Basis gewöhnlicher Differentialgleichungen vorgesehen. Kap. 6 dient einer Ergänzung des ersten Teils: Es enthält den Existenzsatz von Peano, die Konstruktion nichtfortsetzbarer Lösungen, und den allgemeinen Satz über stetige Abhängigkeit. Das Thema Eindeutigkeit wird vertieft behandelt, und wir zeigen, wie verallgemeinerte Differentialungleichungen in konkreten Anwendungen Eindeutigkeit – und damit Wohlgestelltheit – ergeben. Ist man gewillt, nur mit rechten Seiten aus C 1 zu arbeiten, so kann man ohne Weiteres auf dieses Kapitel verzichten. Kap. 7 befasst sich mit invarianten Mengen, einem zentralen Konzept in der Theorie dynamischer Systeme. Wir erhalten als Anwendung Exponentiallösungen positiv homogener Gleichungen, den Satz von Perron und Frobenius, und stellen den Zusammenhang mit vektorwertigen Differentialungleichungen her. Letztere tragen erheblich zum Verständnis des qualitativen Verhaltens quasimonotoner Systeme bei, die ein Sub- und ein Superequilibrium besitzen. Diese Resultate werden dann zur vollständigen Analysis eines Mehrklassen-Epidemiemodells verwendet. In Kap. 8 stehen nochmals Stabilität und Ljapunov-Funktionen im Mittelpunkt. Es werden die Sätze von Ljapunov über Stabilität, von La Salle über Limesmengen, sowie der Hauptsatz über gradientenartige Systeme bewiesen, und auf Probleme der mathematischen Genetik und der chemischen Kinetik angewandt. Im letzten Abschnitt des Kapitels behandeln wir die Lojasiewicz-Technik, und zeigen ihre Bedeutung anhand von Systemen zweiter Ordnung mit Dämpfung in der Mechanik. Die Theorie von Poincaré-Bendixson und die Index-Theorie für zweidimensionale autonome Systeme stehen im Zentrum von

VIII

Prolog

Kap. 9. Sie werden auf die Lienard-Gleichung – inklusive der van-der-Pol-Gleichung – angewandt, sowie auf Modelle für biochemische Oszillatoren, die neueren Datums sind. Kap. 10 enthält die Konstruktion der stabilen und der instabilen Mannigfaltigkeiten an hyperbolischen Equilibria, und Beweise des erweiterten Prinzips der linearisierten Stabilität an einer Mannigfaltigkeit normal stabiler bzw. normal hyperbolischer Equilibria. Es werden Anwendungen auf Diffusionswellen, inklusive der Konstruktion von Wellenfronten für die Fisher-Gleichung, und auf Probleme der klassischen Mechanik gegeben. Die Floquet-Theorie periodischer Gleichungen ist Schwerpunkt von Kap. 11. Dazu wird der Funktionalkalkül für lineare Operatoren in Cn hergeleitet und zur Konstruktion der Floquet-Zerlegung verwendet. Mittels der Floquet-Multiplikatoren wird das Prinzip der linearisierten Stabilität für periodische Lösungen hergeleitet, und die Abhängigkeit periodischer Lösungen von Parametern mit Hilfe des Satzes über implizite Funktionen studiert. Kap. 11 kann übersprungen werden, es wird später nur in Abschn. 12.5 zur Stabilitätsanalyse bei Hopf-Verzweigung verwendet. Die grundlegenden Sätze der Verzweigungstheorie, also die Sattel-Knoten-, die Pitchfork-, und die Hopf-Verzweigung sowie ihre Bedeutung für Stabilität, sind Gegenstand von Kap. 12. Diese Resultate werden anhand Hamiltonscher Systeme und eines Problems aus der Reaktionstechnik illustriert. Das letzte Kapitel befasst sich schließlich mit Differentialgleichungen auf Mannigfaltigkeiten, auf die man durch Anwendungen, wie Zwangsbedingungen in der Mechanik, instantane Reaktionen in der chemischen Kinetik, und generell durch Probleme mit stark unterschiedlichen Zeitskalen geführt wird. Als Anwendung der Invarianzmethoden aus Kap. 7 zeigen wir Wohlgestelltheit für Gleichungen auf C 1 -Mannigfaltigkeiten, betrachten danach Linearisierung an Equilibria, leiten die invariante Form der Gleichung für Geodätische her, und diskutieren den Zusammenhang mit Zwangskräften in der Mechanik. Zum Abschluss des Kapitels geben wir eine Analysis des Zweikörperproblems, die historisch zu den großen Erfolgen der Theorie gewöhnlicher Differentialgleichungen zählt. Die meisten in diesem Buch bewiesenen Resultate werden durch – zum Teil neue – Anwendungen erläutert. Mit diesen soll gezeigt werden, wie man mit gewöhnlichen Differentialgleichungen konkrete Systeme modellieren und (manchmal) erfolgreich analysieren kann. Jeder Abschnitt enthält Übungsaufgaben, die der Student nach Studium der entsprechenden vorhergehenden Abschnitte in der Lage sein sollte zu lösen. Die Diagramme und Schemata – insbesondere die Phasenportraits – sind überwiegend mit dem Computeralgebrasystem Mathematica generiert worden. Für letztere wurde u. a. das Shareware-Package DiffEqsPackages verwendet, das man sich von der Wolfram Research Homepage herunterladen kann. Der Epilog enthält Kommentare zur Literatur, sowie Anregungen und Hinweise für weitergehende Studien. Die angegebene Literatur ist zwangsläufig subjektiv ausgewählt und kann aufgrund der Historie und der Größe des Gebiets per se nicht vollständig sein. Der erste Teil des Literaturverzeichnisses enthält daher Lehrbücher und Monographien zur Thematik zum weiteren Studium, während der zweite Teil Beiträge angibt, aus denen Resultate entnommen wurden, oder die zum weiteren Studium konkreter Probleme anregen sollen.

Prolog

IX

Wir möchten uns vor allem bei Prof. Dr. G. Simonett und Dr. R. Zacher für ihre wertvollen Hinweise und Kommentare bedanken, sowie bei den Doktoranden S. Pabst und S. Meyer für ihren Einsatz beim Korrekturlesen. Unser Dank geht außerdem an Prof. Dr. H. Amann und an den Birkhäuser-Verlag, insbesondere an Dr. Th. Hempfling und Mitarbeiter. Halle, Deutschland im April 2010

Jan Prüss und Mathias Wilke

Vorwort zur zweiten Auflage Die sehr positive Resonanz auf unser Buch hat uns dazu veranlasst, den Text nochmals zu überarbeiten, Typos zu beseitigen, einige Ungenauigkeiten zu eliminieren und diverse Verfeinerungen anzubringen. Wir bedanken uns bei den Lesern für die diesbezüglichen Hinweise und Vorschläge. Die Gelegenheit wollten wir aber auch dazu nutzen, weitere interessante Thematiken aufzunehmen, die es bisher nicht in Lehrbuchform gibt, um das Buch noch attraktiver zu gestalten, und mehr Material für Seminare und weiterführende Studien zur Thematik des Buches zur Verfügung zu stellen. So haben wir Abschnitte über Ljapunov-Funktionen und Konvergenzraten, das Hartman-Grobman Theorem, stabile und instabile Faserungen in der Nähe von normal hyperbolischen Equilibrien, und Verzweigung und Symmetrien hinzugefügt. Des weiteren gibt es ein neues Kap. 14 Weitere Anwendungen, welches das FitzHugh-Nagumo Modell in der Elektrophysiologie, und Resultate über Wellenzüge und Pulswellen für ReaktionsDiffusionsgleichungen mit FitzHugh-Nagumo Nichtlinearität, sowie einen Abschnitt über Subdifferentialgleichungen enthält. Halle (Saale), Deutschland 2018

Jan Prüss und Mathias Wilke

Notationen

In diesem Buch werden Standardnotationen verwendet. So bezeichnen N, R, C wie üblich die natürlichen, reellen und komplexen Zahlen, R+ = [0, ∞), N0 = N ∪ {0}; K steht für R oder C. Kn ist der Vektorraum der n-dimensionalen Spaltenvektoren, Km×n der Raum der m × n-Matrizen mit Einträgen in K. Die Einheitsmatrix wird mit I bezeichnet, und ist A ∈ Kn×n so schreiben wir häufig λ − A anstelle von λI − A. Wie üblich bedeuten det A die Determinante und sp A die Spur von A, sowie N (A) den Kern und R(A) das Bild von A. AT bezeichnet die transponierte Matrix zu A und A∗ := A¯ T ihre Adjungierte. Wir verwenden elementare Aussagen der linearen Algebra wie den Dimensionssatz für A ∈ Km×n dim N(A) + dim R(A) = n ohne Kommentar. Eine Projektion P in Kn erfüllt P 2 = P , und induziert mittels x = P x + (x − P x) die Zerlegung Kn = R(P ) ⊕ N (P ) von Kn in eine direkte Summe; gilt P = P ∗ so heißt P orthogonal. Ist V ein Teilraum eines Vektorraums X, so bezeichnet W = X  V ein direktes Komplement von V in X, also X = V ⊕ W . Der Aufspann einer Teilmenge A eines Vektorraums wird wie üblich mit span A benannt. Das Skalarprodukt in Kn wird mit (·|·) bezeichnet. | · | bedeutet sowohl den Betrag reeller oder komplexer Zahlen, als auch eine nicht näher spezifizierte Norm auf Kn . Für 1/p  n p 1 ≤ p < ∞ ist |x|p = die lp -Norm auf Kn , und |x|∞ = max{|xj | : j =1 |xj | j = 1, . . . , n} die l∞ -Norm. Mit Br (x0 ) bzw. B¯ r (x0 ) werden die offene bzw. abgeschlossene Kugel mit Radius ¯ r > 0 und Mittelpunkt x0 ∈ Kn bzgl. einer Norm bezeichnet. Ist D ⊂ Kn , so bedeuten D, ∂D, int D den Abschluss, den Rand bzw. das Innere von D. Der Abstand eines Punktes x ∈ Kn zu einer Menge D ⊂ Kn wird mit dist(x, D) bezeichnet. Ist J ⊂ R ein Intervall, k ∈ N0 ∪ {∞}, so bedeutet C k (J ; Rn ) den Raum der k-mal stetig differenzierbaren Funktion u : J → Rn , und wir setzen C(J ; Rn ) := C 0 (J ; Rn ); schließlich bezeichnet C ω ((a, b); Rn ) den Raum der auf (a, b) reell analytischen Funktionen. Analog sind die Räume C k (G; Rn ) für eine offene Menge G ⊂ Rm erklärt. Alle weiteren Notationen werden im Text erläutert. XI

Inhaltsverzeichnis

Teil I

Gewöhnliche Differentialgleichungen

1

Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Erste Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Systeme von Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Fragestellungen der Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Linienelement und Richtungsfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Trennung der Variablen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6 Lineare Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.7 Die Phasenebene . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

3 4 11 12 14 16 19 22

2

Existenz und Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Lipschitz-Eigenschaft und Eindeutigkeit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Existenz von Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Fortsetzbarkeit und maximales Existenzintervall . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 Differential- und Integralungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Globale Existenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

31 31 35 38 40 43

3

Lineare Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Homogene Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Inhomogene Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Bestimmung von Fundamentalsystemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Die d’Alembert-Reduktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Systeme mit konstanten Koeffizienten. . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Lineare Gleichungen höherer Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.1 Die d’Alembert-Reduktion für Gleichungen höherer Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Variation der Konstanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.3 Konstante Koeffizienten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

51 51 54 55 55 57 66 67 70 72

XIII

XIV

Inhaltsverzeichnis

4

Stetige und differenzierbare Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Stetige Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Differentialungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Positivität von Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.3 Periodische Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Differenzierbarkeit der Lösungen nach Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Autonome Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Nichtautonome Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Dynamische Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

79 79 82 82 83 85 88 88 90 93

5

Elementare Stabilitätstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Stabilitätsdefinitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2 Ebene lineare autonome Systeme. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Stabilität linearer Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Das Prinzip der linearisierten Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Ljapunov-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Dynamik von Viren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

99 99 102 109 111 121 129

Teil II

Dynamische Systeme

6

Existenz und Eindeutigkeit II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Der Existenzsatz von Peano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Nichtfortsetzbare Lösungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Stetige Abhängigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.4 Differentialungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.5 Eindeutigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.6 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

139 139 140 141 144 147 148

7

Invarianz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.1 Invariante Mengen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Invarianzkriterien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.3 Konvexe invariante Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.4 Positiv homogene autonome Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Differentialungleichungen und Quasimonotonie . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6 Autonome quasimonotone Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.7 Ein Klassenmodell für Epidemien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

153 153 159 161 165 170 174 177

8

Ljapunov-Funktionen und Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.1 Ljapunov-Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Stabilität . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Ljapunovs direkte Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

183 183 188 191

Inhaltsverzeichnis

8.4 8.5 8.6 8.7 8.8 8.9

XV

Limesmengen und das Invarianzprinzip. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mathematische Genetik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gradientenartige Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Chemische Reaktionssysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Die Methode von Lojasiewicz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Ljapunov-Funktionen und Konvergenzraten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

194 199 201 203 209 216

9

Ebene autonome Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.1 Transversalen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.2 Poincaré-Bendixson-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3 Periodische Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4 Lienard-Gleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.5 Biochemische Oszillationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.6 Der Index isolierter Equilibria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

225 225 229 234 236 240 243

10

Linearisierung und invariante Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.1 Sattelpunkte autonomer Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Ebene Wellen für Reaktions-Diffusionsgleichungen . . . . . . . . . . . . . . . . . . . . . . 10.3 Das Hartman-Grobman Theorem. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.4 Normal stabile Equilibria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.5 Normal hyperbolische Equilibria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.6 Teilchen im Potentialfeld mit Dämpfung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.7 Die stabile und die instabile Faserung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

251 251 256 259 266 273 279 282

11

Periodische Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1 Der Funktionalkalkül. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Floquet-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Lineare periodische Gleichungen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.4 Stabilität periodischer Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.5 Parameterabhängigkeit periodischer Lösungen . . . . . . . . . . . . . . . . . . . . . . . . . . . .

291 291 294 300 303 312

12

Verzweigungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.1 Umkehrpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Pitchfork-Verzweigung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3 Hopf-Verzweigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.4 Periodische Lösungen Hamiltonscher Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.5 Stabilität bei Hopf-Verzweigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.6 Chemische Reaktionstechnik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.7 Verzweigung und Symmetrien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

319 319 325 331 337 338 342 348

XVI

Inhaltsverzeichnis

13

Differentialgleichungen auf Mannigfaltigkeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1 Mannigfaltigkeiten im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Wohlgestelltheit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.3 Linearisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.4 Zwangsbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.5 Geodätische . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.6 Das Zweikörperproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

357 357 361 363 364 368 373

14

Weitere Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1 Das FitzHugh-Nagumo System. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.2 Wellenzüge für das FitzHugh-Nagumo System mit Diffusion . . . . . . . . . . . . 14.3 Konvexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3.1 Konvexe Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.3.2 Subdifferentiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4 Subdifferentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.1 Differential-Inklusionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.2 Differential-Variationsungleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14.4.3 Asymptotisches Verhalten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

381 381 386 394 394 397 404 405 409 415

Epilog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419 Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429

Abbildungsverzeichnis

1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9

Logistisches Wachstum mit κ = 10 und α = 0, 5 . . . . . . . . . . . . . . . . . . . . . . . . . Harmonischer Oszillator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Schwingkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Das mathematische Pendel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Richtungsfeld der Differentialgleichung x˙ = t 2 + x 2 . . . . . . . . . . . . . . . . . . . . . Phasenportrait von (SVL) mit ε = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Phasenportrait von (SKK) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Phasenportrait von (P) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Phasenportrait von (PF) für φDW . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 6 7 8 15 24 25 26 27

Abb. 2.1

Lösung und Vergleichsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

Abb. 3.1 Abb. 3.2

Bernoulli-Balken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gefedertes Doppelpendel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

74 75

Abb. Abb. Abb. Abb. Abb. Abb. Abb. Abb. Abb. Abb. Abb. Abb.

Phasenportrait von Vinograd . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . (α) Sattelpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stabiler Knoten (β) und instabiler Knoten (γ ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stabile Zustände (δ) und instabile Zustände (ε) . . . . . . . . . . . . . . . . . . . . . . . . . . . Stabiler falscher Knoten (a) und instabiler falscher Knoten (c) . . . . . . . . . . Instabile Zustände (b) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stabile Spirale (1) und instabile Spirale (3) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Zentrum (2) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Stabilitätsbereiche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Koexistenz im Volterra–Lotka-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konkurrenzmodell: Keine Koexistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Konkurrenzmodell: Koexistenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

100 104 104 105 106 106 108 108 109 118 119 120

Abb. Abb. Abb. Abb. Abb. Abb. Abb. Abb. Abb.

5.1 5.2 5.3 5.4 5.5 5.6 5.7 5.8 5.9 5.10 5.11 5.12

Abb. 8.1 Abb. 8.2

Der Grenzzyklus im Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 Phasenportraits zu den Beispielen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209

Abb. 9.1 Abb. 9.2

Transversale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 Brusselator mit a = 1, b = 1, bzw. b = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 XVII

XVIII

Abbildungsverzeichnis

Abb. 9.3 Abb. 9.4 Abb. 9.5

Ein homoklines Orbit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 van der Pol-Oszillator mit μ = 1 und μ = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 Biochemischer Oszillator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

Abb. 10.1 Linearer und nichtlinearer Sattelpunkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 Abb. 10.2 Heteroklines Orbit für die Fisher-Gleichung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 Abb. 10.3 Faserungen bei u∗ ∈ E . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283 Abb. 11.1 Integrationsweg 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 Abb. 11.2 Integrationsweg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298 Abb. Abb. Abb. Abb.

12.1 12.2 12.3 12.4

Sattel- Knoten-Verzweigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Pitchfork-Verzweigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Brusselator mit a = 1, b = 1, 99 bzw. b = 2, 01 . . . . . . . . . . . . . . . . . . . . . . . . . . Equilibriazweige des adiabatischen exothermen idealen Rührkessels mit γ = 12, β = 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

321 325 331 346

Abb. 14.1 Ersatzschaltbild zu (14.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382 Abb. 14.2 Schaltkurven zu (14.1) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383

Teil I Gewöhnliche Differentialgleichungen

1

Einführung

Eine gewöhnliche Differentialgleichung – im Folgenden häufig kurz DGL genannt – hat die allgemeine Gestalt h(t, x, x, ˙ x, ¨ . . . , x (m) ) = 0,

t ∈ J,

(1.1)

n wobei J ein Intervall ist, und die Funktion h : J ×R . . × Rn → Rn dabei als gegeben  × . m+1−mal

vorausgesetzt wird. (1.1) ist hier in impliziter Form gegeben. Der Parameter t ist in (1.1) die einzige unabhängige Variable. Dies ist das Merkmal gewöhnlicher Differentialgleichungen. In diesem Buch wird t oft als „Zeit“ bezeichnet, auch wenn es dem in manchen Fällen nicht gerecht wird. Dabei ist x˙ = dx dt die Zeitableitung der Funktion x = x(t). Die Ordnung einer Differentialgleichung ist definiert durch die höchste darin nichttrivial enthaltene Ableitung. Die DGL (1.1) hat die Ordnung m, sofern ∂x (m) h ≡ 0 ist. Eine Differentialgleichung erster Ordnung hat demnach die Form h(t, x, x) ˙ = 0.

(1.2)

Löst man, falls dies möglich ist, (1.1) nach x (m) auf, so ist die Differentialgleichung m-ter Ordnung in expliziter Form gegeben: x (m) = g(t, x, x, ˙ x, ¨ . . . , x (m−1) ).

(1.3)

Wir werden uns hier nur mit expliziten Differentialgleichungen beschäftigen, da diese in Anwendungen am häufigsten auftreten, und implizite Differentialgleichungen im

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_1

3

4

1 Einführung

Allgemeinen schwieriger zu lösen sind, jedoch oft mit Hilfe des Satzes über implizite Funktionen auf explizite Differentialgleichungen zurückgeführt werden können. Gesucht sind Funktionen x = x(t), welche (1.1) erfüllen. Somit kommen wir zu der folgenden Definition. Definition 1.0.1. Eine Funktion x : J → Rn heißt Lösung von (1.1) in J , falls x ∈ ˙ x(t), ¨ . . . , x (m) (t)) = 0 für alle t ∈ J gilt. C m (J ; Rn ) ist, und h(t, x(t), x(t), Im Gegensatz zu gewöhnlichen Differentialgleichungen enthalten viele Differentialgleichungen mehrere unabhängige Variable. Man nennt solche dann partielle Differentialgleichungen: H (y, u, ∇u, ∇ 2 u, . . . , ∇ m u) = 0, y ∈ U ⊂ Rn , U offen. Lösungen u = u(y) sind hierbei Funktionen mehrerer Variablen. Es sei daran erinnert, dass ∇u(y) den Gradienten von u(y), ∇ 2 u(y) die Hesse-Matrix, etc. bezeichnen. Wir werden uns in diesem Buch ausschließlich mit gewöhnlichen Differentialgleichungen befassen.

1.1

Erste Beispiele

Die folgenden Beispiele sollen einen ersten Eindruck über das Auftreten gewöhnlicher Differentialgleichungen bei der Modellierung dynamischer Vorgänge vermitteln. (a) Kapital- und Bevölkerungswachstum. Sei x(t) das Kapital bzw. die Größe einer Population zur Zeit t. Dann bedeutet x(t) ˙ die zeitliche Änderung des Kapitals bzw. der Population, also x(t) ˙ < 0 → Abnahme, x(t) ˙ = 0 → keine Änderung, x(t) ˙ > 0 → Zunahme. Das einfachste Modell zur Beschreibung von Wachstumsprozessen basiert auf der Annahme, dass die zeitliche Änderung der Population proportional zum aktuellen Bestand ist. Die dies beschreibende DGL ist x˙ = αx, wobei α ∈ R ein Proportionalitätsfaktor ist, die sogenannte Wachstumsrate. Dieses Modell tritt auch in der chemischen Kinetik als sog. Zerfallsreaktion A → P auf. Dabei ist A die zerfallende Substanz, und P bedeutet ein oder mehrere Produkte des Zerfalls. x(t) bezeichnet dabei die zur Zeit t vorhandene Masse an A, gemessen z. B. in Mol oder in Mol pro Liter. Der Parameter α heißt Reaktionsgeschwindigkeitskonstante und ist dann negativ.

1.1 Erste Beispiele

5

Die Lösungen dieser Gleichung sind durch die Funktionen x(t) = ceαt gegeben. Denn offenbar ist ein solches x(t) eine Lösung, und ist y(t) eine weitere, so folgt d −αt ] = 0, also ist y(t)e−αt ≡ a konstant, d. h. y(t) = aeαt . Man bezeichnet dt [y(t)e c ∈ K als Freiheitsgrad oder auch als Integrationskonstante der Gleichung. Der Parameter c kann durch einen Anfangswert x(t0 ) = x0 explizit festgelegt werden. Sei zum Beispiel zur Zeit t = 0 die Bevölkerungsgröße gleich x0 . Dann gilt: x0 = x(0) = ceα0 = c,

also x(t) = x0 eαt .

Umgekehrt kann man die Exponentialfunktion et als Lösung des Anfangswertproblems x˙ = x,

t ∈R

x(0) = 1,

definieren. Dies ist eine in der Theorie spezieller Funktionen häufig angewandte Methode zur Einführung neuer Funktionen. In der Realität kann es exponentielles, d. h. unbeschränktes Wachstum nicht geben, da stets nur endliche Ressourcen vorhanden sind. Ein modifiziertes Wachstumsgesetz, das dem Rechnung trägt, ist das logistische Wachstum: x˙ = αx(1 − x/κ),

t ∈ R.

Dabei sind α > 0 und κ > 0 ein weiterer Parameter, die sog. Kapazität. Die Lösung des entsprechenden Anfangswertproblems mit Anfangswert x0 > 0 ist durch die Funktionen x(t) =

x0 κ , x0 + e−αt (κ − x0 )

t ≥ 0,

gegeben. Für t → ∞ konvergieren diese Funktionen gegen den Sättigungswert x(∞) = κ; vgl. Abb. 1.1. Logistisches Wachstum wird in vielen Disziplinen verwendet, um Sättigungsverhalten zu modellieren. Abb. 1.1 Logistisches Wachstum mit κ = 10 und α = 0, 5

20 15 10 5

0

5

10

15

20

6

1 Einführung

Abb. 1.2 Harmonischer Oszillator

(b) Der harmonische Oszillator. Es sei mit Ausnahme der Gravitation jegliche äußere Kraft vernachlässigt. An der Masse m wirkt zum einen die Gewichtskraft Fg = mg von m und zum anderen die Federkraft Ff = −kx; k > 0 ist dabei die Federkonstante. Da sich die Feder nach Anhängen der Masse m etwas gedehnt hat, sagen wir um eine Länge x0 , wirkt auf m eine betragsmäßig größere Federkraft, nämlich F˜f = k(x0 + x). Nach dem 2. Newtonschen Gesetz gilt: mx¨ = Fg − F˜f = mg − k(x0 + x), da die Federkraft F˜f der Auslenkung entgegen wirkt; vgl. Abb. 1.2. Zur Anfangsauslenkung x0 (x = 0) halten sich die Gewichts- und die Federkraft die Waage, d. h. mg = kx0 bzw. x0 = mg/k. Setzen wir das in die obige Differentialgleichung ein, erhält man mx¨ = mg − k(mg/k + x) = −kx; die Anfangsauslenkung x0 spielt also gar keine Rolle. Daraus folgt x¨ + ω2 x = 0,

mit ω2 =

k . m

(1.4)

ω2 wird in der Physik Kreisfrequenz genannt. (1.4) ist eine Differentialgleichung zweiter Ordnung und heißt Schwingungsgleichung. Man sieht sofort, dass die Funktionen cos(ωt) und sin(ωt) und alle ihre Linearkombinationen a cos(ωt) + b sin(ωt) Lösungen der Schwingungsgleichung sind. Die Konstanten a und b können durch Anfangswerte für z. B. ˙ = x1 eindeutig festgelegt werden. Man erhält so das Anfangswertprox(0) = x0 und x(0) blem für die Schwingungsgleichung x¨ + ω2 x = 0,

t ∈ R,

x(0) = x0 , x(0) ˙ = x1 .

1.1 Erste Beispiele

7

Die trigonometrischen Funktionen cos(ωt) bzw. sin(ωt) können als Lösung dieses Anfangswertproblems mit x0 = 1, x1 = 0 bzw. x0 = 0, x1 = 1, definiert werden. (c) Der Schwingkreis. Die Schwingungsgleichung tritt auch in vielen anderen Anwendungen auf. Wir diskutieren hier kurz eine Anwendung in der Elektrotechnik, nämlich den Schwingkreis. Betrachten wir einen einfachen, geschlossenen Schaltkreis der lediglich aus einer Spule und einem Kondensator besteht. Die Kirchhoffsche Knotenregel zeigt dann, dass die Ströme IC am Kondensator und IL in der Spule gleich sind, und die Kirchhoffsche Maschenregel besagt, dass sich die Spannungen am Kondensator UC und an der Spule UL aufheben: UC + UL = 0. Hat der Kondensator die Kapazität C, die Spule die Induktivität L, so sind die Zusammenhänge zwischen Uj und I := Ij , j = L, C, durch die folgenden Gesetze gegeben: C U˙ C = IC ,

LI˙L = UL .

Diese ergeben somit LC I¨ = LC I¨L = C U˙ L = −C U˙ C = −IC = −I, sodass wir auf eine Schwingungsgleichung für I mit ω2 = 1/LC geführt werden. Die Spannungen UL und UC genügen ebenfalls dieser Gleichung. Befindet sich zusätzlich ein in Reihe geschalteter Widerstand R im Stromkreis, vgl. Abb. 1.3, so gilt ebenfalls IR = IL , und die Maschenregel wird zu UC + UL + UR = 0. Das Ohmsche Gesetz UR = RIR führt dann auf die Schwingungsgleichung mit Dämpfung LC I¨ + RC I˙ + I = 0. Hat der Widerstand eine nichtlineare Charakteristik UR = R(IR ), so folgt entsprechend die Gleichung: LC I¨ + CR  (I )I˙ + I = 0.

Abb. 1.3 Schwingkreis

L

R

C

8

1 Einführung

Ein sehr bekanntes Beispiel für diesen Fall ist der van der Pol-Oszillator x¨ + μ(x 2 − 1)x˙ + x = 0, den wir in späteren Kapiteln behandeln werden. (d) Das mathematische Pendel. Wie in (b) sei jede äußere Kraft mit Ausnahme der Gravitation vernachlässigt. Wir erhalten mit dem 2. Newtonschen Gesetz für die Auslenkung x die Gleichung ml x¨ = −Fr , da die Rücktriebskraft Fr der Auslenkung entgegen wirkt. Anhand von Abb. 1.4 gilt damit Fr = mg sin x, also schließlich x¨ + ω2 sin x = 0 mit

ω2 =

g . l

Aus dem Satz von Taylor folgt: sin x = x −

x3 x5 + − O(x 7 ) ≈ x, für kleine Auslenkungen x, 3! 5!

das heißt näherungsweise gilt x¨ + ω2 x = 0. Wir werden durch diese Approximation also wieder auf die Schwingungsgleichung (1.4) geführt. Inwieweit diese Approximation gerechtfertigt ist, werden wir später sehen. Abb. 1.4 Das mathematische Pendel

1.1 Erste Beispiele

9

Definition 1.1.1. Eine Differentialgleichung (1.1) heißt linear, falls sie linear in allen abhängigen Variablen ist, also in x, x, ˙ x, ¨ . . . , x (m) . Ansonsten heißt (1.1) nichtlinear. Beispiele (a) und (b) sind somit linear, die van der Pol-Gleichung in (c), und (d) sind hingegen nichtlinear. In vielen Anwendungen treten Differentialgleichungen in Form von Systemen von Gleichungen auf. Die folgenden Beispiele sollen einen ersten Eindruck dafür vermitteln. (e) Das Räuber-Beute-Modell (Volterra–Lotka 1924). Sei x(t) die Größe der Population der Beute und entsprechend y(t) die Population der Räuber zur Zeit t. Das Volterra–Lotka-Modell für Räuber-Beute-Systeme lautet wie folgt. ⎧ ⎨x˙ = ax − byx, (RB) ⎩y˙ = −cy + dyx,

a, b, c, d > 0.

Die Terme ax bzw −cy repräsentieren wie in (a) Wachstum der Beute bzw. Reduktion der Räuber in Abwesenheit der jeweils anderen Art. Das Produkt xy repräsentiert die Interaktion der Spezies, die mit einer gewissen Häufigkeit zum Tod der Beute und zum Wachstum durch Nahrungsaufnahme der Räuberpopulation führt. (f) Das Epidemiemodell von Kermack–McKendrick. Es repräsentiere x(t) den gesunden Teil der Population einer Spezies, die Suszeptiblen (S), y(t) den infizierten Teil, die Infiziösen (I) und z(t) den immunisierten Teil, Recovered (R), zur Zeit t. Die Epidemie sei nicht fatal, führe also nicht zu Todesfällen, und verlaufe schnell gegenüber den Geburtsund Sterbevorgängen in der Population. Das klassische SIR-Modell von Kermack und McKendrick für die Ausbreitung einer solchen Epidemie lautet folgendermaßen: ⎧ ⎪ ⎪ ⎨x˙ = −axy

(SI R) y˙ = axy − by ⎪ ⎪ ⎩ z˙ = by

a, b > 0.

Summiert man x, ˙ y, ˙ z˙ auf, so erhält man x˙ + y˙ + z˙ = 0, was äquivalent zum Erhaltungssatz x + y + z = c, mit einer Konstanten c ∈ R, ist. Daher kann man das System (SIR) auf ein System für die zwei Unbekannten x und y reduzieren. (g) Chemische Kinetik. Eine reiche Quelle für Systeme von gewöhnlichen Differentialgleichungen ist die chemische Kinetik. Zerfallsreaktionen haben wir schon in Beispiel (a) in Abschn. 1.1 kennengelernt. Ein anderer sehr häufig auftretender Reaktionstyp ist die Gleichgewichtsreaktion

10

1 Einführung

k+ A + B  P. k− Beispiele für solche Reaktionen sind die Dissoziationen von Salzen in wässriger Lösung. Gleichgewichtsreaktionen sind typischerweise reversibel, also umkehrbar. Sie werden modelliert durch ein Differentialgleichungssystem der Form c˙A = −k+ cA cB + k− cP ,

0 cA (0) = cA ,

c˙B = −k+ cA cB + k− cP ,

cB (0) = cB0 ,

c˙P = k+ cA cB − k− cP ,

cP (0) = cP0 .

(1.5)

Dabei bedeuten die Variablen cL die Konzentration der Substanz L = A, B, P . Die Reaktion von rechts nach links wird durch den Term k− cP als Zerfall modelliert, dies ist eine Reaktion 1. Ordnung. Auf der anderen Seite kommt es mit einer gewissen Wahrscheinlichkeit zur Bildung von P nur dann, wenn je ein Molekül A mit einem Molekül B zusammentrifft. Diese Wahrscheinlichkeit ist proportional zum Produkt cA cB , daher modelliert man die Reaktion von links nach rechts durch den quadratischen Term k+ cA cB , man spricht dann von einer Reaktion 2. Ordnung. Dieses System ist gekoppelt, zunächst erscheint keine der Gleichungen redundant zu sein. Durch Addition der ersten bzw. der zweiten Gleichung zur dritten findet man jedoch c˙A + c˙P = c˙B + c˙P = 0, also 0 cA (t) + cP (t) = konstant = cA + cP0 ,

cB (t) + cP (t) = konstant = cB0 + cP0 .

Aus diesen zwei Erhaltungssätzen lassen sich z. B. cA und cB eliminieren, sodass lediglich eine Differentialgleichung verbleibt, hier die für cP . 0 c˙P = k+ (cA + cP0 − cP )(cB0 + cP0 − cP ) − k− cP =: r(cP ).

Insbesondere im Teil II dieses Buches werden wir Anwendungen aus der chemischen Kinetik eingehender untersuchen.

1.2 Systeme von Differentialgleichungen

1.2

11

Systeme von Differentialgleichungen

Wie bereits in den Beispielen (e)–(g) gesehen, treten häufig Systeme von Differentialgleichungen auf. Ein allgemeines System 1. Ordnung wird dargestellt durch: x˙1 = f1 (t, x1 , x2 , . . . , xn ), x˙2 = f2 (t, x1 , x2 , . . . , xn ), .. . x˙n = fn (t, x1 , x2 , . . . , xn ). Mit x = [x1 , . . . , xn ]T ∈ Rn und f (t, x) = [f1 (t, x), . . . , fn (t, x)]T ∈ Rn schreibt sich dieses System in Vektornotation als x˙ = f (t, x),

f : J × Rn → Rn .

Das zugehörige Anfangswertproblem (AWP) ist durch x˙ = f (t, x),

t ≥ t0 ,

x(t0 ) = x0 ,

gegeben. Durch eine geeignete Substitution kann man Differentialgleichungen höherer Ordnung auf ein System erster Ordnung reduzieren. Dazu sei eine explizite Differentialgleichung y (m) = g(t, y, y, ˙ . . . , y (m−1) )

(1.6)

m-ter Ordnung gegeben. Man setze ⎡ ⎤ ⎤ y x1 ⎢ ⎢ ⎥ ⎥ ⎢ y˙ ⎥ ⎢ x2 ⎥ ⎢ ⎢ ⎥ x := ⎢ . ⎥ := ⎢ . ⎥ ⎥, ⎣ .. ⎦ ⎣ .. ⎦ y (m−1) xm





y˙ y¨ .. .





y˙ y¨ .. .



⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ ⎥ ⎥, x˙ = ⎢ ⎥=⎢ ⎥ ⎣ ⎦ ⎣ ⎦ (m) (m−1) y g(t, y, y, ˙ ...,y )

es folgt

also ⎡ ⎢ ⎢ ⎢ x˙ = ⎢ ⎢ ⎢ ⎣

x2 x3 .. .

xm g(t, y, y, ˙ . . . , y (m−1) )





⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥=⎢ ⎥ ⎢ ⎥ ⎢ ⎦ ⎣

x2 x3 .. .

xm g(t, x1 , x2 , . . . , xm )

⎤ ⎥ ⎥ ⎥ ⎥ =: f (t, x). ⎥ ⎥ ⎦

(1.7)

12

1 Einführung

Wir haben so das System 1. Ordnung x˙ = f (t, x) erhalten, welches äquivalent zu (1.6) ist. Proposition 1.2.1. Die Funktion y ∈ C m (J ) löst (1.6) genau dann, wenn x ∈ C 1 (J ; Rm ) das System (1.7) löst. Beweis. Es bleibt nur noch die entsprechenden Regularitäten der Lösungen zu beweisen. Sei zunächst y ∈ C m (J ) eine Lösung von (1.6). Mit der oben eingeführten Substitution xj = y (j −1) gilt x˙j = y (j ) ∈ C (m−j ) (J ), j ∈ {1, . . . , m}. Daraus folgt xj ∈ C 1 (J ), also x ∈ C 1 (J ; Rm ). Hat man andererseits eine Lösung x ∈ C 1 (J ; Rm ) des Systems (1.7) gegeben, so gilt (j  y ) = x˙j ∈ C(J ), j ∈ {1, . . . , m}. Daraus ergibt sich die Behauptung. Diese Reduktion auf ein System 1. Ordnung kann ebenso auch für Systeme höherer Ordnung durchgeführt werden. Ist ein System m-ter Ordnung mit Dimension N gegeben, so hat das resultierende System 1. Ordnung die Dimension n = mN .

1.3

Fragestellungen der Theorie

Eine allgemeine Theorie für Differentialgleichungen wirft eine Reihe von Fragen auf, von denen wir jetzt einige kommentieren wollen. 1. Wie viele Lösungen einer Differentialgleichung gibt es? Eine skalare Differentialgleichung m-ter Ordnung hat m Freiheitsgrade, also m Integrationskonstanten. Sind diese nicht speziell bestimmbar, so gibt es beliebig viele Lösungen. Man spricht dabei von einer m-parametrigen Lösungsschar. Entsprechendes gilt für Systeme. Eine Möglichkeit, diese Konstanten festzulegen, ist, sich zu einem festen Zeitpunkt t0 Anfangswerte di x(t)|t=t0 = x (i) (t0 ) = x0i , i = 0, . . . , m − 1, dt i vorzugeben. Ein System dieser Art nennt man ein Anfangswertproblem. Daher lautet das allgemeine Anfangswertproblem für ein System 1. Ordnung: ⎧ ⎨x˙ = f (t, x), ⎩x(t0 ) = x0 .

1.3 Fragestellungen der Theorie

13

Eine zweite Möglichkeit, die Integrationskonstanten zu bestimmen, besteht darin, Randwerte festzulegen. Dies führt auf sogenannte Randwertprobleme: ⎧ ⎨x˙ = f (t, x), ⎩R0 x(t0 ) + R1 x(t1 ) = y,

t 0 < t < t1 .

Dabei sind t0 und t1 gegebene Zeitwerte und Rj ∈ Rn×n , j = 0, 1. In diesem Buch werden hauptsächlich Anfangswertprobleme untersucht. 2. Existieren Lösungen von (1.7) lokal oder global? Diese Frage ist nicht immer leicht zu beantworten; vgl. Kap. 2. • Globale Existenz, wie zum Beispiel für ⎧ ⎨x˙ = αx, ⎩x(0) = x0 . Die (eindeutige) Lösung ist gegeben durch x(t) = x0 eαt , sie ist global und es gilt x ∈ C ∞ (R). • Lokale Existenz, wie zum Beispiel ⎧ ⎨x˙ = 1 + x 2 , ⎩x(0) = 0. In diesem Fall ist die Lösung x(t) zum Anfangswert x(0) = 0 gegeben durch x(t) = tan(t), wie man durch eine Probe leicht nachweist. Diese Lösung existiert in J = (− π2 , π2 ) und es gilt limt→± π2 x(t) = ±∞. Man spricht von einem blow up der Lösung, d. h. sie explodiert in den Punkten t± = ± π2 . 3. Eindeutigkeit von Lösungen? Wir werden Beispiele kennenlernen, die eine Lösungschar zu einem festen Anfangswert zulassen. Daher ist in solchen Fällen die Zukunft, also die Lösung zu einem späteren Zeitpunkt, nicht durch die Gegenwart, also den Anfangswert bestimmt. Man sagt dann, dass das System nicht deterministisch ist. Als Modelle für physikalische Prozesse sind solche Gleichungen nicht geeignet, da sie dem Prinzip des Determinismus widersprechen. Daher ist es sehr wichtig, Klassen von Gleichungen deren Lösungen eindeutig sind, anzugeben; vgl. Kap. 2 und 6. 4. Abhängigkeit der Lösungen von Daten Ebenso wichtig wie Existenz und Eindeutigkeit von Lösungen ist ihre Abhängigkeit von den Anfangswerten und Parametern, kurz Daten genannt. Soll ein Anfangswertproblem

14

1 Einführung

ein deterministisches physikalisches Modell beschreiben, so sollten kleine Änderungen der Daten nur zu kleinen Änderungen der Lösungen führen. Ist das der Fall, so sagt man, die Lösung hängt stetig von den Daten ab; in Kap. 4 und 6 wird dies präzisiert. Ähnliches betrifft die Differenzierbarkeit der Lösungen nach den Daten. 5. Wie berechnet man Lösungen von Differentialgleichungen? • Analytisch; vgl. Kap. 1 für einige Beispiele. • Numerisch; wichtiger Teil der Numerischen Mathematik. 6. Qualitative Theorie Die qualitative Theorie gewöhnlicher Differentialgleichungen und die Theorie dynamischer Systeme befassen sich mit Eigenschaften der Lösungen. So sind u. a. die folgenden Fragen von Interesse: • • • • • • •

Bleiben die Lösungen beschränkt oder explodieren sie? Bleiben die Lösungen in einer vorgegebenen Menge? Bleiben die Lösungen positiv? Zeigen die Lösungen periodisches Verhalten? Wie sieht ihre Asymptotik für große Zeiten aus? Konvergieren die Lösungen für t → ∞? Wie ändert sich das qualitative Verhalten der Lösungen bei Änderung von Parametern?

Mit einigen dieser Fragen werden wir uns bereits im ersten Teil dieses Buchs beschäftigen, vor allem aber sind diese Gegenstand der Theorie im zweiten Teil.

1.4

Linienelement und Richtungsfeld

Bevor wir uns der analytischen Berechnung von Lösungen von Differentialgleichungen in einigen einfachen Fällen widmen, sollen hier noch zwei Begriffe, Linienelement und Richtungsfeld, erläutert werden. Betrachten wir das skalare AWP ⎧ ⎨x˙ = f (t, x), (1.8) ⎩x(t0 ) = x0 , mit f : J × R → R, J ⊂ R ein Intervall. Angenommen x(t) ist eine Lösung von (1.8). Wird x über die Zeit t parametrisiert, d. h. γ : t → [t, x(t)]T , so hat der Tangentenvektor an die Lösungskurve folgende Gestalt:

1.4 Linienelement und Richtungsfeld

15



   1 1 γ˙ (t) = = , x(t) ˙ f (t, x(t))

für alle (t, x(t)) ∈ J × R.

Es ist also klar, dass der Anstieg der Kurve γ in jedem Punktepaar (t, x) ∈ J × R gegeben ist durch f (t, x). Das Zahlentripel (t, x, m) deutet man nun geometrisch wie folgt: m = f (t, x) ist die Steigung der Tangente an γ in (t, x). Dieses Tripel nennt man ein Linienelement. Anschaulich erhält man es, indem man im Punkt (t, x) ein kleines Geradenstück der Steigung m anträgt. Die Gesamtheit aller Linienelemente zu ausgewählten Punkten (t, x) ∈ J × R nennt man Richtungsfeld der Differentialgleichung aus (1.8). Es bietet einen Blick auf den möglichen Verlauf der Lösungskurve(n). Natürlich existieren nun auch Punkte (t, x), in denen die Steigung überall gleich einem festen Wert c ist. Eine Bezeichnung für die Menge, die nur aus diesen Punkten besteht, liefert uns die folgende Definition. Definition 1.4.1. Eine Funktion f (t, x) = c = const heißt Isokline zur Differentialgleichung x˙ = f (t, x). Beispiel. x˙ = t 2 + x 2 = f (t, x). Setze x˙ = c = const. Dann gilt c = t 2 + x2. Abb. 1.5 Richtungsfeld der Differentialgleichung x˙ = t 2 + x 2

x 2

1

1

1

1

2

t

16

1 Einführung

√ Die Isoklinen sind also Kreise um den Nullpunkt mit dem Radius c; vgl. Abb. 1.5. In allen Punkten auf dem Kreis ist der Anstieg gleich c. Variiert man nun c ∈ (0, ∞), so erhält man eine Isoklinenschar für die Differentialgleichung x˙ = f (t, x).

1.5

Trennung der Variablen

Wir bezeichnen eine Gleichung der Form x˙ = h(t)g(x)

(1.9)

als Differentialgleichung mit getrennten Variablen. Es sei ein Anfangswert x(t0 ) = x0 gegeben. Satz 1.5.1. h : (α, β) → R und g : (a, b) →  t R stetig, t0 ∈ (α, β), x0 ∈ (a, b),  x Seien 1 ds, sofern g(x0 ) = 0 und H (t) := t0 h(τ )dτ . Dann gelten: G(x) := x0 g(s) 1. Ist g(x0 ) = 0, so ist x(t) ≡ x0 eine Lösung auf (α, β). Es kann jedoch weitere Lösungen geben (Nicht-Eindeutigkeit). 2. Ist g(x0 ) = 0, so gibt es ein δ > 0, sodass die eindeutig bestimmte Lösung x(t) auf Jδ = (t0 − δ, t0 + δ) mit x(t0 ) = x0 durch x(t) = G−1 (H (t)),

t ∈ Jδ ,

gegeben ist. d Beweis. Zu 1.: Das ist trivial, da 0 = dt x0 = h(t)g(x0 ) = 0 gilt. Vgl. auch Beispiel (c) weiter unten für Nicht-Eindeutigkeit. Zu 2.: Angenommen x = x(t) ist eine Lösung von (1.9) in (α, β). Da die Funktionen g und h nach Voraussetzung stetig sind, ist auch die Komposition g ◦ x stetig. Daher existiert x(t) ˙ = h(t), t ∈ Jδ . ein δ > 0, mit g(x(t)) = 0 für alle t ∈ Jδ . Aus (1.9) folgt somit g(x(t)) Mit den obigen Definitionen für G und H und aus der Kettenregel erhalten wir

1 d  G(x(t)) = x(t)G ˙ = h(t). (x(t)) = x(t) ˙ dt g(x(t)) Damit gilt nach dem Hauptsatz der Differential- und Integralrechnung:

1.5 Trennung der Variablen

17

 G(x(t)) − G(x(t0 )) =



t

h(τ )dτ

oder

G(x(t)) = G(x(t0 )) +

t0

t

h(τ )dτ. t0

Daraus folgt G(x(t)) = H (t),

t ∈ Jδ ,

(1.10)

da G(x(t0 )) = G(x0 ) = 0 ist. 1 = 0 für alle t ∈ Jδ ist die Funktion G streng monoton Aufgrund von G (x(t)) = g(x(t)) nahe bei x0 . Dies stellt die Existenz der Umkehrfunktion G−1 zu G sicher, und (1.10) liefert x(t) = G−1 (H (t)),

für alle t ∈ Jδ .

(1.11)

Die Lösung x = x(t) ist also durch die explizite Darstellung (1.11) eindeutig bestimmt. Sei nun x = x(t) durch (1.11) gegeben. Nach Voraussetzung sind g und h stetig, also sind die Funktionen G und H stetig differenzierbar. Dann liefert der Satz von der Umkehrfunktion x = G−1 (H ) ∈ C 1 (Jδ ). Nun gilt x(t) ˙ =

d d (G−1 (H (t))) = ( G−1 )(H (t))H˙ (t). dt dx

Nach der Regel für die Differentiation der Umkehrfunktion ergibt sich x(t) ˙ =

1 h(t) = g(G−1 (H (t)))h(t) = g(x(t))h(t), G (G−1 (H (t)))

also ist x = x(t) definiert durch (1.11) tatsächlich die Lösung von (1.9) zum Anfangswert x(t0 ) = x0 .  Beispiele. (a) ⎧ ⎨x˙ = (cos t) cos2 x, ⎩x(0) = 0. Es gilt:  g(x) = cos x, 2

G(x) =

x

x0

1 ds = cos2 s



x 0

1 ds = tan x, cos2 s

18

1 Einführung

 h(t) = cos t,

H (t) =

t



t

cos τ dτ =

cos τ dτ = sin t,

0

t0

Nach Satz 1.5.1 existiert genau eine Lösung x(t), denn es ist g(x0 ) = cos2 (0) = 1, und diese lautet: x(t) = arctan(sin(t)). In diesem Fall ist x(t) die globale Lösung, da H und G−1 stetig auf R sind. (b) Theoretisch berechnet man die Lösung x(t) wie in (a). Praktisch jedoch erspart man sich einige Schritte: ⎧ ⎨x˙ = 3t 2 x, ⎩x(0) = 1. Trenne die Variablen formal wie folgt: dx = 3t 2 dt x

(∗).

Integriere die linke Seite bzgl. x, die rechte Seite bzgl. t und erhalte so log |x| = t 3 +c, 3 wobei c ∈ R ein Freiheitsgrad ist. Daraus folgt x(t) = ce ˜ t , mit c˜ := ±ec . Zunächst gilt c˜ ∈ R \ {0}. Jedoch ist x(t) ≡ 0 auch eine Lösung der Differentialgleichung, welche bei Division durch x in (∗) verloren ging. Man sollte sich also vorsehen. Durch Umformungen wie in (∗) können leicht Lösungen verloren gehen! Freilich spielt die triviale Lösung in unserem Anfangswertproblem keine Rolle, da ja x(0) = 1 gefordert wird, was letztere ganz offensichtlich nicht erfüllt. Es gilt ferner 3 ˜ Damit ist die Lösung durch x(t) = et gegeben. 1 = x(0) = ce ˜ 0 = c. (c) Eine Differentialgleichung mit f (t, x) ≡ f (x) heißt autonom. Wir betrachten das autonome Anfangswertproblem ⎧ ⎨x˙ = 3x 2/3 , ⎩x(0) = 0, also (1.9) mit h(t) ≡ 1 und g(x) = 3x 2/3 . Wegen g(0) = 0 impliziert Satz 1.5.1, dass x(t) ≡ 0 eine Lösung der Differentialgleichung x˙ = 3x 2/3 ist. Wir untersuchen, ob es weitere Lösungen dieses Anfangswertproblems gibt. Der Ansatz über die Trennung der Variablen liefert 

x −2/3 dx =

 3 dt.

1.6 Lineare Differentialgleichungen

19

Daraus folgt 3x 1/3 = 3(t + c), also gilt x(t) = (t + c)3 . Einsetzen des Anfangswertes ergibt c = 0, d. h. x(t) = t 3 ist neben x(t) ≡ 0 eine weitere Lösung. Dies ist beileibe nicht die einzige weitere, es existiert hier sogar eine Schar von Lösungen zum Anfangswert x(0) = 0. Denn die Funktionen

xa,b (t) =

⎧ 3 ⎪ ⎪ ⎨(t − a) , t ≤ a, ⎪ ⎪ ⎩

t ∈ [a, b] mit a ≤ 0, b ≥ 0,

0, (t − b)3 ,

t ≥ b,

erfüllen sämtlich die Differentialgleichung x˙ = 3x 2/3 und es gilt xa,b (0) = 0. Wir nennen ⎧ ⎨t 3 , t ≥ 0 x ∗ (t) = ⎩0, t < 0 die Maximallösung und dementsprechend ⎧ ⎨0, t > 0 x∗ (t) = ⎩t 3 , t ≤ 0 die Minimallösung des Anfangswertproblems. Man beachte, dass die Funktion g(x) = x 2/3 zwar in x = 0 eine Nullstelle hat, aber 1/g(x) ist integrierbar in einer Umgebung von x = 0, besitzt also dort eine Stammfunktion, die außerdem streng monoton ist. Dies ist der mathematische Grund für die Nichteindeutigkeit in diesem Beispiel.

1.6

Lineare Differentialgleichungen

Wir betrachten die lineare Differentialgleichung 1. Ordnung x˙ = a(t)x + b(t),

t ∈ (α, β),

(1.12)

zum Anfangswert x(t0 ) = x0 , t0 ∈ (α, β), wobei a, b : (α, β) → R stetig seien. Die Differentialgleichung (1.12) heißt homogen bzw. inhomogen, falls b(t) ≡ 0 bzw. b(t) ≡ 0 ist. Sei  A(t) :=

t

a(s)ds. t0

(∗)

20

1 Einführung

Angenommen x(t) ist eine Lösung von (1.12) mit dem Anfangswert x(t0 ) = x0 . Wir setzen u(t) := e−A(t) x(t) und differenzieren nach t unter Verwendung von (1.12) und (∗): −A(t) ˙ u(t) ˙ = e−A(t) x(t) ˙ − A(t)e x(t) = e−A(t) (a(t)x(t) + b(t) − a(t)x(t)).

Daher gilt u(t) ˙ = b(t)e−A(t) . Da b(·) und e−A(·) stetig sind, können wir den Hauptsatz der Differential- und Integralrechnung anwenden, und erhalten  u(t) = u(t0 ) +

t

e−A(τ ) b(τ )dτ,

t ∈ (α, β).

t0

Berechnen wir u(t0 ): u(t0 ) = e−A(t0 ) x(t0 ) = x(t0 ) = x0 nach (∗). Aus der Definition von u(t) folgt nun e

−A(t)



t

x(t) = x0 +

e−A(τ ) b(τ )dτ

t0

und damit für die Lösung x(t) die explizite Darstellung  x(t) = eA(t) x0 + eA(t)

t

e−A(τ ) b(τ )dτ.

(1.13)

t0

Insbesondere ist die Lösung eindeutig bestimmt, und man verifiziert durch Nachrechnen, dass x(t) definiert durch (1.13) tatsächlich eine Lösung von (1.12) ist, sogar auf dem ganzen Intervall (α, β), also ist sie global. Gl. (1.13) wird als Formel der Variation der Konstanten bezeichnet. Dieser Name resultiert aus den folgenden Überlegungen. Sei xh (t) die allgemeine Lösung der homogenen Gleichung x˙h = a(t)xh und xp (t) sei eine spezielle Lösung von (1.12). Dann löst x(t) = xh (t) + xp (t) ebenfalls (1.12), denn x˙ = x˙h + x˙p = a(t)xh + a(t)xp + b(t) = a(t)(xh + xp ) + b(t) = a(t)x + b(t). Aus x˙h = a(t)xh , Satz 1.5.1 und (∗) folgt xh (t) = e

t t0

a(s)ds

c = eA(t) c.

(1.14)

Für die spezielle Lösung xp wählen wir nun den Ansatz xp (t) = eA(t) c(t). Wir setzen also in (1.14) c = c(t) und variieren damit c. Wegen

1.6 Lineare Differentialgleichungen

21

x˙p (t) = eA(t) c(t) ˙ + eA(t) a(t)c(t) und x˙p (t) = a(t)xp + b(t) = eA(t) a(t)c(t) + b(t) gilt c(t) ˙ = e−A(t) b(t), also  c(t) =

t

e−A(τ ) b(τ )dτ,

t0

wobei wir c(t0 ) = 0 gesetzt haben. Die Lösung xp erhält damit die Darstellung  xp (t) = eA(t)

t

e−A(τ ) b(τ )dτ.

t0

Daraus folgt mit (1.14)  x(t) = xh (t) + xp (t) = eA(t) c + eA(t)

t

e−A(τ ) b(τ )dτ,

t0

die Darstellungsformel für die allgemeine Lösung von (1.12). Wir fassen zusammen: Proposition 1.6.1 (Superpositionsprinzip). Man erhält alle Lösungen der Differentialgleichung (1.12), indem man zu der allgemeinen Lösung der homogenen Gleichung eine spezielle Lösung der inhomogenen Gleichung addiert. Die Lösung des Anfangswertproblems für (1.12) ist durch die Formel der Variation der Konstanten (1.13) gegeben. Beweis. Ist L ⊂ C 1 ((α, β), R) der Lösungsraum der homogenen Gleichung und sind v und w beliebige Lösungen von (1.12), so gilt offensichtlich v − w ∈ L.  Beispiel. ⎧ ⎨x˙ = 3t 2 x + 2t 2 , ⎩x(0) = 1, also a(t) = 3t 2 und b(t) = 2t 2 . Mit A(t) = eindeutige Lösung

t 0

3s 2 ds = t 3 erhalten wir aus (1.13) die

22

1 Einführung

x(t) = et

3

 t    2   5 3 2  3 3 3 t 1+2 = et − , e−τ τ 2 dτ = et 1 + − e−τ 0 3 3 3 0

welche auf ganz R existiert.

1.7

Die Phasenebene

In diesem Abschnitt wollen wir uns mit einer weiteren geometrischen Interpretation von Differentialgleichungen befassen, nämlich mit der Phasenebene für autonome zweidimensionale Systeme erster Ordnung. Betrachte ein zweidimensionales System der Form     x˙ f1 (x, y) = , f2 (x, y) y˙

(1.15)

wobei die stetigen Funktionen fi gegeben sind. Eine Lösung (x(t), y(t)), t ∈ J = (a, b) beschreibt dann eine Kurve im R2 , der sog. Phasenebene des Systems (1.15). Der Tangentenvektor an diese Kurve ist im Punkt (x(t), y(t)) durch den Vektor (x(t), ˙ y(t)) ˙ = (f1 (x(t), y(t)), f2 (x(t), y(t))), gegeben, also durch das Vektorfeld f . Dieser ist stets nichttrivial, mit Ausnahme der stationären Punkte des Systems, also der Lösungen des Gleichungssystems f1 (x, y) = f2 (x, y) = 0. Solche Punkte werden auch Gleichgewichte oder Equilibria des Systems genannt. Equilibria sind die konstanten Lösungen des Systems. Definition 1.7.1. Eine nicht konstante Funktion φ : R2 → R heißt erstes Integral der Differentialgleichung (1.15), falls φ entlang der Lösungen von (1.15) konstant ist, d. h. für jede Lösung (x(t), y(t)) von (1.15) existiert eine Konstante c ∈ R, sodass φ(x(t), y(t)) ≡ c ist. Die Menge φ −1 (c) := {(x, y) ∈ R2 : φ(x, y) = c} heißt Niveaumenge der Funktion φ. Nach Definition 1.7.1 liegt die Bahn, die Trajektorie, oder der Orbit t → [x(t), y(t)]T einer Lösung in einer Niveaumenge der Funktion φ. Dieser Sachverhalt liefert wertvolle Informationen über das Verhalten der Lösungen, auch wenn man diese nicht explizit kennt. Wir untersuchen nun einige Beispiele. (a) Volterra–Lotka-Modell ⎧ ⎨x˙ = ax − byx, (V L) ⎩y˙ = −dy + cyx,

a, b, c, d > 0.

1.7 Die Phasenebene

23

Um die 4 Parameter a, b, c, d zu reduzieren, führt man eine Skalierung durch. Seien x(t), y(t) Lösungen von (VL). Man setzt u(s) = αx(γ s), v(s) = βy(γ s) und t = γ s. Differentiation von u und v liefert: u(s) ˙ = αγ x(γ ˙ s) = αγ (ax − bxy)(γ s) = αγ ax(γ s) − αγ bx(γ s)y(γ s) = aγ u(s) −

bγ u(s)v(s) β

und v(s) ˙ = βγ y(γ ˙ s) = βγ (−dy + cxy)(γ s) = −βγ dy(γ s) + βγ cx(γ s)y(γ s) = −dγ v(s) + Wählt man nun zum Beispiel γ = a1 , β = bγ = ab , α = cγ = erhält man das skalierte Volterra–Lotka-Modell ⎧ ⎨u˙ = u − uv, (SV L) ⎩v˙ = −εv + uv.

cγ u(s)v(s). α c a

und ε = dγ =

d a,

so

Dieses System enthält nur noch den Parameter ε > 0. Sei nun (u(t), v(t)) eine Lösung dieses Problems in einem Zeitintervall J = (t0 , t1 )  0, mit Anfangswert u(0) = u0 > 0 und v(0) = v0 > 0. Da u und v aus C 1 sind können wir annehmen, dass u(t), v(t) > 0 in J ist; ggf. verkleinere man J . Multipliziert man die Gleichung für u mit (1 − ε/u), die für v mit (1 − 1/v), so folgt 

1−

ε u˙ = u



 1 − 1 v. ˙ v

Die Kettenregel impliziert damit d [(u − ε log u) + (v − log v)] = 0, dt

t ∈ J,

also ist die Funktion φ(u, v) = u + v − ε log u − log v ein erstes Integral für das skalierte Volterra–Lotka-Modell; vgl. Abb. 1.6.

24

1 Einführung

Abb. 1.6 Phasenportrait von (SVL) mit ε = 1

3.0

v

2.5 2.0 1.5 1.0 0.5 0.5

Es gilt weiter

1.0

1.5

2.0

2.5

u 3.0



 1 − ε/u ∇φ(u, v) = ; 1 − 1/v

daher besitzt φ einen kritischen Punkt in u∗ = ε und v∗ = 1. Wegen ε > 0 ist   ε/u2 0 ∇ φ(u, v) = 0 1/v 2 2

positiv definit, also ist φ strikt konvex und (u∗ , v∗ ) ist ein globales Minimum in (0, ∞) × ˙ = v(t) ˙ = 0, (0, ∞). Das Paar (u∗ , v∗ ) ist eine stationäre Lösung von (SVL), d. h. u(t) t ∈ R. Da die Niveaumengen von φ geschlossene Kurven sind, bleiben alle anderen Lösungen mit Startwert u0 , v0 > 0 positiv. Man beachte, dass sich die Lösungskurven nicht schneiden; dies folgt auch aus dem Eindeutigkeitssatz, den wir in Kap. 2 beweisen. Wir werden später sehen, dass die nichtstationären Lösungen sogar periodisch in t sind, d. h. es gilt u(t + τ ) = u(t) bzw. v(t + τ ) = v(t) für alle t ∈ R, wobei die Periode τ vom Anfangszustand abhängt. (b) Kermack–McKendrick-Modell ⎧ ⎨x˙ = −cxy, (KK) ⎩y˙ = cxy − dy,

c, d > 0.

Eine Skalierung ergibt hier das System ⎧ ⎨u˙ = −uv, (SKK) ⎩v˙ = uv − v,

1.7 Die Phasenebene

25

und man verifiziert leicht, dass ein erstes Integral von (SKK) durch φ(u, v) = v + u − ln u gegeben ist. Sind u(t), v(t) Lösungen von (SKK), so ist φ entlang dieser konstant und wir können die Phasenbahnen nun explizit darstellen durch v(u) = ln u − u + c,

c = const.

Die stationären Lösungen sind hier u∗ = const, sowie v∗ = 0, d. h. wir haben es hier mit einer ganzen Schar von stationären Lösungen zu tun. Es gilt nun v  (u) > 0 ⇐⇒ u < 1

v  (u) < 0 ⇐⇒ u > 1.

und

Daraus folgen Monotonie-Eigenschaften der Lösungen in Abhängigkeit vom Anfangswert u0 : (i) Sei u0 > 1 und v0 > 0. Dann ist u(t) monoton fallend für alle t > 0, denn u(t), v(t) bleiben immer positiv (vgl. Abb. 1.7) und es existiert ein t∗ (u0 , v0 ) sodass v(t) im Intervall (0, t∗ ) monoton wachsend ist, und in (t∗ , ∞) monoton fallend gegen Null. (ii) Sei 0 < u0 < 1 und v0 > 0. Dann ist wie in (i) u(t) monoton fallend in (0, ∞), wie auch v(t), da u(t) < 1 und somit v˙ = v(u − 1) < 0 für alle t > 0 ist. Der Wert u0 = 1 ist damit ein Schwellenwert des Modells, ist u0 < 1 so klingt die Epidemie schlicht ab. Ist hingegen u0 > 1, so bricht sie zunächst aus, und klingt erst ab, nachdem der Anteil der Gesunden u(t) kleiner als 1 geworden ist. Dieses SchwellwertVerhalten ist typisch in Epidemiemodellen.

Abb. 1.7 Phasenportrait von (SKK)

1.0

v

0.8 0.6 0.4 0.2 0.5

1.0

1.5

2.0

2.5

3.0

u

26

1 Einführung

(c) Das mathematische Pendel. Wir transformieren die Gleichung für das mathematische Pendel x¨ + ω2 sin x = 0 in ein System 1. Ordnung:

(P )

⎧ ⎨u˙ = v, ⎩v˙ = −ω2 sin u.

Ein erstes Integral für (P) erhält man, indem man die erste Gleichung mit ω2 sin u, die zweite mit v multipliziert, und addiert. Die Kettenregel ergibt dann d dt



 1 2 2 v + ω (1 − cos u) = 0, 2

und somit ist φ(u, v) =

1 2 v + ω2 (1 − cos u) 2

ein erstes Integral für (P). φ wird Energiefunktional von (P) genannt, denn physikalisch entspricht der erste Term in φ der kinetischen Energie, da v = x˙ die Geschwindigkeit bedeutet, und der zweite Term entspricht der potentiellen Energie des Pendels. Wegen   ω2 sin u , ∇φ(u, v) = v sind die stationären Lösungen, also v∗ = 0 und u∗ = kπ, k ∈ Z, genau die kritischen Punkte von φ. Eine Untersuchung der Hesse-Matrix v

Abb. 1.8 Phasenportrait von (P)

1.5 1.0 0.5 10

5

5 0.5 1.0 1.5

10

u

1.7 Die Phasenebene

27

Abb. 1.9 Phasenportrait von (PF) für φDW

2

x

1

2

1

1

2

x

1 2

  ω2 cos u 0 ∇ φ(u, v) = 0 1 2

ergibt das folgende Resultat. Für cos u∗ = 1 ist (u∗ , v∗ ) ein absolutes Minimum und für cos u∗ = −1 ist (u∗ , v∗ ) ein Sattelpunkt des Energiefunktionals φ. Die äußeren unbeschränkten Kurven in Abb. 1.8 beschreiben den Fall des rotierenden Pendels. Die Niveaulinien mit Schnittpunkt in u = (2k + 1)π, k ∈ Z und v = 0 geben den Fall wieder, in dem sich das Pendel für t → ∞ gegen die obere (instabile) Ruhelage bewegt, also u(t) → (2k + 1)π, k ∈ Z für t → ∞. Die inneren ellipsenförmigen Kurven stellen die periodischen Pendelbewegungen mit einem Ausschlag von |x| < π dar. (d) Das eindimensionale Teilchen im Potentialfeld. In Verallgemeinerung von (c) betrachten wir die Gleichung 2. Ordnung (P F )

x¨ + φ  (x) = 0,

wobei φ ∈ C 2 (R; R) Potential heißt. Ein berühmtes Beispiel in der Physik ist φDW (x) = 1 2 2 4 (x − 1) , das aufgrund seiner Form häufig Double-Well-Potential genannt wird. Die Energie ist hier E(x, x) ˙ =

1 2 |x| ˙ + φ(x), 2

also wieder kinetische plus potentielle Energie, denn längs einer Lösung gilt d E(x(t), x(t)) ˙ = (x(t) ¨ + φ  (x(t)))x(t) ˙ = 0. dt Das zugehörige Phasendiagramm ist in Abb. 1.9 dargestellt.

28

1 Einführung

Übungen 1.1 Skizzieren Sie das Richtungsfeld der Differentialgleichung x˙ = log(t 2 + x 2 ), und zeichnen Sie einige Lösungen ein. Wie sehen die Isoklinen aus? 1.2 Berechnen Sie alle Lösungen der folgenden Differentialgleichungen und skizzieren Sie ihren Verlauf. (a) x˙ = t sin(x); (b) x˙ = [2x(x − 1)]/[t (2 − x)]. 1.3 (a) Führen Sie die Gleichung x˙ = f (at + bx + c) durch eine geeignete Transformation auf eine Gleichung mit getrennten Variablen zurück. (b) Lösen Sie das Anfangswertproblem x˙ = (t + x)2 , x(0) = 0. (c) Bestimmen Sie alle Lösungen von x˙ = (t + 3 − x)2 ; 1.4 (a) Transformieren Sie die Gleichung x˙ = f (x/t), t > 0, in eine Gleichung mit getrennten Variablen. (b) Bestimmen Sie alle Lösungen von x˙ = xt ( xt + 1). 1.5 Bestimmen Sie die Lösungen der folgenden Anfangswertprobleme: (a) x˙ + 3t 2 x = 6t 5 , x(0) = 5; (b) x˙ + t/(2x) = 3x/(2t), x(1) = 1. 1.6 Zeigen Sie, dass sich die Bernoulli-Gleichung x˙ = a(t)x + b(t)x α für α = 0, 1, a, b stetig, mittels einer Transformation der Form u = x p mit geeignetem p auf eine lineare Gleichung zurückführen lässt. Was ist mit den Fällen α = 0, 1? 1.7 Die Riccati-Gleichung x˙ + a(t)x + b(t)x 2 = ϕ(t) mit a, b, ϕ stetig kann unter Kenntnis einer speziellen Lösung x∗ (t) mit dem Ansatz x(t) = y(t) + x∗ (t) auf eine Bernoulli-Gleichung für y(t) zurückgeführt werden. Lösen Sie auf diese Weise das Anfangswertproblem x˙ − (1 − 2t)x + x 2 = 2t,

x(0) = 2.

1.8 Es sei f ∈ C 1 (R; R), und eine Differentialgleichung 2. Ordnung durch x¨ + f (x) = 0 definiert. (a) Schreiben Sie diese Gleichung als System 1. Ordnung; (b) Geben Sie ein erstes Integral des Systems an. 1.9 Bestimmen Sie für die Gleichung 2. Ordnung x¨ + x − √ 2x

1+x 2

und skizzieren Sie das Phasenportrait.

= 0 ein erstes Integral

Übungen

29

1.10 In einer Schale werden a Gramm Bakterien zu b Gramm einer Nährlösung gegeben. Die Bakterien vermehren sich proportional (mit Faktor α) zur vorhandenen Biomasse, d. i. die Menge an Bakterien, und zur vorhandenen Nährlösung. Letztere wird proportional zur Biomasse verbraucht (mit Faktor β). Wie lauten die Zeitfunktionen x(t) der Biomasse und y(t) der Nährlösung? Nach wie vielen Stunden ist die Hälfte der Nährlösung verbraucht, wenn a = 0, 5g, b = 5g, sowie α = 1, 2 × 10−3 (gh)−1 und β = 9 × 10−2 h−1 sind?

2

Existenz und Eindeutigkeit

Wir betrachten im Folgenden das Anfangswertproblem ⎧ ⎨x˙ = f (t, x), ⎩x(t0 ) = x0 .

(2.1)

Dabei seien G ⊂ Rn+1 offen, f : G → Rn stetig und (t0 , x0 ) ∈ G. In diesem Kapitel werden die grundlegenden Resultate über Existenz und Eindeutigkeit von Lösungen des Anfangswertproblems (2.1) bewiesen. Dabei spielt die Lipschitz-Eigenschaft der rechten Seite f eine zentrale Rolle. Zur Untersuchung globaler Existenz sind Differential- und Integralungleichungen ein wichtiges Hilfsmittel, daher werden auch einige elementare Ergebnisse aus diesem Bereich diskutiert und angewandt.

2.1

Lipschitz-Eigenschaft und Eindeutigkeit

Definition 2.1.1. 1. Eine stetige Funktion f : G → Rn heißt lokal Lipschitz bzgl. x, falls zu jedem Punkt (t1 , x1 ) ∈ G eine Kugel B¯ r (x1 ) und ein α > 0 mit [t1 − α, t1 + α] × B¯ r (x1 ) ⊂ G, sowie eine Konstante L = L(t1 , x1 ) > 0 existieren, sodass gilt: |f (t, x) − f (t, x)| ¯ ≤ L(t1 , x1 )|x − x|, ¯

falls |t − t1 | ≤ α, x, x¯ ∈ B¯ r (x1 ).

2. f heißt global Lipschitz bzgl. x, falls die Konstante L > 0 unabhängig von (t1 , x1 ) ∈ G ist, also:

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_2

31

32

2 Existenz und Eindeutigkeit

|f (t, x) − f (t, x)| ¯ ≤ L|x − x|, ¯

falls (t, x), (t, x) ¯ ∈ G.

Wir werden später zeigen, dass (2.1) mit einer lokal Lipschitz Funktion f eine eindeutig bestimmte lokale Lösung besitzt. Zunächst beweisen wir aber die Proposition 2.1.2. Sei f : G → Rn stetig, lokal Lipschitz in x, und es sei K ⊂ G kompakt. Dann ist die Einschränkung f |K von f auf K global Lipschitz in x. Beweis. Angenommen f |K ist nicht global Lipschitz, das heißt ∀n ∈ N ∃(tn , xn ), (tn , x¯n ) ∈ K : |f (tn , xn ) − f (tn , x¯n )| > n|xn − x¯n |.

(2.2)

Nach Voraussetzung ist K kompakt, also existieren zwei konvergente Teilfolgen (tnk , xnk ) → (t∗ , x∗ ) ∈ K, (tnk , x¯nk ) → (t∗ , x¯∗ ) ∈ K, k → ∞. Da f stetig ist, gilt M := max(t,x)∈K |f (t, x)| < ∞. Aus (2.2) folgt somit |xnk − x¯nk |
0, r ∗ > 0 und L(t ∗ , x ∗ ) > 0, sodass |f (t, x) − f (t, x)| ¯ ≤ L(t ∗ , x ∗ )|x − x|, ¯

falls |t − t ∗ | ≤ α ∗ , x, x¯ ∈ B¯ r ∗ (x ∗ ).

Wegen der Konvergenz der Teilfolgen existiert somit ein k0 ∈ N, sodass |tnk − t ∗ | ≤ α ∗ /2 und |xnk − x ∗ | + |x¯nk − x ∗ | ≤ r ∗ /2 für alle k ≥ k0 gilt. Zusammen mit (2.2) erhalten wir so die Abschätzung nk |xnk − x¯nk | < |f (tnk , xnk ) − f (tnk , x¯nk )| ≤ L(t ∗ , x ∗ )|xnk − x¯nk |, für alle k ≥ k0 , also nk < L(t ∗ , x ∗ ) < ∞, ein Widerspruch zu nk → ∞ für k → ∞.



Der folgende Satz zeigt, dass die lokale Lipschitz-Eigenschaft von f die Eindeutigkeit von Lösungen von (2.1) impliziert. Satz 2.1.3 (Eindeutigkeitssatz). Sei G ⊂ Rn+1 offen und f ∈ C(G; Rn ) lokal Lipschitz in x. Dann existiert höchstens eine Lösung von (2.1). Beweis. Seien x, x¯ ∈ C 1 ([t0 , t1 ]; Rn ) Lösungen von (2.1) mit (t, x(t)), (t, x(t)) ¯ ∈ G für ¯ ∈ G : t ∈ [t0 , t1 ]} ⊂ G ist kompakt. alle t ∈ [t0 , t1 ]. Die Menge K := {(t, x(t)), (t, x(t))

2.1 Lipschitz-Eigenschaft und Eindeutigkeit

33

Nach Proposition 2.1.2 ist f |K global Lipschitz mit einer Konstanten L > 0, also |f (t, x) − f (t, x)| ¯ ≤ L|x − x|, ¯

falls (t, x), (t, x) ¯ ∈ K.

(2.3)

Integriert man (2.1) bezüglich t, so erhält man die Integralgleichungen  x(t) = x0 +



t

x(t) ¯ = x0 +

f (s, x(s)) ds, t0

t

f (s, x(s)) ¯ ds,

t ∈ [t0 , t1 ].

(2.4)

t0

Setze ρ(t) := |x(t) − x(t)|. ¯ Dann folgt aus (2.4)  t  t   t   ρ(t) =  f (s, x(s)) ds − f (s, x(s)) ¯ ds  ≤ |f (s, x(s)) − f (s, x(s))| ¯ ds t0

t0

t0

und (2.3) ergibt die Abschätzung  ρ(t) ≤ L

t



t

|x(s) − x(s)| ¯ ds = L

t0

≤ L sup (e s∈[t0 ,t1 ]

−αs

 ρ(s) ds = L

t0



t

ρ(s))

e−αs ρ(s)eαs ds

t0

eαs ds ≤

t0

t

L αt e sup (e−αs ρ(s)), α s∈[t0 ,t1 ]

für alle t ∈ [t0 , t1 ]. Wähle α = 2L und multiplizieren die obige Ungleichung mit e−αt . Weil nun die rechte Seite der Ungleichung von t unabhängig ist, kann man auf der linken Seite zum Supremum übergehen und erhält so 0 ≤ sup (e−αt ρ(t)) ≤ t∈[t0 ,t1 ]

1 sup (e−αs ρ(s)). 2 s∈[t0 ,t1 ]

Also ist ρ(t) ≡ 0 und damit x(t) = x(t), ¯ für alle t ∈ [t0 , t1 ].



Bemerkungen 2.1.4. 1. Für stetiges f ist die Integralgleichung (2.4) sogar äquivalent zu (2.1). Um dies zu sehen, sei x ∈ C([t0 , t1 ]; Rn ) mit (t, x(t)) ∈ G für t ∈ [t0 , t1 ] eine Lösung der Integralgleichung  x(t) = x0 +

t

f (s, x(s)) ds,

t ∈ [t0 , t1 ],

t0

Da f : G → Rn stetig ist und (t0 , x0 ) ∈ G gilt, ist die Abbildung  t →

t

f (s, x(s)) ds t0

34

2 Existenz und Eindeutigkeit

stetig differenzierbar für alle t ∈ (t0 , t1 ) und es gilt x(t) ˙ = f (t, x(t)) mit x(t0 ) = x0 . Also ist x = x(t) eine Lösung des Anfangswertproblems (2.1). 2. Eindeutigkeit nach links erhält man mittels Zeitumkehr: Ist nämlich x(t) eine Lösung von x˙ = f (t, x) im Intervall [t1 , t0 ], so ist y(t) = x(−t) mit g(t, z) = −f (−t, z), eine Lösung von y˙ = g(t, y) in [−t0 , −t1 ]. Da mit f auch g stetig und lokal Lipschitz in x ist, ergibt der Eindeutigkeitssatz durch diese Transformation auch Eindeutigkeit nach links. Wir haben bereits in Kap. 1 gesehen, dass das Anfangswertproblem x˙ = 3x 2/3 , x(0) = 0 keine eindeutige Lösung besitzt. Nach Satz 2.1.3 kann die Funktion f (x) = x 2/3 daher in keiner Umgebung von x = 0 lokal Lipschitz sein. Dies kann man auch folgendermaßen einsehen: nach dem Mittelwertsatz der Differential- und Integralrechnung existiert für alle 0 < x < x¯ ein ξ ∈ (x, x), ¯ sodass ¯ |f (x) − f (x)| ¯ = 2ξ −1/3 |x − x|,

ξ ∈ (x, x). ¯

Aufgrund von ξ −1/3 → +∞ für ξ → 0+ kann f in x = 0 daher nicht Lipschitz sein. Die folgende Proposition liefert ein hinreichendes Kriterium für die lokale LipschitzEigenschaft, das in den meisten Anwendungen verfügbar ist. Proposition 2.1.5. Sei f : G → Rn stetig und bezüglich x stetig differenzierbar. Dann ist f lokal Lipschitz in x. Beweis. Sei (t1 , x1 ) ∈ G. Da G ⊂ Rn+1 offen ist, existieren Konstanten α > 0 und r > 0, sodass die kompakte Menge K := [t1 − α, t1 + α] × B¯ r (x1 ) ⊂ G erfüllt. Nach dem Hauptsatz der Differential- und Integralrechnung und mit der Kettenregel gilt   |f (t, x) − f (t, x)| ¯ =  

1

0 1



  d f (t, τ x + (1 − τ )x) ¯ dτ  dτ

|(x − x) ¯ T ∇x f (t, τ x + (1 − τ )x)| ¯ dτ

0

für alle (t, x), (t, x) ¯ ∈ K. Die Cauchy-Schwarz-Ungleichung liefert daher  |f (t, x) − f (t, x)| ¯ ≤ |x − x| ¯

1

|∇x f (t, τ x + (1 − τ )x)| ¯ dτ

0

≤ |x − x| ¯ max |∇x f (t, x)| = L|x − x|, ¯ (t,x)∈K

mit L := max(t,x)∈K |∇x f (t, x)| < ∞. Die Existenz des Maximums beruht auf der Tatsache, dass stetige Funktionen auf kompakten Mengen ihr Maximum annehmen. 

2.2 Existenz von Lösungen

2.2

35

Existenz von Lösungen

Für den Beweis des Hauptsatzes dieses Abschnitts verwenden wir den in der Analysis bekannten Satz 2.2.1 (Fixpunktsatz von Banach). Es sei (M, d) ein vollständiger metrischer Raum und T : M → M eine Kontraktion, das heißt, es existiert eine Konstante q ∈ (0, 1), sodass d(T x, T y) ≤ q d(x, y),

für alle x, y ∈ M

gilt. Dann besitzt T genau einen Fixpunkt x∗ ∈ M, also T x∗ = x∗ . Bezüglich der lokalen Existenz und Eindeutigkeit von Lösungen des Anfangswertproblems (2.1) können wir nun das folgende Resultat zeigen. Satz 2.2.2 (Existenzsatz von Picard–Lindelöf). Sei G ⊂ Rn+1 offen, f : G → Rn stetig und lokal Lipschitz in x. Dann existiert ein δ > 0 und eine eindeutig bestimmte Funktion x ∈ C 1 (Jδ , Rn ) mit Jδ := [t0 − δ, t0 + δ], sodass (t, x(t)) ∈ G für alle t ∈ Jδ gilt, und x = x(t) löst (2.1) im Intervall Jδ . Beweis. Zunächst zeigen wir Existenz in [t0 , t0 + δ], also Existenz nach rechts. Um Satz 2.2.1 anzuwenden, konstruieren wir einen metrischen Raum (M, d) und eine Abbildung T : M → M. Nach Bemerkung 2.1.4 ist das Anfangswertproblem (2.1) äquivalent zur Integralgleichung 

t

x(t) = x0 +

f (s, x(s)) ds, t0

daher betrachten wir diese. Seien δ0 > 0 und r > 0 so fixiert, dass Jδ0 × B¯ r (x0 ) ⊂ G gilt, und definiere eine Menge M und eine Abbildung T mittels M := {x ∈ C(Jδ ; Rn ) : x(t) ∈ B¯ r (x0 ), x(t0 ) = x0 , t ∈ Jδ },

δ ≤ δ0

und für x ∈ M  T x(t) = x0 +

t

f (s, x(s)) ds,

(2.5)

t0

wobei δ > 0 im Weiteren festgelegt wird. Zunächst beweisen wir die Eigenschaft T : M → M. Für x ∈ M folgt aus der Stetigkeit von f , dass auch die Funktion T x stetig ist, und (2.5) ergibt die Abschätzung

36

2 Existenz und Eindeutigkeit

 t   t   |T x(t) − x0 | =  f (s, x(s)) ds  ≤ |f (s, x(s))| ds ≤ mδ, t0

t0

mit m := max{|f (t, x)| : t ∈ Jδ0 , x ∈ B¯ r (x0 )} < ∞. Für δ ≤ δ1 := min{δ0 , r/m} folgt T x(t) ∈ B¯ r (x0 ), für alle t ∈ Jδ , also T M ⊂ M. Es bleibt noch die Kontraktionseigenschaft von T nachzuweisen. Dazu definieren wir eine Metrik d auf M bzw. C(Jδ ; Rn ) mittels d(x, x) ¯ := max e−αt |x(t) − x(t)|, ¯ t∈Jδ

wobei α > 0 später festgelegt wird. Für jedes α > 0 ist (M, d) ein vollständiger metrischer Raum, da die Menge M als Teilmenge von C(Jδ ; Rn ) bezüglich der Metrik d abgeschlossen ist. Seien t ∈ Jδ und x, x¯ ∈ M. Aus (2.5) folgt 

t

|T x(t) − T x(t)| ¯ ≤

|f (s, x(s)) − f (s, x(s))| ¯ ds.

t0

Nach Proposition 2.1.2 ist f auf Jδ0 × B¯ r (x0 ) global Lipschitz stetig, mit einer Konstanten L. Daraus folgt  |T x(t) − T x(t)| ¯ ≤L

t



t

|x(s) − x(s)| ¯ ds = L

t0



≤ Ld(x, x) ¯

αs e−αs |x(s) − x(s)|e ¯ ds

t0 t

eαs ds ≤

t0

L d(x, x)e ¯ αt , t ∈ Jδ . α

Nach Multiplikation mit e−αt und Übergang zum Maximum ergibt dies d(T x, T x) ¯ ≤

L d(x, x). ¯ α

Wählt man z. B. α = 2L > 0, so folgt d(T x, T x) ¯ ≤ 12 d(x, x), ¯ also ist T eine strikte Kontraktion. Somit liefert Satz 2.2.1 genau einen Fixpunkt x∗ ∈ M von T , d. h.  x∗ (t) = x0 +

t

t0

f (s, x∗ (s)) ds,

t ∈ Jδ .

Nach Bemerkung 2.1.4 ist x∗ = x∗ (t) die eindeutig bestimmte Lösung des Anfangswertproblems (2.1). Existenz nach links erhält man mittels Zeitumkehr, mit einem ggf. ˙ kleinerem δ > 0. Die resultierende Lösung ist stetig differenzierbar auch in t0 , da x(t)  aufgrund der Differentialgleichung auch in t = t0 stetig ist.

2.2 Existenz von Lösungen

37

Bemerkungen 2.2.3. 1. Man beachte, dass δ > 0 im Beweis zu Satz 2.2.2 nur von δ0 , r und m abhängt, nicht aber von der Konstanten L > 0. Diese Tatsache kann man verwenden, um lokale Existenz für rechte Seiten f zu erhalten, die stetig aber nicht notwendig lokal Lipschitz in x sind (Existenzsatz von Peano, vgl. Kap. 6). 2. Ist (tk , xk ) → (t0 , x0 ) ∈ G eine Folge in G, dann existiert ein gleichmäßiges δ > 0, sodass die Anfangswertprobleme x˙ = f (t, x), x(tk ) = xk für hinreichend große k genau eine Lösung xk (t) auf [tk , tk + δ] besitzen. Dies folgt wie im Beweis des Existenzsatzes, indem man (t0 , x0 ) durch (tk , xk ) ersetzt. Beispiele. (a) Skaliertes Volterra–Lotka-Modell

(SV L)

⎧ ⎨u˙ = u(1 − v), ⎩v˙ = v(u − ε),

ε > 0.

Es ist f (u, v) = [u(1 − v), v(u − ε)]T = [f1 (u, v), f2 (u, v)]T und die Komponenten von f (u, v) sind Polynome in 2 Variablen, also gilt sogar f ∈ C ∞ (R2 ). Nach Proposition 2.1.5 ist f lokal Lipschitz und der Satz von Picard–Lindelöf liefert zu jedem Anfangswert (u0 , v0 ) ∈ R2 genau eine lokale Lösung von (SVL). (b) Das mathematische Pendel

(P )

⎧ ⎨u˙ = v, ⎩v˙ = −ω2 sin u.

Hier ist f (u, v) = [v, −ω2 sin u]T und wie in Beispiel (a) gilt f ∈ C ∞ (R2 ). Unter Verwendung von Proposition 2.1.5 liefert der Satz von Picard und Lindelöf die Existenz einer eindeutigen lokalen Lösung von (P), zu jedem Anfangswert (u0 , v0 ) ∈ R2 . Ein wichtiger Spezialfall von Satz 2.2.2 betrifft lineare Systeme. Korollar 2.2.4. Sei J = [a, b], t0 ∈ (a, b), x0 ∈ Rn und es seien die Funktionen b ∈ C(J, Rn ), A ∈ C(J, Rn×n ) gegeben. Dann besitzt das Anfangswertproblem ⎧ ⎨x(t) ˙ = A(t)x(t) + b(t), ⎩x(t0 ) = x0 ,

(2.6)

38

2 Existenz und Eindeutigkeit

genau eine lokale Lösung. Beweis. Die Behauptung folgt aus Satz 2.2.2 mit f : J × Rn → Rn , definiert durch f (t, x) := A(t)x + b(t). Denn offensichtlich ist f stetig, und es gilt |f (t, x) − f (t, y)| = |A(t)(x − y)| ≤ |A(t)||x − y| ≤ L|x − y|, für alle (t, x), (t, y) ∈ J ×Rn , wobei L := maxt∈J |A(t)| < ∞ aufgrund der Kompaktheit von J und der Stetigkeit von |A(·)| gilt, also ist f sogar global Lipschitz in x. 

2.3

Fortsetzbarkeit und maximales Existenzintervall

Wir betrachten wieder das Anfangswertproblem ⎧ ⎨x˙ = f (t, x), ⎩x(t0 ) = x0 ,

(2.7)

wobei G ⊂ Rn+1 offen ist, f : G → Rn stetig und lokal Lipschitz in x. Dann existiert nach Satz 2.2.2 ein δ0 > 0 und genau eine Funktion x ∈ C 1 ([t0 − δ, t0 + δ0 ], Rn ), als lokale Lösung von (2.7). In Kap. 1 hatten wir die Frage aufgeworfen, ob die Lösung für alle Zeiten t ≥ t0 existiert oder nicht. Wir wollen diese Problematik jetzt im Detail diskutieren. Zunächst beachte man, dass sich Lösungen zusammensetzen lassen. Um dies zu sehen, seien x1 Lösung im Intervall [t0 , t1 ] und x2 Lösung in [t1 , t2 ] mit x1 (t1 ) = x2 (t1 ); dann gilt aufgrund der Differentialgleichung auch x˙1 (t1 ) = f (t1 , x1 (t1 )) = f (t1 , x2 (t1 )) = x˙2 (t1 ), folglich ist die zusammengesetzte Funktion x(t) definiert durch x(t) = x1 (t) für t ∈ [t0 , t1 ] und x(t) = x2 (t) für t ∈ [t1 , t2 ] stetig differenzierbar in [t0 , t2 ]. Diese Eigenschaft und die Eindeutigkeit der Lösungen zeigen, dass die folgende Definition sinnvoll ist. Definition 2.3.1. Es seien t± (t0 , x0 ) ∈ R durch t+ :=t+ (t0 , x0 ) := sup{t1 ≥ t0 : es ex. eine Lösung x1 von (2.7) auf [t0 , t1 ]}, t− :=t− (t0 , x0 ) := inf{t2 ≤ t0 : es ex. eine Lösung x2 von (2.7) auf [t2 , t0 ]} definiert. Die Intervalle [t0 , t+ ), bzw. (t− , t0 ], bzw. (t− , t+ ) heißen maximales Existenzintervall der Lösung nach rechts, bzw. nach links, bzw. schlechthin. Die maximale Lösung von (2.7) wird definiert durch x(t) = x1 (t), für alle t ∈ [t0 , t1 ], bzw. x(t) = x2 (t) auf [t2 , t0 ], also gilt x ∈ C 1 ((t− , t+ ), Rn ).

2.3 Fortsetzbarkeit und maximales Existenzintervall

39

Der Existenzsatz stellt t+ (t0 , x0 ) > t0 und t− (t0 , x0 ) < t0 sicher, und gilt t+ = ∞ bzw. t− = −∞, so haben wir globale Existenz nach rechts bzw. nach links. Wie lässt sich nun die Endzeit t+ = t+ (t0 , x0 ) charakterisieren? Dazu nehmen wir t+ < ∞ an. Die erste Möglichkeit ist nun die, dass die Lösung dem Rand ∂G zu nahe kommt, genauer lim inf dist((t, x(t)), ∂G) = 0. t→t+

Eine zweite Möglichkeit ist ein blow up, also lim |x(t)| = ∞.

t→t+

Sei beides nicht der Fall. Dann gibt es eine Konstante M > 0 und eine Folge tn  t+ , sodass |x(tn )| ≤ M

und

dist((tn , x(tn )), ∂G) ≥ 1/M

für alle n ∈ N gilt. Die Folge (x(tn ))n∈N ist also beschränkt, daher existiert nach dem Satz von Bolzano–Weierstraß eine konvergente Teilfolge x(tnk ) → x∗ für k → ∞, also (tnk , x(tnk )) → (t+ , x∗ ) ∈ G für k → ∞. Daher finden wir nach Bemerkung 2.2.3 für hinreichend großes k0 ∈ N ein gleichmäßiges δ∗ > 0 und eine eindeutig bestimmte Lösung xk = xk (t) auf [tnk , tnk + δ∗ ] mit xk (tnk ) = x(tnk ) für k ≥ k0 . Nun gilt aber tnk + δ∗ > t+ für große k ∈ N. Daher kann die Lösung x = x(t) nicht in einem Punkt (t+ , x∗ ) ∈ G stecken bleiben. Entsprechendes gilt mittels Zeitumkehr für t− . Aus diesen Überlegungen und mit Definition 2.3.1 erhalten wir unmittelbar das folgende Resultat. Satz 2.3.2 (Fortsetzungssatz). Sei f : G → Rn stetig und lokal Lipschitz in x. Dann existiert die Lösung zum Anfangswertproblem (2.1) auf dem maximalen Intervall (t− , t+ ), mit t− (t0 , x0 ) =: t− < t0 < t+ := t+ (t0 , x0 ). Der rechte Endpunkt t+ ist charakterisiert durch die folgenden Alternativen. 1. t+ = ∞: x(t) ist eine globale Lösung nach rechts. 2. t+ < ∞ und lim inft→t+ dist((t, x(t)), ∂G) = 0, das heißt, die Lösung x(t) kommt dem Rand von G beliebig nahe. 3. t+ < ∞ und lim inft→t+ dist((t, x(t)), ∂G) > 0, limt→t+ |x(t)| = ∞. Entsprechendes gilt für den linken Endpunkt t− .

40

2 Existenz und Eindeutigkeit

Bemerkungen 2.3.3. 1. Das maximale Existenzintervall ist stets offen, da man sonst die Lösung an der Stelle t = t+ bzw. t = t− mit Satz 2.2.2 fortsetzen könnte. 2. Die Aussage von Satz 2.3.2 wird in der Literatur häufig kurz formuliert als: Die Lösungen existieren bis zum Rand von G.

2.4

Differential- und Integralungleichungen

Schon  t im Beweis von Satz 2.1.3 haben wir eine Integralungleichung der Form 0 ≤ ϕ(t) ≤ C t0 ϕ(s)ds für stetiges ϕ kennengelernt, und gezeigt, dass dies ϕ(t) = 0 für alle t ∈ [t0 , t1 ] impliziert. Ein grundlegendes Hilfsmittel für unser weiteres Vorgehen ist das Lemma 2.4.1 (von Gronwall). Seien die Funktionen α, β, ϕ ∈ C[a, b] mit β(t) ≥ 0 für alle t ∈ [a, b] gegeben und es sei 

t

0 ≤ ϕ(t) ≤ α(t) +

β(s)ϕ(s)ds,

für alle t ∈ [a, b].

a

Dann gilt ϕ(t) ≤ α(t) +

 t  t β(s)e s β(τ )dτ α(s) ds, t ∈ [a, b]. a

Speziell gilt für α(t) ≡ M ϕ(t) ≤ Me

t a

β(τ )dτ

, t ∈ [a, b].

t Beweis. Wir setzen ψ(t) = a β(τ )ϕ(τ ) dτ, t ∈ [a, b]. Da β und ϕ nach Voraussetzung ˙ stetig sind, ist ψ stetig differenzierbar auf [a, b], mit ψ(t) = β(t)ϕ(t). Aus ϕ(t) ≤ α(t) + ψ(t) erhalten wir wegen β(t) ≥ 0 die Differentialungleichung ˙ ψ(t) ≤ β(t)(α(t) + ψ(t)), t ∈ [a, b]. Wir multiplizieren ψ(t) mit e−

t a

β(τ )dτ

und erhalten mit (2.8)

 t t d  −  t β(τ )dτ ˙ − β(t)e− a β(τ )dτ ψ(t) e a ψ(t) = e− a β(τ )dτ ψ(t) dt   t ˙ = e− a β(τ )dτ ψ(t) − β(t)ψ(t) ≤ β(t)e−

t a

β(τ )dτ

α(t).

(2.8)

2.4 Differential- und Integralungleichungen

41

Integration dieser Ungleichung von a bis t ergibt ψ(t)e



t a

 t  s β(s)e− a β(τ )dτ α(s) ds. ≤

β(τ )dτ

a

Daraus folgt    t  t s   t t a β(τ )dτ − a β(τ )dτ β(s)e β(s)e s β(τ )dτ α(s) ds, α(s) ds = ψ(t) ≤ a

a

und die Behauptung ist eine unmittelbare Konsequenz der Ungleichung ϕ(t) ≤ α(t) + ψ(t). Sei nun α(t) ≡ M. Dann gilt mit dem Hauptsatz der Differentialrechnung  t    t β(s)e s β(τ )dτ ds ϕ(t) ≤ M 1 + a

  t t  = M 1 − e s β(τ )dτ a

aufgrund von β(s)e

t s

β(τ )dτ

d = − ds e

t s

β(τ )dτ

, und die Auswertung an den Grenzen ergibt

  t t ϕ(t) ≤ M 1 − 1 + e a β(τ )dτ = Me a β(τ ) dτ .  Differentialungleichungen wie (2.8) treten in vielen Bereichen der Analysis auf. Wir beweisen hier daher ein elementares, aber wichtiges Resultat über solche Ungleichungen. Lemma 2.4.2. Sei J = [t0 , t1 ], u : J ×R → R stetig, und ρ ∈ C 1 (J, R) erfülle die strikte Differentialungleichung ρ(t) ˙ < u(t, ρ(t)) für alle t ∈ (t0 , t1 ] mit ρ(t0 ) < ϕ0 . Weiter sei 1 ϕ ∈ C (J, R) eine Lösung des Anfangswertproblems ⎧ ⎨ϕ˙ = u(t, ϕ), ⎩ϕ(t0 ) = ϕ0 .

(2.9)

Dann gilt ρ(t) < ϕ(t) für alle t ∈ J . Beweis. Angenommen es existiert ein t∗ ∈ (t0 , t1 ] mit ρ(t) < ϕ(t) für alle t ∈ [t0 , t∗ ) und ρ(t∗ ) = ϕ(t∗ ). Dann gilt für hinreichend kleine h > 0 ϕ(t∗ ) − ϕ(t∗ − h) ρ(t∗ ) − ρ(t∗ − h) > . h h

42

2 Existenz und Eindeutigkeit

Aus der Differenzierbarkeit von ρ und ϕ folgt für h → 0+ ρ(t ˙ ∗ ) ≥ ϕ(t ˙ ∗ ) = u(t∗ , ϕ(t∗ )) = u(t∗ , ρ(t∗ )). Das ist ein Widerspruch, da nach Annahme ρ(t ˙ ∗ ) < u(t∗ , ρ(t∗ )) gilt.



Bemerkungen 2.4.3. 1. Der Beweis von Lemma 2.4.2 für den Fall „>“ verläuft analog. Die Funktion ρ bezeichnen wir je nach Situation als Ober- bzw. Unterlösung zur Differentialgleichung (2.9). 2. Durch Zeitumkehr erhält man entsprechende Ungleichungen nach links. Man beachte, dass sich dabei die Relationszeichen in der Differentialgleichung umdrehen! Beispiel. Betrachten wir ein AWP, dessen Lösung sich nicht analytisch elementar angeben lässt: ⎧ ⎨x˙ = t 2 + x 2 , ⎩x(0) = 0. Sei zunächst t < 1. Dann gilt t 2 + x 2 < 1 + x 2 und wir betrachten das Vergleichsproblem ⎧ ⎨y˙ = 1 + y 2 , ⎩y(0) = tan(ε), mit einem hinreichend kleinen ε > 0. Aus Lemma 2.4.2 folgt x(t) < y(t) = tan(t + ε) für alle 0 ≤ t < 1. Ferner ist x(t) ˙ > t 2 , also x(t) > 13 t 3 für alle t ∈ (0, 1]. Insbesondere gilt also x(1) > 1/3. Für t ≥ 1 betrachten wir nun das Vergleichsproblem ⎧ ⎨y˙ = 1 + y 2 , ⎩y(1) = 1 . 3

Aus Lemma 2.4.2 folgt dann x(t) > y(t) = tan(t + arctan( 13 ) − 1) für 1 ≤ t < arctan( 13 ). Insgesamt erhalten wir so die Abschätzung 1 < t+ < 1 +

π 2

+1−

  1 π − arctan 2 3

für die Länge des maximalen Existenzintervalls [0, t+ ). Ober- und Unterlösungen eignen sich also unter anderem dazu, das maximale Existenzintervall einzugrenzen; vgl. Abb. 2.1.

2.5 Globale Existenz

4

43

x

3

2

1

0.5

1.0

1.5

2.0

t

Abb. 2.1 Lösung und Vergleichsfunktionen

2.5

Globale Existenz

Gegeben sei das Anfangswertproblem (2.1) und f sei stetig und lokal Lipschitz in x. Der Satz von Picard–Lindelöf impliziert, dass eine lokale eindeutig bestimmte Lösung von (2.1) existiert und Fortsetzungssatz 2.3.2 liefert uns hierzu ein maximales Existenzintervall. Unser Anliegen in diesem Abschnitt ist es, Kriterien anzugeben, unter denen die Lösung von (2.1) global existiert. Korollar 2.5.1. Sei G = J × Rn , J ⊂ R ein offenes Intervall, (t0 , x0 ) ∈ G, und f : G → Rn stetig, lokal Lipschitz in x. Seien ferner a, b ∈ C(J ; R+ ) gegeben, sodass |f (t, x)| ≤ a(t) + b(t)|x|,

(2.10)

für alle t ∈ J , x ∈ Rn gilt; man sagt f sei bzgl. x linear beschränkt. Dann existiert die Lösung von (2.1) global. Beweis. Sei x(t) die Lösung von (2.1). Angenommen t+ ∈ J , mit limt→t+ |x(t)| = ∞. Wir schreiben (2.1) als äquivalente Integralgleichung  x(t) = x0 +

t

t0

f (s, x(s))ds, t ∈ [t0 , t+ ).

Wegen (2.10) und mit der Dreiecksungleichung gilt  |x(t)| ≤ |x0 | +

t

t0

 (a(s) + b(s)|x(s)|)ds = α(t) +

t

t0

β(s)|x(s)|ds, t ∈ [t0 , t+ ),

44

2 Existenz und Eindeutigkeit

wobei α(t) := |x0 | + ϕ(t) := |x(t)| liefert

t t0

a(s)ds und β(t) := b(t). Das Lemma von Gronwall 2.4.1 mit 

|x(t)| ≤ α(t) +

t

β(s)e t0

t s

β(τ )dτ

α(s)ds, t ∈ [t0 , t+ ).

Aus dieser Abschätzung ergibt sich für t  t+ und endliches t+ ein Widerspruch zur Annahme, denn nach Voraussetzung sind die Funktionen α und β stetig in t, also bleibt x(t) beschränkt. Nach Satz 2.3.2 existiert die Lösung x = x(t) für alle t ∈ J , t ≥ t0 . Der  Beweis für den Fall t ≤ t0 verläuft analog mittels Zeitumkehr. Für lineare Gleichungen ergibt dieses Korollar das Korollar 2.5.2. Sei J ⊂ R ein Intervall, A ∈ C(J, Rn×n ), b ∈ C(J, Rn ), t0 ∈ J und x0 ∈ Rn . Dann besitzt das Anfangswertproblem (2.6) genau eine globale Lösung. Beweis. Es gilt die Abschätzung |f (t, x)| = |A(t)x + b(t)| ≤ |A(t)x| + |b(t)| ≤ |A(t)||x| + |b(t)|, für alle t ∈ J . Nun folgt die Behauptung aus Korollar 2.5.1.



Beispiele. (a) Das gedämpfte Pendel. Betrachte die Differentialgleichung x¨ + α x˙ + ω2 sin x = b(t), t ∈ R,

(2.11)

wobei α ≥ 0 und b ∈ C(R) gegeben sind. Dabei bewirkt der Term α x˙ eine Dämpfung der Schwingung z. B. durch Luftwiderstand, und b = b(t) stellt eine äußere Kraft dar, die am Pendel angreift. Wir transformieren (2.11) in das System erster Ordnung ⎧ ⎨u˙ = v, ⎩v˙ = −αv − ω2 sin u + b(t). Die rechte Seite  v f (t, u, v) = 2 −αv − ω sin u + b(t)



2.5 Globale Existenz

45

des Systems ist stetig in t und stetig differenzierbar in u, v, das heißt nach Proposition 2.1.5 und Satz 2.2.2 existiert zu jedem Anfangswert (u0 , v0 ) ∈ R2 genau eine lokale Lösung. Ferner gilt die Abschätzung |f (t, z)|2 = v 2 + (−αv − ω2 sin u + b(t))2 ≤ v 2 + 3(α 2 v 2 + ω4 u2 + b(t)2 ), denn es gilt | sin x| ≤ |x|, x ∈ R. Daraus folgt |f (t, z)|2 ≤ C(b(t)2 + |z|2 ),

t ∈ R,

mit z = [u, v]T und einer Konstanten C = C(α, ω) > 0. Wegen (x + y)1/2 ≤ x 1/2 + y 1/2 für alle x, y ≥ 0 gilt |f (t, z)| ≤ C(|b(t)| + |z|),

für alle t ∈ R, z ∈ R2 .

Nach Korollar 2.5.1 existiert die Lösung [u(t), v(t)]T also global. (b) Ein nichtlinearer Schwinger. Die Differentialgleichung 2. Ordnung x¨ + x − √

2x 1 + x2

= b(t)

beschreibt ein weiteres nichtlineares Schwingungssystem. Dabei sei b ∈ C(R) eine gegebene Funktion, die eine äußere Kraft bedeutet. Wir formulieren diese Gleichung wie zuvor als System

(N LS)

⎧ ⎨u˙ = v, ⎩v˙ = b(t) − u + √ 2u

1+u2

.

Man sieht leicht, dass auch dieses System lokal Lipschitz ist und lineares Wachstum hat, also existieren die Lösungen global. Korollar 2.5.1 versagt, wenn f polynomiale Terme mit Ordnung l ≥ 2 enthält, wie z. B. in den Modellen von Volterra–Lotka und Kermack–McKendrick. Hier sind es andere Struktureigenschaften, die globale Existenz nach rechts ergeben. Dabei sind häufig Differentialungleichungen von Nutzen, wie das nächste Korollar zeigt. Korollar 2.5.3. Sei G = J × Rn , J ⊂ R ein Intervall, f : G → Rn stetig, lokal Lipschitz in x, und es existiere eine Konstante ω ≥ 0, sodass (f (t, x)|x) ≤ ω|x|22

(2.12)

für alle (t, x) ∈ G gilt. Dann existieren alle Lösungen des AWPs (2.1) global nach rechts.

46

2 Existenz und Eindeutigkeit

Beweis. Sei x = x(t) eine Lösung von (2.1). Man setze ϕ(t) = |x(t)|22 . Unter Verwendung von (2.12) gilt: ϕ(t) ˙ =

n n n   d  d ϕ(t) = xi (t)2 = 2xi (t)x˙i (t) = 2 xi (t)fi (t, x(t)) dt dt i=1

i=1

= 2(f (t, x(t))|x(t)) ≤

i=1

2ω|x(t)|22

= 2ωϕ(t).

(2.13)

Sei nun ϕ(t0 ) =: ϕ0 , t0 ∈ J . Die Differentialungleichung (2.13) liefert uns die Abschätzung    d ϕ(t)e−2ω(t−t0 ) = ϕ(t) ˙ − 2ωϕ(t) e−2ω(t−t0 ) ≤ 0, dt woraus nach Integration ϕ(t) ≤ ϕ0 e2ω(t−t0 ) bzw. |x(t)| ≤ |x0 |eω(t−t0 ) folgt. Die Lösung x = x(t) von (2.1) ist damit auf jedem kompakten Intervall [t0 , t1 ] ⊂ J beschränkt, und globale Existenz nach rechts folgt aus Satz 2.3.2.  Die folgenden Beispiele greifen die Systeme aus Abschn. 1.7 auf. Beispiele. (a) Das Kermack–McKendrick-Modell. Das Kermack–McKendrick-Modell ist durch

(SKK)

⎧ ⎨u˙ = −uv, ⎩v˙ = uv − v,

in skalierter Form gegeben. Sind u0 , v0 > 0, so erfüllt die Lösung u(t), v(t) > 0 auf ihrem maximalen Existenzintervall [0, t+ ), denn es gilt in diesem Intervall u(t) = u0 e−

t 0

v(s)ds

,

v(t) = v0 e

t

0 (u(s)−1)ds

,

t ∈ [0, t+ ).

Es folgt u˙ + v˙ = −v ≤ 0,

t ∈ [0, t+ ),

also u(t) + v(t) ≤ u0 + v0 und somit Beschränktheit der Lösung, also t+ = ∞ nach dem Fortsetzungssatz. Sind die Anfangswerte allerdings nicht positiv, so kann es blow up geben. Da aber u und v in diesem Modell Populationsgrößen darstellen, ist die Annahme positiver Anfangswerte natürlich, negative u0 , v0 sind biologisch nicht relevant.

Übungen

47

(b) Volterra–Lotka-Systeme mit Sättigung. Das skalierte Volterra–Lotka-System mit Sättigung lautet

(SV LS)

⎧ ⎨u˙ = u − κu2 − uv, ⎩v˙ = −εv + uv.

Dabei sind ε > 0 und κ ≥ 0 Konstanten. Der Term κu2 beschreibt eine Selbstlimitierung der Beute durch Beschränkung ihrer Nahrung. Seien die Anfangswerte u0 , v0 positiv und sei (u(t), v(t)) die Lösung von (SVLS) auf ihrem maximalen Existenzintervall [0, t+ ). Wie in (a) haben wir u(t) = u0 e

t

0 (1−κu(s)−v(s))ds

,

v(t) = v0 e

t

0 (u(s)−ε)ds

,

t ∈ [0, t+ ),

also sind beide Funktionen auf [0, t+ ) positiv. Angenommen, es sei t+ < ∞. Aus der Gleichung für u folgt dann u˙ ≤ u, also nach Integration u(t) ≤ et u0 ≤ et+ u0 =: c < ∞. Die Gleichung für v ergibt v˙ ≤ cv, folglich v(t) ≤ ect v0 , also ist auch v(t) auf [0, t+ ) beschränkt, ein Widerspruch zum Fortsetzungssatz. Daher existieren alle Lösungen mit positiven Anfangswerten global nach rechts.

Übungen 2.1 Sei f : R2 → R stetig und gelte f (t, x) < 0 für tx > 0,

f (t, x) > 0 für tx < 0.

Zeigen Sie, dass x(t) ≡ 0 die einzige Lösung der Gleichung x˙ = f (t, x) mit Anfangswert x(0) = 0 ist. 2.2 Beweisen Sie mit Hilfe des Fixpunktsatzes von Banach und dem Fortsetzungsprinzip, dass das Anfangswertproblem x˙ = (t 2 − x 2 )3/2 ,

x(0) = 0,

genau eine Lösung auf ganz R besitzt. 2.3 Sei u : R → R definiert durch  ∞ 2 u(t) := cos(tx)e−x dx, −∞

t ∈ R.

48

2 Existenz und Eindeutigkeit

Berechnen Sie u(t), indem Sie eine Differentialgleichung für u(t) aufstellen, und das zugehörige Anfangswertproblem mit  u(0) =



−∞

e−x dx = 2

√ π

lösen. 2.4 Das folgende Differentialgleichungssystem wurde vom Nobelpreisträger I. Prigogine erfunden, um seine Theorien über Morphogenese zu untermauern. Das System wird heute Brusselator genannt. u˙ = a − bu + u2 v − u, v˙ = bu − u2 v. Dabei sind a, b positive Konstanten. Zeigen Sie, dass dieses System für Anfangswerte u(0) = u0 > 0, v(0) = v0 > 0 eindeutig bestimmte Lösungen besitzt, die für t ≥ 0 positiv bleiben und dort global existieren. 2.5 Gegeben sei das SIRS-Epidemiemodell u˙ = −λuv + γ w, v˙ = λuv − (μ + ν)v, w˙ = νv − γ w, wobei λ, γ , μ, ν positive Konstanten bedeuten. Zeigen Sie, dass das AWP u(0) = u0 > 0, v(0) = v0 > 0, w(0) = w0 > 0 für dieses System eindeutig lösbar ist, und dass die Lösungen für alle t ≥ 0 existieren. 2.6 Ein Hund in einem Fluss schwimmt mit konstanter (Relativ)-Geschwindigkeit vh auf seinen am Ufer stehenden Herrn zu, wird aber zugleich von der Strömung des Flusses (Geschwindigkeit vf ) abgetrieben. (a) Stellen Sie eine Differentialgleichung für die Kurve auf, längs der sich der Hund fortbewegt. (b) Berechnen Sie die Kurve, auf der sich der Hund bewegt, wenn er im Punkt (x0 , y0 ) startet. Erreicht er seinen Herrn? 2.7 Das folgende Modell wurde zur Beschreibung des Stickstoff-Kreislaufs in der Antarktis vorgeschlagen: u˙ = av + bw − cuv, v˙ = cuv − dvw − av, w˙ = dvw − bw.

(2.14)

Übungen

49

Dabei bedeuten u den frei verfügbaren Stickstoff, v das Phytoplankton, w das Zooplankton, und a, b, c, d > 0 sind Konstanten. Zeigen Sie, dass dieses Modell zu einem Volterra–Lotka-Modell äquivalent ist. Unter welchen Bedingungen sind v und w koexistent? Wie wirkt sich ein höherer Gesamtgehalt an Stickstoff auf das Koexistenz-Equilibrium aus, und wie wirkt Befischung des Zooplanktons z. B. durch Wale?

3

Lineare Systeme

In diesem Kapitel behandeln wir die Theorie linearer Differentialgleichungssysteme. Das Anfangswertproblem für ein allgemeines System 1. Ordnung lautet x˙ = A(t)x + b(t),

x(t0 ) = x0 , t ∈ J := [t0 , t1 ].

(3.1)

Dabei sind A ∈ C(J, Rn×n ) und b ∈ C(J, Rn ) gegebene Funktionen. Das System heißt homogen falls b ≡ 0 ist, andernfalls nennt man es inhomogen.

3.1

Homogene Systeme

Sei b(t) ≡ 0, und u, v Lösungen der homogenen Differentialgleichung x˙ = A(t)x.

(3.2)

Dann ist auch die Funktion (αu + βv) für alle α, β ∈ R, eine Lösung von (3.2), denn es gilt aufgrund der Linearität d (αu + βv) = α u˙ + β v˙ = αAu + βAv = A(αu + βv). dt Die Menge aller Lösungen von (3.2) ist also ein Vektorraum, genauer ein Teilraum L ⊂ C 1 (J, Rn ). Sei x = x(·, x0 ) eine Lösung des AWPs ⎧ ⎨x˙ = A(t)x, ⎩x(t0 ) = x0 . © Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_3

(3.3)

51

52

3 Lineare Systeme

Dann definiert die Abbildung T x0 := x(·, x0 ) einen linearen Isomorphismus von Rn auf L. Denn aus Korollar 2.5.2 folgt, dass das Anfangswertproblem (3.3) zu jedem x0 ∈ Rn eine eindeutig bestimmte Lösung x(·, x0 ) ∈ L besitzt. Daher ist T injektiv. Die Abbildung T ist surjektiv, da jede Lösung einen Anfangswert besitzt. Schließlich ist T linear, denn mit T (αx0 + βx1 ) = x(·, αx0 + βx1 ), T x0 = x(·, x0 ), T x1 = x(·, x1 ) gilt αT x0 + βT x1 = αx(·, x0 ) + βx(·, x1 ) und aus der Eindeutigkeit der Lösung folgt T (αx0 + βx1 ) = αT x0 + βT x1 . Wegen der Isomorphie von Rn und L gilt dim L = dim Rn = n. Es existiert somit in L eine Basis, die aus n linear unabhängigen Lösungen von (3.2) besteht. Definition 3.1.1. Eine Basis von L heißt Fundamentalsystem (FS) zu (3.2). n Lösungen y i ∈ C 1 (J ; Rn ) fasst man zu einer Lösungsmatrix Y (t) = (y 1 , . . . , y n ) zusammen, wobei die Lösungen y i die Spalten von Y (t) darstellen. Ist {y 1 , . . . , y n } ein FS, so nennt man Y (t) eine Fundamentalmatrix (FM). Gilt außerdem Y (t0 ) = I , so heißt Y (t) Hauptfundamentalmatrix (HFM) in t0 und deren Spalten nennt man Hauptfundamentalsystem (HFS). Folgerungen. 1. Für jede Lösungsmatrix Y (t) gilt Y˙ (t) = A(t)Y (t). 2. Ist Y (t) eine FM, so lässt sich jede Lösung von (3.2) durch y(t) = Y (t)c,

t ∈ J,

(3.4)

mit einem eindeutig bestimmten Vektor c ∈ Rn darstellen. 3. Für jede Lösungsmatrix Z(t) von (3.2) und jede konstante Matrix C ∈ Rn×n ist auch Y (t) = Z(t)C eine Lösungsmatrix von (3.2), denn es ist ˙ Y˙ (t) = Z(t)C = A(t)Z(t)C = A(t)Y (t).

3.1 Homogene Systeme

53

Sei Y (t), t ∈ J , eine Lösungsmatrix. Dann heißt ϕ(t) := det Y (t) Wronski-Determinante von Y (t). Die Wronski-Determinante ist entweder für alle t ∈ J von Null verschieden oder sie ist identisch Null. Dies folgt aus Lemma 3.1.2. Sei Y (t) eine Lösungsmatrix für (3.2) und ϕ(t) = det Y (t). Dann gilt ϕ(t) ˙ = (sp A(t))ϕ(t), t ∈ J , also 

t

ϕ(t) = ϕ(τ ) exp

 sp A(s) ds , t, τ ∈ J,

τ

 wobei sp A(t) = ni=1 aii (t) die Spur von A(t) bezeichnet. Insbesondere verschwindet die Wronski-Determinante eines Fundamentalsystems in keinem t ∈ J . Beweis. Sei τ ∈ J beliebig fixiert und Z(t) die HFM für (3.2) mit Z(τ ) = I . Da dann Y˜ (t) := Z(t)Y (τ ) ebenfalls eine Lösungsmatrix von (3.2) mit Anfangswert Y˜ (τ ) = Y (τ ) ist, folgt Y (t) = Y˜ (t) aus der Eindeutigkeit der Lösung. Daher gilt ϕ(t) ˙ =

d d d (det Y (t)) = (det Z(t) det Y (τ )) = (det Z(t))ϕ(τ ). dt dt dt

Da det Z(t) linear in den Spalten zj (t) von Z(t) ist, ergibt die Kettenregel  d d det Z(t) = det[z1 (t), . . . , zj (t), . . . , zn (t)]. dt dt n

j =1

Aufgrund von zj (τ ) = ej und

dzi dt (τ )

= A(τ )ei , i ∈ {1, . . . , n} gilt folglich

n n      d  det Z(t) = det e1 , . . . , A(τ )ei , . . . , en = aii (τ ) = sp A(τ ), t=τ dt i=1

i=1

˙ = (sp A(t))ϕ(t) für also dϕ dt (τ ) = (sp A(τ ))ϕ(τ ). Da τ ∈ J beliebig fixiert war, gilt ϕ(t) alle t ∈ J und die Lösung dieser Differentialgleichung lautet  ϕ(t) = ϕ(τ ) exp τ

t

 sp A(s) ds , t, τ ∈ J.



Im nächsten Abschnitt über inhomogene Systeme wird die zur Fundamentalmatrix Y (t) inverse Matrix Y −1 (t) benötigt. Man beachte, dass diese aufgrund von Lemma 3.1.2 wohldefiniert ist. Y −1 (t) ist auch wieder die Lösung einer homogenen linearen Differentialgleichung, denn es ist nach der Produktregel

54

3 Lineare Systeme

0= also gilt

d −1 (t) dt Y

d d d I = (Y (t)Y −1 (t)) = Y˙ (t)Y −1 (t) + Y (t) Y −1 (t), dt dt dt = −Y −1 (t)A(t) und

d −T (t) dt Y

= −AT (t)Y −T (t).

Bemerkungen 3.1.3. 1. Hauptfundamentalmatrizen werden im Weiteren mit X(t) bezeichnet. 2. Das Anfangswertproblem (3.3) besitzt die Lösung x(t) = X(t)x0 , da x(t0 ) = X(t0 )x0 = x0 gilt. Ist Y (t) eine Fundamentalmatrix, dann existiert die Inverse Y −1 (t), sodass die Matrix X(t) := Y (t)Y −1 (t0 ) eine Hauptfundamentalmatrix ist und die Lösung von (3.3) dementsprechend durch x(t) = Y (t)Y −1 (t0 )x0 gegeben ist.

3.2

Inhomogene Systeme

Sei Y ∈ C 1 (J, Rn×n ) eine Fundamentalmatrix zu (3.2) und z ∈ C 1 (J, Rn ) eine spezielle Lösung von (3.1). Dann sind durch y(t) = Y (t)c, c ∈ Rn , alle Lösungen von (3.2) gegeben und der Ansatz x(t) := y(t) + z(t) liefert alle Lösungen der inhomogenen Differentialgleichung (3.1). Denn sind z, w Lösungen der inhomogenen Gleichung, dann löst ihre Differenz die homogene Gleichung (Superpositionsprinzip). Ähnlich wie in Kap. 1 wird auch hier die Methode der Variation der Konstanten helfen, eine spezielle Lösung der inhomogenen Differentialgleichung zu bestimmen. Sei Y (t) eine Fundamentalmatrix für (3.2). Man setze z(t) = Y (t)c(t), wobei c ∈ C 1 (J ; Rn ) zu bestimmen ist. Aus der Produktregel folgt z˙ (t) = A(t)z(t) + Y (t)c(t). ˙ Ist also z(t) eine spezielle Lösung von (3.1), so gilt Y (t)c(t) ˙ = b(t), t ∈ J , also ist −1 c(t) ˙ = Y (t)b(t), weil Y (t) als Fundamentalmatrix invertierbar ist. Integration von t0 bis t liefert  c(t) − c(t0 ) =

t

 c(s) ˙ ds =

t0

t

Y −1 (s)b(s) ds, t ∈ J.

t0

Da wir nur an einer speziellen Lösung der inhomogenen Differentialgleichung interessiert sind, setzen wir c(t0 ) = 0 und erhalten für z = z(t) die Darstellung  z(t) = Y (t)

t

Y −1 (s)b(s) ds, t ∈ J.

t0

Nach unserer Vorbemerkung lautet also die allgemeine Lösung von (3.1)

3.3 Bestimmung von Fundamentalsystemen

55



t

x(t) = Y (t)c + Y (t)

Y −1 (s)b(s) ds, t ∈ J.

(3.5)

t0

Mit einem gegebenen Anfangswert x(t0 ) = x0 ist x(t) = Y (t)Y −1 (t0 )x0 + Y (t)



t

Y −1 (s)b(s) ds, t ∈ J

(3.6)

t0

die Lösung des Anfangswertproblems (3.1). Alternativ gilt  x(t) = X(t)x0 + X(t)

t

X−1 (s)b(s) ds, t ∈ J,

(3.7)

t0

mit der HFM X(t) := Y (t)Y −1 (t0 ) in t0 . Bemerkungen 3.2.1. 1. Gl. (3.7) geht für n = 1 in die Lösungsformel (1.13) über. 2. Sind A(t) und b(t) komplexwertig, so führe man eine Zerlegung in Real- und Imaginärteil durch: A(t) = B(t) + iC(t)

b(t) = c(t) + id(t)

x(t) = u(t) + iv(t)

Daraus ergeben sich die beiden gekoppelten reellen Systeme u˙ = Bu − Cv + c

und

v˙ = Bv + Cu + d,

die man als reelles System mit w := [uT , v T ] auffassen kann. 3. Es sei daran erinnert, dass sich Systeme m-ter Ordnung der Dimension N in ein System 1. Ordnung der Dimension n = mN überführen lassen, wie in Abschn. 1.2 gezeigt.

3.3

Bestimmung von Fundamentalsystemen

3.3.1

Die d’Alembert-Reduktion

Es sei y(t) = [y1 (t), . . . , yn (t)]T ∈ Rn mit yk (t) = 0 für ein k ∈ {1, . . . , n} als Lösung von (3.2) bekannt. Mit Hilfe der d’Alembert-Reduktion kann ein n × n-System auf ein (n − 1) × (n − 1)-System reduziert werden. Dazu setzt man x(t) = ϕ(t)y(t) + z(t),

56

3 Lineare Systeme

wobei ϕ ∈ C 1 (J, R) und z(t) = [z1 (t), . . . , zk−1 (t), 0, zk+1 (t), . . . , zn (t)]T ist. Dann gilt x(t) ˙ = ϕ(t)y(t) ˙ + ϕ(t)y(t) ˙ + z˙ (t) = ϕ(t)y(t) ˙ + ϕ(t)A(t)y(t) + z˙ (t). Wegen x(t) ˙ = A(t)x(t) = A(t)ϕ(t)y(t) + A(t)z(t) muss also z˙ (t) = A(t)z(t) − ϕ(t)y(t) ˙

(3.8)

sein. Mit zk (t) ≡ 0 liefert (3.8) für die k-te Komponente 1  akl (t)zl (t), yk (t) n

ϕ(t) ˙ =

(3.9)

l=1

also für j = k  n   yj (t) z˙ j (t) = aj l (t) − akl (t) zl (t), yk (t)

(3.10)

l=1

wenn man (3.9) in (3.8) einsetzt. Das System (3.10) ist ein homogenes System von (n − 1) Gleichungen. Hat man ein Fundamentalsystem {z1 (t), . . . , zn−1 (t)} für (3.10) bestimmt, so errechnet man damit (n − 1) Lösungen der Differentialgleichung (3.2). Zusammen mit der Lösung y(t) bilden diese ein Fundamentalsystem für (3.2). Denn aufgrund von zk ≡ 0 ist {z1 . . . , zn−1 } genau dann linear unabhängig, wenn {y, ϕy + z1 , . . . , ϕy + zn−1 } diese Eigenschaft hat. Beispiel. 

 1/t −1 x˙ = x, 1/t 2 2/t

t ∈ J = (0, ∞).

(3.11)



 t2 Offensichtlich ist die Funktion y(t) = eine Lösung von (3.11). Aus (3.10) erhalten −t wir mit z1 (t) = 0 die Differentialgleichung   y2 (t) 1 z2 (t) = z2 (t), z˙ 2 (t) = a22 (t) − a12 (t) y1 (t) t das heißt, z2 (t) = ct mit einer beliebigen Konstante c ∈ R. Da wir nur an einer speziellen Lösung z2 (t) interessiert sind, setzen wir c = 1. Aus Gl. (3.9) folgt somit

3.3 Bestimmung von Fundamentalsystemen

ϕ(t) ˙ =

57

1 a12 (t)z2 (t) =− , y1 (t) t

also ϕ(t) = − log(t), t > 0, da wir wieder nur an einer speziellen Lösung interessiert sind. Aus dem Ansatz x(t) = ϕ(t)y(t) + z(t) erhalten wir die zusätzliche Lösung 

 −t 2 log(t) x(t) = . t log(t) + t Mit der Lösung y(t) ist dann 

t 2 −t 2 log(t) Y (t) = −t t log(t) + t



eine Fundamentalmatrix für (3.11); es gilt det Y (t) = t 3 = 0 für alle t > 0.

3.3.2

Systeme mit konstanten Koeffizienten

In diesem Abschnitt sei A(t) = A eine von der Variablen t unabhängige reelle Matrix. Wir betrachten die lineare Differentialgleichung x(t) ˙ = Ax(t) + b(t), t ∈ J , mit b ∈ C(J ; Rn ). Für b ≡ 0 und im Fall n = 1 ist x(t) = ea(t−t0 ) c eine Lösung der Differentialgleichung. Es stellt sich daher die Frage, ob eine analoge Lösungsformel auch im Rn existiert. Dies führt zum Begriff der Matrix-Exponentialfunktion. Definition 3.3.1. Die Funktion z → eAz , definiert durch eAz :=

∞  Ak zk k=0

k!

,

z ∈ C,

(3.12)

heißt Matrix-Exponentialfunktion zur Matrix A. Um zu sehen, dass die Abbildung z → eAz auf C wohldefiniert ist, definieren wir zunächst σ (A) := {λ ∈ C : λ ist Eigenwert von A}. Die Menge σ (A) heißt Spektrum von A, ρ(A) := C\σ (A) Resolventenmenge von A. Es gilt λ ∈ σ (A) ⇔ λ − A ist nicht invertierbar.

58

3 Lineare Systeme

Daher ist σ (A) die Nullstellenmenge des charakteristischen Polynoms pA (z) = det(z−A). Die Zahl r(A) := max{|λ| : λ ∈ σ (A)}, heißt Spektralradius von A und es gilt die Spektralradiusformel r(A) = lim sup |Ak |1/k ; k→∞

vgl. Übung 3.10. Die gewählte Norm ist hier unerheblich. Ist nun ε > 0 gegeben, so gibt es ein k0 (ε) ∈ N mit |Ak | ≤ (r(A) + ε)k für alle k ≥ k0 (ε), also |Ak zk /k!| ≤ [(r(A) + ε)|z|]k /k!. Damit sind die Reihenglieder dominiert durch die Glieder einer skalaren Exponentialreihe, also konvergiert (3.12) nach dem Majorantenkriterium von Weierstraß absolut und gleichmäßig bezüglich z auf jeder d (eAz ) = AeAz , kompakten Teilmenge von C. Ferner ist z → eAz holomorph und es gilt dz denn N

N

N −1

k=0

k=1

l=0

 Ak zk−1  Al zl d  Ak zk = =A → AeAz , dz k! (k − 1)! l! für N → ∞, gleichmäßig bezüglich z auf kompakten Teilmengen von C. Daraus folgt insbesondere, dass x(t) = eAt c, c ∈ Rn , eine Lösung der Differentialgleichung x˙ = Ax ist, und x(t) = eA(t−t0 ) x0 ist die eindeutige Lösung des Anfangswertproblems (3.3) mit A(t) ≡ A. Die Matrix X(t) = eA(t−t0 ) ist die Hauptfundamentalmatrix in t0 , denn es ist X(t0 ) = I . Ferner gilt unter der Voraussetzung AB = BA eAt eBs = eAt+Bs ,

für alle t, s ∈ R.

Man beachte aber, dass diese Identität für nichtkommutierende Matrizen falsch ist! Die Lösungsformel für (3.1) mit A(t) ≡ A folgt nun direkt aus (3.5) bzw. (3.7). Es ist  x(t) = eA(t−t0 ) x0 +

t

eA(t−s) b(s) ds, t ∈ R.

(3.13)

t0

Im Allgemeinen lässt sich der Wert der Reihe (3.12) nur schwierig berechnen. Man sucht daher nach einem direkteren Weg, um ein Fundamentalsystem für den Fall konstanter Koeffizienten zu bestimmen. Dazu machen wir den folgenden Exponential-Ansatz: Sei c

3.3 Bestimmung von Fundamentalsystemen

59

ein nichttrivialer Eigenvektor von A zum Eigenwert λ, es gelte also Ac = λc. Dann ist e c= At

∞  Ak t k k=0

k!

c=

∞ k k  t A c k=0

k!

=

∞ k k  t λ c k=0

k!

=

∞  t k λk k=0

k!

c = eλt c.

Daher löst x(t) := eλt c die Differentialgleichung x˙ = Ax. Wir müssen also die Eigenräume E(λ) := N(λ − A) von A diskutieren. 1. Fall: Die Matrix A besitzt n linear unabhängige Eigenvektoren {c1 , . . . , cn }. Dies ist der einfachste Fall, da hier der Exponential-Ansatz ausreicht. Lemma 3.3.2. Sind λ1 , . . . , λn die nicht notwendigerweise verschiedenen Eigenwerte von A und existieren zugehörige Eigenvektoren {c1 , . . . , cn }, die linear unabhängig sind, so ist Y (t) = (eλ1 t c1 , . . . , eλn t cn ) eine Fundamentalmatrix für die Differentialgleichung x˙ = Ax. Insbesondere ist dies der Fall, falls alle Eigenwerte λj , j ∈ {1, . . . , n}, paarweise verschieden sind. Beweis. Es gilt det Y (0) = det(c1 , . . . , cn ) = 0. Nach Lemma 3.1.2 ist somit det Y (t) = 0 für alle t ∈ R, also Y (t) eine Fundamentalmatrix für x˙ = Ax. Seien nun alle Eigenwerte λj paarweise verschieden und seien cj nichttriviale Eigenvektoren zu den λj . Angenommen {c1 , . . . , cn } sind linear abhängig. Nach einer eventuellen Umordnung sei k ∈ {1, . . . , n − 1} so gegeben, dass die Vektoren {c1 , . . . , ck } linear unabhängig sind und span{c1 , . . . , ck } = span{c1 , . . . , cn }. Folglich gibt es ein l > k und αj mit cl =

k 

αj cj .

j =1

Wendet man A auf diese Gleichung an und verwendet, dass die Vektoren cj Eigenvektoren zu den Eigenwerten λj sind, so erhält man

60

3 Lineare Systeme

λl cl = Acl =

k 

αj λj cj ,

j =1

folglich k 

αj (λj − λl )cj = 0.

j =1

Da c1 , . . . , ck linear unabhängig sind, und λi = λj für i = j gilt, folgt αj = 0 für alle  j ∈ {1, . . . , k} und somit cl = 0, im Widerspruch zu cj = 0 für alle j ∈ {1, . . . , n}. Bemerkung 3.3.3. Sei A reellwertig, λ ∈ C \ R komplexer Eigenwert von A mit komplexem Eigenvektor c ∈ Cn . Dann ist die zu λ konjugiert komplexe Zahl λ¯ ein Eigenwert von A mit Eigenvektor c, ¯ denn es gilt Ac¯ = Ac = λc = λ¯ c. ¯ Sei x = u + iv eine komplexe Lösung der Differentialgleichung x˙ = Ax. Dann sind Re x = u und Im x = v ebenfalls Lösungen von x˙ = Ax, denn x˙ = u+i ˙ v˙ und A(u+iv) = 1 2 Au + iAv. Mit λ = μ + iν und c = c + ic erhält man aus der Eulerschen Formel die Lösungsdarstellung x(t) = eμt [(c1 cos(νt) − c2 sin(νt)) + i(c2 cos(νt) + c1 sin(νt))], welche nach Aufspaltung in Real- und Imaginärteil die beiden linear unabhängigen reellen Lösungen x 1 (t) = Re x(t) = eμt (c1 cos(νt) − c2 sin(νt)) x 2 (t) = Im x(t) = eμt (c2 cos(νt) + c1 sin(νt)) liefert. Der konjugiert komplexe Eigenwert λ¯ kann daher weggelassen werden, da dieser keine neuen Lösungen liefert. 2. Fall: Sei λk ein m-facher Eigenwert von A und dim E(λk ) < m. Da nun nicht mehr ausreichend viele Eigenvektoren zu einem m-fachen Eigenwert vorhanden sind, ist man gezwungen sich zusätzliche Lösungen zu besorgen, die in geeigneter Weise zusammen mit den Exponentiallösungen ein Fundamentalsystem bilden. Dazu benötigen wir die

3.3 Bestimmung von Fundamentalsystemen

61

Spektralzerlegung von Matrizen Fixiere einen Eigenwert λ ∈ C von A und definiere die verallgemeinerten Eigenräume Nk durch Nk := N ((λ − A)k ). Offenbar ist N1 = E(λ) der Eigenraum zum Eigenwert λ, und es gilt Nk ⊂ Nk+1 . Da diese Teilräume des Cn sind, ist die Menge {k ∈ N : Nk = Nk+1 } ⊂ N nichtleer, enthält also ein kleinstes Element k(λ). Es gilt dann Nk = Nk(λ) für alle k ≥ k(λ). Außerdem setzen wir Rk = R((λ − A)k ) und haben Rk ⊃ Rk+1 für alle k ∈ N. Das kleinste k aus der Menge {k ∈ N : Rk = Rk+1 } bezeichnen wir mit m(λ); dann gilt Rk = Rm(λ) für alle k ≥ m(λ). Nun gilt Rk ∩ Nk = {0} für alle k ≥ k(λ); denn ist x ∈ Rk ∩ Nk , so gibt es ein y ∈ Cn mit x = (λ − A)k y, und (λ − A)k x = 0, also y ∈ N2k = Nk und somit x = (λ − A)k y = 0. Andererseits, für k ≥ m(λ) gibt es zu jedem x ∈ Cn ein x˜ ∈ Cn mit ˜ damit zeigt die Zerlegung x = (λ − A)k x˜ + [x − (λ − A)k x], ˜ (λ − A)k x = (λ − A)2k x; n dass Rk + Nk = C gilt. Wäre nun k(λ) < m(λ) so folgt mit k = m(λ) aus dem Dimensionssatz der Widerspruch n = dimNk + dimRk = dimNk(λ) + dimRk < dimNk(λ) + dimRk(λ) = n, also ist k(λ) ≥ m(λ). Ähnlich erhält man auch k(λ) ≤ m(λ), folglich gilt m(λ) = k(λ). Mit N (λ) = N ((λ − A)m(λ) ) und R(λ) = R((λ − A)m(λ) ) gilt somit die Zerlegung Cn = N(λ) ⊕ R(λ) = N ((λ − A)m(λ) ) ⊕ R((λ − A)m(λ) ). Die Zahl m(λ) heißt Riesz-Index des Eigenwerts λ, die Dimension l(λ) des verallgemeinerten Eigenraums N(λ) algebraische Vielfachheit von λ. Dies ist die Vielfachheit der Nullstelle λ des charakteristischen Polynoms pA (z). Die geometrische Vielfachheit von λ ist durch die Dimension von E(λ) = N(λ − A) definiert. λ heißt halbeinfach wenn m(λ) = 1 ist, also wenn die geometrische Vielfachheit von λ gleich der algebraischen Vielfachheit ist. λ heißt einfach wenn λ algebraisch einfach ist. Ein Eigenwert ist also genau dann einfach, wenn er halbeinfach und seine geometrische Vielfachheit 1 ist. Sei nun μ = λ ein weiterer Eigenwert von A. Aufgrund von AN (λ) ⊂ N (λ) und AR(λ) ⊂ R(λ) folgt N(μ) ⊂ R(λ). Denn ist x ∈ N (μ), so gilt x = y + z mit y ∈ R(λ) und z ∈ N (λ); folglich ist 0 = (μ − A)m(μ) x = (μ − A)m(μ) y + (μ − A)m(μ) z, sowie (μ − A)m(μ) y ∈ R(λ), (μ − A)m(μ) z ∈ N(λ), also aufgrund von N (λ) ∩ R(λ) = {0} 0 = (μ − A)m(μ) y = (μ − A)m(μ) z. Es folgt z ∈ N (λ) ∩ N(μ), also z = 0, da dieser Schnitt Null ist. Dies sieht man folgendermaßen: Sei z ∈ N(λ) ∩ N(μ), λ = μ; dann ist mit k = m(μ) und l = m(λ)

62

3 Lineare Systeme k    k (μ − λ)k−j (λ − A)j z. 0 = (μ − A) z = j k

j =0

Nach Anwendung von (λ − A)l−1 folgt (λ − A)l−1 z = 0, und dann sukzessive mittels Induktion (λ − A)l−1 z = (λ − A)l−2 z = · · · = (λ − A)z = z = 0. Diese Argumente ergeben nach Durchlaufen aller Eigenwerte die Spektral-Zerlegung Cn = N(λ1 ) ⊕ N(λ2 ) ⊕ · · · ⊕ N (λr ), wobei λ1 , . . . , λr die r verschiedenen Eigenwerte von A bezeichnen. Nach diesem Ausflug in die lineare Algebra kommen wir zu den gesuchten Lösungen. Definiere V1 := E(λ), Vk := Nk  Nk−1 , k ∈ {2, . . . , m(λ)}. 1. Sei c ∈ V1 . Dann ist x(t) = eλt c eine Lösung zum Eigenwert λ, also p0 (t) ≡ c. 2. Sei c ∈ Vk , k ∈ {2, . . . , m(λ)}. Aus der Definition der Menge Vk schließt man (A − λ)j c = 0, j ∈ {1, . . . , k − 1} und (A − λ)j c = 0, j ∈ {k, . . . , m(λ)}. Wir verwenden dies und (3.12), um folgende Lösung zu erhalten: x(t) = eAt c = eAt e−λt eλt c = e(A−λ)t eλt c ∞  (A − λ)l t l = eλt c l! l=0

  t k−1 k−1 eλt = c + (A − λ)ct + . . . + (A − λ) c (k − 1)! =: pk−1 (t)eλt . Ferner gilt N(λ) = V1 ⊕ V2 ⊕ · · · ⊕ Vm(λ) , also haben wir insgesamt l(λ) := dimN(λ) linear unabhängige Lösungen. Wir fassen nun die vorangegangenen Ergebnisse zusammen. Satz 3.3.4. Sei λ ein Eigenwert der algebraischen Vielfachheit l(λ). Dann besitzt die Differentialgleichung x˙ = Ax genau l(λ) linear unabhängige Lösungen bezüglich λ. Diese sind von der Form

3.3 Bestimmung von Fundamentalsystemen

63

p0 (t)eλt , p1 (t)eλt , . . . , pm(λ)−1 (t)eλt , wobei pk Polynome vom Grad k ≤ m(λ) − 1 mit Koeffizienten aus Cn sind und m(λ) ≥ 1 ist die kleinste natürliche Zahl, sodass Nk+1 = Nk gilt. Setzt man V1 = E(λ), Vk = Nk  Nk−1 , k ∈ {2, . . . , m(λ)}, so existieren dim E(λ) Polynome 0-ten Grades (also die Eigenvektoren) und dim Vk Polynome (k − 1)-ten Grades, also pk−1 (t) = c + (A − λ)ct + . . . + (A − λ)k−1 c

t k−1 , c ∈ Vk , (k − 1)!

k ∈ {2, . . . , m(λ)}. Nach Durchlaufen aller Eigenwerte von A erhält man so ein komplexes Fundamentalsystem für die Differentialgleichung x˙ = Ax. Ist λ ein l-facher komplexer Eigenwert der reellen Matrix A, so liefert die Zerlegung der komplexen Lösungen pk (t)eλt in Real- und Imaginärteile 2l reelle, linear unabhängige Lösungen. Beispiele. (a) ⎡

⎤ 1 −1 2 ⎢ ⎥ x˙ = ⎣−1 1 2⎦ x. 1 1 0 Das charakteristische Polynom p(λ) = det(A − λI ) zur Bestimmung der Eigenwerte lautet p(λ) = −λ3 + 2λ2 + 4λ − 8. Es ergeben sich die Eigenwerte λ1,2 = 2 und λ3 = −2, wobei λ = 2 ein doppelter Eigenwert ist. Bestimmung der Eigenvektoren λ = 2 : ⎤⎡ ⎤ ⎡ ⎤ ⎡ c1 0 −1 −1 2 ⎥⎢ ⎥ ⎢ ⎥ ⎢ (A − 2I )c = ⎣−1 −1 2 ⎦ ⎣c2 ⎦ = ⎣0⎦ . 0 1 1 −2 c3 Die Zeilen bzw. Spalten der Matrix sind allesamt linear abhängig, das heißt, es verbleibt die Gleichung c1 + c2 − 2c3 = 0. Wir setzen c2 = α ∈ R und c3 = β ∈ R. Dann ist ⎡ ⎤ ⎡ ⎤ 2 −1 ⎢ ⎥ ⎢ ⎥ c = ⎣ 1 ⎦ α + ⎣0⎦ β. 1 0

64

3 Lineare Systeme

Als Eigenvektoren wählen wir c1 = [2, 0, 1]T und c2 = [−1, 1, 0]T . Die algebraische Vielfachheit des Eigenwertes ist also gleich der geometrischen Vielfachheit dim E(2) = 2. λ = −2: ⎤⎡ ⎤ ⎡ ⎤ 0 d1 3 −1 2 ⎥⎢ ⎥ ⎢ ⎥ ⎢ (A + 2I )d = ⎣−1 3 2⎦ ⎣d2 ⎦ = ⎣0⎦ . d3 0 1 1 2 ⎡

Durch Umformen der Zeilen ergeben sich die beiden Gleichungen d2 + d3 = 0 und 3d1 − d2 + 2d3 = 0. Daraus folgt d1 = d2 = −d3 . Wir setzen d3 = −α ∈ R\{0}. Dann ist ⎡ ⎤ 1 ⎢ ⎥ d = ⎣ 1 ⎦α −1 und als Eigenvektor wählen wir d 1 = [1, 1, −1]T . Aus Lemma 3.3.2 folgt, dass ⎫ ⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎪ ⎪ −1 1 ⎬ ⎨ 2 ⎢ ⎥ 2t ⎢ ⎥ 2t ⎢ ⎥ −2t , , e e e ⎣0⎦ ⎣1⎦ ⎣1⎦ ⎪ ⎪ ⎭ ⎩ 1 0 −1 ein Fundamentalsystem bildet, da die Vektoren {c1 , c2 , d 1 } linear unabhängig sind. (b) ⎡ 1 ⎢ x˙ = ⎣1 0

0 1 0

⎤ 2 ⎥ 1⎦ x. 3

Das charakteristische Polynom lautet p(λ) = (3 − λ)(1 − λ)2 . Wie in (a) haben wir einen einfachen Eigenwert λ = 3 und einen doppelten Eigenwert λ = 1. Bestimmung der Eigenvektoren λ = 3: ⎤⎡ ⎤ ⎡ ⎤ ⎡ c1 0 −2 0 2 ⎥⎢ ⎥ ⎢ ⎥ ⎢ (A − 3I )c = ⎣ 1 −2 1⎦ ⎣c2 ⎦ = ⎣0⎦ . 0 0 0 0 c3 Die Lösung dieses Gleichungssystems lautet c1 = c2 = c3 , also

3.3 Bestimmung von Fundamentalsystemen

65

⎡ ⎤ 1 ⎢ ⎥ c = ⎣1⎦ α 1 mit c3 = α ∈ R\{0}. Als Eigenvektor nehmen wir z. B. c1 = [1, 1, 1]T . λ = 1: ⎤⎡ ⎤ ⎡ ⎤ ⎡ d1 0 002 ⎥⎢ ⎥ ⎢ ⎥ ⎢ (A − I )d = ⎣1 0 1⎦ ⎣d2 ⎦ = ⎣0⎦ . 0 002 d3 Man sieht sofort, dass d1 = d3 = 0 gilt und d2 = α ∈ R\{0} beliebig. Es gilt also ⎡ ⎤ 0 ⎢ ⎥ d = ⎣1⎦ α. 0 Wir wählen den Vektor d 1 = [0, 1, 0]T als Eigenvektor. Im Gegensatz zu (a) ist hier die geometrische Vielfachheit dim E(1) = 1 des Eigenwertes kleiner als die algebraische Vielfachheit. Nach Satz 3.3.4 bestimme man einen zusätzlichen Vektor aus V2 = N2  E(1). Dies gelingt offenbar durch den Ansatz (A − I )v = d 1 : ⎡ ⎤⎡ ⎤ ⎡ ⎤ 002 0 v1 ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎣1 0 1⎦ ⎣v2 ⎦ = ⎣1⎦ . v3 002 0 Nun ist v1 = 1, v3 = 0 und v2 = α ∈ R \ {0} beliebig, also gilt für v: ⎡ ⎤ ⎡ ⎤ 0 1 ⎢ ⎥ ⎢ ⎥ v = ⎣0⎦ + ⎣1⎦ α 0 0 und wir wählen v 1 = [1, 0, 0]T ∈ V2 . Ein Fundamentalsystem lautet demnach ⎧⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ ⎫ ⎪ ⎪ 0 1 0 ⎬ ⎨ 1 ⎢ ⎥ 3t ⎢ ⎥ t ⎢ ⎥ t ⎢ ⎥ t ⎣1⎦ e , ⎣1⎦ e , ⎣0⎦ e + ⎣1⎦ te . ⎪ ⎪ ⎭ ⎩ 1 0 0 0 Es soll nun noch die Anfangswertaufgabe x(0) = [0, 0, 1]T gelöst werden. Man verwende dazu (3.4). Die Fundamentalmatrix Y (t) ergibt sich aus dem

66

3 Lineare Systeme

Fundamentalsystem. Sei c ∈ R3 . Es folgt x(0) = Y (0)c, also ⎤⎡ ⎤ ⎡ ⎤ ⎡ 1 0 00 1 ⎥⎢ ⎥ ⎢ ⎥ ⎢ c = Y −1 (0)x(0) = ⎣0 1 −1⎦ ⎣0⎦ = ⎣−1⎦ . −1 1 1 0 −1 Dann ist ⎤ ⎡ ⎤ e3t − et 1 ⎢ ⎥ ⎢ ⎥ x(t) = Y (t) ⎣−1⎦ = ⎣e3t − (1 + t)et ⎦ −1 e3t ⎡

die Lösung des Anfangswertproblems. Bemerkung Der Exponentialansatz liefert auch eine spezielle Lösung der inhomogenen  Gl. (3.1), sofern A(t) ≡ A konstant und b(t) von der Form b(t) = eμt m b t k mit k=0 mk μt k μ ∈ σ (A) ist. Dazu setzt man für die gesuchte Lösung die Form x(t) = e k=0 xk t an, und erhält nach Einsetzen in (3.1) die Beziehung eμt

m  [xk+1 + (μ − A)xk − bk ]t k = 0,

t ∈ R;

k=0

dabei ist xm+1 = 0. Da die Monome t k linear unabhängig sind, folgt (μ − A)xk = bk − xk+1 ,

k = m, . . . , 0,

also mit μ ∈ σ (A) xk = (μ − A)−1 (bk − xk+1 ),

k = m, . . . , 0.

Auf diese Weise kann man sukzessive die Koeffizientenvektoren xk bestimmen.

3.4

Lineare Gleichungen höherer Ordnung

Wir betrachten die lineare skalare Differentialgleichung n-ter Ordnung

x

(n)

+

n−1 

aj (t)x (j ) = b(t), aj , b ∈ C(J ), J = [t0 , t1 ],

j =0

mit gegebenen Anfangswerten

(3.14)

3.4 Lineare Gleichungen höherer Ordnung

67

x(t0 ) = x0 , x(t ˙ 0 ) = x1 , . . . , x (n−1) (t0 ) = xn−1 . Mittels der Transformation uk = x (k−1) und uk0 := uk (t0 ) = x (k−1) (t0 ) = xk−1 für k ∈ {1, . . . , n} erhalten wir aus (3.14) das äquivalente System erster Ordnung u˙ = A(t)u+ f (t), mit ⎡ ⎢ ⎢ ⎢ ⎢ ⎢ A(t) = ⎢ ⎢ ⎢ ⎢ ⎢ ⎣

0 0 .. .

1 0 .. .

0 ... . 1 .. .. .. . .

0 0 .. .



0 0 .. .

. 0 0 0 .. 1 0 0 0 0 ... 0 1 −a0 −a1 −a2 . . . −an−2 −an−1



⎥ ⎥ ⎥ ⎥ ⎥ ⎥, ⎥ ⎥ ⎥ ⎥ ⎦

0 0 .. .



⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥, f (t) = ⎢ ⎥ ⎢ ⎥ ⎢ ⎣ 0 ⎦ b(t)

und ak = ak (t), k ∈ {0, . . . , n − 1}. Nach Korollar 2.5.2 besitzt das Anfangswertproblem u˙ = A(t)u + f (t),

u(t0 ) = u0 ,

genau eine globale Lösung auf J , also ist auch die Differentialgleichung (3.14) mit Anfangswerten x(t0 ) = x0 , x(t ˙ 0 ) = x1 , . . . , x (n−1) (t0 ) = xn−1 eindeutig lösbar. Aus unseren Überlegungen in Abschn. 3.1 folgt dim L = n für den Lösungsraum L der homogenen Differentialgleichung (3.14). Sind {x1 (t), . . . , xn (t)} Lösungen von (3.14) mit b = 0, so ist die Wronski-Determinante gegeben durch ⎡

x1 (t) x˙1 (t) .. .

... ...

xn (t) x˙n (t) .. .



⎢ ⎥ ⎢ ⎥ ⎢ ⎥, ϕ(t) = det Y (t) = det{u (t), . . . , u (t)} = det ⎢ ⎥ ⎣ ⎦ (n−1) (n−1) (t) . . . xn (t) x1 1

n

wobei die Funktionen uj ∈ C 1 (J ; Rn ), j ∈ {1, . . . , n}, Lösungen der Differentialgleichung u˙ = A(t)u sind. Nach Lemma 3.1.2 gilt ferner ϕ(t) = det Y (t) = ϕ(t0 )e

3.4.1

t t0

sp A(s) ds

= ϕ(t0 )e



t t0

an−1 (s) ds

, t ∈ J.

Die d’Alembert-Reduktion für Gleichungen höherer Ordnung

Sei v(t) = 0 eine Lösung der homogenen Differentialgleichung

68

3 Lineare Systeme

x (n) (t) +

n−1 

aj (t)x (j ) = 0, aj ∈ C(J ), J = [t0 , t1 ].

(3.15)

j =0

Um die Ordnung der Differentialgleichung (3.15) zu reduzieren, wählen wir den Ansatz x(t) = ϕ(t)v(t). Das Ziel ist es, die Funktion ϕ(t) so zu bestimmen, dass x(t) eine Lösung von (3.15) ist. Nach der Formel von Leibniz gilt x (j ) (t) =

j    j

k

k=0

ϕ (k) (t)v (j −k) (t),

für alle j ∈ {0, . . . , n}. Substitution in (3.15) liefert mit an ≡ 1 0=

n  j =0

⎞ ⎛   j   n n    j (k) j ⎝ ϕ (t)v (j −k) (t) = aj (t) aj (t) v (j −k) (t)⎠ ϕ (k) (t). k k k=0

k=0

j =k

Setze ck (t) =

n  j =k

  j (j −k) aj (t) (t). v k

Dann gilt c0 (t) =

n 

aj (t)v (j ) (t) = 0,

j =0

für alle t ∈ J , da v(t) eine Lösung von (3.15) ist. Außerdem ist cn (t) = v(t) = 0! Die Funktion ϕ(t) löst also die Differentialgleichung 0=

n 

ck (t)ϕ (k) (t).

(3.16)

k=1

Mittels ψ = ϕ, ˙ k ∈ {1, . . . , n} erhält man so eine Differentialgleichung der Ordnung (n − 1) für die Funktion ψ. Hat man (n − 1) linear unabhängige Lösungen ϕ˙1 (t), . . . , ϕ˙n−1 (t) von (3.16) bestimmt, so bilden die n Funktionen v(t) und v(t)ϕk (t), k = 1, . . . , n − 1, ein Fundamentalsystem für die Differentialgleichung (3.15). Denn aus b0 v(t) + b1 v(t)ϕ1 (t) + · · · + bn−1 v(t)ϕn−1 (t) = 0 folgt

3.4 Lineare Gleichungen höherer Ordnung

69

b0 + b1 ϕ1 (t) + · · · + bn−1 ϕn−1 (t) = 0 da v(t) = 0 für alle t ∈ J . Differenziert man diese Gleichung, so erhält man b1 ϕ˙1 (t) + · · · + bn−1 ϕ˙n−1 (t) = 0 und daher gilt b1 = . . . = bn−1 = 0, also auch b0 = 0. Von speziellem Interesse ist der Fall n = 2; wir können dann a2 = 1 annehmen. Mit c0 = 0, c2 = v und c1 = a1 v + 2a2 v˙ erhalten wir die folgende Gleichung für ψ: ˙ = 0, ψ˙ + [a1 (t) + 2a2 (t)v(t)/v(t)]ψ(t) deren Lösung durch  ψ(t) = exp(−

t

[a1 (s) + 2a2 (s)v(s)/v(s)]ds), ˙

t ∈ J,

t0

gegeben ist. Beispiel. x¨ − (cos t)x˙ + (sin t)x = 0.

(3.17)

Eine Lösung ist gegeben durch v(t) = esin t . Wir bestimmen nun die Koeffizienten c1 (t) und c2 (t). Es gilt c1 (t) = a1 (t)v(t) + 2a2 (t)v(t) ˙ = −(cos t)esin t + 2(cos t)esin t = (cos t)esin t , und c2 (t) = a2 (t)v(t) = esin t . Wir müssen also die Differentialgleichung 0 = (cos t)esin t ϕ˙ + esin t ϕ¨

bzw.

0 = (cos t)ϕ˙ + ϕ¨

lösen. Mit der Transformation ψ = ϕ˙ und ψ˙ = ϕ¨ erhalten wir die homogene Differentialgleichung erster Ordnung ψ˙ + (cos t)ψ = 0. Das Prinzip der Trennung der Variablen liefert die spezielle Lösung ψ(t) = e− sin t . Damit bildet zum Beispiel ) (  t  esin t , e− sin s ds esin t t0

ein Fundamentalsystem für (3.17).

70

3.4.2

3 Lineare Systeme

Variation der Konstanten

Wie im Fall n = 1 lässt sich die allgemeine Lösung von (3.14) darstellen als Summe der allgemeinen Lösung der homogenen Differentialgleichung (3.15) und einer speziellen Lösung der inhomogenen Differentialgleichung (3.14). Das Ziel ist es, eine spezielle Lösung von (3.14) in Abhängigkeit von der Funktion b(t) anzugeben. Sei {x1 (t), . . . , xn (t)} ein Fundamentalsystem für (3.15). Dann ist ⎡

x1 (t) x˙1 (t) .. .

... ...

xn (t) x˙n (t) .. .



⎢ ⎥ ⎢ ⎥ ⎥ Y (t) = ⎢ ⎢ ⎥ ⎣ ⎦ (n−1) (n−1) (t) . . . xn (t) x1 ein Fundamentalsystem für das äquivalente System erster Ordnung u˙ = A(t)u. Nach Abschn. 3.2 ist  u∗ (t) = Y (t)

t

Y −1 (s)f (s) ds

t0

eine spezielle Lösung der inhomogenen Differentialgleichung u˙ = A(t)u + f (t). Der Vektor z := Y −1 (s)f (s) löst das Gleichungssystem Y (s)z = f (s). Nach der Cramerschen Regel gilt zi = det Yi (s)/ det Y (s) mit ⎡

⎤ x1 (s) . . . xi−1 (s) 0 xi+1 (s) . . . xn (s) ⎢ ⎥ .. .. .. .. .. ⎥, Yi (s) = ⎢ . . . . . ⎣ ⎦ (n−1) (n−1) (n−1) (n−1) (s) . . . xi−1 (s) b(s) xi+1 (s) . . . xn (s) x1 für i ∈ {1, . . . , n}. Entwickelt man det Yi (s) nach der i-ten Spalte, so ergibt sich detYi (s)



⎤ x1 (s) . . . xi−1 (s) xi+1 (s) . . . xn (s) ⎢ ⎥ .. .. .. .. ⎥ = (−1)n+i b(s) det⎢ . . . . ⎣ ⎦ (n−2) (n−2) (n−2) (n−2) (s) . . . xi−1 (s) xi+1 (s) . . . xn (s) x1 =: ϕi (s)b(s).

Mit ϕ(s) = det Y (s) = 0 besitzt z also die Darstellung

3.4 Lineare Gleichungen höherer Ordnung

71

⎤ ϕ1 (s) ⎢ . ⎥ b(s) ⎥ z(s) = ⎢ ⎣ .. ⎦ ϕ(s) . ϕn (s) ⎡

Also ist x∗ (t) =

n 



t

xi (t)

b(s) t0

i=1

ϕi (s) ds ϕ(s)

eine spezielle Lösung der inhomogenen Gl. (3.14), denn wir benötigen nur die erste Komponente von u∗ (t). Im besonders wichtigen Fall n = 2 ergibt sich für die Wronski-Determinate ϕ(t) = x1 (t)x˙2 (t) − x2 (t)x˙1 (t) und ϕ1 (t) = −x2 (t), ϕ2 (t) = x1 (t). Daher ist eine partikuläre Lösung durch  x∗ (t) = −x1 (t)

t

t0

x2 (s)b(s) ds + x2 (t) ϕ(s)



t

t0

x1 (s)b(s) ds, ϕ(s)

t ∈ J,

gegeben. Beispiel. x¨ + x = sin t, t0 = 0. x1 (t) = cos t und x2 (t) = sin t sind offenbar Lösungen der homogenen Gleichung x¨ + x = 0. Dann ist 



cos t sin t Y (t) = − sin t cos t eine FM, denn ϕ(t) = det Y (t) = cos2 t + sin2 t = 1, für alle t ∈ R. Die Berechnung von ϕ1 (t) bzw. ϕ2 (t) ist hier besonders einfach, denn: ϕ1 (t) = − sin t bzw. ϕ2 (t) = cos t. Damit erhält man die spezielle Lösung  x∗ (t) = − cos t

t 0



t

sin2 s ds + sin t 0

1 sin s cos s ds = − (t cos t − sin t). 2

72

3.4.3

3 Lineare Systeme

Konstante Koeffizienten

Sei nun aj (t) ≡ aj ∈ R und sei an = 1. In diesem Fall kann man den Exponentialansatz x(t) = eλt , λ ∈ C, direkt verwenden, um ein Fundamentalsystem für die Differentialgleichung x (n) +

n−1 

aj x (j ) = 0,

(3.18)

j =0

zu bestimmen. Es gilt x (k) (t) = λk eλt . Dann löst x(t) = eλt die Differentialgleichung (3.18) genau dann, wenn ⎛ eλt ⎝

n 

⎞ aj λj ⎠ = 0

j =0

gilt, also genau dann, wenn λ eine Nullstelle des charakteristischen Polynoms p(λ) =

n 

aj λj

(3.19)

j =0

ist. Hier ist also das charakteristische Polynom direkt aus der Gleichung ablesbar. Proposition 3.4.1. Ist λk eine Nullstelle des charakteristischen Polynoms (3.19) von der Vielfachheit νk , so bilden {eλk t , teλk t , . . . , t νk −1 eλk t } νk linear unabhängige Lösungen von (3.18). Beweis. Die lineare Unabhängigkeit ist klar, da die Monome t j linear unabhängig sind. Man muss nur noch zeigen, dass eine Funktion der Form y(t) = t l eλk t , l ∈ {0, . . . , νk − 1} eine Lösung von (3.18) ist. Das stimmt offenbar für l = 0. Ferner gilt j

j

j

∂t (t l eλt ) = ∂t ∂λl (eλt ) = ∂λl ∂t (eλt ) = ∂λl (λj eλt ), folglich y (j ) (t) = ∂λl (λj eλt )|λ=λk . Setzt man dies in die Differentialgleichung (3.18) ein, so ergibt sich

3.4 Lineare Gleichungen höherer Ordnung n  j =0

aj y (j ) (t) =

n 

73

aj ∂λl (λj eλt )|λ=λk

j =0

⎡⎛ ⎞ ⎤ n    = ∂λl ⎣⎝ aj λj ⎠ eλt ⎦  j =0

λ=λk

* + = ∂λl p(λ)eλt |λ=λk .

Aus der Formel von Leibniz folgt l  * + * l + (j ) l−j λk t ∂λl p(λ)eλt |λ=λk = e = 0, l ∈ {0, . . . , νk − 1}, j p (λk )t j =0

denn wegen der Vielfachheit von λk ist p(j ) (λk ) = 0 für j ∈ {0, . . . , l}, l ∈  {0, . . . , νk − 1}. Satz 3.4.2. Seien λ1 , . . . , λm die paarweise verschiedenen Nullstellen von p(λ). Dann bildet {eλj t , teλj t , . . . , t νj −1 eλj t , j = 1, . . . , m} ein komplexes Fundamentalsystem für (3.18), wobei νj die Vielfachheit von λj angibt. Sind alle Koeffizienten aj reell, so ignoriere man alle Eigenwerte mit negativem Imaginärteil, und bilde Real- und Imaginärteile der verbleibenden Lösungen. Diese bilden dann ein reelles Fundamentalsystem. Beweis. Im komplexen Fall verwende man die Eulersche Formel und spalte die komplexe Lösung in Real- und Imaginärteil auf. Sei q(t) :=

m 

qj (t)eλj t

j =1

eine Linearkombination der n Lösungen aus Satz 3.4.2, wobei die qj (t) Polynome der Ordnung ≤ νj − 1 mit Koeffizienten aus C sind. Wir zeigen per vollständiger Induktion, dass q(t) ≡ 0 genau dann gilt, wenn alle qj (t) ≡ 0 sind. Offenbar ist das für m = 1 der Fall. Angenommen unsere Behauptung sei für ein m > 1 bewiesen. Multipliziere nun 0≡

m  j =1

mit e−λt :

qj (t)eλj t + q(t)eλt , λ = λj

74

3 Lineare Systeme

0≡

m 

qj (t)eμj t + q(t), μj = λj − λ = 0.

j =1

Differenziert man diese Gleichung so oft, bis q(t) verschwindet, so ergibt sich 0≡

m 

rj (t)eμj t ,

j =1

mit gewissen Polynomen rj (t). Aus der Induktionsvoraussetzung folgt rj (t) ≡ 0 für alle j = 1, . . . , m, da die μj paarweise verschieden sind. Dann müssen aber auch alle qj (t) ≡ 0 sein, denn nach der Produktregel gilt für ein Polynom p(t) + d * p(t)eμt = (p(t) ˙ + μp(t))eμt = r(t)eμt , dt wobei r(t) wieder ein Polynom ist mit der gleichen Ordnung wie p(t). Somit ist auch q(t) ≡ 0 und wir haben die lineare Unabhängigkeit der n Lösungen. 

Beispiele. (a) Bernoulli-Balken. Die Biegung eines Balkens kann im einfachsten Fall nach Skalierung durch die Differentialgleichung x (4) + x = f (t),

t ∈ J,

modelliert werden. Dabei ist x(t) die vertikale Auslenkung des Balkens am Ort t und f (t) beschreibt eine Lastkraft (Abb. 3.1). Dies ist eine lineare Differentialgleichung 4. Ordnung, für die wir mit Hilfe des Exponentialansatzes ein Fundamentalsystem bestimmen können. Die Eigenwertgleichung lautet dann λ4√+ 1 =√0. Diese √ besitzt die vier komplexen Nullstellen λ = ± ±i = ±( 12 2 ± 2i 2). Wie gewohnt vernachlässigen wir die konjugiert komplexen Eigenwerte und erhalten somit f

Abb. 3.1 Bernoulli-Balken

t=0

t

t=l

3.4 Lineare Gleichungen höherer Ordnung

75

√ √ λ1 = (1 + i)/ 2 sowie λ2 = −(1 + i)/ 2. Ein reelles Fundamentalsystem ist dann gegeben durch , √ √ √ √ √ √ √ √ et/ 2 cos(t/ 2), et/ 2 sin(t/ 2), e−t/ 2 cos(t/ 2), e−t/ 2 sin(t/ 2) . Eine spezielle Lösung der inhomogenen Gleichung findet man zum Beispiel mittels Variation der Konstanten, wie in Abschn. 3.4.2. Das nächste Beispiel ist ein zweidimensionales System 2. Ordnung, und soll zeigen, dass sich die Eigenwertmethode, also ein Exponential-Ansatz auch auf solche Probleme anwenden lässt. (b) Das gefederte Doppelpendel. Wir betrachten hier den Fall gleicher Massen, gleicher Pendellängen, und kleiner Auslenkungen, da man dann lineare Näherungen verwenden kann. Das entsprechende System lautet ⎧ ⎨mx¨ ⎩my¨

= − mg l x + k(y − x), = − mg l y + k(x − y),

wobei m die Masse, l die Länge der Pendel und k die Federkonstante sind (vgl. Abb. 3.2). Wir vereinfachen weiter, indem wir m = l = 1 setzen:

(DP )

⎧ ⎨x¨

= −gx + k(y − x),

⎩y¨

= −gy + k(x − y).

Das Ziel ist es, ein Fundamentalsystem für (DP) zu bestimmen. Dazu wählen wir die Ansätze x(t) = aeλt und y(t) = beλt ; hier ist dasselbe λ zu verwenden, a, b hingegen

Abb. 3.2 Gefedertes Doppelpendel

l

l

m

x(t)

m

y(t)

76

3 Lineare Systeme

dürfen unterschiedlich sein. Dann erhält man die beiden Gleichungen [(λ2 + g + k)a − kb]eλt = 0 bzw. [(λ2 + g + k)b − ka]eλt = 0, oder in Matrix-Vektor-Notation: 

−k λ2 + g + k 2 −k λ +g+k

  a = 0. b

Die Eigenwertgleichung für (DP) lautet (λ2 + g + k)2 − k 2 = 0. Diese erhält man auch, wenn man (DP) auf ein 4 × 4-System 1. Ordnung transformiert und dann das charakteristische Polynom berechnet. Die Eigenwertgleichung ist gerade gleich der Determinante der obigen Matrix. Wir berechnen daher diejenigen Werte von λ, für die das Gleichungssystem nicht eindeutig lösbar ist. Es gilt also ⎧ ⎨−g, λ2 = −g − k ± k = ⎩−g − 2k. √ Es ergeben sich insgesamt 4 rein imaginäre Eigenwerte, nämlich λ1 = i g, √ λ2 = i g + 2k und jeweils die konjugiert komplexen Eigenwerte, die wir jedoch vernachlässigen. Um zugehörige Eigenvektoren [a, b]T zu erhalten, wähle man z. B. a = k und b = λ2j + g + k, j = 1, 2. Wir erhalten so die beiden Lösungen   / .  1 1 λ1 t λ2 t . e e , −1 1 Nach Satz 3.4.2 gewinnen wir daraus das reelle Fundamentalsystem       / .  0 0 √ √ 1 1 1 1 sin(t g), cos(t g + 2k), sin(t g + 2k) . cos(t g), 1 −1 −1 1 Die allgemeine Lösung ist also eine Linearkombination der Form 0 0 √ √ x(t) = α cos(t g) + β sin(t g) + γ cos(t g + 2k) + δ sin(t g + 2k), 0 0 √ √ y(t) = α cos(t g) + β sin(t g) − γ cos(t g + 2k) − δ sin( g + 2k). Schließlich soll noch die Anfangswertaufgabe x(0) = y(0) = 0, x(0) ˙ = 1 und y(0) ˙ = 0 gelöst werden. Aus den ersten beiden Bedingungen folgt α = γ = 0. 1 . Den resultierenden Die anderen beiden liefern β = 2√1 g und δ = 2√g+2k Bewegungsvorgang nennt man eine quasiperiodische Schwingung mit den Frequenzen √ √ g und g + 2k.

Übungen

77

Übungen 3.1 Bestimmen Sie reelle Fundamentalsysteme für x˙ = Ai x, wobei die Matrizen Ai durch ⎤ ⎤ ⎡ ⎡ −1 1 −1 3 −3 2 ⎥ ⎥ ⎢ ⎢ A2 = ⎣ −1 5 −2 ⎦ (3.20) A1 = ⎣ 2 −1 2 ⎦ 2 2 −1 −1 3 0 ⎤ ⎡   −6 4 1 6 −17 ⎥ ⎢ A3 = ⎣ −12 8 2 ⎦ A4 = (3.21) 1 −2 −8 4 2 gegeben sind. 3.2 Lösen Sie das folgende Anfangswertproblem:  x˙ =

   1/t −1/t 2 1 x+ , 2 −1/t t

  1 x(1) = . 1

3.3 Bestimmen Sie sämtliche Lösungen des Systems  x˙ =

  2 3t − 1 1 − t tet . x+ 2 t +2 t −2 et

Tipp: Das homogene System besitzt eine nichttriviale Lösung mit x1 ≡ x2 . 3.4 Es seien A, B, C n × n-Matrizen. Man zeige, dass die Matrixfunktion exp(A) die folgenden Eigenschaften hat: 1. exp (A(t + s)) = exp (At) exp (As), für alle t, s ∈ R, exp (A0) = I ; 2. exp (A) ist invertierbar; man berechne [exp (A)]−1 ; 3. Ist C invertierbar so gilt C −1 exp (A)C = exp (C −1 AC); 4. exp (A + B) = exp (A) exp (B) ist i.a. falsch; geben Sie ein Gegenbeispiel an. t 3.5 Zeigen Sie, dass die Matrixfunktion e 0 A(s)ds im Allgemeinen kein Fundamentalsystem für x˙ = A(t)x ist. Unter welchen Bedingungen ist sie eins? 3.6 Bestimmen Sie ein Fundamentalsystem für die DGL x (3) − 3x˙ + 2x = 0, und suchen Sie eine spezielle Lösung der inhomogenen Gleichung x (3) − 3x˙ + 2x = 9et

78

3 Lineare Systeme

(a) mittels Variation der Konstanten (b) mit einem Ansatz der Form x(t) = p(t)et , p ein Polynom. 3.7 In drei Fässern (nummeriert mit 1, 2, 3) befinden sich je 100 Liter Wasser. Im Fass 1 sei 1 kg Salz gelöst, während Fässer 2 und 3 kein Salz enthalten. Mit drei Pumpen werde mit einer Rate von 1 l/min Wasser von Fass 1 in Fass 2, von Fass 2 in Fass 3 und von Fass 3 in Fass 1 gepumpt. Unter der Voraussetzung, dass in jedem der Fässer stets eine homogene Mischung vorliegt, ermittle man, wieviel Salz sich zu jedem Zeitpunkt in jedem der drei Fässer befindet. 3.8 Es sei A eine n × n-Matrix und ω > s(A) := maxi {Reλi }, wobei λi die Eigenwerte von A bezeichnen. Zeigen Sie, dass es eine Konstante M = M(ω) > 0 gibt, sodass | exp At| ≤ M(ω)eωt

für alle t ≥ 0

gilt. Diese Behauptung ist i. Allg. falsch für ω ≤ s(A); Gegenbeispiel? 3.9 Bestimmen Sie ein Fundamentalsystem für die DGL vom Eulerschen Typ 2t 3 x (3) + 10t 2 x¨ − 4t x˙ − 20x = 0. Tipp: Substituieren Sie t = es . 3.10 Sei A eine n × n-Matrix. Beweisen Sie die Spektralradiusformel r(A) = lim sup |Ak |1/k , k→∞

und zeigen Sie r(eA ) = es(A) .

4

Stetige und differenzierbare Abhängigkeit

Es sei G ⊂ Rn+1 offen, f : G → Rn stetig und lokal Lipschitz in x. Wir betrachten das folgende Anfangswertproblem für ein System von Differentialgleichungen erster Ordnung ⎧ ⎨x˙ = f (t, x), ⎩x(t0 ) = x0 ,

(t0 , x0 ) ∈ G.

(4.1)

In diesem Abschnitt untersuchen wir die Abhängigkeit der Lösungen von den Daten, also von t0 , x0 , und f , hinsichtlich Stetigkeit und Differenzierbarkeit.

4.1

Stetige Abhängigkeit

Gegeben sei die Lösung x(t) von (4.1) auf ihrem maximalen Existenzintervall (t− , t+ ). Es bezeichne graphJ (x) := {(t, x(t)) : t ∈ J } ⊂ G, wobei J = [a, b] ⊂ (t− , t+ ) ein kompaktes Teilintervall mit t0 ∈ (a, b) ist. Definition 4.1.1. Die gegebene Lösung x(t) heißt stetig abhängig von (t0 , x0 , f ), falls es zu jedem kompakten Intervall J ⊂ (t− , t+ ) eine kompakte Umgebung K ⊂ G von graphJ (x) gibt, sodass gilt: Zu jedem ε > 0 existiert ein δ > 0 derart, dass die Lösung y(t) des Anfangswertproblems y˙ = g(t, y), y(τ0 ) = y0 , für alle t ∈ [a, b] existiert und der Ungleichung |x(t) − y(t)| ≤ ε,

für alle t ∈ [a, b]

genügt, sofern g : G → Rn stetig, lokal Lipschitz in x, und

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_4

79

80

4 Stetige und differenzierbare Abhängigkeit

|τ0 − t0 | ≤ δ, |x0 − y0 | ≤ δ,

sup |f (s, z) − g(s, z)| ≤ δ (s,z)∈K

erfüllt ist. Damit können wir das Hauptresultat dieses Abschnittes formulieren. Satz 4.1.2. Sei G ⊂ Rn+1 offen mit (t0 , x0 ) ∈ G, f : G → Rn stetig und lokal Lipschitz in x. Dann hängt die Lösung x(t) von (4.1) stetig von den Daten (t0 , x0 , f ) ab. Beweis. Sei y(t) die Lösung des Anfangswertproblems y˙ = g(t, y), y(τ0 ) = y0 auf ihrem maximalen Existenzintervall (τ− , τ+ )  t0 . Wie in Kap. 2 schreiben wir die Anfangswertprobleme für x(t) und y(t) als äquivalente Integralgleichungen 



t

x(t) = x0 +

f (s, x(s)) ds

y(t) = y0 +

t0

t

g(s, y(s)) ds. τ0

Dann gilt  



g(s, y(s)) ds 

f (s, x(s)) ds +

τ0 t0

 f (s, x(s)) ds +

τ0 t

t

τ0

t0

= x0 − y0 − +

f (s, x(s)) ds −

t0

= x0 − y0 − 



t

x(t) − y(t) = x0 − y0 +

t

[f (s, x(s)) − g(s, y(s))] ds

τ0 t

(4.2) [f (s, x(s)) − f (s, y(s))] ds

τ0

[f (s, y(s)) − g(s, y(s))] ds.

τ0

Wähle α > 0 und η > 0, sodass die kompakte Menge K := {(t, y) : t ∈ [a − η, b + η], |x(t) − y| ≤ α} die Inklusion K ⊂ G erfüllt, wobei η so klein ist, dass außerdem [a − η, b + η] ⊂ (t− , t+ ) gilt. Dann ist f |K global Lipschitz in x mit einer Konstanten L > 0. Gilt |τ0 − t0 |, |y0 − x0 | ≤ δ < min{α, η}, so ist (τ0 , y0 ) ∈ K. Es sei sup{|f (t, x) − g(t, x)| : (t, x) ∈ K} ≤ δ, und wir setzen M := sup{|f (t, x)| : (t, x) ∈ K}. Aus (4.2) und der Dreiecksungleichung folgt für t ∈ [τ0 , min{b, τ+ }) mit (s, y(s)) ∈ K, τ0 ≤ s ≤ t  |x(t) − y(t)| ≤ |x0 − y0 | + M|t0 − τ0 | + δ(b − a + 2η) + L  ≤ Cδ + L

t

|x(s) − y(s)|ds

τ0 t τ0

|x(s) − y(s)|ds,

(4.3)

4.1 Stetige Abhängigkeit

81

mit C = 1+M +b−a +2η. Das Lemma von Gronwall 2.4.1 liefert somit die Abschätzung |x(t) − y(t)| ≤ δCeL(t−τ0 ) ,

(4.4)

solange (t, y(t)) ∈ K gilt. Wähle δ > 0 hinreichend klein, sodass die rechte Seite von (4.4) < α ist. Angenommen es existiert ein erstes t∗ ∈ [τ0 , min{b, τ+ }) mit |x(t∗ ) − y(t∗ )| = α. Wegen (t∗ , y(t∗ )) ∈ K folgt aus (4.4) jedoch |x(t∗ )−y(t∗ )| < α, ein Widerspruch. Ebenso argumentiert man nach links. Der Graph der Lösung y(t) kann die Menge K also nicht verlassen, und nach dem Fortsetzungssatz existiert die Lösung y(t) daher auf [a, b], und erfüllt dort (t, y(t)) ∈ K. Ist nun ein 0 < ε ≤ α gegeben, so wähle δ > 0 klein genug, damit die rechte Seite von (4.4) ≤ ε ist.  Bemerkungen 4.1.3. 1. Ist eine Lösung x(t) des Anfangswertproblems (4.1) stetig von den Daten abhängig, so ist sie auch eindeutig. Sei nämlich t0 = τ0 , x0 = y0 und f = g. Ist y(t) eine weitere Lösung von (4.1), so folgt aus der stetigen Abhängigkeit |x(t) − y(t)| ≤ ε. Da ε > 0 beliebig ist, gilt x(t) ≡ y(t); 2. Die lokale Lipschitz-Eigenschaft für g wurde nur verwendet, um die Existenz und Fortsetzbarkeit der Lösung von y˙ = g(t, y), y(τ0 ) = y0 sicherzustellen. Es genügt g stetig vorauszusetzen, falls man den Existenzsatz von Peano verwendet; vgl. Kap. 6. 3. Die lokale Lipschitz-Bedingung von f kann weggelassen werden, falls man fordert, dass x(t) die eindeutige Lösung von (4.1) ist. Jedoch braucht man für den Beweis den Existenzsatz von Peano; vgl. Kap. 6. Eine alternative Formulierung der stetigen Abhängigkeit mittels Folgen lautet: Korollar 4.1.4. Sei G ⊂ Rn+1 offen, (t0 , x0 ) ∈ G, f, fn : G → Rn stetig und lokal Lipschitz in x und es sei x(t) die Lösung von (4.1) auf dem maximalen Existenzintervall (t− , t+ ). Es gelte tn → t0 , xn0 → x0 und fn (t, x) → f (t, x), gleichmäßig auf kompakten Teilmengen von G. Sei [a, b] ⊂ (t− , t+ ). Dann besitzt das Anfangswertproblem x˙n = fn (t, xn ),

xn (tn ) = xn0 , t ∈ [a, b],

für hinreichend großes n genau eine Lösung auf [a, b], und es gilt xn (t) → x(t), gleichmäßig auf [a, b].

82

4 Stetige und differenzierbare Abhängigkeit

Beispiel (Volterra–Lotka-Modell). ⎧ ⎪ ⎪ ⎨x˙ = ax − bxy, y˙ = −dy + cxy, ⎪ ⎪ ⎩ x(0) = x0 , y(0) = y0 ,

x0 , y0 > 0, a, b, c, d > 0.

Nach Kap. 2 existiert die eindeutige globale Lösung     x(t) x(t; x0 , y0 , a, b, c, d) = y(t; x0 , y0 , a, b, c, d) y(t) des Volterra–Lotka-Modells. Die Funktion 

ax − bxy f (x, y, a, b, c, d) = −dy + cxy



ist lokal Lipschitz in (x, y) ∈ R2 . Nach Satz 4.1.2 hängen die Lösungen stetig von den Daten (x0 , y0 , f ), also von (x0 , y0 , a, b, c, d) ab, da f stetig bezüglich (a, b, c, d) ist.

4.2

Anwendungen

Der Satz über stetige Abhängigkeit hat viele wichtige Konsequenzen, nicht nur in der Theorie gewöhnlicher Differentialgleichungen, aber auch in anderen Bereichen der Analysis. Hier soll dieser Satz mit drei Anwendungen illustriert werden.

4.2.1

Differentialungleichungen

In Lemma 2.4.2 hatten wir strikte Differentialungleichungen behandelt. Wir wollen in diesem Resultat die strikten Ungleichungen abschwächen. Lemma 4.2.1. Sei u : J × R → R stetig und lokal Lipschitz in x, J = [t0 , t1 ]. ρ ∈ ˙ ≤ u(t, ρ(t)), t ∈ J mit ρ(t0 ) ≤ ϕ0 . C 1 (J, R) erfülle die Differentialungleichung ρ(t) Weiter sei ϕ ∈ C 1 (J, R) die Lösung von ⎧ ⎨ϕ˙ = u(t, ϕ), ⎩ϕ(t0 ) = ϕ0 , die auf J existiere. Dann gilt ρ(t) ≤ ϕ(t) für alle t ∈ J .

4.2 Anwendungen

83

Beweis. Setze un (t, x) := u(t, x) + 1/n. Sei ϕn (t) die Lösung von ⎧ ⎨ϕ˙ = u (t, ϕ ), n n n ⎩ϕn (t0 ) = ϕ0 + 1/n. Dann gilt ρ(t) ˙ ≤ u(t, ρ(t)) < u(t, ρ(t)) + 1/n und ρ(t0 ) ≤ ϕ0 < ϕ0 + 1/n. Aus Lemma 2.4.2 folgt also ρ(t) < ϕn (t), für alle n ∈ N, t ∈ J.

(4.5)

Nach Satz 4.1.2 ist die Lösung ϕ stetig von den Daten abhängig, also folgt aus Korollar 4.1.4 ϕn (t) → ϕ(t) gleichmäßig auf J und (4.5) liefert ρ(t) ≤ ϕ(t), für alle t ∈ J .

4.2.2



Positivität von Lösungen

Sei f : R × Rn → R stetig und lokal Lipschitz in x und x(t) sei die Lösung von (4.1). Wir gehen der Frage nach, unter welchen Bedingungen die Vorgabe der Anfangswerte x0j ≥ 0, j = 1, . . . , n die Nichtnegativität von xj (t), j = 1, . . . , n, t ≥ t0 , mit x(t) = [x1 (t), x2 (t), . . . , xn (t)]T ∈ Rn impliziert. Diese Frage ist in Anwendungen von Bedeutung, da z. B. Variable wie Konzentrationen oder Populationsgrößen nichtnegativ sein müssen. Entsprechende Modelle müssen daher positivitätserhaltend sein. Offensichtlich ist dafür zunächst die folgende Bedingung notwendig. Existiert ein k ∈ {1, . . . , n}, mit x0k = 0, so gilt 0 ≤ x˙k (t0 ) = fk (t0 , x0 ), denn sonst wäre xk (t) < 0 für t ∈ (t0 , t0 + δ), für ein hinreichend kleines δ > 0. Daher formulieren wir die Positivitätsbedingung wie folgt. ⎧ ⎨Sei x ∈ Rn und x ≥ 0, j = 1, . . . , n. j (P ) ⎩Für jedes k ∈ {1, . . . , n}, t ≥ t0 und xk = 0 gilt fk (t, x) ≥ 0. Funktionen, die (P) erfüllen, heißen quasipositiv. Zum Verständnis dazu einige Beispiele. (a) Volterra–Lotka-Modell

84

4 Stetige und differenzierbare Abhängigkeit

⎧ ⎪ ⎪ ⎨x˙ = ax − bxy, y˙ = −dy + cxy, ⎪ ⎪ ⎩ x(t0 ) = x0 ≥ 0, y(t0 ) = y0 ≥ 0, wobei die Konstanten a, b, c, d nichtnegativ sind. Seien x, y ≥ 0. Für x = 0 bzw. y = 0 gelten f1 (0, y) = 0 bzw. f2 (x, 0) = 0. Damit ist die Positivitätsbedingung (P) erfüllt. (b) Chemische Kinetik. Wir greifen ein Beispiel aus der chemischen Kinetik aus Kap. 1 auf, nämlich die Gleichgewichtsreaktion c˙A = −k+ cA cB + k− cP ,

0 cA (0) = cA ,

c˙B = −k+ cA cB + k− cP ,

cB (0) = cB0 ,

c˙P = k+ cA cB − k− cP ,

cP (0) = cP0 .

(4.6)

Dabei gilt für die Reaktionskonstanten k− , k+ > 0. Damit verifiziert man leicht, dass die Positivitätsbedingung (P) erfüllt ist. Dass die Positivitätsbedingung (P) tatsächlich die Nichtnegativität der einzelnen Komponenten xj (t) der Lösung x(t) liefert, zeigt uns der folgende Satz 4.2.2. Sei f : R × Rn → Rn stetig und lokal Lipschitz in x und es sei f quasipositiv. Ist x(t) die Lösung von (4.1), und gilt x0j ≥ 0 für alle j ∈ {1, . . . , n}, so folgt xj (t) ≥ 0 für alle t ∈ [t0 , t+ ), dem maximalen Existenzintervall der Lösung nach rechts. Beweis. Sei e := [1, . . . , 1]T ∈ Rn und x m (t) sei die Lösung von ⎧ ⎨x˙ m = f (t, x m ) + e/m =: f m (t, x), ⎩x m (t0 ) = x0 + e/m =: x m ,

x0mj > 0, m ∈ N.

0

Da f nach Voraussetzung stetig und lokal Lipschitz in x ist und aufgrund von f m (t, x) → f (t, x) gleichmäßig auf kompakten Teilmengen von R × Rn , x0m → x0 , folgt aus Korollar 4.1.4 die gleichmäßige Konvergenz x m (t) → x(t) auf kompakten Teilmengen des Existenzintervalls von x(t). Sei t1 > t0 das erste t, für das ein Komponente von x m (t) verschwindet, also z. B. m xk (t1 ) = 0. Dann gilt einerseits x˙km (t1 ) ≤ 0, aber andererseits x˙km (t1 ) = fk (t1 , x m (t1 )) + 1/m ≥ 1/m > 0,

4.2 Anwendungen

85

denn aus der Positivitätsbedingung (P) folgt fk (t1 , x m (t1 )) ≥ 0, da alle Komponenten von x m (t) nichtnegativ sind, also ein Widerspruch. Es gilt also xkm (t) > 0 für alle k ∈ {1, . . . n} und m ∈ N, und für alle t ≥ t0 für welche die Lösung x m (t) existiert. Der Grenzübergang m → ∞ liefert somit xj (t) ≥ 0 für alle j ∈ {1, . . . , n} und alle t im maximalen Existenzintervall der Lösung nach rechts. 

4.2.3

Periodische Lösungen

Sei f : R × Rn → Rn stetig und lokal Lipschitz in x, sowie τ -periodisch in t, das heißt f (t + τ, x) = f (t, x), für alle t ∈ R, x ∈ Rn . Es stellt sich die Frage, ob es dann auch τ -periodische Lösungen der Differentialgleichung x˙ = f (t, x) gibt. Leider ist das im Allgemeinen nicht der Fall, wie das folgende Beispiel zeigt. Beispiel. ⎧ ⎨x¨ + x = cos t, ⎩x(0) = x0 , x(0) ˙ = x1 .

(4.7)

Offensichtlich ist das dazugehörige System 1. Ordnung 2π -periodisch. Ein Fundamentalsystem für die homogene Gleichung x¨ + x = 0 lautet 

 cos t sin t X(t) = . − sin t cos t Mit Hilfe der Methode der Variation der Konstanten erhalten wir eine spezielle Lösung von (4.7), nämlich  x∗ (t) = cos t

0

t

 cos(s) sin(s) ds + sin t

t

cos2 (s) ds = (t/2) sin t.

0

Die eindeutige Lösung des Anfangswertproblems (4.7) lautet also x(t) = x0 cos t + x1 sin t + t/2 sin t, welche offensichtlich nicht 2π -periodisch ist. Wir suchen eine Lösung der Differentialgleichung x˙ = f (t, x) mit x(t + τ ) = x(t). Dazu betrachten wir das äquivalente periodische Randwertproblem

86

4 Stetige und differenzierbare Abhängigkeit

⎧ ⎨x˙ = f (t, x), ⎩x(0) = x(τ ),

t ∈ [0, τ ].

(4.8)

Sei x(t) Lösung von (4.8) und sei f τ -periodisch in t. Dann ist die periodische Fortsetzung x(t) ˜ von x(t) auf R eine periodische Lösung. Wir behandeln dieses Randwertproblem, indem wir es auf ein Fixpunktproblem zurückführen. Es sei y(t, z) Lösung des Anfangswertproblems ⎧ ⎨y˙ = f (t, y) ⎩y(0) = z

(4.9)

und wir definieren eine Abbildung T : Rn → Rn durch T z := y(τ, z), die sogenannte Poincaré- oder Periodenabbildung. z∗ ist genau dann ein Fixpunkt von T – es gilt also T z∗ = z∗ –, wenn y(τ, z∗ ) = z∗ = y(0, z∗ ) ist. Jedoch bleiben einige Probleme zu klären: 1. Existiert die Lösung y(t) von (4.9) auf dem ganzen Intervall [0, τ ]? 2. Ist der Operator T stetig? Offenbar ja, hier geht der Satz 4.1.2 über stetige Abhängigkeit ein. 3. Wir benötigen einen geeigneten Fixpunktsatz. Der Fixpunktsatz von Banach ist hier eher ungeeignet, da er nur unter starken Voraussetzungen über f anwendbar ist. Stattdessen werden wir den Fixpunktsatz von Brouwer verwenden, der hier jedoch nicht bewiesen wird. Satz 4.2.3 (Fixpunktsatz von Brouwer). Sei D ⊂ Rn abgeschlossen, beschränkt, konvex, und T : D → D stetig. Dann besitzt T mindestens einen Fixpunkt in D. Sei D = B¯ R (0) die abgeschlossene Kugel um den Nullpunkt mit Radius R. Dann ist D abgeschlossen, beschränkt und konvex. Satz 4.2.4. Sei f : R × Rn → Rn stetig, lokal Lipschitz in x und τ -periodisch in t. Außerdem gelte (f (t, x)|x) ≤ 0,

für alle |x|2 = R, t ∈ [0, τ ].

(4.10)

Dann besitzt die Differentialgleichung x˙ = f (t, x) mindestens eine τ -periodische Lösung x∗ (t) auf R. Beweis. Sei k ∈ N. Setze fk (t, x) := f (t, x) − x/k und sei Tk : B¯ R (0) → Rn definiert durch Tk z := yk (τ, z), wobei yk (t, z), t ∈ [0, τ ], die Lösung des Anfangswertproblems

4.2 Anwendungen

87

⎧ ⎨y˙ = f (t, y ), k k k ⎩yk (0) = z, ist. Wir wissen zwar jetzt noch nicht, dass yk global nach rechts existiert, aber dies wird im Weiteren bewiesen. Sei zunächst |z| < R. Dann gilt |yk (t, z)| < R, für alle t ∈ [0, τ ]. Denn angenommen die Behauptung ist falsch. Dann existiert ein erstes t∗ ∈ (0, τ ], mit |yk (t∗ , z)| = R und |yk (t, z)| < R für alle 0 ≤ t < t∗ . Daraus folgt  d  |yk (t, z)|22  ∗ ≥ 0. t=t dt Andererseits gilt d |yk (t, z)|2 = 2(y˙k (t, z)|yk (t, z)) = 2(fk (t, yk (t, z))|yk (t, z)) dt = 2(f (t, yk (t, z)) − yk (t, z)/k|yk (t, z)) = 2(f (t, yk (t, z))|yk (t, z)) − 2|yk (t, z)|22 /k, für alle t ∈ [0, τ ], also mit (4.10) 0≤

 |yk (t ∗ , z)|22 R2 d  |yk (t, z)|22  ∗ ≤ −2 = −2 < 0, t=t dt k k

für alle k ∈ N, ein Widerspruch. Die Lösung yk (t, z), t ∈ [0, τ ], erreicht also niemals den Rand der Kugel BR (0), falls |z| < R. Im Fall |z| = R gilt  d R2  |yk (t, z)|22  < 0, ≤ −2 t=0 dt k also |yk (t, z)| < R für kleine t > 0. Daher ist Tk : D → Rn nach dem Fortsetzungssatz wohldefiniert und eine Selbstabbildung, also Tk (D) ⊂ D. Da die Funktionen fk für alle k ∈ N stetig und lokal Lipschitz in x sind, ist die Abbildung Tk nach Satz 4.1.2 für jedes k ∈ N stetig. Nach Satz 4.2.3 existiert für jedes k ∈ N ein Fixpunkt zk∗ ∈ D von Tk . Daher gilt yk (0, zk∗ ) = yk (τ, zk∗ ), k ∈ N. Wegen zk∗ ∈ D für alle k ∈ N und aufgrund der Kompaktheit der Menge D existiert eine konvergente Teilfolge zk∗m → x0 ∈ D für m → ∞. Wir betrachten nun das Anfangswertproblem ⎧ ⎨y˙ = f (t, y), ⎩y(0) = x0 ,

t ∈ [0, τ ].

(4.11)

88

4 Stetige und differenzierbare Abhängigkeit

Da die Lösung y(t) von (4.11) nach Satz 4.1.2 stetig von den Daten abhängt, folgt aus Korollar 4.1.4 die gleichmäßige Konvergenz ykm (t) → y(t) auf [0, τ ], denn fkm (t, x) → f (t, x) gilt gleichmäßig auf [0, τ ] × D. Ferner ist y(0) = y(τ ), da y(τ ) = lim ykm (τ ) = lim ykm (0) = x0 = y(0). m→∞

m→∞

Die periodische Fortsetzung x∗ (t) von y(t) auf R ist die gesuchte τ -periodische Lösung von (4.11). 

4.3

Differenzierbarkeit der Lösungen nach Daten

4.3.1

Autonome Systeme

Wir untersuchen zunächst das autonome Anfangswertproblem ⎧ ⎨x˙ = f (x), ⎩x(0) = y,

(4.12)

mit f ∈ C 1 (G, Rn ), G ⊂ Rn offen und y ∈ G. Nach Proposition 2.1.5 und Satz 2.2.2 existiert eine eindeutig bestimmte Lösung x = x(t, y), x ∈ C 1 (Jy , Rn ) auf dem maximalen Existenzintervall Jy := [0, t+ (y)) nach rechts. Um die Frage der Differenzierbarkeit der Lösung x(t, y) nach dem Anfangswert y zu beantworten, differenziert man zunächst formal die Differentialgleichung (4.12) nach y mit dem Ergebnis ∂ ∂ x˙ (t, y) = ∂y ∂y



 ∂x ∂ ∂x (t, y) = f (x(t, y)) = f  (x(t, y)) (t, y). ∂t ∂y ∂y

Andererseits gilt formal ∂ x˙ ∂ (t, y) = ∂y ∂y



   ∂x ∂ ∂x (t, y) = (t, y) . ∂t ∂t ∂y

Daraus erhält man die lineare Differentialgleichung ∂ ∂t



 ∂x ∂x (t, y) = f  (x(t, y)) (t, y) ∂y ∂y

für die Ableitung der Lösung nach dem Anfangswert y. Aus x(0, y) = y folgt ferner ∂x ∂x  ∂y (0, y) = I . Mit A(t, y) := f (x(t, y)) ist die Funktion X = X(t, y) = ∂y (t, y) also eine Lösung des Anfangswertproblems

4.3 Differenzierbarkeit der Lösungen nach Daten

⎧ ⎨X˙ = A(t, y)X, ⎩X(0) = I.

89

t ∈ J = [0, a],

(4.13)

Der folgende Satz zeigt, dass diese formale Rechnung legitim ist. Satz 4.3.1. Sei G ⊂ Rn offen, f ∈ C 1 (G, Rn ) und x(t, y) sei die Lösung von (4.12) auf einem Intervall J = [0, a] ⊂ Jy . Dann ist die Abbildung (t, y) → x(t, y) stetig differenzierbar und X = X(t, y) = ∂x ∂y (t, y) erfüllt das Anfangswertproblem (4.13). Beweis. Sei y ∈ G fixiert und eine Kugel Bδ (y) ⊂ G um y mit Radius δ > 0 gegeben. Ferner sei h ∈ Rn mit |h| < δ hinreichend klein, X = X(t) sei die Lösung von (4.13) und uh (t) sei definiert durch uh (t) := x(t, y + h) − x(t, y) − X(t)h,

t ∈ J.

Man beachte, dass x(t, y + h) nach Satz 4.2.3 auf J existiert sofern δ > 0 hinreichend klein ist. Um nachzuweisen, dass ∂x ∂y (t, y) existiert, müssen wir zeigen, dass für jedes ε > 0 ein η(ε) > 0 existiert, sodass |uh (t)| ≤ ε|h| für |h| ≤ η(ε) gilt. Dazu leiten wir eine Differentialgleichung für die Funktion uh (t) her. ∂ ˙ uh (t) = x(t, ˙ y + h) − x(t, ˙ y) − X(t)h ∂t = f (x(t, y + h)) − f (x(t, y)) − A(t, y)X(t)h = A(t, y)uh (t) + rh (t), wobei rh (t) durch rh (t) := f (x(t, y + h)) − f (x(t, y)) − A(t, y)[x(t, y + h) − x(t, y)] gegeben ist. Die Funktion uh (t) erfüllt also das Anfangswertproblem ⎧ ⎨u˙ = A(t, y)u + r (t), h h h ⎩uh (0) = 0.

t ∈ J,

Die matrixwertige Funktion X(t) ist ein Fundamentalsystem für die homogene Gleichung u˙ h = A(t, y)uh . Dann liefert (3.6) die eindeutige Lösung  uh (t) = X(t) 0

t

X−1 (s)rh (s) ds, t ∈ J := [0, a].

90

4 Stetige und differenzierbare Abhängigkeit

Wegen M1 := supt∈J |X(t)| < ∞ und M2 := supt∈J |X−1 (t)| < ∞ gilt  |uh (t)| ≤ M1 M2

t

|rh (s)| ds, t ∈ J.

0

Da die Funktion f stetig und lokal Lipschitz in x ist, folgt aus Satz 4.1.2 die gleichmäßige Konvergenz x(t, y + h) → x(t, y) auf J für |h| → 0. Da f ∈ C 1 (G, Rn ) auf kompakten Mengen gleichmäßig differenzierbar ist, existiert zu jedem ε ∈ (0, 1) ein η(ε) > 0, sodass |rh (t)| ≤ ε|x(t, y + h) − x(t, y)|

für alle |h| ≤ η(ε), t ∈ J,

gilt. Folglich gilt |rh (t)| ≤ ε|uh (t)| + ε|X(t)h| ≤ ε|uh (t)| + εM1 |h|,

t ∈ J,

und somit erhält man die Integralungleichung  |uh (t)| ≤

εaM12 M2 |h| + εM1 M2

t

|uh (s)| ds, t ∈ J.

(4.14)

0

Das Lemma von Gronwall 2.4.1 liefert |uh (t)| ≤ εaM12 M2 |h|eεM1 M2 t ≤ Cε|h|,

t ∈ J,

mit C = aM12 M2 eM1 M2 a . Damit ist die Lösung x(t, y) von (4.12) differenzierbar  bezüglich y und ∂x ∂y (t, y) ist als Lösung von (4.13) nach Satz 4.1.2 stetig in y.

4.3.2

Nichtautonome Systeme

Betrachten wir nun das Anfangswertproblem ⎧ ⎨x˙ = f (t, x, p), ⎩x(τ ) = y,

(4.15)

wobei f : G → Rn stetig differenzierbar in der offenen Menge G ⊂ R × Rn × Rk ist, sowie (τ, y, p) ∈ G. Zu zeigen ist, dass die Lösung x(t; τ, y, p) von (4.15) stetig differenzierbar nach (τ, y, p) ist. Dazu transformieren wir (4.15) in ein autonomes System, um die Ergebnisse aus dem vorangehenden Abschnitt anzuwenden. Sei

4.3 Differenzierbarkeit der Lösungen nach Daten

⎡ ⎤ τ ⎢ ⎥ v := ⎣ y ⎦ ∈ Rn+k+1 p

91

⎤ τ +s ⎥ ⎢ u(s) := ⎣x(τ + s; τ, y, p)⎦ ∈ Rn+k+1 , s ≥ 0. p ⎡

und

Der Term τ + s spielt hier die Rolle von t. Differenziert man u(s), so erhält man ⎤ ⎤ ⎡ 1 1 ⎥ ⎥ ⎢ ⎢ ∂s u(s) = ⎣x(τ ˙ + s; τ, v, p)⎦ = ⎣f (τ + s, x(τ + s; τ, v, p), p)⎦ 0 0 ⎡ ⎤ 1 ⎢ ⎥ = ⎣f (u1 (s), u2 (s), u3 (s))⎦ =: F (u(s)). 0 ⎡

Da nach Voraussetzung f ∈ C 1 (G, Rn ) gilt, folgt F ∈ C 1 (G, Rn+k+1 ). Wegen u(0) = v lautet das resultierende autonome System wie folgt: ⎧ ⎨∂ u(s) = F (u(s)), s ⎩u(0) = v,

(4.16)

mit v ∈ R × Rn × Rk . Dann folgt aus Satz 4.3.1, dass die Lösung u(s, v) von (4.16), also auch die Lösung x(t; τ, y, p) von (4.15), stetig differenzierbar bezüglich v ist. Ferner gilt nach Satz 4.3.1, dass ∂u ∂v (s, v) das Anfangswertproblem (4.13) erfüllt, also gilt ⎧ ⎨ ∂ * ∂u + = F  (u(s, v)) ∂u , ∂s

∂v

⎩ ∂u (0) = I.

∂v

(4.17)

∂v

Wir wollen nun die einzelnen Differentialgleichungen bezüglich den Variablen (τ, y, p) aus (4.17) herleiten. Zur Abkürzung setzen wir f = f (u1 , u2 , u3 ) und x = x(τ + s; τ, y, p). Dann gilt ⎤ ⎡ ⎤ 0 0 0 1 ∂ ⎢ ⎥ ⎢ ⎥ F  (u) = ⎣f (u1 , u2 , u3 )⎦ = ⎣∂t f ∂x f ∂p f ⎦ . ∂u 0 0 0 0 ⎡

Für

∂u ∂v

erhält man mit der Kettenregel

(4.18)

92

4 Stetige und differenzierbare Abhängigkeit

⎤ 1 0 0 ∂u ⎢ ⎥ = ⎣∂t x + ∂τ x ∂y x ∂p x ⎦ , ∂v 0 0 I ⎡

sodass sich für

∂ ∂s

* ∂u + ∂v

∂ ∂s

(4.19)

unter Beachtung von ∂s = ∂t der folgende Ausdruck ergibt 

∂u ∂v





⎤ 0 0 0 ⎢ ⎥ = ⎣∂t2 x + ∂t (∂τ x) ∂t (∂y x) ∂t (∂p x)⎦ . 0 0 0

(4.20)

Die Anfangsbedingung lautet ⎤ 1 0 0 ∂u ⎥ ⎢ (0) = ⎣∂t x(τ ) + (∂τ x)(τ ) (∂y x)(τ ) (∂p x)(τ )⎦ . ∂v 0 0 I ⎡

(4.21)

Diese Matrix muss aber gerade gleich der Einheitsmatrix sein, das heißt, es gilt ∂t x(τ ) + (∂τ x)(τ ) = 0, (∂y x)(τ ) = I und (∂p x)(τ ) = 0. Ferner ist ∂t x(τ ) = f (τ, x(τ ), p) = f (τ, y, p). Setzt man (4.18), (4.19) und (4.20) in (4.17) ein, so erhält man das Differentialgleichungssystem ⎧ ⎪ ⎪ ⎨∂t (∂τ x) = ∂x f (t, x, p)∂τ x, ∂t (∂y x) = ∂x f (t, x, p)∂y x, ⎪ ⎪ ⎩ ∂t (∂p x) = ∂x f (t, x, p)∂p x + ∂p f (t, x, p),

(4.22)

denn ∂t2 x(t) = ∂t f (t, x(t), p) + ∂x f (t, x(t), p)∂t x(t). Es gilt also der Satz 4.3.2. Sei G ⊂ R × Rn × Rk offen, f ∈ C 1 (G, Rn ) und (τ, y, p) ∈ G. Dann ist die Lösung x = x(t; τ, y, p) von (4.15) stetig differenzierbar in allen Variablen (t, τ, y, p). Des Weiteren genügen die partiellen Ableitungen (∂τ x, ∂y x, ∂p x) dem Differentialgleichungssystem (4.22) mit den Anfangsbedingungen (∂τ x)(τ ) = −f (τ, y, p),

(∂y x)(τ ) = I,

(∂p x)(τ ) = 0.

Bemerkung Die Differentialgleichungen für die Ableitungen der Lösung nach den Parametern τ , y und p enthalten nicht die partielle Ableitung nach t. In der Tat ist unter den Voraussetzungen dieses Satzes die Lösung zweimal stetig differenzierbar bzgl. t, es gilt

4.4 Dynamische Systeme

93

x(t) ¨ = ∂t f (t, x(t)) + ∂x f (t, x(t))f (t, x(t)). Daher kann man Satz 4.3.2 mittels eines Approximationsarguments auf den Fall erweitern, dass f bzgl. t nur stetig ist. Auf die Details verzichten wir hier.

4.4

Dynamische Systeme

Definition 4.4.1. Sei (M, d) ein metrischer Raum. Eine Abbildung φ : R × M → M, (t, x) → φ(t, x) heißt dynamisches System (Fluss), falls die folgenden Bedingungen erfüllt sind. (D1) φ(0, x) = x, für alle x ∈ M; (D2) φ(t + s, x) = φ(t, φ(s, x)), für alle t, s ∈ R, x ∈ M (Gruppeneigenschaft); (D3) φ ist stetig in (t, x) ∈ R × M. Ersetzt man in dieser Definition R durch R+ so spricht man von einem semidynamischen System oder Halbfluss auf M und (D2) heißt Halbgruppeneigenschaft. Interpretation Die Abbildung φ beschreibt die Dynamik des Systems: Ist das System zum Zeitpunkt t = 0 in x, so befindet es sich zur Zeit t = t∗ in φ(t∗ , x). Beispiele. (a) Das mathematische Pendel. Wir schreiben die nichtlineare Differentialgleichung zweiter Ordnung x¨ + ω2 sin x = 0 als System erster Ordnung ⎧ ⎨u˙ = u , 1 2 ⎩u˙ 2 = −ω2 sin u1 .

(4.23)

Zu jedem Anfangswert y ∈ M = R2 existiert genau eine globale Lösung u(t, y) = [u1 (t, y), u2 (t, y)]T . Setze φ(t, y) = u(t, y), t ∈ R, y ∈ R2 . Dann definiert die Funktion φ ein dynamisches System, denn es gilt φ(0, y) = u(0, y) = y, also (D1). Des Weiteren sind u(t + s, y) und u(t, u(s, y)) Lösungen von (4.23) bezüglich t. Für t = 0 gilt u(0 + s, y) = u(s, y) = u(0, u(s, y)). Aus der Eindeutigkeit der Lösung folgt also φ(t + s, y) = u(t + s, y) = u(t, u(s, y)) = φ(t, u(s, y)), für alle t, s ∈ R, y ∈ R2 , also (D2). Die Eigenschaft (D3) folgt aus Satz 4.1.2.

94

4 Stetige und differenzierbare Abhängigkeit

(b) Skaliertes Volterra–Lotka-Modell mit Sättigung ⎧ ⎨u˙ = u − κu2 − uv, ⎩v˙ = −εv + uv.

(4.24)

Sei M = R2+ . Für alle z0 := [u0 , v0 ]T ∈ M existiert genau eine globale Lösung z(t, z0 ) := [u(t, z0 ), v(t, z0 )]T von (4.24) nach rechts. Diese hängt nach Satz 4.1.2 stetig von z0 ab. Wie in Beispiel (a) definiert dann die Funktion φ(t, z0 ) := z(t, z0 ) zumindest ein semidynamisches System. Man beachte, dass globale Existenz nach links hier nicht gilt! Der Satz über stetige Abhängigkeit ergibt den Satz 4.4.2. Sei G ⊂ Rn offen, f : G → Rn lokal Lipschitz und zu jedem Anfangswert y ∈ G existiere die Lösung x(t, y) des Anfangswertproblems ⎧ ⎨x˙ = f (x), ⎩x(0) = y,

(4.25)

global, also für alle t ∈ R. Dann definiert die Funktion φ(t, y) := x(t, y), y ∈ G, t ∈ R, ein dynamisches System. Existieren die Lösungen wenigstens nach rechts global, so erhält man entsprechend einen Halbfluss. Beweis. Die Eigenschaft (D1) ist wegen φ(0, y) = x(0, y) = y erfüllt. Aufgrund der Autonomie des Systems (4.25), sind φ(t + s, y) = x(t + s, y) und φ(t, φ(s, y)) = x(t, x(s, y)) ebenfalls Lösungen von (4.25) bzgl. t. Für t = 0 ergibt sich x(0 + s, y) = x(s, y) = x(0, x(s, y)). Aus der Eindeutigkeit der Lösung folgt x(t + s, y) = x(t, x(s, y)), also (D2). Schließlich gilt auch (D3), da x(t, y) = φ(t, y) nach Satz 4.1.2 stetig von y abhängt.  Bemerkungen 4.4.3. 1. Die Autonomie des Systems (4.25) ist notwendig, denn für ein zeitabhängiges f ist x(t + s, y) im Allgemeinen keine Lösung von x˙ = f (t, x), wie schon das Beispiel x˙ = tx, x(0) = y, zeigt. 2. Sei φ : R × M → M ein dynamisches System. Ersetzt man R durch Z, so spricht man von diskreten dynamischen Systemen. Entsprechend sind diskrete semidynamische Systeme erklärt. 3. Sei y ∈ M fixiert. Dann nennt man γ (y) := {φ(t, y)|t ∈ R} Orbit oder Bahn oder Trajektorie durch y. Entsprechend heißt γ+ (y) = φ(R+ , y) positives Halborbit von y.

Übungen

95

4. Ist φ(t, x) ein Halbfluss, und existiert x∞ := limt→∞ φ(t, x0 ) so ist x∞ ein Fixpunkt des Halbflusses, also φ(t, x∞ ) = x∞ für alle t ≥ 0. Dies zeigt φ(t, x∞ ) = φ(t, lim φ(s, x0 )) = lim φ(t, φ(s, x0 )) = lim φ(t + s, x0 ) = x∞ . s→∞

s→∞

s→∞

Daher sind Grenzwerte von globalen Lösungen einer autonomen Differentialgleichung x˙ = f (x) für t → ∞ stets stationäre Lösungen der Gleichung.

Übungen 4.1 Gegeben sei das Anfangswertproblem (∗) x˙ = 3(x 2 )1/3 , und für n ∈ N seien xn die Lösung mit xn (0) = 1/n auf R+ , yn die Lösung mit Anfangswert yn (0) = −1/n auf R− . Zeigen Sie, dass diese global existieren und eindeutig bestimmt sind. Bestimmen Sie die Grenzwerte limn→∞ xn (t) und limn→∞ yn (t). Zeigen Sie, dass diese Grenzwerte die größte bzw. kleinste Lösung von (∗) mit x(0) = 0 sind. 4.2 Sei ω : R → R lokal Lipschitz, J = [a, b], und φ ∈ C 1 (J ) die Lösung von φ˙ = ω(φ), φ(a) = φ0 . Es sei ϕ ∈ C 1 (J ), und gelte ϕ(t) ˙ ≤ ω(ϕ(t)), t ∈ J, ϕ(a) ≤ φ0 . Zeigen Sie ϕ(t) ≤ φ(t) für alle t ∈ J . Tipp: Die Behauptung zunächst im Falle strikter Ungleichungen beweisen; danach geeignet stören und mit dem Satz über stetige Abhängigkeit den allgemeinen Fall zeigen. 4.3 Sei f : R+ × Rn → R stetig, lokal Lipschitz in x und gelte (f (t, x)|x) ≤ 0

für alle t ∈ R+ , |x| = R.

Sei |x0 | ≤ R. Dann existiert die Lösung x(t) von x˙ = f (t, x), x(0) = x0 ,

96

4 Stetige und differenzierbare Abhängigkeit

global und es gilt |x(t)| ≤ R für alle t ≥ 0. Tipp: Betrachten Sie zunächst fn (t, x) = f (t, x) − x/n und verwenden Sie stetige Abhängigkeit. 4.4 Das folgende System ist ein Modell für eine Population bestehend aus männlichen (x) und weiblichen (y) Singles, und Paaren (p), in der nur die Paare zur Fortpflanzung beitragen. x˙ = −μm x + (βm + μ˜ f + σ )p − φ(x, y), y˙ = −μf y + (βf + μ˜ m + σ )p − φ(x, y), p˙ = −(μ˜ m + μ˜ f + σ )p + φ(x, y). Dabei bedeuten βj die Geburtsraten, μj bzw. μ˜ j die Sterberaten der Singles bzw. der Paare, σ die Trennungsrate der Paare, und φ : R2+ → R+ die sogenannte Paarbildungsfunktion. Es sei φ lokal Lipschitz, monoton wachsend in beiden Variablen, und φ(x, y) = 0 ⇔ xy = 0. Zeigen Sie, dass dieses System einen Halbfluss auf R3+ erzeugt, also dass die Lösungen zu nichtnegativen Anfangswerten global nach rechts existieren, eindeutig bestimmt und nichtnegativ sind, und stetig von den Daten abhängen. 4.5 Sei G ⊂ Rn offen, f : G → Rn lokal Lipschitz und x ∈ C 1 (R+ ; G) eine Lösung von x˙ = f (x).

(4.26)

Es existiere der Grenzwert limt→∞ x(t) =: x∞ ∈ G. Zeigen Sie, dass dann x∞ stationäre Lösung von (4.26) ist, also f (x∞ ) = 0 gilt. 4.6 Das System x˙ = g(x) − y,

x(0) = x0 ,

y˙ = σ x − γ y,

y(0) = y0 ,

mit g(x) = −x(x − a)(x − b), 0 < a < b, σ, γ > 0, heißt FitzHugh-NagumoGleichung. Es spielt in der Theorie der Nervensysteme eine wichtige Rolle. Zeigen Sie, dass dieses Anfangswertproblem eindeutig und nach rechts global lösbar ist. Bestimmen Sie die Equilibria des Systems und skizzieren Sie das Phasendiagramm. Leiten Sie Differentialgleichungen für die Ableitung der Lösung nach σ her. 4.7 Das folgende System wurde von Field und Noyes zur Modellierung der BelousovZhabotinski Reaktion vorgeschlagen. Es wird gelegentlich auch Oregonator genannt. εx˙ = x + y − xy − γ x 2 , y˙ = 2δz − y − xy, β z˙ = x − z,

x(0) = x0 ≥ 0,

y(0) = y0 ≥ 0,

z(0) = z0 ≥ 0,

Übungen

97

wobei β, γ , δ, ε > 0 Konstanten sind. Zeigen Sie, dass die Lösung eindeutig bestimmt ist, nichtnegativ bleibt, und nach rechts global existiert. Bestimmen Sie alle Equilibria in R3+ 4.8 Betrachten Sie das Randwertproblem x¨ + g(x) = 0, x(0) = x(1) = 0, wobei g : R → R lokal Lipschitz sei. Die Shooting-Methode zur Lösung solcher Randwertprobleme besteht darin, das entsprechende Anfangswertproblem mit x(0) = 0, x(0) ˙ = a zu lösen, und dann eine Nullstelle der Abbildung φ ∈ C 1 (R) definiert durch φ(a) = x(1, a) zu suchen. Dabei bezeichnet x(t, a) die Lösung dieses Anfangswertproblems. Beweisen Sie mit dieser Methode einen Existenzsatz im Fall eines beschränkten g: |g(x)| ≤ M für alle x ∈ R.

5

Elementare Stabilitätstheorie

Sei G ⊂ Rn offen, f : R × G → Rn stetig und lokal Lipschitz in x. In diesem Kapitel betrachten wir das Anfangswertproblem ⎧ ⎨x˙ = f (t, x), ⎩x(t0 ) = x0 ,

(5.1)

mit t0 ∈ R und x0 ∈ G. Einer der wichtigsten Begriffe in der Theorie der Differentialgleichungen ist der der Stabilität.

5.1

Stabilitätsdefinitionen

Sei x(t), ˜ t ≥ t0 eine ausgezeichnete Lösung der Differentialgleichung (5.1) zum ˜ wobei x(t), t ≥ t0 die Lösung Anfangswert x(t ˜ 0 ) = x˜0 . Setze y(t) := x(t) − x(t), von (5.1) ist. Dann gilt ˙˜ = f (t, x(t)) − f (t, x(t)) y(t) ˙ = x(t) ˙ − x(t) ˜ = f (t, y(t) + x(t)) ˜ − f (t, x(t)). ˜ Definiert man g(t, y(t)) := f (t, y(t) + x(t)) ˜ − f (t, x(t)), ˜ so erhält man die Differentialgleichung y˙ = g(t, y) für die Funktion y(t), wobei die Funktion g natürlich wieder lokal Lipschitz in y und stetig in t ist. Es gilt offensichtlich g(t, 0) = 0, das heißt, die Differentialgleichung y˙ = g(t, y) besitzt die triviale Lösung y∗ = 0 zum Anfangswert y∗ (t0 ) = 0. Daher genügt es den Fall f (t, 0) = 0 zu betrachten. Definition 5.1.1. Sei f : R × G → Rn stetig und lokal Lipschitz in x, mit f (t, 0) = 0 und x(t, x0 ), t ≥ t0 , sei die Lösung des Anfangswertproblems (5.1). © Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_5

99

100

5 Elementare Stabilitätstheorie

1. Die triviale Lösung x∗ = 0 heißt stabil, falls es zu jedem ε > 0 ein δ > 0 gibt, sodass B¯ δ (0) ⊂ G, die Lösung x(t, x0 ) zu x0 ∈ B¯ δ (0) für alle t ≥ t0 existiert und |x(t, x0 )| ≤ ε, für alle |x0 | ≤ δ, und t ≥ t0 , erfüllt ist. 2. x∗ = 0 heißt instabil, falls x∗ nicht stabil ist. 3. x∗ = 0 heißt attraktiv, falls ein δ0 > 0 existiert, sodass B¯ δ0 (0) ⊂ G, die Lösung x(t, x0 ) zu x0 ∈ B¯ δ (0) für alle t ≥ t0 existiert, und lim |x(t, x0 )| = 0 für alle x0 ∈ B¯ δ0 (0) gilt.

t→∞

4. x∗ = 0 heißt asymptotisch stabil, falls x∗ = 0 stabil und attraktiv ist. Bemerkungen 5.1.2. 1. Die Stabilität der trivialen Lösung x∗ ist die stetige Abhängigkeit der Lösung x(t, x0 ) vom Anfangswert x0 auf R+ in einer Umgebung der trivialen Lösung, denn die Stabilitätsdefinition ist äquivalent zu lim |x(t, x0 )| = 0 gleichmäßig bezüglich t ≥ t0 .

|x0 |→0

2. Zwischen Stabilität und Attraktivität von x∗ gelten keine allgemeingültigen Beziehungen. Genauer gilt (a) x∗ stabil ⇒ x∗ attraktiv; (b) x∗ attraktiv ⇒ x∗ stabil. Ein Beispiel zu (a) ist das mathematische Pendel, welches wir später noch diskutieren werden. Zu (b) war historisch Vinograd (1957) der erste, der ein zweidimensionales System angegeben hat, in dem alle Lösungen für t → ∞ gegen Null gehen, aber die Nulllösung instabil ist, da es sog. homokline Orbits gibt; vgl. Abb. 5.1. Das Beispiel ist leider kompliziert, wir werden später ein einfacheres kennenlernen (vgl. Abschn. 9.2). Abb. 5.1 Phasenportrait von Vinograd

y 2

1

4

2

2 1

2

4

x

5.1 Stabilitätsdefinitionen

101

Beispiele. (a) x˙ = αx, α ∈ R, x ∈ Rn . Hier ist x∗ = 0 die triviale Lösung der Differentialgleichung und die eindeutige Lösung zum Anfangswert x(0) = x0 lautet x(t, x0 ) = x0 eαt . Offensichtlich ist die Lösung x(t, x0 ) • stabil für α ≤ 0, denn |x(t, x0 )| = |x0 ||eαt | ≤ |x0 | ≤ δ := ε, t ≥ 0; • instabil für α > 0, denn limt→∞ |x(t, x0 )| = ∞, sofern x0 = 0 ist; • attraktiv für α < 0, denn limt→∞ |x(t, x0 )| = 0 für alle x0 ∈ Rn . (b) x˙ = −x 3 , x ∈ R. Sei x(0) = x0 ∈ R \ {0}. Mit Trennung der Variablen erhält man die eindeutige Lösung sgn(x0 ) x(t, x0 ) = 1 , 2t + 1/x02

t > −1/(2x02 ).

Wie man sieht, existiert die Lösung für jedes x0 = 0 global nach rechts, und für |x0 | ≤ δ und t ≥ 0 gilt 1

|x(t, x0 )| = 1 2t

+ 1/x02

≤1

1 1/x02

= |x0 | ≤ δ := ε.

Wegen limt→∞ |x(t, x0 )| = 0 ist die Lösung x∗ = 0 auch asymptotisch stabil. (c) Das mathematische Pendel. Linearisiert um die untere Ruhelage (also kleine Auslenkungen) lautet das Anfangswertproblem für das linearisierte Pendel ⎧ ⎨x¨ + ω2 x = 0, (P ) ⎩x(0) = x0 , x(0) ˙ = 0. Die triviale Lösung x∗ = 0 der Pendelgleichung beschreibt die untere Ruhelage des Pendels. Für kleine Abweichungen der Anfangswertes x0 von x∗ = 0, also |x0 | ≤ δ, bleibt die Lösung von (P) innerhalb einer ε-Umgebung von x∗ = 0, denn mit x(t, x0 ) = x0 cos ωt gilt |x(t, x0 )| = |x0 || cos ωt| ≤ |x0 | ≤ δ := ε

102

5 Elementare Stabilitätstheorie

für alle t ≥ 0. Die untere Ruhelage des linearisierten Pendels ist also stabil, aber nicht attraktiv, denn der Grenzwert limt→∞ x(t) existiert nicht. Wie wir später sehen werden, kann man bezüglich Stabilität von x∗ = 0 der unteren Ruhelage des linearisierten Pendels keine Rückschlüsse auf die nichtlineare Differentialgleichung x¨ + ω2 sin x = 0 ziehen. Die untere Ruhelage ist aber auch für die nichtlineare Pendelgleichung stabil, wie wir später zeigen; siehe auch Abb. 1.8. Die obere Ruhelage x∗ = π der nichtlinearen Pendelgleichung x¨ + ω2 sin x = 0 ist instabil, denn selbst für sehr kleine Abweichungen des Anfangswertes x0 von π ergeben sich große Auslenkungen.

5.2

Ebene lineare autonome Systeme

Wir betrachten nun die autonome lineare Differentialgleichung x˙ = Ax,

  a11 a12 A= ∈ R2×2 . a21 a22

(5.2)

Offensichtlich ist x∗ = [0, 0]T ein Equilibrium von (5.2). Ziel dieses Abschnittes ist, die Stabilitätseigenschaften der trivialen Lösung des Systems x˙ = Ax mittels der Eigenwerte von A vollständig zu charakterisieren. Dazu betrachten wir das charakteristische Polynom pA (λ) von A pA (λ) = det(λI − A) = λ2 − pλ + q, wobei p = sp A = a11 + a22 und q = det A = a11 a22 − a12 a21 . Wir müssen nun anhand der beiden (nicht notwendigerweise verschiedenen) Eigenwerte λ1 , λ2 diverse Fälle unterscheiden. Die Eigenwerte der Matrix A sind explizit gegeben durch 2 λ1,2

p = ± 2

2 sp A p2 −q = ± 4 2

(sp A)2 − det A. 4

Wir unterscheiden zunächst 3 Grundfälle. 1. λ1,2 sind reell und λ1 = λ2 , falls q < 2. λ1,2 sind reell und λ1 = λ2 , falls q =

p2 4 ; p2 4 ;

3. λ1,2 sind konjugiert komplex (λ2 = λ1 ), falls q > Diese Fälle werden nun separat behandelt.

p2 4 .

5.2 Ebene lineare autonome Systeme

103

Zu 1: Zu verschiedenen Eigenwerten λ1 , λ2 existieren zwei linear unabhängige Eigenvektoren v1 , v2 . Definieren wir eine Matrix C durch C := [v1 , v2 ], so gilt det C = 0, aufgrund der linearen Unabhängigkeit von v1 , v2 . Also ist C invertierbar. Ferner gilt natürlich AC = (λ1 v1 , λ2 v2 ). Das gleiche Resultat erhält man aber, indem man C mit einer Diagonalmatrix diag(λ1 , λ2 ) multipliziert C diag(λ1 , λ2 ) = (λ1 v1 , λ2 v2 ) = AC, also gilt diag(λ1 , λ2 ) = C −1 AC. Mit x = Cy folgt y˙ = C −1 x˙ = C −1 Ax = C −1 ACy und wir haben das zu (5.2) äquivalente System y˙ = By,

mit B := C −1 AC = diag(λ1 , λ2 )

(5.3)

erhalten, welches die entkoppelte Struktur y˙1 = λ1 y1 , y˙2 = λ2 y2 , besitzt. Die Lösungen von (5.3) lauten y1 (t) = k1 eλ1 t , k1 ∈ R, y2 (t) = k2 eλ2 t , k2 ∈ R.

(5.4)

Beim Übergang von (5.2) zu (5.3) bleiben die Eigenwerte erhalten und auch das globale Verhalten der Lösungen ändert sich nicht. Geometrische Objekte werden lediglich einer affinen Ähnlichkeitstransformation unterworfen. Die Trajektorien sind durch die Parametrisierung (5.4) gegeben. Anhand der Lage der Eigenwerte unterscheiden wir nun 5 Unterfälle; vgl. Abb. 5.2, 5.3 und 5.4. (α) λ1 < 0 < λ2

: q < 0,

(β) λ1 , λ2 < 0

: 0 < q < p2 /4, p < 0,

(γ ) λ1 , λ2 > 0

: 0 < q < p2 /4, p > 0,

(δ) λ1 < 0, λ2 = 0 : q = 0, p < 0, (ε) λ1 > 0, λ2 = 0 : q = 0, p > 0.

104

5 Elementare Stabilitätstheorie

Abb. 5.2 (α) Sattelpunkt

y2 1.0

0.5

1.0

0.5

0.5

1.0

0.5

1.0

y1

0.5

1.0

y2

1.0

y2

1.0

1.0

0.5

0.5

0.5

0.5

1.0

y1

1.0

0.5

0.5

0.5

1.0

1.0

y1

Abb. 5.3 Stabiler Knoten (β) und instabiler Knoten (γ )

Zu 2: Im Fall q = p2 /4 sind die Eigenwerte durch λ1,2 = p/2 = sp A/2 gegeben. Es ergeben sich nun 2 Möglichkeiten: 2a: λ = λ1,2 ist halbeinfach, das heißt, die geometrische Vielfachheit von λ ist gleich der algebraischen Vielfachheit, also gleich 2. Es existieren dann 2 linear unabhängige Eigenvektoren zum Eigenwert λ. Diesen Fall können wir wie in 1. behandeln. Man erhält y1 (t) = k1 eλt , k1 ∈ R, y2 (t) = k2 eλt , k2 ∈ R.

5.2 Ebene lineare autonome Systeme

105 y2

y2

1.0

1.0

1.0

0.5

0.5

0.5

0.5

1.0

y1

1.0

0.5

0.5

0.5

0.5

1.0

1.0

1.0

y1

Abb. 5.4 Stabile Zustände (δ) und instabile Zustände (ε)

Die zugehörigen Phasenportraits nennt man echte Knoten, stabil für λ < 0, instabil für λ > 0. Im Fall λ = 0 ist A = 0, also der Fluss trivial. 2b: λ = λ1,2 ist nicht halbeinfach, das heißt, es gibt nur einen Eigenvektor v zum Eigenwert λ. Die Matrix A lässt sich nun nicht mehr diagonalisieren. Gemäß Abschn. 3.3 löse man die Gleichung (A − λI )w = v; das ergibt einen von v linear unabhängigen Vektor w. Wie in 1. definieren wir dann die Matrix C durch C := [v, w]. Es gilt   λ1 AC = (λv, Aw) = (λv, v + λw) = C . 0λ Die Matrix C leistet also eine Transformation der Matrix A auf Tridiagonalform   λ1 = C −1 AC. 0λ Setzen wir wie im 1. Fall x = Cy, so erhalten wir für y das zu (5.2) äquivalente System 

 λ 1 y˙ = By, B := C −1 AC = , 0λ also y˙1 = λy1 + y2 , y˙2 = λy2 .

(5.5)

106

5 Elementare Stabilitätstheorie y2

y2

1.0

1.0

1.0

0.5

0.5

0.5

0.5

1.0

y1

1.0

0.5

0.5

0.5

0.5

1.0

1.0

1.0

y1

Abb. 5.5 Stabiler falscher Knoten (a) und instabiler falscher Knoten (c) Abb. 5.6 Instabile Zustände (b)

y2

0.5

1.0

0.5

0.5

0.5

Die Lösungen dieses Systems lauten y1 (t) = (k1 + k2 t)eλt , k1 , k2 ∈ R, y2 (t) = k2 eλt , k2 ∈ R. Es ergeben sich 3 Unterfälle für Fall 2b: (a) λ < 0 : p < 0, (b) λ = 0 : p = 0, (c) λ > 0 : p > 0. Abb. 5.5 und 5.6 zeigen das Verhalten der Trajektorien.

1.0

y1

5.2 Ebene lineare autonome Systeme

107

Zu 3: Wegen λ2 = λ1 gilt λ1 = λ2 . Die Matrix A lässt sich wie in Fall 1 (hier jedoch komplex) diagonalisieren. Man erhält so das System u˙ = λ1 u, v˙ = λ2 v. Zur Deutung der Stabilität ist dieses komplexe System jedoch nicht so geeignet. Daher betrachtet man den Real- und Imaginärteil von u. Sei λ1 = σ + iρ und o.B.d.A. gelte ρ > 0. Ist das nicht der Fall, so vertausche man λ1 und λ2 . Seien ferner y1 = Re u und y2 = Im u. Damit ergibt sich das reelle System y˙1 = σy1 − ρy2 , y˙2 = σy2 + ρy1 .

(5.6)

Bezüglich des Parameters σ unterscheiden wir nun wiederum 3 Unterfälle: (1)

σ < 0 : p > 0,

(2)

σ = 0 : p = 0,

(3)

σ > 0 : p < 0.

Wir schreiben (5.6) mittels der Transformation y1 = r cos ϕ, y2 = r sin ϕ und r = r(t), ϕ = ϕ(t) in Polarkoordinaten. r˙ cos ϕ − ϕr ˙ sin ϕ = σ r cos ϕ − ρr sin ϕ, r˙ sin ϕ + ϕr ˙ cos ϕ = σ r sin ϕ + ρr cos ϕ. Daraus gewinnen wir das entkoppelte System ⎧ ⎨r˙ = σ r, ⎩ϕ˙ = ρ, dessen Lösungen durch r(t) = k1 eσ t und ϕ(t) = ρt + k2 , k1 , k2 ∈ R, ρ > 0 gegeben sind. Man sieht sofort, dass sich für ρ < 0 lediglich die Laufrichtung der Phasenbahnen ändert. Das Stabilitätsverhalten hängt nur vom Vorzeichen von σ ∈ R ab. Die Phasenportraits für den Fall 3 sind in Abb. 5.7 und 5.8 wiedergegeben.

108

5 Elementare Stabilitätstheorie y2

y2

1.0

1.0

1.0

0.5

0.5

0.5

0.5

1.0

y1

1.0

0.5

0.5

0.5

0.5

1.0

1.0

y1

1.0

Abb. 5.7 Stabile Spirale (1) und instabile Spirale (3) Abb. 5.8 Zentrum (2)

y2 1.0

0.5

1.0

0.5

0.5

1.0

y1

0.5

1.0

Bemerkungen 5.2.1. 1. Wie bereits erwähnt, wird die Matrix A einer affinen Ähnlichkeitstransformation unterzogen. In den ursprünglichen Koordinaten (x1 , x2 ) haben die Trajektorien daher ein verzerrtes Aussehen. Des Weiteren können wir aus Fall 1, 2 und 3 schlussfolgern, dass (5.2) für q = det A > 0 und p = sp A < 0 asymptotisch stabil ist, und für q < 0 oder p > 0 instabil ist. 2. Ein Zentrum ist das Übergangsstadium zwischen stabilen und instabilen Spiralen. Falsche Knoten treten beim Übergang von Knoten zu Spiralen auf.

5.3 Stabilität linearer Systeme

109 q

Abb. 5.9 Stabilitätsbereiche

eht

f

al sc

Knoten

he -

Kn ot e n

Zentren

ec

Spiralen

eKn ot en

p²/4

ch als f te ec h Knoten p

Sattelpunkte

3. Die wichtigsten Fälle sind die Knoten, Spiralen und die Sattelpunkte. Diese sind nämlich strukturell stabil, d. h. invariant unter kleinen Störungen der Matrix A. Insbesondere sind echte und falsche Knoten sowie Zentren nicht strukturell stabil. Letztere spielen in der Verzweigungstheorie eine wichtige Rolle. Die Ergebnisse unserer Betrachtung können wir in Abb. 5.9 zusammenfassen: Der schraffierte Bereich skizziert das Stabilitätsgebiet. Die lineare Differentialgleichung 2. Ordnung x¨ + a x˙ + bx = 0, mit konstanten Koeffizienten a, b ∈ R ist äquivalent zum ebenen linearen und autonomen System 1. Ordnung 

 0 1 z˙ = z, −b −a

z = [u, v]T .

Es gilt sp A = −a und det A = b, also p = −a und q = b.

5.3

Stabilität linearer Systeme

Gegeben sei das lineare Differentialgleichungssystem (L)

x˙ = A(t)x + b(t),

wobei A ∈ C([t0 , ∞), Rn×n ), b ∈ C([t0 , ∞), Rn ) und es seien x∗ (t) und x(t) Lösungen von (L). Dann ist y(t) := x(t) − x∗ (t) eine Lösung von (H )

y˙ = A(t)y.

110

5 Elementare Stabilitätstheorie

Also ist eine Lösung von (L) genau dann stabil (bzw. attraktiv), wenn die triviale Lösung von (H) diese Eigenschaft hat. Daher spricht man bei linearen Systemen von Stabilität schlechthin. Es sei Y (t) ein Fundamentalsystem für die Differentialgleichung (H), also ist y(t) = Y (t)Y −1 (t0 )y0 die Lösung von (H) zum Anfangswert y(t0 ) = y0 . Satz 5.3.1. Sei Y (t) ein Fundamentalsystem für (H). Dann gilt 1. y∗ = 0 ist genau dann stabil für (H), wenn supt≥t0 |Y (t)| < ∞ gilt; 2. y∗ = 0 ist genau dann attraktiv für (H), wenn |Y (t)| → 0 für t → ∞ gilt. Insbesondere fallen die Begriffe attraktiv und asymptotisch stabil für lineare Systeme zusammen. Beweis. Zu 1: Sei die Lösung y∗ = 0 von (H) stabil. Laut Definition gilt also ∀ ε > 0 ∃ δ > 0 : |y(t)| ≤ ε, für alle |y0 | ≤ δ, und t ≥ t0 . Speziell existiert für ε = 1 ein δ = δ(1) > 0, sodass |y(t)| = |Y (t)Y −1 (t0 )y0 | ≤ 1, für |y0 | ≤ δ und alle t ≥ t0 . Sei nun v ∈ Rn beliebig und y0 := δY (t0 )v/|Y (t0 )v|. Dann folgt |Y (t)v| = δ −1 |Y (t0 )v||Y (t)Y (t0 )−1 y0 | ≤ δ −1 |Y (t0 )v| ≤ (|Y (t0 )|/δ)|v|. Daher ist |Y (t)| beschränkt durch |Y (t0 )|/δ, für alle t ≥ t0 . Es gelte nun umgekehrt |Y (t)| ≤ M, für alle t ≥ t0 , mit einer Konstanten M > 0. Sei ferner |y0 | ≤ δ. Dann gilt |y(t)| ≤ |Y (t)||Y −1 (t0 )||y0 | ≤ δM|Y −1 (t0 )| ≤ ε, falls δ ≤ ε/(M|Y −1 (t0 )|). Zu 2: Sei y∗ = 0 asymptotisch stabil für (H). Dann existiert ein δ0 > 0, sodass |y(t)| = |Y (t)Y −1 (t0 )y0 | → 0 für t → ∞ und alle |y0 | ≤ δ0 . Wie in Teil I dieses Beweises erhalten wir |Y (t)v| → 0 mit t → ∞ für alle v ∈ Rn . Daraus folgt |Y (t)| → 0 für t → ∞. Umgekehrt gelte |Y (t)| → 0 für t → ∞. Dann gilt aber auch |y(t)| ≤ |Y (t)||Y −1 (t0 )||y0 | → 0,

5.4 Das Prinzip der linearisierten Stabilität

111

für t → ∞ und alle y0 ∈ Rn mit |y0 | ≤ δ0 und δ0 > 0 ist beliebig, aber fixiert. Daher ist y∗ = 0 attraktiv für (H). Offensichtlich existiert dann auch eine Konstante M > 0, sodass |Y (t)| ≤ M für alle t ≥ t0 gilt. Aus dem ersten Teil des Beweises folgt somit, dass y∗ = 0 auch stabil für (H)  ist, also ist y∗ = 0 asymptotisch stabil. Für den Fall, dass A(t) eine vom Parameter t unabhängige Koeffizientenmatrix A ∈ ist, erhält man aus Satz 5.3.1 das folgende Resultat.

Rn×n

Korollar 5.3.2. Sei A(t) ≡ A ∈ Rn×n . Dann gelten 1. y∗ = 0 ist genau dann stabil für (H ), wenn gilt ⎧ ⎨Re λ ≤ 0 für alle Eigenwerte λ von A, j j ⎩im Fall Re λj = 0 ist λj halbeinfach; 2. y∗ = 0 ist genau dann asymptotisch stabil für (H ), wenn Re λj < 0 für alle Eigenwerte von A gilt. Beweis. Dies folgt unmittelbar aus Lemma 3.3.2 bzw. Satz 3.3.4 und 5.3.1.



Ist A ∈ Rn×n , so heißt die Menge aller Eigenwerte σ (A) Spektrum von A. Die Zahl s(A) := max{Re λ : λ ∈ σ (A)} wird Spektralschranke von A genannt. Damit kann man das Korollar kurz auch wie folgt formulieren: y∗ = 0 ist genau dann asymptotisch stabil wenn s(A) < 0 gilt, und s(A) > 0 impliziert Instabilität. Der Fall s(A) = 0, also wenn es Eigenwerte auf der imaginären Achse gibt, erfordert weitere Informationen über diese, die über Stabilität und Instabilität entscheiden. Dieser Fall wird häufig marginal stabil genannt.

5.4

Das Prinzip der linearisierten Stabilität

Wir betrachten nun autonome Differentialgleichungen der Form (N )

x˙ = f (x),

mit f ∈ C 1 (Rn , Rn ). Sei x∗ ein Equilibrium von (N), also f (x∗ ) = 0. Unser Ziel ist es, die Stabilitätseigenschaften dieser speziellen Lösung zu charakterisieren. Es sei x = x(t) eine Lösung von (N). Setzen wir u(t) := x(t) − x∗ , so erhalten wir

112

5 Elementare Stabilitätstheorie

u(t) ˙ = x(t) ˙ −

d x∗ = x(t) ˙ − f (x∗ ) = f (u(t) + x∗ ) − f (x∗ ) = f  (x∗ )u(t) + r(u(t)),    dt    =0 =0

mit r(u) := f (u + x∗ ) − f (x∗ ) − f  (x∗ )u = o(|u|),

für |u| → 0.

Daher untersuchen wir das äquivalente semilineare System u˙ = Au + r(u),

(N L)

mit A := f  (x∗ ) ∈ Rn×n und vergleichen dieses mit dem linearen System u˙ = Au.

(L)

Der folgende Satz enthält Implikationen der Stabilitätseigenschaften der trivialen Lösung u∗ = 0 von (L) für die von x∗ für (N). Satz 5.4.1. Sei f ∈ C 1 (Rn , Rn ), x∗ ein Equilibrium von (N ), und A := f  (x∗ ). Dann gelten die folgenden Aussagen: 1. Gilt Re λj < 0 für alle Eigenwerte λj von A, so ist das Equilibrium x∗ asymptotisch stabil für (N ); 2. Existiert ein Eigenwert λj , mit Re λj > 0, so ist x∗ instabil für (N ). Damit gilt für ein Equilibrium x∗ von (N ): s(f  (x∗ )) < 0 ⇒ x∗ asymptotisch stabil;

s(f  (x∗ )) > 0 ⇒ x∗ instabil.

Daher ist die Spektralschranke von f  (x∗ ) charakteristisch für Stabilität des Equilibriums x∗ von (N). Beweis. Zu 1: Sei x = x(t) eine Lösung von (N). Dann löst u(t) = x(t) − x∗ das System (NL). Ferner sei u(0) = u0 . Wegen f ∈ C 1 (Rn , Rn ) gilt: ∀ ρ > 0 ∃ η(ρ) > 0 : |r(u)| ≤ ρ|u|, falls |u| ≤ η.

(5.7)

Da u = u(t) eine Lösung von (NL) ist, liefert die Formel der Variation der Konstanten die Darstellung  u(t) = e u0 + At

0

t

eA(t−s) r(u(s)) ds, t ≥ 0.

(5.8)

5.4 Das Prinzip der linearisierten Stabilität

113

Wir müssen zeigen: ∀ ε > 0 ∃ δ(ε) > 0 : |u(t)| ≤ ε, falls |u0 | ≤ δ, für alle t ≥ 0, und limt→∞ |u(t)| = 0. Nach Übung 3.8 existieren Konstanten ω > 0 und M ≥ 1, sodass |eAt | ≤ Me−ωt , für alle t ≥ 0. Daraus folgt die Abschätzung 

t

|u(t)| ≤ |e ||u0 | + At

|eA(t−s) ||r(u(s))| ds

0

≤ Me

−ωt



t

|u0 | + M

e−ω(t−s) |r(u(s))| ds, t ≥ 0.

0

Wir fixieren ρ > 0 so, dass Mρ − ω < 0 gilt. Sei ferner |u0 | ≤ δ < η. Solange |u(s)| ≤ η für 0 ≤ s ≤ t gilt, können wir (5.7) anwenden und erhalten |u(t)| ≤ Me−ωt |u0 | + M



t

e−ω(t−s) ρ|u(s)| ds.

0

Mit der Substitution φ(t) = eωt |u(t)| folgt 

t

φ(t) ≤ M|u0 | + Mρ

φ(s) ds, 0

und das Lemma von Gronwall 2.4.1 liefert |u(t)| ≤ Me(Mρ−ω)t |u0 |. Aufgrund der Wahl von ρ > 0 gilt Mρ − ω < 0, also |u(t)| ≤ |u0 |M ≤ δM < η

und

|u(t)| < ε,

(5.9)

1 mit δ = 2M min{η, ε}. Dies zeigt, dass es kein t∗ > 0 geben kann, sodass |u(t∗ )| = η gilt. Nach dem Fortsetzungssatz 2.3.2 existiert die Lösung u(t) also global nach rechts und wegen (5.9) ist u∗ = 0 zudem stabil. Zusätzlich gilt aber auch

|u(t)| ≤ Me(Mρ−ω)t |u0 | → 0,

114

5 Elementare Stabilitätstheorie

für t → ∞. Daher ist u∗ = 0 asymptotisch stabil für (NL), das heißt, x∗ ist asymptotisch stabil für (N). Zu 2: Seien λk , k = 1, . . . , r, die verschiedenen Eigenwerte der Matrix A, geordnet nach aufsteigenden Realteilen. Wie wir in Kap. 3 gesehen haben, gilt dann die Spektralzerlegung Cn = N(λ1 ) ⊕ · · · ⊕ N (λr ), wobei N (λk ) den verallgemeinerten Eigenraum von λk bedeutet. Wenigstens der Eigenwert λr habe positiven Realteil. Wähle eine Spektrallücke [κ − σ, κ + σ ] mit σ, κ > 0 so, dass Re λr > κ + σ ist, und keine Eigenwerte Realteil in [κ − σ, κ + σ ] haben. Es sei s so gewählt, dass Re λs < κ − σ und Re λs+1 > κ + σ gelten, und wir setzen X− := N (λ1 ) ⊕ · · · ⊕ N(λs ), X+ := N(λs+1 ) ⊕ · · · ⊕ N (λr ), und bezeichnen mit P± die Projektion auf R(P± ) = X± längs N(P± ) = X∓ . Dann lässt eAt die Räume X± invariant, und nach Übung 3.8, angewandt auf A in X± , gibt es eine Konstante M ≥ 1 mit |P− eAt | ≤ Me(κ−σ )t ,

|P+ e−At | ≤ Me−(κ+σ )t ,

für alle t ≥ 0.

Angenommen, u∗ = 0 sei stabil für (NL). Dann gibt es zu jedem ε > 0 ein δ > 0, sodass die Lösung u(t) von (NL) die Ungleichung |u(t)| ≤ ε für alle t ≥ 0 erfüllt, sofern ihr Anfangswert u(0) = u0 in B¯ δ (0) liegt. Nach (5.7) gilt ferner |r(u)| ≤ ρ|u| für alle u ∈ B¯ η (0). Fixiere ρ > 0 (wird später gewählt) und setze ε = η und δ = δ(η). Mit Variation der Konstanten gilt nun 

t

u(t) = e u0 + At

eA(t−s) r(u(s))ds,

t ≥ 0.

(5.10)

0

Projiziert man diese Gleichung auf X+ so erhält man  P+ u(t) = P+ e u0 + At

 = P+ eAt v0 −

0

t

t

P+ eA(t−s) r(u(s))ds



P+ e−A(s−t) r(u(s))ds,

t ≥ 0,

∞ mit v0 = P+ u0 + 0 P+ e−As r(u(s))ds. Man beachte dabei, dass |r(u(s))| ≤ ρ|u(s)| ≤ ρη für alle s ≥ 0 gilt, und da P+ e−As exponentiell fällt, existieren die Integrale in der letzten Darstellung von P+ u(t) und in der Definition von v0 und sind beschränkt. Andererseits ist P+ eAs exponentiell wachsend, folglich ist v0 = 0, da u(t) beschränkt ist. Daraus folgt  |P+ u(t)| ≤ Mρ

t



e(κ+σ )(t−s) |u(s)|ds,

t ≥ 0,

5.4 Das Prinzip der linearisierten Stabilität

115

und durch Anwendung von P− auf die Darstellung (5.10) von u(t) ebenso  |P− u(t)| ≤ Me

(κ−σ )t

|P− u0 | + Mρ

t

e(κ−σ )(t−s) |u(s)|ds,

t ≥ 0.

0

Mit P+ +P− = I folgt |u(s)| ≤ |P+ u(s)|+|P− u(s)|, und setzt man φ(t) = e−κt |P− u(t)|, ψ(t) = e−κt |P+ u(t)|, so erhält man das System von Integralungleichungen φ(t) ≤ Me−σ t |P− u0 | + Mρ 



ψ(t) ≤ Mρ



t

e−σ (t−s) [φ(s) + ψ(s)]ds,

t ≥ 0,

0

e−σ (s−t) [φ(s) + ψ(s)]ds,

t ≥ 0.

(5.11)

t

Addition dieser beiden Ungleichungen ergibt φ(t) + ψ(t) ≤ Me−σ t |P− u0 | + Mρ





e−σ |t−s| [φ(s) + ψ(s)]ds,

t ≥ 0,

0

und nach Multiplikation mit e−σ t/2 und Integration über R+ 



e−σ t/2 [φ(t) + ψ(t)]dt

0



2M |P− u0 | + Mρ 3σ







0

2M 8Mρ |P− u0 | + ≤ 3σ 3σ



[

e−σ t/2 e−σ |t−s| dt][φ(s) + ψ(s)]ds

0





e−σ t/2 [φ(t) + ψ(t)]dt.

0

Dabei haben wir die Integrationsreihenfolge vertauscht, was erlaubt ist, da der Integrand stetig und absolut integrierbar ist. Wählt man nun ρ so klein, dass 8Mρ/3σ ≤ 1/2 ist, so folgt die Abschätzung 



e−σ t [φ(t) + ψ(t)]dt ≤

0





e−σ t/2 [φ(t) + ψ(t)]dt ≤

0

4M |P− u0 |. 3σ

Aus der Definition von v0 und mit v0 = 0 folgt nun  |P+ u0 | ≤ Mρ

0



e−σ t [φ(t) + ψ(t)]dt ≤

4M 2 ρ |P− u0 | =: γ |P− u0 | 3σ

Zusammengefasst haben wir aus der Stabilitätsannahme die Restriktion |P+ u0 | ≤ γ |P− u0 | hergeleitet. Nur Lösungen mit Anfangswerten in B¯ δ (0), die dieser Restriktion genügen, bleiben in der Kugel B¯ ε (0), was im Widerspruch zur Stabilitätsannahme steht. 

116

5 Elementare Stabilitätstheorie

Bemerkung 5.4.2. Satz 5.4.1 liefert keine Aussage im Fall Re λ = 0, für einen Eigenwert von A. Das zeigt schon das skalare Beispiel x˙ = βx 3 bzgl. der trivialen Lösung x∗ = 0. Nach Beispiel (b) am Ende des Abschn. 5.1 ist x∗ = 0 asymptotisch stabil, falls β < 0 und instabil, falls β > 0. Beispiele. (a) Das mathematische Pendel. Die obere Ruhelage, also der Punkt (π, 0) ist ein Equilibrium der Pendelgleichung ⎧ ⎨u˙ = v, ⎩v˙ = −ω2 sin u. Mit f (u, v) = [v, −ω2 sin u]T gilt 

 0 1 f (u, v) = , −ω2 cos u 0 

sodass 

 0 1 A := f (π, 0) = . ω2 0 

Die Eigenwerte der Matrix A lauten λ1,2 = ±ω, sodass für ω = 0 ein positiver Eigenwert von A existiert. Nach Satz 5.4.1 ist die obere Ruhelage des mathematischen Pendels also instabil. Für die untere Ruhelage ergeben sich zwei imaginäre Eigenwerte von f  (0), also ist Satz 5.4.1 nicht anwendbar. (b) Das Volterra–Lotka-Modell mit Sättigung ⎧ ⎨x˙ = ax − bxy − f x 2 , (V L) ⎩y˙ = −dy + cxy,

a, b, c, d, f > 0.

Um die Equilibria von (VL) zu bestimmen, müssen wir das nichtlineare Gleichungssystem ax − bxy − f x 2 = 0, −dy + cxy = 0,

5.4 Das Prinzip der linearisierten Stabilität

117

lösen. Für y = 0 folgt aus der ersten Gleichung x1 = 0 und x2 = y = 0, so folgt aus der zweiten Gleichung x = y = ab − fcbd ergibt.

a f.

Ist andererseits

d c , woraus sich aus der ersten Gleichung

Es existieren also die 3 Equilibria E1 = (0, 0), E2 =   fd d a , − c b cb . Ferner gilt





a f ,0

und E3 =



 a − by − 2f x −bx f  (x, y) = . cy −d + cx Equilibrium E1 :   a 0 f (0, 0) = . 0 −d 

Die Eigenwerte der Matrix f  (0, 0) lauten λ1 = a > 0 und λ2 = −d < 0. Nach Satz 5.4.1 ist das Equilibrium E1 ein Sattelpunkt, also instabil. Equilibrium E2 : f



   −a − ab a f . ,0 = f 0 −d + ca f

Die Eigenwerte sind in diesem Fall gegeben durch λ1 = −a < 0 und λ2 = −d + ca f . Es gilt λ2 < 0 genau dann, wenn ac < df . Hier ist E2 für ac < df asymptotisch stabil und im Fall ac > df instabil. Equilibrium E3 : A := f





d a fd , − c b cb



 =

 − dfc − bd c . ac−df 0 b

Aus Abschn. 5.2 wissen wir, dass Re λ1 , Re λ2 < 0 genau dann gilt, wenn sp A < 0 und det A > 0. Es gilt sp A = − dfc < 0 und ⎧ ⎨> 0, falls ac > df, d det A = (ac − df ) ⎩< 0, falls ac < df. c Freilich ist das Koexistenzequilibrium E3 biologisch nur für ac > df sinnvoll und dann ist es asymptotisch stabil und E2 instabil. Das Phasenportrait für den KoexistenzFall in (VL) ist in Abb. 5.10 mit a = b = c = 2, d = f = 1 dargestellt.

118

5 Elementare Stabilitätstheorie

Abb. 5.10 Koexistenz im Volterra–Lotka-Modell

y 2.0 1.5 1.0 0.5

0.5

1.0

1.5

2.0

x

(c) Konkurrenzmodelle. Seien u, v die Populationsgrößen zweier Spezies, welche um dieselbe Nahrungsquelle konkurrieren. Das entsprechende System lautet ⎧ ⎨u˙ = au − bu2 − euv, (K) ⎩v˙ = cv − dv 2 − f uv,

a, b, c, d, e, f > 0.

Zur Bestimmung der Equilibria löse man das nichtlineare Gleichungssystem (a − bu − ev)u = 0, (c − dv − f u)v = 0. Im Fall u = 0 bzw. v = 0 erhält man die 3 Gleichgewichtspunkte E1 = (0, 0), * + E2 = (0, dc ) und E3 = ab , 0 . Für u = 0, v = 0 existiert das Koexistenzequilibrium      1 u d −e a = . bd − ef −f b v c Also gilt E4 =



ad−ec bc−af bd−ef , bd−ef

 . Ferner ist die Jacobi-Matrix gegeben durch

  a − 2bu − ev −eu f (u, v) = . −f v c − 2dv − f u 

Equilibrium E1 :   a0 f (0, 0) = . 0c 

Da beide Eigenwerte größer als Null sind, ist E1 instabil, ein instabiler Knoten.

5.4 Das Prinzip der linearisierten Stabilität

119

Equilibrium E2 :    c ec a − 0 d = A := f  0, . d − fdc −c Es liegt asymptotische Stabilität von E2 vor, falls sp A < 0 und det A > 0. Nun ist det A > 0 genau dann, wenn ce > ad gilt; in diesem Fall ist sp A < 0. Equilibrium E3 : Eine ganz ähnliche Rechnung wie für das Equilibrium E2 liefert die asymptotische Stabilität von E3 für af > bc und die Instabilität von E3 für af < bc. Equilibrium E4 : Dieses Koexistenzequilibrium ist wegen den Populationsgrößen (u, v) nur dann sinnvoll, wenn beide Komponenten positiv sind. Sei E4 = (u∗ , v∗ ). Wegen 0 = u∗ (a − bu∗ − ev∗ ) und u∗ > 0, gilt −bu∗ = a − 2bu∗ − ev∗ . Analog erhält man −dv∗ = c − 2dv∗ − f u∗ . Daraus erhalten wir für die Jacobi-Matrix die Darstellung   −bu∗ −eu∗  . A := f (u∗ , v∗ ) = −f v∗ −dv∗ Es gilt sp A = −(bu∗ + dv∗ ) < 0, da u∗ , v∗ > 0 und det A = u∗ v∗ (bd − ef ) > 0, falls bd − ef > 0. Nach Satz 5.4.1 ist das Equilibrium E4 asymptotisch stabil, falls bd − ef > 0 und instabil, falls bd − ef < 0. Im Falle b = 0 oder d = 0 ist E4 wegen −ef < 0 stets instabil und falls e = 0 oder f = 0, ist E4 wegen bd > 0 stets asymptotisch stabil. Die zugehörigen Phasenportraits sind in den Abb. 5.11 und 5.12 dargestellt. In höheren Dimensionen sind die Nullstellen des charakteristischen Polynoms p(λ) = det(λ − A) nicht immer leicht zugänglich, daher sind Kriterien nützlich, die Re λj < 0 für alle Nullstellen λj von p(λ) sicherstellen. Das bekannteste ist das Kriterium von Routh-

v

v

1.5

1.0 0.8

1.0

0.6 0.4

0.5

0.2 0.5

1.0

1.5

u

Abb. 5.11 Konkurrenzmodell: Keine Koexistenz

0.5

1.0

1.5

2.0

u

120

1.0

5 Elementare Stabilitätstheorie

v

2.0

0.8

v

1.5

0.6

1.0

0.4

0.5

0.2 0.2

0.4

0.6

0.8

1.0

u

0.5

1.0

1.5

2.0

u

Abb. 5.12 Konkurrenzmodell: Koexistenz

Hurwitz, das hier ohne Beweis angegeben wird; siehe auch [9]. Um es formulieren zu können, schreibt man p(λ) = a10 λn + a11 λn−1 + a20 λn−2 + a21 λn−3 + · · · . Die Zeilen aj0 und aj1 werden weiter nach rechts durch Nullen aufgefüllt. Induktiv werden nun die Einträge der Routh-Matrix definiert mittels i aji+1 = aji−1 +1 − ri aj +1 ,

ri =

a1i−1 a1i

, i, j ≥ 1,

sofern a1i = 0 ist, andernfalls wird aji+1 = 0 gesetzt. Nun gilt: Satz 5.4.3 (Routh-Hurwitz-Kriterium). Es sei die Routh-Hurwitz-Matrix [aji ]ij wie angegeben definiert. Dann sind äquivalent: (a) Alle Nullstellen von p(λ) haben negative Realteile. (b) Es gilt a1i > 0 für alle i = 1, . . . , n. Man beachte dabei a10 = 1! Speziell ergeben sich für n = 3, also für p(λ) = λ3 +aλ2 +bλ+c die Stabilitätsbedingungen a > 0, c > 0, ab > c, und im Falle n = 4, also für p(λ) = λ4 + aλ3 + bλ2 + cλ + d, die Relationen a > 0, d > 0, ab > c, abc > c2 + a 2 d.

5.5 Ljapunov-Funktionen

5.5

121

Ljapunov-Funktionen

Sei f : G → Rn lokal Lipschitz, G ⊂ Rn offen und betrachte die autonome Differentialgleichung x˙ = f (x).

(5.12)

Ein wichtiges Konzept in der Stabilitätstheorie von Differentialgleichungen ist das der Ljapunov-Funktion. Definition 5.5.1. 1. Eine Funktion V ∈ C(G; R) heißt Ljapunov-Funktion für (5.12), falls V entlang der Lösungen von (5.12) fallend ist, das heißt, die Funktion ϕ(t) := (V ◦ x)(t) ist für jede beliebige Lösung x(t) von (5.12) fallend in t; 2. V heißt strikte Ljapunov-Funktion für (5.12), falls V entlang nichtkonstanter Lösungen von (5.12) streng fallend ist, das heißt, die Funktion ϕ(t) := (V ◦ x)(t) ist für jede beliebige nichtkonstante Lösung x(t) von (5.12) streng fallend in t. Beispiele für Ljapunov-Funktionen. (a) Sei x = x(t) eine Lösung von (5.12) und V ∈ C 1 (G; R). Die Kettenregel ergibt für die Funktion ϕ(t) = (V ◦ x)(t): ϕ(t) ˙ = (∇V (x(t))|x(t)) ˙ = (∇V (x(t))|f (x(t)). Also ist V ∈ C 1 (G; R) genau dann eine Ljapunov-Funktion, falls (∇V (x)|f (x)) ≤ 0 für alle x ∈ G gilt, und V ist eine strikte Ljapunov-Funktion, wenn (∇V (x)|f (x)) < 0

für alle x ∈ G \ E,

ist, wobei E = {x ∈ G| f (x) = 0} = f −1 (0) die Equilibriumsmenge von (5.12) bedeutet. (b) Sei n = 1. Die Differentialgleichung x˙ = f (x) besitzt eine Ljapunov-Funktion, denn falls V = V (x) eine Stammfunktion zu −f (x) ist, also V  (x) = −f (x), so gilt V  (x)f (x) = −f (x)2 ≤ 0. Die Funktion V ist sogar eine strikte Ljapunov-Funktion.

122

5 Elementare Stabilitätstheorie

Sei n > 1. Unter Gradientensystemen verstehen wir Systeme, bei denen die Funktion −f (x) eine Stammfunktion F ∈ C 1 (G, R) besitzt, also ∇F (x) = −f (x). Setzt man V (x) = F (x), so ist die Funktion V eine strikte Ljapunov-Funktion, denn es gilt (∇V (x)|f (x)) = −(f (x)|f (x)) = −|f (x)|2 ≤ 0, und f (x) = 0 genau dann, wenn x ∈ E. (c) Das gedämpfte Pendel ⎧ ⎨u˙ = v, ⎩v˙ = −αv − ω2 sin u,

α ≥ 0, ω > 0.

Wir definieren V (u, v) = 12 v 2 + ω2 (1 − cos u); dies ist das erste Integral für das ungedämpfte Pendel. Dann ist V ∈ C 1 (R2 ; R) eine Ljapunov-Funktion, denn es gilt      v ω2 sin u  (∇V (u, v)|f (u, v)) =  −αv − ω2 sin u v = vω2 sin u − αv 2 − ω2 v sin u = −αv 2 ≤ 0, für alle v ∈ R. Mit Ausnahme der u-Achse gilt sogar (∇V (u, v)|f (u, v)) < 0, also ϕ(t) = V (u(t), v(t)) streng fallend. Angenommen, ϕ(t) ist in einem nichttrivialem Intervall (a, b) nicht streng fallend; dann folgt ϕ(t) ˙ = 0, also v(t) = 0 in (a, b), folglich u(t), ˙ und somit u(t) = const in (a, b). Mit v(t) ˙ = 0 folgt dann sin u(t) = 0, d. h. diese Lösung muss ein Equilibrium sein. Daher ist V sogar eine strikte LjapunovFunktion. (d) Das Volterra–Lotka-System mit Sättigung ⎧ ⎨x˙ = ax − cxy − bx 2 , (V LS) ⎩y˙ = −dy + exy,

a, b, c, d, e > 0.

Das Koexistenzequilibrium im Quadranten G = (0, ∞)×(0, ∞) = (0, ∞)2 haben wir schon im vorigen Abschnitt bestimmt und auf Stabilität untersucht. Es lautet x∗ = de und y∗ = ae−bd ce . Wir definieren nun eine Funktion V durch V (x, y) = α(x − x∗ log Dann gilt

x y ) + β(y − y∗ log ) α, β ∈ R. x∗ y∗

5.5 Ljapunov-Funktionen

123

 (∇V (x, y)|f (x, y)) =

    α(1 − x∗ /x)  ax − bx 2 − cxy  β(1 − y∗ /y) −dy + cxy

= α(x − x∗ )(a − bx − cy) + β(y − y∗ )(−d + ex) = α(x − x∗ )[b(x∗ − x) + c(y∗ − y)] + β(y − y∗ )e(x − x∗ ) = −αb(x − x∗ )2 + (βe − αc)(y − y∗ )(x − x∗ ). Hier haben wir die Identitäten a = bx∗ + cy∗ und d = ex∗ verwendet. Wir wählen α = e und β = c. Daraus folgt (∇V (x, y)|f (x, y)) = −eb(x − x∗ )2 ≤ 0, für alle x, y ∈ R. Also ist die Funktion V = V (x, y) eine Ljapunov-Funktion. Es gilt sogar (∇V (x, y)|f (x, y)) < 0 für alle x = x∗ , also ist ϕ(t) = V (x(t), y(t)) streng fallend, sofern x(t) = x∗ ist. Für Zeitwerte t mit x(t) = x∗ ist aber x(t) ˙ = x∗ (a − cy − bx∗ ) = 0, sofern nicht auch y = y∗ ist. Daher verlässt eine nichtkonstante Lösung sofort die Menge {x = x∗ }, und V ist damit sogar eine strikte Ljapunov-Funktion. Ljapunov-Funktionen eignen sich zum Nachweis globaler Existenz der Lösungen von (5.12). Proposition 5.5.2. Sei G ⊂ Rn offen, f : G → Rn lokal Lipschitz, V ∈ C(G, R) eine Ljapunov-Funktion für (5.12) und es gelte 1. lim|x|→∞ V (x) = ∞, falls G unbeschränkt ist: V ist koerziv; 2. limx→∂G V (x) = ∞. Dann existiert jede Lösung von (5.12) global nach rechts. Ferner gelten sup |x(t)| < ∞ und t≥0

inf dist(x(t), ∂G) > 0.

t≥0

Beweis. Sei x(t) eine Lösung von (5.12) mit dem maximalen Existenzintervall [0, t+ ). Dann ist die Funktion ϕ(t) := V (x(t)) nach Voraussetzung monoton fallend für alle t ∈ [0, t+ ). Angenommen x(t) ist nicht beschränkt. Dann existiert eine Folge tn → t+ mit |x(tn )| → ∞ für n → ∞. Nach Voraussetzung 1 gilt dann aber auch V (x(tn )) → ∞ für n → ∞. Dies widerspricht aber der Monotonie von ϕ.

124

5 Elementare Stabilitätstheorie

Angenommen dist(x(tn ), ∂G) → 0 für tn → t+ . Aus Voraussetzung 2 folgt dann wiederum V (x(tn )) → ∞ für n → ∞, ein Widerspruch. Aus Satz 2.3.2 folgt t+ = ∞, also die globale Existenz der Lösung nach rechts.  Beispiele. (a) Das Volterra–Lotka-System mit Sättigung. Sei G = (0, ∞)2 . Wie wir bereits gesehen haben, ist die Funktion     x y + c y − y∗ log V (x, y) = e x − x∗ log x∗ y∗ eine Ljapunov-Funktion für das Volterra–Lotka-System mit Sättigung. Die Funktion V erfüllt ferner die Voraussetzungen aus Proposition 5.5.2 für G = (0, ∞) × (0, ∞). Also existieren die Lösungen global nach rechts und sind vom Rand weg beschränkt. (b) Das gedämpfte Pendel. Sei G = R2 . Die strikte Ljapunov-Funktion V (u, v) =

1 2 v + ω2 (1 − cos u) 2

erfüllt leider nicht die Bedingung 1 aus Proposition 5.5.2. Jedoch gilt V (u, v) → ∞ für |v| → ∞. Das impliziert |u(t)| ˙ = |v(t)| ≤ M für alle t ≥ 0. Aus der Differentialgleichung für das gedämpfte Pendel erhalten wir zunächst |u(t)| ¨ ≤ M für alle t ≥ 0 und nach Multiplikation der Gleichung mit u˙ und Integration bzgl. t weiterhin  ∞ u(t) ˙ 2 dt < ∞. 0

Daraus folgt v(t) = u(t) ˙ → 0 für t → ∞. Da die Ljapunov-Funktion V nichtnegativ ist, gilt V (u(t), v(t)) → V∞ ≥ 0 für t → ∞ und damit cos u(t) → c∞ ∈ [−1, 1] für t → ∞. Für jedes ε > 0 existiert also ein tε > 0, sodass | cos u(t) − c∞ | ≤ ε falls t ≥ tε . Für hinreichend kleines ε > 0 besteht das Urbild cos−1 ([c∞ − ε, c∞ + ε]) = {v ∈ R : cos v ∈ [c∞ − ε, c∞ + ε]} aus einer Vereinigung beschränkter disjunkter Intervalle. Daher gilt |u(t)| ≤ C für alle t ≥ 0 mit einer geeigneten Konstante C > 0, da die Menge u(R+ ) zusammenhängend ist. Bevor wir zur sogenannten direkten Methode von Ljapunov kommen, benötigen wir eine Aussage, die die Asymptotik der Lösungen von (5.12) für t → ∞ mit einer gegebenen Ljapunov-Funktion verbindet.

5.5 Ljapunov-Funktionen

125

Lemma 5.5.3. Sei V ∈ C(G) eine strikte Ljapunov-Funktion für (5.12), sei x(t, x0 ) eine nach rechts globale Lösung von (5.12) mit x(tk , x0 ) → x∞ ∈ G für eine Folge tk → ∞. Dann gilt x∞ ∈ E. Beweis. Die Funktion ϕ(t) = V (x(t)) ist fallend, daher existiert der Grenzwert ϕ(∞) = lim ϕ(t) = lim ϕ(tk ) = lim V (x(tk , x0 )) = V (x∞ ), t→∞

k→∞

k→∞

da V stetig ist. Eindeutigkeit und stetige Abhängigkeit implizieren lim x(t + tk , x0 ) = lim x(t, x(tk , x0 )) = x(t, lim x(tk , x0 )) = x(t, x∞ ),

k→∞

k→∞

k→∞

für jedes feste t im maximalen Existenzintervall J∞ von x(·, x∞ ). Die Stetigkeit von V liefert daher die Identität ϕ(∞) = V (x∞ ) = V (x(t, x∞ )), für alle t ∈ J∞ . Da V eine  strikte Ljapunov-Funktion ist, muss x∞ daher ein Equilibrium von (5.12) sein. Kennt man eine Ljapunov-Funktion zu (5.12), so kann man unter bestimmten Voraussetzungen auf das Stabilitätsverhalten eines Equilibriums x∗ ∈ G von (5.12) schließen. Satz 5.5.4. Sei V ∈ C(G; R) eine Ljapunov-Funktion für (5.12) und x∗ sei ein Equilibrium für (5.12). Dann gelten: 1. Ist x∗ ein striktes Minimum von V , so ist x∗ stabil für (5.12). 2. Ist x∗ isoliert in E = f −1 (0), ein striktes Minimum von V und ist V eine strikte Ljapunov-Funktion, so ist x∗ asymptotisch stabil für (5.12). Beweis. Zu 1: Sei ε > 0 gegeben, sodass B¯ ε (x∗ ) ⊂ G und V (x) > V (x∗ ) für alle x ∈ B¯ ε (x∗ ) \ {x∗ } gilt. Sei ferner η :=

min

x∈∂ B¯ ε (x∗ )

V (x).

Offensichtlich gilt V (x∗ ) < η. Da V stetig ist, existiert ein δ ∈ (0, ε), sodass V (x) < η für alle x ∈ Bδ (x∗ ). Für x(0) = x0 mit |x0 − x∗ | < δ gilt demnach V (x(t)) ≤ V (x0 ) < η,

(5.13)

solange die Lösung existiert, da die Komposition V ◦x eine monoton fallende Funktion ist. Angenommen es existiert ein kleinstes t∗ > 0 mit |x(t∗ )−x∗ | = ε. Dann gilt V (x(t∗ )) ≥ η, im Widerspruch zu (5.13). Die Lösung erreicht also niemals den Rand der Kugel B¯ ε (x∗ ). Daher existiert die Lösung global und es gilt |x(t) − x∗ | < ε für alle t ≥ 0.

126

5 Elementare Stabilitätstheorie

Zu 2: Seien δ > 0 und ε > 0 wie im ersten Teil des Beweises, aber unter der zusätzlichen Bedingung gegeben, dass ε > 0 so klein ist, dass x∗ das einzige Equilibrium in B¯ ε (x∗ ) ist. Angenommen die Lösung x = x(t; x0 ) von (5.12) zum Anfangswert x0 ∈ Bδ (x∗ ) konvergiert nicht gegen das Equilibrium x∗ . Dann existiert ein ρ > 0 und eine Folge (tn )  ∞, sodass |x(tn ; x0 ) − x∗ | > ρ für alle n ∈ N. Aus Teil I des Beweises folgt, dass die Lösung x(t; x0 ) für alle t ≥ 0 gleichmäßig beschränkt ist. Daraus folgt die Existenz einer Teilfolge (tnk )  ∞, sodass der Grenzwert lim x(tnk ; x0 ) =: x∞ ∈ B¯ ε (x∗ ) ⊂ G,

k→∞

existiert. Nach Lemma 5.5.3 ist x∞ ∈ E ein Equilibrium von (5.12). Das ist ein  Widerspruch dazu, dass x∗ das einzige Equilibrium von (5.12) in B¯ ε (x∗ ) ist. Bemerkung 5.5.5. Die Methode heißt direkt, da keine Algebra der Matrix f  (x∗ ) (indirekte Methode), also keine Untersuchung der Eigenwerte notwendig ist. Das ist der große Vorteil gegenüber der indirekten Methode. Leider muss man aber dazu eine LjapunovFunktion kennen, was im Allgemeinen nicht immer der Fall ist. Dem gegenübergestellt ist die indirekte Methode natürlich universell anwendbar, sofern die rechte Seite f aus C 1 ist. Leider liefert aber diese Methode wiederum keine Aussagen über globales Verhalten. Beispiele. (a) Bewegung eines Teilchens im Potentialfeld. Sei φ = φ(x) das Potential, x = x(t) ∈ R3 die Position des Teilchens zur Zeit t und m dessen Masse. Die Bewegung des Teilchens im Potentialfeld wird beschrieben durch die Differentialgleichung mx¨ = −∇φ(x),

x ∈ R3 .

Setzt man q = x und p = mx, ˙ so erhält man die Hamilton’sche Formulierung des Problems: ⎧ ⎨q˙ = x˙ = p , m (H ) ⎩p˙ = mx¨ = −∇φ(x) = −∇φ(q). |x| ˙2

Setze nun V (q, p) = m 2 2 + φ(x) = |p| 2m + φ(q), also ist V die Gesamtenergie des Systems. Sind dann q = q(t) und p = p(t) Lösungen von (H), so gilt 2

d 1 1 1 V (q(t), p(t)) = (∇φ(q)|q) ˙ + (p|p) ˙ = (∇φ(q)|p) + (p| − ∇φ(q)) = 0. dt m m m

5.5 Ljapunov-Funktionen

127

Somit ist V also eine Ljapunov-Funktion, sogar ein erstes Integral für (H). Die Equilibria (q∗ , p∗ ) ergeben sich aus den Gleichungen p∗ = 0 und ∇φ(q∗ ) = 0. Wie man leicht nachrechnet, ist (q∗ , 0) genau dann ein striktes Minimum von V , wenn q∗ ein striktes Minimum von φ ist. Aus Satz 5.5.4 folgt also, dass strikte Minima des Potentials φ stabile Ruhelagen eines Teilchens in dessen Kraftfeld sind. Man beachte, dass diese aufgrund der Energieerhaltung nicht asymptotisch stabil sein können. Ist andererseits q∗ ein Sattelpunkt oder ein lokales Maximum von φ, genauer besitzt √ ∇ 2 φ(q∗ ) einen negativen Eigenwert μ, dann sind λ = ± −μ/m Eigenwerte der Linearisierung von (H) in (q∗ , 0). Das Prinzip der linearisierten Stabilität impliziert dann Instabilität des Equilibriums (q∗ , 0) von (H). (b) Das mathematische Pendel. Dieses Beispiel ist ein Spezialfall von (a). Die Funktion V (x, ˙ x) = 12 x˙ 2 + ω2 (1 − cos x) ist eine Ljapunov-Funktion für die Differentialgleichung x¨ + ω2 sin x = 0. Der Punkt (0, 0) ist ein Equilibrium des Pendels und zugleich ein striktes Minimum, denn es gilt     ω2 sin(0) 0 ∇V (0, 0) = = 0 0 und     ω2 0 ω2 cos(0) 0 = , ∇ V (0, 0) = 0 1 0 1 2

sodass die Hesse-Matrix ∇ 2 V (0, 0) positiv definit ist. Nach Satz 5.5.4 ist die untere Ruhelage des Pendels stabil, aber nicht asymptotisch stabil. Andererseits ist V im Fall des gedämpften Pendels eine strikte Ljapunov-Funktion, also zeigt Satz 5.5.4, dass die untere Ruhelage für das gedämpfte Pendel asymptotisch stabil ist. (c) Das Volterra–Lotka-System mit Sättigung. Wir hatten bereits gezeigt, dass die Funktion     x y + c y − y∗ log , V (x, y) = e x − x∗ log x∗ y∗ eine strikte Ljapunov-Funktion für das Volterra–Lotka-System mit Sättigung ist. Dabei ist (x∗ , y∗ ) das Koexistenzequilibrium, welches durch x∗ = de > 0 und y∗ = ae−bd > ce 0 gegeben ist. Es gilt ⎡  e 1− ∇V (x∗ , y∗ ) = ⎣  c 1−

⎤

x∗ x∗ ⎦ y∗ y∗

  0 = , 0

128

5 Elementare Stabilitätstheorie

und  ∇ V (x∗ , y∗ ) = 2

e x∗

0

0 c y∗

 .

Demnach ist die Hesse-Matrix ∇ 2 V (x∗ , y∗ ) wegen c, e, x∗ , y∗ > 0 positiv definit. Also ist (x∗ , y∗ ) ein striktes Minimum von V und Satz 5.5.4 liefert die asymptotische Stabilität des Koexistenzequilibriums. Ljapunov-Funktionen leisten aber noch viel mehr, sie geben nämlich auch Aufschluss über das asymptotische Verhalten von beliebigen beschränkten Lösungen. Satz 5.5.6. Sei V eine strikte Ljapunov-Funktion für (5.12), K ⊂ G kompakt, x(t) = x(t; x0 ) sei eine Lösung von (5.12) mit {x(t; x0 )}t≥0 ⊂ K und es sei E := f −1 (0) ⊂ G die Equilibriumsmenge von (5.12). Dann gilt lim dist(x(t), E) = 0.

t→∞

Ist E ∩ V −1 ({α}) diskret für jedes α ∈ R, so existiert der Grenzwert lim x(t) =: x∞ ∈ E.

t→∞

Beweis. Die erste Behauptung folgt aus Lemma 5.5.3. Sei nun E ∩ V −1 (α) für jedes α ∈ R diskret. Angenommen der Grenzwert limt→∞ x(t) existiert nicht. Wähle eine Folge tk → ∞ mit x(tk ) → x∞ (k → ∞) und eine Folge sk → ∞ mit x(sk ) → y∞ = x∞ (k → ∞) und tk < sk < tk+1 . Mit α∞ := V (x∞ ), wähle ein ε > 0 so klein, dass B¯ ε (x∞ ) ∩ E ∩ V −1 (α∞ ) = {x∞ }. Dies ist möglich, da E ∩ V −1 (α∞ ) diskret ist. Da x(t) stetig ist und wegen y∞ ∈ B¯ ε (x∞ ) existiert ein k0 ∈ N, sodass die Funktion x(t) den Rand der Kugel B¯ ε (x∞ ) in jedem der Intervalle (tk , sk ) für alle k ≥ k0 trifft. Man erhält so eine Folge rk → ∞, mit |x(rk ) − x∞ | = ε. Da aber der Rand der Kugel B¯ ε (x∞ ) kompakt ist, existiert eine konvergente Teilfolge x(rkl ) → z∞ und |z∞ − x∞ | = ε. Nach Lemma 5.5.3 gilt z∞ ∈ E ∩V −1 (α∞ ). Das ist aber ein Widerspruch dazu, dass V −1 (α∞ )∩E ∩ B¯ ε (x∞ ) =  {x∞ } gilt. Beispiele. (a) Das gedämpfte Pendel. Die Funktion V (u, v) = 12 v 2 + ω2 (1 − cos u) ist eine strikte Ljapunov-Funktion für das Pendelsystem mit Dämpfung ⎧ ⎨u˙ = v, ⎩v˙ = −αv − ω2 sin u,

α ≥ 0, ω > 0.

5.6 Dynamik von Viren

129

Die Equilibriumsmenge E ist durch E = {(kπ, 0) : k ∈ Z} gegeben, also diskret. Damit konvergiert jede Lösung dieses Systems gegen eine der Gleichgewichtslagen. (b) Das Volterra–Lotka-System mit Sättigung. Die Menge der Equilibria E ist hier diskret. Wir wissen ferner, dass V (x, y) = e(x − x∗ log

x y ) + c(y − y∗ log ) x∗ y∗

eine strikte Ljapunov-Funktion für (x, y) ∈ G \ E ist. Die Lösungen existieren außerdem für jeden Anfangswert x0 , y0 > 0 global und sind vom Rand weg beschränkt. Dann besagt Satz 5.5.6, dass die Lösung (x(t), y(t)) zum Anfangswert (x0 , y0 ) für t → ∞ konvergent ist, mit (x(t), y(t)) → (x∗ , y∗ ). Die anderen Equilibria liegen auf dem Rand von G = (0, ∞) × (0, ∞), und sind damit instabil. (c) Teilchen im Potentialfeld mit Dämpfung. In Verallgemeinerung von (a) betrachten wir nochmals die Gleichung für ein Teilchen im Potentialfeld x¨ + g(x) ˙ + ∇φ(x) = 0, wobei die lokale Lipschitz Funktion g : Rn → Rn eine Dämpfung beschreibt. Als ˙ 22 + φ(x). Dann ist Ljapunov-Funktion wählen wir wieder die Energie V (x, x) ˙ = 12 |x| d V (x, x) ˙ = −(g(x)| ˙ x), ˙ dt folglich ist V eine strikte Ljapunov-Funktion, falls die Bedingung (g(y)|y) > 0

für alle y ∈ Rn , y = 0,

erfüllt ist. Satz 5.5.6 impliziert nun die Konvergenz beschränkter Lösungen, sofern die kritischen Punkte von φ in jeder Niveaumenge φ −1 (α) diskret sind. Man beachte auch, dass mit Proposition 5.5.2 jede Lösung beschränkt ist, sofern φ koerziv ist.

5.6

Dynamik von Viren

Wir betrachten eine virale Infektion einer Zellkultur. Zur Modellierung seien V die Anzahl der freien Viren, Z die der nicht infizierten Zellen und I die der infizierten Zellen. Nicht infizierte Zellen werden mit einer festen Rate λ > 0 bereitgestellt. Die freien Viren infizieren die gesunden Zellen mit der Rate rV Z. Dabei beschreibt die Infektionskontaktrate r > 0 die Effizienz dieses Vorgangs, also etwa die Häufigkeit mit der freie Viren nichtinfizierte Zellen aufspüren und in sie eindringen (oder ihr genetisches Material einführen), sowie den Anteil der erfolgreichen Infektionen. Die anderen Prozesse sollen jeweils nur von einer Spezies abhängen: Infizierte Zellen produzieren neue Viren

130

5 Elementare Stabilitätstheorie

und setzen sie mit Rate k > 0 pro Zelle frei. Die Sterberaten der drei Klassen seien gleich νV , mZ und μI . Schließlich berücksichtigen wir die Möglichkeit, dass die Anwesenheit freier Viren die Zellproduktion mit der Rate bV anregt. Im übrigen können infizierte Zellen nicht gesunden. Somit erhalten wir das System V˙ = kI − νV ,

t ≥ 0,

Z˙ = λ − mZ + bV − rV Z, I˙ = rV Z − μI,

t ≥ 0,

Z(0) = Z0 ,

V (0) = V0 ,

t ≥ 0,

(5.14)

I (0) = I0 .

Hierbei sind die Anfangswerte V0 , Z0 , I0 ≥ 0 und die Konstanten λ, r, k, m, μ, ν > 0 und b ≥ 0 gegeben. Mittels des Satzes von Picard–Lindelöf zeigt man leicht, dass (5.14) eine eindeutige Lösung besitzt. Wir skalieren diese Lösung mittels x(t) =

r V (t/μ), μ

rV0 , x0 = μ

y(t) =

krZ0 y0 = , μ2

kr Z(t/μ), μ2

z(t) =

kr I (t/μ), μ2

krI0 z0 = 2 . μ

(5.15)

Ferner setzen wir ξ = νμ−1 , σ = krλμ−3 , ρ = mμ−1 und δ = bkμ−2 . Dann ergibt sich aus (5.14) das normalisierte System x˙ = z − ξ x,

t ≥ 0,

y˙ = σ − ρy + δx − xy, z˙ = xy − z, x(0) = x0 ,

t ≥ 0,

t ≥ 0,

y(0) = y0 ,

(5.16)

z(0) = z0 .

Wir formulieren nun das grundlegende Resultat über das qualitative Verhalten von (5.16), wobei wir annehmen, dass die Anfangswerte x0 , y0 , z0 ≥ 0 und die Konstanten ξ, σ, ρ > 0 und δ ≥ 0 gegeben sind. Satz 5.6.1. Es seien δ ∈ [0, ξ ) und (x0 , y0 , z0 ) ∈ R3+ . Dann besitzt das System (5.16) eine eindeutige, beschränkte, positive Lösung für alle t ≥ 0. Ferner gibt es nur die Equilibria (x, y, z) = (0, σ/ρ, 0)

und

(x∗ , y∗ , z∗ ) =

 σ − ρξ σ − ρξ  . , ξ, ξ ξ −δ ξ −δ

(5.17)

Sei σ < ξρ. Dann ist (x, y, z) das einzige positive Equilibrium von (5.16). Es ist asymptotisch stabil und die Lösung von (5.16) konvergiert gegen (x, y, z).

5.6 Dynamik von Viren

131

Sei σ > ξρ. Dann ist (x, y, z) in R3+ instabil, und (x∗ , y∗ , z∗ ) ist strikt positiv und asymptotisch stabil. Die Lösung konvergiert gegen (x∗ , y∗ , z∗ ), falls x0 + z0 > 0 ist. Aus diesem Satz ergibt sich gemäß (5.15) unmittelbar die gewünschte Beschreibung des asymptotischen Verhaltens des Virenmodells (5.14). Zunächst beachte man, dass die Ungleichung δ < ξ zur Bedingung kb < μν äquivalent ist. Diese Zusatzbedingung sichert die Beschränkheit der Lösung und schließt den unrealistischen Fall aus, dass die Viren die Produktion gesunder Zellen zu stark anregen. Sie gilt stets im Falle b = 0. Der obige Satz σ das asymptotische Verhalten impliziert insbesondere, dass die Reproduktionsrate R = ξρ von (5.14) steuert: Ist R < 1, dann konvergiert das System gegen das infektionsfreie Gleichgewicht und die Infektion erlischt. Ist R > 1, dann konvergiert das System gegen das strikt positive endemische Gleichgewicht und die Infektion bleibt erhalten. Beweis. Es ist klar, dass eine einzige lokale Lösung (x, y, z) von (5.16) existiert. Sie bleibt positiv, da die Positivitätsbedingung (P) erfüllt ist. Wir setzen u = αx + y + z und κ = min{ρ, 1 − α, ξ − δ/α} > 0 für ein α ∈ (0, 1) mit δ < αξ , wobei wir die vorausgesetzte Relation δ < ξ verwenden. Dann folgt aus (5.16) die Ungleichung u˙ = σ − (αξ − δ)x − ρy − (1 − α)z ≤ σ − κu. Durch Integration erhalten wir u(t) ≤ u(0) + σ/κ. Auf Grund ihrer Positivität sind die Lösungen somit beschränkt und existieren also für alle Zeiten nach dem Fortsetzungssatz. Offenbar ist (x, y, z) = (0, σ/ρ, 0) eine stationäre Lösung von (5.16). Sei (x∗ , y∗ , z∗ ) ein weiteres Equilibrium. Da dann z∗ = ξ x∗ = 0 gelten muss, erhalten wir y∗ = ξ , woraus x∗ = (σ − ρξ )/(ξ − δ) folgt. Folglich ist (x∗ , y∗ , z∗ ) das einzige weitere Gleichgewicht, das genau für σ > ρξ positiv und ungleich (x, y, z) ist. Die rechte Seite von (5.16) ist durch f (x, y, z) = (z − ξ x, σ − ρy + δx − xy, xy − z) gegeben. An den Equilibria erhalten wir die Linearisierungen ⎛

−ξ ⎜  A = f (x, y, z) = ⎝δ − σ/ρ σ/ρ ⎛ −ξ ⎜ B = f  (x∗ , y∗ , z∗ ) = ⎝δ − ξ ξ

⎞ 0 1 ⎟ −ρ 0 ⎠ , 0 −1

⎞ 0 1 ⎟ −ρ − x∗ 0 ⎠ . x∗ −1

(5.18)

Das charakteristische Polynom von A ist pA (λ) = (λ + ρ)[λ2 + (1 + ξ )λ + ξ − σ/ρ]. Es hat die Nullstellen λ1 = −ρ und

132

5 Elementare Stabilitätstheorie

λ2,3

1 1 1+ξ ± =− (1 + ξ )2 − 4(ξ − σ/ρ). 2 2

Gemäß dem Prinzip der linearisierten Stabilität ist also (x, y, z) für σ < ξρ asymptotisch stabil und für σ > ξρ instabil. Die Instabilität in R3+ folgt unmittelbar aus der unten gezeigten globalen Attraktivität von (x∗ , y∗ , z∗ ) im Falle σ > ξρ. Sei nun σ > ξρ. Das charakteristische Polynom von B ist durch λ3 + a1 λ2 + a2 λ + a3 mit a1 = 1 + ξ + ρ + x∗ , a2 = (1 + ξ )(ρ + x∗ ) und a3 = σ − ξρ gegeben. Weil a1 a2 > ξ x∗ ≥ (ξ − δ)x∗ = a3 > 0, zeigt das Routh–Hurwitz Kriterium, dass die Eigenwerte von B strikt negative Realteile haben. Somit ist (x∗ , y∗ , z∗ ) in diesem Fall asymptotisch stabil. Wir wollen nun die behauptete globale asymptotische Stabilität mittels LjapunovFunktionen zeigen. Zuerst betrachten wir den Fall σ < ρξ und das Equilibrium (x, y, z) = (0, σ/ρ, 0). Wir setzen 0 (x, y, z) = (y − y)2 /2 + (2ξ − δ − y)(x + z)

(5.19)

für x, y, z ≥ 0. Dann ergibt sich aus (5.16) und σ = ρy ˙ 0 (x, y, z) = (y − y)(ρy − ρy + δx − xy) + (2ξ − δ − y)(xy − ξ x)  = −ρ(y − y)2 − x[y 2 − 2ξy + δy + ξ(2ξ − δ − y)] = −ρ(y − y)2 − x[(y − ξ )2 + (ξ − y)(ξ − δ)]. Aus ξ − y = (ξρ − σ )/ρ > 0 folgt somit, dass 0 eine Ljapunov-Funktion auf R3+ ˙ 0 (x, y, z) = 0 längs einer Lösung, dann erhalten wir y = σ/ρ und x = 0. ist. Gilt  Daraus ergibt sich aber z = 0, sodass 0 eine strikte Ljapunov-Funktion ist. Somit folgt die Konvergenzaussage in diesem Fall aus Satz 5.5.6. Nun untersuchen wir (x∗ , y∗ , z∗ ) unter der Bedingung σ > ξρ. Zunächst betrachten wir die schon für das Volterra–Lotka Modell verwendeten Funktionen φc (u) = u − c ln u ˙ − c/u), (5.16) für u > 0, und setzen φ1 = φx∗ , φ2 = φy∗ und φ3 = φz∗ . Aus φ˙ c (u) = u(1 und (5.17) ergeben sich  zx∗ x∗  φ˙ 1 (x) = (z − ξ x) 1 − =z− − ξ x + ξ x∗ , x x φ˙ 2 (y) = (ρy∗ − δx∗ + x∗ y∗ − ρy + δx − xy)(1 − y∗ /y) =−

δ ξ 2 x∗ ρ (y − y∗ )2 + (x − x∗ )(y − y∗ ) − xy + ξ x + ξ x∗ − y y y

ρ+x ξ −δ − (x − x∗ )(y − y∗ ) y y   ξ xyx∗ ξ x∗ φ˙ 3 (z) = (xy − z) 1 − = xy − z − + ξ x∗ . z z = −(y − y∗ )2

(5.20)

5.6 Dynamik von Viren

133

Wir definieren (x, y, z) = φ1 (x) + φ2 (y) + φ3 (z) und erhalten ˙ (x, y, z) = −

 z ρ ξ2 ξ xy δ (y − y∗ )2 + (x − x∗ )(y − y∗ ) − x∗ + + − 3ξ . y y x y z

In Hinblick auf den Term [· · · ], setzen wir a = z/x > 0 und b = ξ 2 /y > 0 ξ3 und betrachten die Funktion ϕ(a, b) = a + b + ab − 3ξ . Man sieht leicht, dass ∇ϕ 2 in (0, ∞) nur für a = b = ξ verschwindet und dass ϕ(ξ, ξ ) = 0 ein striktes lokales Minimum ist. Ferner konvergiert ϕ gegen unendlich, wenn (a, b) gegen die Koordinatenachsen oder gegen ∞ strebt. Also ist ϕ positiv und somit −x∗ [· · · ] ≤ 0. Gleichung (5.20) zeigt, dass wir den vorzeichenwechselnden Summanden yδ (x − x∗ ) (y − y∗ ) eliminieren können, wenn wir ein geeignetes Vielfaches von φ2 zu  addieren. Demgemäß setzen wir ∗ (x, y, z) = (x, y, z) +

δ φ2 (y) ξ −δ

(5.21)

und erhalten nach unseren obigen Rechnungen ˙ ∗ (x, y, z) = − 

 z ξ2 ξ xy δx + ξρ (y − y∗ )2 − x∗ + + − 3ξ ≤ 0. y(ξ − δ) x y z

˙ ∗ (x, y, z) = 0 längs einer Lösung, Also ist ∗ eine Ljapunov-Funktion auf (0, ∞)3 . Ist  dann folgt y = y∗ = ξ . Die zweite Gleichung in (5.16) impliziert somit x = x∗ , woraus sich mit der ersten Gleichung z = ξ x∗ = z∗ ergibt. Somit ist ∗ eine strikte Ljapunov-Funktion. Wenn (x, y, z) gegen die Koordinatenebenen oder gegen unendlich strebt, dann konvergiert auch ∗ (x, y, z) gegen unendlich. Somit sind die Mengen Nc = {x, y, z > 0 : ∗ (x, y, z) ≤ c} für c ∈ R positiv invariant und kompakt. Zu einem strikt positiven Anfangswert gibt es ein c, sodass (x0 , y0 , z0 ) und (x∗ , y∗ , z∗ ) in Nc liegen. Nach Satz 5.5.6 konvergiert nun die zu (x0 , y0 , z0 ) gehörende Lösung gegen das einzige Equilibrium (x∗ , y∗ , z∗ ) in Nc . Wir betrachten abschließend einen Anfangswert (x0 , y0 , z0 ) auf dem Rand von R3+ mit x0 + z0 > 0, wobei weiterhin σ > ξρ gelte. Zunächst zeigt die zweite Gleichung in (5.16), dass für kleine t > 0 die Komponente y(t) strikt positiv ist, auch wenn y0 gleich 0 sein sollte. Wir können also annehmen, dass y0 > 0 gilt. Dann folgt aus (5.16), dass f1 (0, y0 , z0 ), f2 (x0 , 0, z0 ) und f3 (x0 , y0 , 0) strikt positiv sind. Somit tritt die Lösung für  t > 0 in (0, ∞)3 ein und konvergiert dann gegen (x∗ , y∗ , z∗ ).

134

5 Elementare Stabilitätstheorie

Übungen 5.1 Sei f ∈ C(R) lokal Lipschitz, f (0) = 0, und f (x) = 0 für 0 < |x| < r. Betrachten Sie die DGL x˙ = f (x). Charakterisieren Sie mit Hilfe von Vorzeichenbedingungen an die Funktion f im Intervall (−r, r) die Stabilität, asymptotische Stabilität und Instabilität der stationären Lösung x∗ (t) ≡ 0. 5.2 Betrachten Sie die Ruhelagen (x, x) ˙ = (0, 0) und (x, x) ˙ = (π, 0) des Pendels x¨ + ω2 sin x = 0.

5.3 5.4 5.5 5.6

5.7

Zeigen Sie, dass die erste stabil aber nicht asymptotisch stabil, und die zweite instabil ist. Untersuchen Sie die Stabilitätseigenschaften der stationären Lösungen der FitzHughNagumo-Gleichung (vgl. Übung 4.6). Bestimmen Sie die Equilibria des Brusselators (vgl. Übung 2.4) und untersuchen Sie deren Stabilitätseigenschaften. Untersuchen Sie die Stabilitätseigenschaften der stationären Lösungen des Oregonators (vgl. Übung 4.7). Diese Aufgabe bezieht sich auf das Paarbildungsmodell (vgl. Übung 4.4). Die Funktion φ(u, v) sei aus C 1 (R2 ) und homogen, d. h. φ(tu, tv) = tφ(u, v) für alle μj , σ seien streng t, u, v ∈ R. Alle im Modell auftretenden Parameter βj , μj , 5 positiv. Unter welchen Bedingungen an die Parameter des Modells ist die triviale Lösung asymptotisch stabil bzw. instabil? Sei H : R2n → R aus C 2 . Das zu H gehörige Hamilton-System ist definiert durch q˙ = Hp (q, p),

(5.22)

p˙ = −Hq (q, p). Zeigen Sie, dass H (q, p) eine Ljapunov-Funktion für (5.22) ist. Wann ist ein Equilibrium von (5.22) stabil, wann asymptotisch stabil? 5.8 Das System x˙ = −λxy − μx + μa, y˙ = λxy − μy − γ y,

(5.23)

z˙ = γ y − μz, mit λ, μ, γ , a > 0 ist ein SIR-Endemiemodell, bei der die Infektion nicht vererbt wird. Zeigen Sie, dass dieses System im Fall aλ > μ + γ genau ein nichttriviales (endemisches) Equilibrium (x∗ , y∗ , z∗ ) ∈ (0, ∞)3 besitzt, und dass die Funktion

Übungen

135

V (x, y, z) = x − x∗ log(x) + y − y∗ log(y) eine Ljapunov-Funktion für (5.23) auf (0, ∞)3 ist. Was können Sie über die Stabilität von (x∗ , y∗ , z∗ ) sagen? 5.9 Sei a > 0. Das lineare System x˙0 = a(x1 − x0 ), x˙i = a(xi+1 + xi−1 − 2xi ),

i = 1, . . . , n,

(5.24)

x˙N +1 = a(xN − xN +1 ), entsteht durch räumliche Diskretisierung der Diffusionsgleichung ∂t u = b∂y2 u für (t, x) ∈ R+ × [0, 1] mit Neumannschen Randbedingungen ∂y u(t, 0) = ∂y u(t, 1) = 0. Zeigen Sie, dass V (x) =

N +1 

(xi − xi−1 )2

i=1

eine strikte Ljapunov-Funktion für (5.24) ist. 5.10 Das Holling-Modell u˙ = u(1 − λu) − vf (u), v˙ = −μv − v 2 + vf (u), ist ein weiteres Modell zur Beschreibung von Räuber-Beute Populationen. Dabei ist f : R+ → R aus C 1 streng wachsend mit f (0) = 0, und μ > 0, λ ≥ 0 sind Konstanten. Untersuchen Sie die (nichtnegativen) Equilibria des Systems. Unter welchen Bedingungen gibt es Koexistenz und wie ist das Stabilitätsverhalten der Equilibria? 5.11 Zeigen Sie, dass das SEI S Epidemie-Modell S˙ = λ − mS + bI − rI S, E˙ = rI S − μE − aE, I˙ = aE − νI − bI, S(0) = S0 ,

E(0) = E0 ,

t ≥ 0, t ≥ 0,

t ≥ 0, I (0) = I0 ,

nach geeigneter Skalierung äquivalent zum Virenmodell aus Abschn. 5.6 ist. Formulieren Sie die entsprechenden Resultate für dieses Modell. Welche Zahl ist hier der Schwellenwert?

Teil II Dynamische Systeme

6

Existenz und Eindeutigkeit II

Sei G ⊂ Rn+1 offen, (t0 , x0 ) ∈ G, f : G → Rn stetig, und betrachte das Anfangswertproblem x˙ = f (t, x), x(t0 ) = x0 .

(6.1)

Wir wissen aus Teil I, dass (6.1) lokal eindeutig lösbar ist, und dass sich die Lösungen auf ein maximales Existenzintervall fortsetzen lassen, sofern f lokal Lipschitz in x ist. Auch sind uns aus Kap. 2 bereits einige Kriterien für globale Existenz bekannt. Ziel dieses Kapitels ist die Erweiterung solcher Resultate auf den Fall allgemeiner stetiger rechter Seiten f .

6.1

Der Existenzsatz von Peano

Bezüglich der lokalen Existenz von Lösungen des Anfangswertproblems (6.1) für allgemeine stetige rechte Seiten f gilt der Satz 6.1.1 (Existenzsatz von Peano). Sei G ⊂ Rn+1 offen, f : G → Rn stetig und (t0 , x0 ) ∈ G. Dann existiert ein δ > 0 und eine Funktion x ∈ C 1 (Jδ ; Rn ) mit Jδ := [t0 − δ, t0 + δ], sodass (t, x(t)) ∈ G für alle t ∈ Jδ gilt, und x = x(t) löst (6.1) im Intervall Jδ . Beweis. Seien δ0 > 0 und r > 0 so fixiert, dass Jδ0 × B¯ r (x0 ) ⊂ G gilt, und setze M := max{|f (t, x)| : (t, x) ∈ Jδ0 × B¯ r (x0 )}. Zunächst approximieren wir f gleichmäßig auf kompakten Teilmengen von G durch eine Folge von C 1 -Funktionen fk ∈ C 1 (G, Rn ), die daher lokal Lipschitz in x sind. Ohne Beschränkung der Allgemeinheit © Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_6

139

140

6 Existenz und Eindeutigkeit II

sei |fk (t, x)| ≤ M + 1 für alle (t, x) ∈ Jδ0 × B¯ r (x0 ) und k ∈ N. Nach dem Satz von Picard–Lindelöf besitzen die Anfangswertprobleme x˙ = fk (t, x),

t ∈ Jδ , x(t0 ) = x0 ,

jeweils eindeutige Lösungen xk ∈ C 1 (Jδ ; Rn ) auf einem gemeinsamen Existenzintervall Jδ = [t0 − δ, t0 + δ], und die Werte der Lösungen bleiben in der Kugel B¯ r (x0 ). Dabei sind r > 0 wie oben und δ = min{δ0 , r/(M + 1)}. Die Folge (xk ) ⊂ C 1 (Jδ ; Rn ) ist daher gleichmäßig beschränkt, aber auch gleichgradig stetig, denn ihre Ableitungen x˙k (t) = fk (t, xk (t)) sind beschränkt durch M +1. Der Satz von Arzelà-Ascoli liefert daher eine auf Jδ gleichmäßig konvergente Teilfolge xkm → x. Die xk genügen den Integralgleichungen 

t

xk (t) = x0 +

fk (s, xk (s)) ds,

t ∈ Jδ ,

t0

also erhält man nach Grenzübergang  x(t) = x0 +

t

f (s, x(s)) ds,

t ∈ Jδ .

t0

Daher ist der Grenzwert der Folge (xkm ) eine Lösung von (6.1) auf Jδ .

6.2



Nichtfortsetzbare Lösungen

Für allgemeines stetiges f kann man die Fortsetzbarkeit von Lösungen bis zum Rand von G nicht direkt wie in Abschn. 2.2 zeigen. Das Existenzintervall einer Lösung hängt aufgrund der Nichteindeutigkeit nicht nur von (t0 , x0 ) ab, sondern auch von der Lösung selbst. Daher sind wir gezwungen, das Zornsche Lemma zu verwenden. Dazu betrachten wir die Menge L aller Lösungen von (6.1), die eine gegebene, auf einem Intervall Ja  t0 definierte Lösung xa fortsetzen. Genauer ist L durch L = {(J, x) : x ∈ C 1 (J ; Rn ) löst (6.1) auf J ⊃ Ja  t0 , x|Ja = xa } definiert; J ist dabei ein Intervall, welches das gegebene Intervall Ja enthält. Auf dieser Menge führen wir eine Ordnungsrelation wie folgt ein: (J1 , x1 ) ≤ (J2 , x2 )



J1 ⊂ J2 , x2 |J1 = x1 .

Man überzeugt sich leicht, dass diese Relation reflexiv, symmetrisch und transitiv ist, also ist sie eine teilweise Ordnung auf L. Ist nun V ⊂ L eine vollständig geordnete Teilmenge 6 von L, so ist das Supremum sup V := (J∗ , x∗ ) ∈ L durch J∗ = v∈V Jv , und x∗ = xv

6.3 Stetige Abhängigkeit

141

auf Jv , v = (Jv , xv ) ∈ V gegeben. Das Zornsche Lemma besagt dann, dass es ein maximales Element in L gibt. Die maximalen Elemente von L sind also Paare (J∗ , x∗ ) mit der Eigenschaft, dass x∗ das Anfangswertproblem auf J∗ löst, und dass es kein Element (J, x) ∈ L gibt, das echt größer als (J∗ , x∗ ) ist. Also gibt es kein (J, x) ∈ L mit J ⊃ J∗ , J = J∗ , und x∗ |J = x. Solche Elemente (J∗ , x∗ ) von L nennt man nichtfortsetzbare Lösungen von (6.1). Das Zornsche Lemma stellt somit die Existenz nichtfortsetzbarer Lösungen sicher, und jede Lösung ist Restriktion einer nichtfortsetzbaren Lösung. Der Fortsetzungssatz charakterisiert das Existenzintervall nichtfortsetzbarer Lösungen. Satz 6.2.1 (Fortsetzungssatz). Sei G ⊂ Rn+1 offen, f : G → Rn stetig und (t0 , x0 ) ∈ G. Dann existiert zu jeder auf einem Intervall J definierten Lösung x(t) von (6.1), eine nichtfortsetzbare Lösung xm mit xm |J = x. xm ist auf einem Intervall (t− , t+ ) definiert, dessen rechter Endpunkt t+ durch die folgenden Alternativen charakterisiert ist. 1. t+ = ∞: xm (t) ist eine globale Lösung nach rechts. 2. t+ < ∞ und lim inft→t+ dist((t, xm (t)), ∂G) = 0. 3. t+ < ∞ und lim inft→t+ dist((t, xm (t)), ∂G) > 0, limt→t+ |xm (t)| = ∞. Entsprechendes gilt für den linken Endpunkt t− . Der Beweis kann analog zu Abschn. 2.3 geführt werden, wenn man anstelle des Satzes von Picard–Lindelöf den Satz von Peano und zusätzlich den Satz von Arzelà-Ascoli verwendet.

6.3

Stetige Abhängigkeit

Gegeben sei eine Lösung x(t) von (6.1) auf ihrem maximalen Existenzintervall (t− , t+ ). Es bezeichne graphJ (x) := {(t, x(t)) : t ∈ J } ⊂ G, wobei J = [a, b] ⊂ (t− , t+ ) ein kompaktes Teilintervall mit t0 ∈ (a, b) ist. Definition 6.3.1. Die gegebene Lösung x(t) heißt stetig abhängig von (t0 , x0 , f ), falls es zu jedem Intervall J = [a, b] ⊂ (t− , t+ ), mit t0 ∈ (a, b), eine kompakte Umgebung K ⊂ G von graphJ (x) gibt, sodass gilt: Zu jedem ε > 0 existiert ein δ > 0 derart, dass jede Lösung y(t) des Anfangswertproblems y˙ = g(t, y), y(τ0 ) = y0 , (τ0 , y0 ) ∈ K, für alle t ∈ [a, b] existiert und der Ungleichung |x(t) − y(t)| ≤ ε,

für alle t ∈ [a, b]

genügt, sofern g ∈ C(K, Rn ), und |τ0 − t0 | ≤ δ, |x0 − y0 | ≤ δ,

sup |f (s, z) − g(s, z)| ≤ δ (s,z)∈K

142

6 Existenz und Eindeutigkeit II

erfüllt ist. Damit können wir das Hauptresultat dieses Abschnittes formulieren. Satz 6.3.2. Sei G ⊂ Rn+1 offen, f : G → Rn stetig und (t0 , x0 ) ∈ G. Die nichtfortsetzbare Lösung x(t) von x˙ = f (t, x), x(t0 ) = x0 ,

(6.2)

sei eindeutig bestimmt. Dann hängt x(t) stetig von den Daten (t0 , x0 , f ) ab. Beweis. Sei y(t) eine Lösung des Anfangswertproblems y˙ = g(t, y), y(τ0 ) = y0 . Wie in Kap. 2 schreiben wir die Anfangswertprobleme für x(t) und y(t) als äquivalente Integralgleichungen  x(t) = x0 +



t

f (s, x(s)) ds,

y(t) = y0 +

t0

t

g(s, y(s)) ds. τ0

Wähle α > 0 und η > 0, sodass die Menge K definiert durch K := {(t, y) : t ∈ [a − η, b + η], |x(t) − y| ≤ α} die Inklusion K ⊂ G erfüllt, wobei η so klein ist, dass außerdem [a − η, b + η] ⊂ (t− , t+ ) gilt. Offensichtlich ist K kompakt. Sei |t0 − τ0 | ≤ δ, |x0 − y0 | ≤ δ sowie |f (t, x) − g(t, x)| ≤ δ für alle (t, x) ∈ K, wobei δ ≤ δ0 := min{1, η/2, α/2} ist. Dann ist (τ0 , y0 ) ∈ K, und mit M := sup{|f (t, x)| : (t, x) ∈ K} gilt |g(t, x)| ≤ M + 1 auf K. Wir zeigen zunächst, dass jede Lösung von y˙ = g(t, y), y(τ0 ) = y0 auf J = [a, b] existiert, mit graphJ (y) ⊂ K, sofern δ > 0 klein genug ist. Angenommen es gibt Folgen τ0k → t0 , y0k → x0 , gk → f gleichmäßig auf K, und Lösungen yk (t) von y˙k = gk (t, yk ), yk (τ0k ) = y0k , auf Intervallen Jk = [ak , bk ] ⊂ J , sodass (t, yk (t)) ∈ K für alle t ∈ Jk gilt, und |yk (bk ) − x(bk )| = α oder |yk (ak ) − x(ak )| = α ist. O.B.d.A. nehmen wir den ersten Fall an. Sei a∞ = lim sup ak , b∞ = lim inf bk . Wir können durch Übergang zu einer Teilfolge z. B. bk → b∞ annehmen. Die Lösungen yk existieren nach Abschn. 6.1 mindestens auf den Intervallen [τ0k − δ1 , τ0k + δ1 ], wobei δ1 > 0 von k unabhängig ist, sofern k hinreichend groß ist. Daher gilt a∞ ≤ t0 − δ1 < t0 + δ1 ≤ b∞ . Sei ρ ∈ (0, (b∞ − a∞ )/2) beliebig, aber fixiert. Für hinreichend große k gilt dann Jρ := [a∞ + ρ, b∞ − ρ] ⊂ Jk . Die Funktionen yk sind auf dem Intervall Jρ beschränkt, und mit |gk | ≤ M + 1 auch ihre Ableitungen, also sind sie gleichgradig stetig. Nach dem Satz von ArzelàAscoli besitzen sie eine gleichmäßig konvergente Teilfolge ykm → y. Grenzübergang in den Integralgleichungen für die ykm zeigt, dass y(t) eine Lösung von (6.2) ist, also y ≡ x auf Jρ , da nach Voraussetzung x die einzige Lösung von (6.2) ist. Nun gilt mit |x|, ˙ |y˙km | ≤ M + 1

6.3 Stetige Abhängigkeit

143

α = |ykm (bkm ) − x(bkm )| ≤ |ykm (bkm ) − ykm (b∞ − ρ)| + |ykm (b∞ − ρ) − x(b∞ − ρ)| + |x(b∞ − ρ) − x(bkm )| ≤ 2(M + 1)(bkm − b∞ + ρ) + ε, sofern m ≥ m(ε) hinreichend groß ist. Wähle nun ε < α/3, ρ < α/(6(M + 1)) und schließlich m ≥ m(ε) so groß, dass |bkm − b∞ | < α/(6(M + 1)) gilt. Mit dieser Wahl erhält man einen Widerspruch, also war die Annahme falsch. Ist also δ ≤ δ0 hinreichend klein, so existiert jede Lösung y(t) von y˙ = g(t, y), y(τ0 ) = y0 auf J = [a, b] und erfüllt graphJ (y) ⊂ K. Sei jetzt τk → t0 , y0k → x0 , sowie gk → f gleichmäßig auf K, und seien yk (t) Lösungen von y˙ = gk (t, y), y(τk ) = y0k , auf [a, b]. Da sowohl die yk als auch ihre Ableitungen y˙k = gk (t, yk ) auf [a, b] gleichmäßig beschränkt sind, sind sie gleichgradig stetig, also gibt es nach dem Satz von Arzelà-Ascoli eine gleichmäßig konvergente Teilfolge ykm → y. Durch Grenzübergang in der Integralgleichung für ykm sieht man, dass y das Anfangswertproblem (6.2) löst, also y = x, da dies nach Voraussetzung die einzige Lösung von (6.2) ist. Daraus folgt nun unmittelbar die gleichmäßige Konvergenz der ganzen Folge gegen die Lösung x von (6.2).  Die Formulierung der stetigen Abhängigkeit mittels Folgen lautet: Korollar 6.3.3. Sei G ⊂ Rn+1 offen, (t0 , x0 ) ∈ G, f, fk : G → Rn stetig, und es sei x(t) die eindeutige Lösung von (6.2) auf dem maximalen Existenzintervall (t− , t+ ). Es gelte tk → t0 , x0k → x0 und fk (t, x) → f (t, x), gleichmäßig auf kompakten Teilmengen von G. Sei [a, b] ⊂ (t− , t+ ). Dann besitzt das Anfangswertproblem x˙k = fk (t, xk ),

xk (tk ) = x0k , t ∈ [a, b],

für hinreichend großes k mindestens eine Lösung auf [a, b], und es gilt xk (t) → x(t), gleichmäßig auf [a, b] für k → ∞.

(6.3)

144

6.4

6 Existenz und Eindeutigkeit II

Differentialungleichungen

Wie wir in Teil I gesehen haben, sind Differentialungleichungen ein wichtiges Hilfsmittel und werden auch in diesem Teil häufig verwendet. Es ist daher wichtig, solche Ungleichungen möglichst allgemein zu formulieren. Sei ω : [a, b) × R → R stetig, und betrachte das Anfangswertproblem ρ˙ = ω(t, ρ),

t ∈ [a, b), ρ(a) = ρ0 .

(6.4)

Die Maximallösung ρ ∗ von (6.4) wird wie folgt definiert: Betrachte das Problem 1 ρ˙k = ω(t, ρk ) + , k

1 t ∈ [a, b), ρk (a) = ρ0 + . k

(6.5)

Sei ρ(t) eine Lösung von (6.4) und ρk eine von (6.5). Nach Lemma 2.4.2 folgt dann die Ungleichung ρ(t) < ρk (t) für alle t ∈ [a, b), für die beide Lösungen existieren. Ebenso erhält man ρk (t) < ρl (t), sofern k > l ist. Daher ist die Folge (ρk (t)) fallend in k, nach unten beschränkt durch ρ(t), also konvergent gegen eine Funktion ρ ∗ (t). Betrachtung der entsprechenden Integralgleichungen ergibt, dass ρ ∗ (t) eine Lösung von (6.4) ist, und dass jede andere Lösung ρ(t) von (6.4) die Relation ρ(t) ≤ ρ ∗ (t) erfüllt, solange beide Lösungen existieren. Dieses ρ ∗ (t) heißt Maximallösung von (6.4) und ist unabhängig von der gewählten Folge (1/k). Wir benötigen ferner die Dini-Ableitungen, die wie folgt definiert sind: D+ ρ(t) := lim inf h→0+

ρ(t + h) − ρ(t) h

heißt rechte untere Dini-Ableitung von ρ(t). Man beachte, dass diese definiert ist, auch wenn ρ(t) nicht differenzierbar ist, sofern man die Werte ±∞ zulässt. Ersetzt man in dieser Definition den lim inf durch lim sup, so erhält man die rechte obere Dini-Ableitung D + ρ(t) von ρ. Entsprechend sind die linke obere Dini-Ableitung durch D − ρ(t) := lim sup h→0+

ρ(t) − ρ(t − h) , h

und analog die linke untere Dini-Ableitung D− ρ(t) definiert. Lemma 6.4.1. Sei ω : [a, b) × R → R stetig, ϕ : [a, b) → R stetig und ρ ∗ (t) sei die Maximallösung von ρ˙ = ω(t, ρ), ρ(a) = ρ0 . Es gelte ⎧ ⎨D ϕ(t) ≤ ω(t, ϕ(t)) für alle t ∈ [a, b) mit ϕ(t) > ρ ∗ (t), + ⎩ϕ(a) ≤ ρ0 .

(6.6)

6.4 Differentialungleichungen

145

Dann gilt ϕ(t) ≤ ρ ∗ (t) für alle t ∈ [a, b) mit ρ ∗ (t) < ∞. Beweis. Sei ρk (t) eine Lösung von ρ˙ = ω(t, ρ) + 1/k, ρ(a) = ρ0 + 1/k. Wir zeigen ϕ(t) ≤ ρk (t) für alle t ∈ [a, b), für die ρk (t) endlich ist. Angenommen, dieses wäre falsch. Dann gibt es ein t0 ∈ (a, b) und ein δ > 0 mit ϕ(t0 ) = ρk (t0 ) und ϕ(t) > ρk (t) für t0 < t < t0 + δ. Nun gilt für 0 < h < δ ϕ(t0 + h) − ϕ(t0 ) ρk (t0 + h) − ϕ(t0 ) ρk (t0 + h) − ρk (t0 ) > = , h h h folglich D+ ϕ(t0 ) ≥ ρ˙k (t0 ) = ω(t0 , ρk (t0 )) + 1/k > ω(t0 , ρk (t0 )) = ω(t0 , ϕ(t0 )). Andererseits gilt aber ϕ(t0 ) = ρk (t0 ) > ρ ∗ (t0 ), also nach Voraussetzung D+ ϕ(t0 ) ≤ ω(t0 , ϕ(t0 )), was einen Widerspruch bedeutet. Mit k → ∞ konvergiert ρk (t) punktweise gegen die Maximallösung ρ ∗ (t), folglich gilt  ϕ(t) ≤ ρ ∗ (t) und die Behauptung ist bewiesen. Resultate über Differentialungleichungen wie Lemma 6.4.1 lassen sich für den Nachweis globaler Existenz verwenden. Das nächste Korollar ist dafür ein Beispiel. Korollar 6.4.2. Seien ω : [t0 , ∞) × R → R, f : [t0 , ∞) × Rn → Rn stetig, und gelte |f (t, x)| ≤ ω(t, |x|) für t ∈ [t0 , ∞), x ∈ Rn , wobei | · | eine beliebige Norm auf Rn sei. Es bezeichne ρ ∗ (t) die Maximallösung von ρ˙ = ω(t, ρ),

t ∈ [t0 , ∞), ρ(t0 ) = |x0 |, x0 ∈ Rn ,

und sie existiere auf dem ganzen Intervall [t0 , ∞). Dann existiert jede nichtfortsetzbare Lösung x(t) von (6.2) global nach rechts. Beweis. Für ϕ(t) = |x(t)| gilt auf dem rechtsseitigen Existenzintervall J = [t0 , t+ ) von x 1 ˙ = |f (t, x(t))| D+ ϕ(t) = lim inf (|x(t + h)| − |x(t)|) ≤ |x(t)| h→0+ h ≤ ω(t, |x(t)|) = ω(t, ϕ(t)). Folglich impliziert Lemma 6.4.1 die Abschätzung |x(t)| = ϕ(t) ≤ ρ ∗ (t) < ∞. Der Fortsetzungssatz ergibt die Behauptung. 

146

6 Existenz und Eindeutigkeit II

Die Aussage in Korollar 6.4.2 gilt auch nach links, wie man mittels Zeitumkehr zeigt. Allerdings sind Normabschätzungen in Anwendungen meist zu stark. Um einseitige Bedingungen zu erhalten, sei | · | eine Norm auf Rn und |x ∗ |∗ := max{(x|x ∗ ) : |x| ≤ 1} die dazu duale Norm. In Abschn. 7.3 zeigen wir, dass zu jedem y ∈ Rn mit |y| = 1 ein y ∗ ∈ Rn existiert, mit (x|y ∗ ) ≤ 1 für alle x ∈ B¯ 1 (0) und (y|y ∗ ) = |y| = 1. Daraus folgt |y ∗ |∗ = max (x|y ∗ ) ≤ 1 = (y|y ∗ ) ≤ |y ∗ |∗ , |x|≤1

also |y ∗ |∗ = 1. Damit ist die folgende Definition sinnvoll: [x, y] := min{(x|y ∗ ) : (y|y ∗ ) = |y|, |y ∗ |∗ = 1},

x, y ∈ Rn .

Die Klammer lässt sich für konkrete Normen wie die lp -Normen | · |p leicht angeben. So ist für die euklidische Norm | · |∗ = | · |2 und [x, y]2 = (x|y)/|y|2 , sofern y = 0, und [x, 0]2 = −|x|2 . Später verwenden wir die Klammer für die Norm | · |1 . Hierfür ergibt sich | · |∗ = | · | ∞

und

[x, y]1 =



xk sgn yk −

yk =0



|xk |.

yk =0

Ist nun x(t) differenzierbar, so wähle ein x ∗ ∈ Rn mit |x ∗ |∗ = 1 und (x(t)|x ∗ ) = |x(t)|; damit erhalten wir 1 1 D − |x(t)| = lim sup (|x(t)| − |x(t − h)|) = lim sup ((x(t)|x ∗ ) − |x(t − h)||x ∗ |∗ ) h h h→0+ h→0+ 1 ∗ ˙ ), ≤ lim sup ((x(t)|x ∗ ) − (x(t − h)|x ∗ )) = (x(t)|x h h→0+ also nach Übergang zum Minimum die wichtige Relation D − |x(t)| ≤ [x(t), ˙ x(t)] = [f (t, x(t)), x(t)]

(6.7)

für Lösungen von (6.1). Dies erfordert nur einseitige Abschätzungen an f , verlangt aber die linksseitige Dini-Ableitung. Korollar 6.4.3. Seien ω : [t0 , ∞) × R → R, f : [t0 , ∞) × Rn → Rn stetig, und gelte [f (t, x), x] ≤ ω(t, |x|) für t ∈ [t0 , ∞), x ∈ Rn , wobei | · | eine beliebige Norm auf Rn sei. Es bezeichne ρ ∗ (t) die Maximallösung von ρ˙ = ω(t, ρ),

t ∈ [t0 , ∞), ρ(t0 ) = |x0 |, x0 ∈ Rn ,

6.5 Eindeutigkeit

147

und sie existiere auf dem ganzen Intervall [t0 , ∞). Dann existiert jede nichtfortsetzbare Lösung x(t) von (6.2) global nach rechts. Es gilt [x, y] ≤ |x| für alle x, y ∈ Rn ; daher ist Korollar 6.4.2 ein Spezialfall von Korollar 6.4.3. Der Beweis verläuft genau wie der von Korollar 6.4.2; man verwendet dabei das folgende Lemma. Lemma 6.4.4. Sei ω : [a, b) × R → R stetig, ϕ : [a, b) → R stetig und ρ ∗ (t) sei die Maximallösung von ρ˙ = ω(t, ρ), ρ(a) = ρ0 . Es gelte ⎧ ⎨D − ϕ(t) ≤ ω(t, ϕ(t)) für alle t ∈ (a, b) mit ϕ(t) > ρ ∗ (t), ⎩ϕ(a) ≤ ρ0 .

(6.8)

Dann gilt ϕ(t) ≤ ρ ∗ (t) für alle t ∈ [a, b) mit ρ ∗ (t) < ∞. Der Beweis dieses Lemmas ist ähnlich zu dem von Lemma 6.4.1; vgl. Übung 6.8.

6.5

Eindeutigkeit

Sei G ⊂ Rn+1 offen und (t0 , x0 ) ∈ G. Ist f : G → Rn nur stetig, so müssen die Lösungen nicht eindeutig durch ihren Anfangswert bestimmt sein, wie wir schon in Kap. 1 gesehen haben. Um zu Kriterien zu kommen, die Eindeutigkeit implizieren, verwenden wir nochmals Differentialungleichungen. Es seien x und x¯ zwei Lösungen von (6.1) auf ¯ wobei | · | eine beliebige einem Intervall [t0 , t1 ]. Wir setzen dann φ(t) = |x(t) − x(t)|, Norm sei, und erhalten mit (6.7) ˙¯ ˙ − x(t), x(t) − x(t)] ¯ D − φ(t) ≤ [x(t) = [f (t, x(t)) − f (t, x(t)), ¯ x(t) − x(t)], ¯

t ∈ [t0 , t1 ].

Gilt nun eine einseitige Abschätzung der Form [f (t, x) − f (t, x), ¯ x − x] ¯ ≤ ω(t, |x − x|), ¯

t ≥ t0 , (t, x), (t, x) ¯ ∈ G,

mit einer stetigen Funktion ω : [t0 , ∞) × R → R, so folgt weiter D − φ(t) ≤ ω(t, φ(t)),

t ∈ [t0 , t1 ],

φ(t0 ) = 0.

148

6 Existenz und Eindeutigkeit II

Lemma 6.4.4 impliziert dann |x(t) − x(t)| ¯ = φ(t) ≤ ρ ∗ (t),

t ∈ [t0 , t1 ],

sofern die Maximallösung von ρ˙ = ω(t, ρ), ρ(t0 ) = 0 auf [t0 , t1 ] existiert. Die Forderung ¯ für alle t ∈ [t0 , t1 ]. Diese Argumente ρ ∗ ≡ 0 impliziert dann φ(t) = 0, d. h. x(t) = x(t) ergeben den folgenden Eindeutigkeitssatz für (6.2). Satz 6.5.1. Seien f : G → Rn und ω : [t0 , ∞) × R → R stetig, sei | · | eine beliebig fixierte Norm auf Rn , und gelte [f (t, x) − f (t, x), ¯ x − x] ¯ ≤ ω(t, |x − x|), ¯

t ≥ t0 , (t, x), (t, x) ¯ ∈ G.

Es sei ferner ρ ∗ ≡ 0 die Maximallösung von ρ˙ = ω(t, ρ),

t ≥ t0 ,

ρ(t0 ) = 0.

Dann ist die Lösung von (6.2) eindeutig bestimmt. Man beachte, dass für ω in diesem Satz notwendigerweise ω(t, 0) = 0 gelten muss. Das wichtigste Beispiel für ein solches ω ist die Funktion ω(t, ρ) = Lρ; dies bedeutet eine einseitige Lipschitz-Bedingung an f . Aufgrund von [x, y] ≤ |x| sind Bedingungen der Form |f (t, x) − f (t, x)| ¯ ≤ ω(t, |x − x|), ¯

(t, x), (t, x) ¯ ∈ G,

stärker als die im Satz geforderte einseitige Bedingung. Andererseits ergeben letztere nur Eindeutigkeit nach rechts, die Normabschätzung aber auch Eindeutigkeit nach links. Zusammenfassend beinhaltet Satz 6.5.1 eine wesentliche Verallgemeinerung des Eindeutigkeitssatzes aus Kap. 2, der auf der Lipschitz-Bedingung beruht. Dies soll jetzt durch zwei Anwendungen belegt werden.

6.6

Anwendungen

(a) Chemische Kinetik Wir betrachten eine irreversible Reaktion A + B → P in einem ideal durchmischten Rührkessel mit Zu- und Abstrom. Es bezeichnen x1 bzw. x2 die Konzentration von A bzw. B im Reaktor, die Reaktionsrate sei durch eine Funktion r : R2+ → R gegeben, die stetig und in beiden Variablen wachsend sei und r(0, x2 ) = r(x1 , 0) = 0 erfülle, wie z. B. r(x1 , x2 ) = kx1α1 x2α2 , mit Konstanten k, α1 , α2 > 0. In der Chemie ist r häufig eine Bruttokinetik; dabei können auch Exponenten αk < 1 auftreten. Daher ist r zwar stetig, aber im allgemeinen nicht lokal Lipschitz. Zu- und Abstrom

6.6 Anwendungen

149

werden durch Terme der Form ai − xi modelliert (ai > 0), und die Gleichung für das Produkt x3 kann weggelassen werden, da r hier nicht von x3 abhängt. Das führt auf das folgende Anfangswertproblem für x = (x1 , x2 ): x˙1 = a1 − x1 − r(x1 , x2 ),

x1 (0) = x01 > 0,

x˙2 = a2 − x2 − r(x1 , x2 ),

x2 (0) = x02 > 0.

(6.9)

Da nur positive Lösungen interessant sind, wählen wir hier G = (0, ∞)2 . Existenz ist mit Hilfe des Satzes von Peano klar, da r, also auch die rechte Seite von (6.9) stetig ist. Wir interessieren uns vornehmlich für Eindeutigkeit, denn ist diese gewährleistet, so impliziert die Positivitätsbedingung (P) aus Kap. 4 Positivität der Lösungen, und dann erhält man mit r ≥ 0 auch globale Existenz, also einen Halbfluss auf G und auch auf R2+ . Sei die rechte Seite von (6.9) mit f bezeichnet. Dann haben wir bzgl. der l1 -Norm | · |1 nach Abschn. 6.4 [f (x) − f (x), ¯ x − x] ¯ 1=



(fk (x) − fk (x)) ¯ sgn(xk − x¯k )

xk =x¯k





|fk (x) − fk (x)| ¯

xk =x¯k



¯ ≤ −|x − x| ¯ 1 − (r(x) − r(x))

sgn(xk − x¯k ) ≤ 0.

xk =x¯k

Denn ist x1 > x2 und x¯1 > x¯2 , so ist die verbleibende Summe gleich 2, und r(x) ≥ r(x) ¯ aufgrund der Monotonie von r; ebenso wird der Fall x1 < x2 und x¯1 < x¯2 behandelt. Gilt hingegen (x1 − x¯1 )(x2 − x¯2 ) < 0, so ist die Summe Null. Die Grenzfälle folgen entsprechend. In diesem Fall kann man also z. B. ω ≡ 0 wählen, oder ω(t, ρ) = −ρ. Jedenfalls ist die Voraussetzung des Eindeutigkeitssatzes 6.5.1 erfüllt und die Lösungen von (6.9) sind eindeutig bestimmt. (b) Ein Modell zur Paarbildung Wir betrachten eine zweigeschlechtliche Population, die aus weiblichen Singles sf , männlichen Singles sm und Paaren p besteht. Im diesem Modell können Singles verschiedenen Geschlechts Paare bilden, nur Paare produzieren Nachwuchs, jede der Arten wird irgendwann sterben, und Paare können sich trennen. Diese Modellannahmen führen auf das folgende System von gewöhnlichen Differentialgleichungen für die Evolution von sm , sf und p in der Zeit: s˙f = −μf sf + (βf + μ˜ m + σ )p − φ(sf , sm ), s˙m = −μm sm + (βm + μ˜ f + σ )p − φ(sf , sm ), p˙ = −(μ˜ f + μ˜ m + σ )p + φ(sf , sm ).

(6.10)

150

6 Existenz und Eindeutigkeit II

Hierin bezeichnet die Konstante μj > 0, j ∈ {f, m}, die Sterberate der unverheirateten Frauen (j = f ) bzw. Männer (j = m), entsprechend μ˜ j > 0, j ∈ {f, m}, die Sterberate der verheirateten Frauen bzw. Männer und βj , j ∈ {f, m}, die Geburtenraten. σ ≥ 0 steht für die Scheidungsrate, und φ ist die sogenannte Paarbildungsfunktion. Der Term φ(sf , sm ) gibt an, wie viele Paare aus sf weiblichen und sm männlichen Singles pro Zeiteinheit gebildet werden. Demographische Beobachtungen legen nahe, dass φ die folgenden drei plausiblen Eigenschaften besitzen sollte: (φ1) φ : R+ × R+ → R+ ; φ(x, y) = 0 ⇔ xy = 0 für alle x, y ≥ 0. (φ2) φ ist stetig; φ(·, y) und φ(x, ·) sind monoton wachsend für alle x, y ≥ 0. (φ3) φ ist positiv homogen , d. h. φ(αx, αy) = αφ(x, y) für alle α, x, y ≥ 0. Typische Beispiele für Funktionen φ mit den Eigenschaften (φ1)–(φ3) sind die Minimumfunktion φ1 (x, y) = κ min{x, y}, das harmonische Mittel . φ2 (x, y) =



xy x+y

: (x, y) = (0, 0)

0

: (x, y) = (0, 0)

und das geometrische Mittel √ φ3 (x, y) = κ xy, wobei κ jeweils eine positive Konstante ist. Es gilt φ1 ≤ φ2 ≤ φ3 , und φi (x, y) = κx, i = 1, 2, 3, falls x = y. Insbesondere das geometrische Mittel ist zwar stetig aber nicht lokal Lipschitz, daher ist die Frage nach der Eindeutigkeit der Lösungen von (6.10) von Bedeutung. Wir schränken uns auch hier auf den positiven Bereich G = (0, ∞)3 ein, der allein modellmäßig interessant ist. ¯ gegeben. Wir verwenden Dazu seien zwei Lösungen (sf , sm , p) und (¯sf , s¯m , p) zunächst (6.7) für die ersten zwei Gleichungen des Systems, also für s = (sf , sm ) in der Norm | · |1 , und erhalten wie in (a) D − |s(t) − s¯ (t)|1 ≤ [˙s (t) − s˙¯ (t), s(t) − s¯ (t)] ≤ −μf |sf (t) − s¯f (t)| − μm |sm (t) − s¯m (t)| + (β˜f + β˜m )|p(t) − p(t)| ¯ ˜ ≤ −μ|s(t) − s¯ (t)|1 + β|p(t) − p(t)|, ¯

Übungen

151

da die Paarbildungsfunktion φ in beiden Variablen wachsend ist. Hierbei bezeichnen μ = min{μf , μm }, β˜f = βf + μ˜ m + σ , β˜m = βm + μ˜ f + σ , und β˜ = β˜f + β˜m . Durch Addition der Gleichungen für sf und p erhält man ebenso ¯ D − |sf (t) + p(t) − (¯sf (t) + p(t))| ≤ −μf |sf (t) + p(t) − (¯sf (t) + p(t))| ¯ + |βf − μ˜ f + μf ||p(t) − p(t)|. ¯ Schließlich addiert man beide Ungleichungen und erhält mit ψ(t) = |sf (t) − s¯f (t)| + |sm (t) − s¯m (t)| + |sf (t) + p(t) − (¯sf (t) + p(t))| ¯ die Differentialungleichung D − ψ(t) ≤ L|p(t) − p(t)| ¯ ≤ Lψ(t),

t ≥ 0,

ψ(0) = 0,

mit einer Konstanten L > 0. Lemma 6.4.4 impliziert ψ ≡ 0, also Eindeutigkeit der Lösungen von (6.10). Dieses Beispiel zeigt, dass man nicht immer mit Satz 6.5.1 direkt ans Ziel gelangt, aber häufig Lemma 6.4.4 dem entsprechenden Problem angepasst verwenden kann. Es sei bemerkt, dass in beiden Beispielen Normabschätzungen nicht ausreichen, um Eindeutigkeit ohne Zusatzannahmen zu erhalten, einseitige Abschätzungen sind hier essentiell.

Übungen  1 ds 6.1 Sei ω : R+ → R+ stetig, ω(0) = 0, und gelte 0+ ω(s) = ∞; solche Funktionen werden gelegentlich Osgood-Funktionen genannt. Zeigen Sie, dass die Maximallösung von ρ˙ = ω(ρ),

t ≥ 0,

ρ(0) = 0

identisch Null ist. 6.2 Wie verhalten sich Dini-Ableitungen bei Summen, Produkten und Quotienten stetiger Funktionen? 6.3 Sei J ⊂ R ein nichttriviales offenes Intervall und ρ : J → R differenzierbar in t0 ∈ J , mit ρ  (t0 ) ≥ 0, und g : R → R lokal Lipschitz. Zeigen Sie D g(ρ(t0 )) = (D g)(ρ(t0 ))ρ  (t0 ), wobei D eine der vier Dini-Ableitungen bezeichnet.

152

6 Existenz und Eindeutigkeit II

6.4 Sei | · | eine Norm auf Rn , man fixiere x, y ∈ Rn und setze ϕ(t) = |y + tx|. Dann ist [x, y] = D − ϕ(0) = D− ϕ(0) = lim

t→0+

|y| − |y − tx| . t

6.5 Berechnen Sie die Klammer [·, ·] für die lp -Normen auf Rn , wobei p ∈ [1, ∞]. √ 6.6 Sei Q ∈ Rn×n symmetrisch und positiv definit, und sei |x|Q = (Qx|x) die erzeugte Norm auf Rn . Bestimmen Sie die entsprechende Klammer [·, ·]Q . 6.7 Seien ϕ, ψ : [a, b] → R+ stetig und gelte D+ ϕ(t) ≤ ψ(t) für alle t ∈ [a, b], ϕ(a) = ϕ0 . Dann folgt  ϕ(t) ≤ ϕ0 +

ψ(τ )dτ, a

6.8 Beweisen Sie Lemma 6.4.4.

t

t ∈ [a, b].

7

Invarianz

Sei G ⊂ Rn offen, f : R × G → Rn stetig. Wir betrachten das AWP ⎧ ⎨x˙ = f (t, x), ⎩x(t0 ) = x0 ,

(7.1)

wobei x0 ∈ G und t0 ∈ R sei. Im ganzen Kapitel nehmen wir Eindeutigkeit der Lösungen nach rechts an. Sei x(t; t0 , x0 ) die Lösung von (7.1) auf dem maximalen Intervall J+ (t0 , x0 ) := [t0 , t+ (t0 , x0 )).

7.1

Invariante Mengen

Eines der wichtigsten Konzepte in der qualitativen Theorie gewöhnlicher Differentialgleichungen ist der Begriff der invarianten Menge. Definition 7.1.1. Sei D ⊂ G. D heißt positiv invariant für (7.1), falls die Lösung x(t; t0 , x0 ) ∈ D für alle t ∈ J+ (t0 , x0 ) erfüllt, sofern x0 ∈ D ist. Entsprechend wird negativ invariant definiert, falls die Lösungen von (7.1) eindeutig nach links sind, und D heißt invariant, wenn D sowohl positiv als auch negativ invariant ist. Es ist nicht schwer eine notwendige Bedingung für die positive Invarianz von D anzugeben. Denn ist D positiv invariant, und ist x0 ∈ D beliebig, so gilt für hinreichend kleine h > 0 dist(x0 + hf (t0 , x0 ), D) ≤ |x0 + hf (t0 , x0 ) − x(t0 + h; t0 , x0 )|2

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_7

153

154

7 Invarianz

und mit  x(t0 + h; t0 , x0 ) = x0 +

t0 +h

x(s; ˙ t0 , x0 ) ds,

x(t ˙ 0 ; t0 , x0 ) = f (t0 , x0 )

t0

erhält man zu jedem ε > 0 ein δ > 0, sodass    ˙ 0) − dist(x0 + hf (t0 , x0 ), D) ≤ hx(t

t0 +h

t0

  x(s) ˙ ds  ≤ εh, 2

sofern h ∈ (0, δ] ist. Wir haben gezeigt, dass die positive Invarianz von D die sogenannte Subtangentialbedingung ⎧ ⎨Für alle t ∈ R, x ∈ D gilt (S) ⎩limh→0 1 dist(x + hf (t, x), D) = 0. +

h

nach sich zieht. Man beachte, dass (S) unabhängig von der gewählten Norm ist, da auf Rn alle Normen äquivalent sind. Erfreulicherweise ist (S) auch hinreichend für positive Invarianz. Zunächst wollen wir uns jedoch (S) genauer ansehen. Es ist klar, dass lim

h→0+

1 dist(x + hf (t, x), D) = 0 h

für alle x ∈ int D trivialerweise erfüllt ist; (S) ist eine Bedingung in den Randpunkten von D und wird deshalb manchmal Randbedingung genannt. Um die geometrische Bedeutung von (S) zu klären, benötigen wir die. Definition 7.1.2. Sei D ⊂ Rn abgeschlossen und x ∈ ∂D. Ein Vektor y ∈ Rn , y = 0, heißt äußere Normale an D in x, falls B|y|2 (x + y) ∩ D = ∅ ist. Die Menge der äußeren Normalen in x sei mit N (x) bezeichnet. Äußere Normalen müssen nicht unbedingt existieren, wie das Beispiel einer einspringenden Ecke zeigt. Lemma 7.1.3. Sei D abgeschlossen, x ∈ ∂D und z ∈ Rn . Dann impliziert die Bedingung lim

h→0+

1 dist(x + hz, D) = 0, h

dass (z|y) ≤ 0 für alle y ∈ N (x) gilt.

7.1 Invariante Mengen

155

Beweis. Sei x ∈ ∂D, z ∈ Rn , y ∈ N (x) und gelte limh→0+ h1 dist(x + hz, D) = 0. Angenommen (z|y) > 0. Dann folgt x + hz ∈ B|y|2 (x + y) für 0 < h ≤ h1 ≤ (z|y)/|z|22 , denn es ist sogar |x + hz − (x + y)|22 = |hz − y|22 = h[h|z|22 − 2(z|y)] + |y|22 ≤ h[h1 |z|22 − 2(z|y)] + |y|22 ≤ |y|22 − h(z|y) = |y|22 (1 − hα) ≤ |y|22 (1 −

α 2 h) , 2

mit α := (y|z)/|y|22 > 0. Aus der Ungleichung von Cauchy-Schwarz folgt 1 − αh ≥ 0 für alle 0 < h ≤ h1 , also 1 − αh/2 > 0. Sei nun ε ∈ (0, α|y|2 /2) gegeben. Dann existiert ein δ(ε) > 0 mit dist(x + hz, D) ≤ εh für alle h ∈ (0, δ). O.B.d.A. dürfen wir dabei δ ≤ h1 annehmen. Folglich erhalten wir für h ∈ (0, δ) die Abschätzung εh ≥ dist(x + hz, D) = |x + hz − p(h)|2 = |x + hz − (x + y) − (p(h) − (x + y))|2 ≥ |p(h) − x − y|2 − |hz − y|2 ≥ |y|2 − |y|2 (1 − αh/2) = αh|y|2 /2, mit p(h) ∈ ∂D, also ε ≥ α|y|2 /2. Das ist ein Widerspruch zur Wahl von ε.



Die geometrische Bedeutung von (S) dürfte nun klar sein: erreicht eine Lösung den Rand von D, so zwingt die Bedingung (S) sie zum Umkehren, da der Winkel zwischen x(t) ˙ und jeder äußeren Normalen in x(t) ∈ ∂D stets ≥ π/2 ist. Das Hauptergebnis dieses Abschnittes ist der Satz 7.1.4. Sei G ⊂ Rn offen, f : R × G → Rn stetig und D ⊂ G abgeschlossen. Dann sind äquivalent: 1. D ist positiv invariant für (7.1); 2. f und D erfüllen die Subtangentialbedingung (S). Beweis. Unter Annahme der Subtangentialbedingung (S) genügt es zu zeigen, dass es zu jedem (t0 , x0 ) ∈ R×D eine lokale Lösung von (7.1) in D gibt. Eindeutigkeit der Lösungen impliziert dann, das auch die maximale Lösung in D nach rechts in D bleibt. Dazu seien t0 ∈ R, x0 ∈ D gegeben und gelte (S). Wähle eine Kugel B¯ r (x0 ) ⊂ G, setze M := max{|f (t, x)| : t ∈ [t0 , t0 + 1], x ∈ B¯ r (x0 ) ∩ D}, und sei a := min{1, r/(M + 1)}. Wir zeigen, dass es auf dem Intervall [t0 , t0 + a] eine Lösung x(t) von (7.1) gibt, sodass x(t) ∈ D für alle t ∈ [t0 , t0 + a] gilt. Dazu konstruieren wir eine endliche Folge von Punkten (tj , xj ) ∈ [t0 , t0 + a] × [D ∩ B¯ r (x0 )], die den Graphen der Lösung approximieren sollen, wie folgt. Sei ε ∈ (0, 1). Der erste Punkt (t0 , x0 ) ist der gegebene Anfangspunkt. Die weiteren Punkte werden nun induktiv definiert. Sei (tj , xj ) bereits konstruiert. Aus (S)

156

7 Invarianz

in diesem Punkt folgt, dass es hj +1 > 0 und xj +1 ∈ D gibt mit dist(xj + hj +1 f (tj , xj ), D) = |xj + hj +1 f (tj , xj ) − xj +1 | ≤ εhj +1 .

(7.2)

Wir wählen dieses hj +1 ≤ ε maximal, sodass |f (s, x) − f (tj , xj )| ≤ ε für alle |s − tj | ≤ hj +1 , |x − xj | ≤ hj +1 (M + 1)

(7.3)

erfüllt ist, und setzen tj +1 := tj + hj +1 . Nun ist nach (7.2) |xk+1 − xk | ≤ hk+1 (M + 1) für alle k ∈ {0, . . . , j } und daher |xj +1 − x0 | ≤

j 

|xk+1 − xk | ≤ (M + 1)

k=0

j 

hk+1

k=0

= (M + 1)

j 

(tk+1 − tk ) ≤ a(M + 1) ≤ r,

k=0

also auch xj +1 ∈ B¯ r (x0 ) ∩ D, sofern tj +1 ≤ t0 + a gilt. Das Verfahren bricht ab, wenn tj +1 ≥ t0 + a ist. Angenommen, es existieren unendlich viele tj mit tj ≤ t0 + a. Dann haben wir tj  t∗ ≤ t0 + a, und wegen |xj +l − xj | ≤

l−1 

|xj +k+1 − xj +k | ≤ (M + 1)(tj +l − tj ) → 0,

k=0

auch xj → x∗ ∈ D ∩ B¯ r (x0 ). Da f auf [t0 , t0 + a] × [D ∩ B¯ r (x0 )] gleichmäßig stetig ist, gilt (7.3) mit einem gleichmäßigen h∗ > 0, und (S) bzw. (7.3) ergeben eventuell nach Verkleinerung von h∗ , dist(x∗ + h∗ f (t∗ , x∗ ), D) ≤ εh∗ /3 bzw. |f (s, x) − f (tj , xj )| ≤ ε/3 für alle |s − tj | ≤ h∗ , |x − xj | ≤ h∗ (M + 1). Es folgt dist(xj + h∗ f (tj , xj ), D) ≤ dist(x∗ + h∗ f (t∗ , x∗ ), D) + h∗ |f (tj , xj ) − f (t∗ , x∗ )| + |xj − x∗ | ≤ εh∗ /3 + εh∗ /3 + εh∗ /3 = εh∗ ,

7.1 Invariante Mengen

157

sofern |xj − x∗ | ≤ εh∗ /3 und |tj − t∗ | ≤ h∗ gilt, d. h. falls j groß genug ist. Für alle hinreichend großen j gilt daher hj +1 ≥ h∗ , denn hj +1 ist maximal. Dies impliziert aber tj +1 → ∞ für j → ∞, ein Widerspruch. Das Verfahren bricht also nach endlich vielen Schritten ab. Wir definieren nun die Treppen x¯ε (t) = xj und f¯ε (t) = f (tj , xj ) für t ∈ [tj , tj +1 ), und den Spline xε (t) als den durch diese Punktfolge definierten Polygonzug, also xε (t) =

t − tj tj +1 − t xj +1 + xj , hj +1 hj +1

tj ≤ t < tj +1 .

Es gilt dann nach (7.2) |x˙ε | = |xj +1 − xj |/ hj +1 ≤ M + 1, und |xε (t) − xj | ≤ |xj +1 − xj | ≤ hj +1 (M + 1) ≤ ε(M + 1),

t ∈ [tj , tj +1 ).

Für t ∈ [tj , tj +1 ) gilt ferner 

t

f¯ε (s)ds =

t0

j  

tk+1

k=0 tk

=

j 

f (tk , xk )ds − (tj +1 − t)f (tj , xj )

f (tk , xk )hk+1 − (tj +1 − t)f (tj , xj ),

k=0

also erhalten wir mit rk = xk+1 − xk − hk+1 f (tk , xk ) die Identität  xε (t) = x0 +

t t0

f¯ε (s)ds +

j  k=0

rk −

tj +1 − t (xj +1 − xj − hj +1 f (tj , xj )), hj +1

t für t ∈ [tj , tj +1 ). Folglich gilt |xε (t) − x0 − t0 f¯ε (s)ds| ≤ εa, wie man aus (7.2) leicht sieht. Die Funktionen xεk , εk = 1/k, sind auf dem Intervall [t0 , t0 + a] gleichmäßig beschränkt und Lipschitz mit Konstante M + 1, also sind sie gleichgradig stetig. Nach dem Satz von Arzelà-Ascoli besitzt die Folge xεk eine gleichmäßig konvergente Teilfolge xεkm → x, mit einer stetigen D-wertigen Grenzfunktion x(t). Die Treppenfunktionen x¯εkm (t) konvergieren ebenfalls gleichmäßig gegen die Grenzfunktion x(t), und da f auf der kompakten Menge [t0 , t0 + a] × [D ∩ B¯ r (x0 )] gleichmäßig stetig ist, gilt außerdem f¯εkm (t) → f (t, x(t)) gleichmäßig. Also erhalten wir die Integralgleichung

158

7 Invarianz

 x(t) = x0 +

t

f (s, x(s))ds,

t ∈ [t0 , t0 + a],

t0

und somit ist x(t) eine Lösung von (7.1), mit x(t) ∈ D für alle t ∈ [t0 , t0 + a].



Bemerkungen 7.1.5. 1. Man beachte, dass der Beweis dieses Satzes f nur auf R × D verwendet. Im Fortsetzungssatz gilt dann die Alternative, dass x(t) nach rechts global existiert oder einen blow up hat. Insbesondere existiert sie global, falls D selbst beschränkt ist. Man beachte auch, dass die Menge D klein sein kann, in dem Sinne, dass sie keine inneren Punkte besitzt. So kann D =  z. B. eine k-dimensionale Mannigfaltigkeit sein, darauf gehen wir in Kap. 13 näher ein. 2. Sind die Lösungen von (7.1) nicht eindeutig, so ist die Subtangentialbedingung (S) äquivalent zur Existenz mindestens einer Lösung in D. Diese Eigenschaft von D nennt man positiv schwach invariant. Es kann aber Lösungen geben, die in D starten, aber D sofort verlassen. Ein Standardbeispiel dafür ist x˙ = −3x 2/3 mit D = R+ , t0 = 0, x0 = 0; vgl. Abschn. 1.5. 3. Ist f lokal Lipschitz, so kann man den Beweis von Satz 7.1.4 kürzer gestalten. Dazu sei t ∈ J+ (t0 , x0 ) und ϕ(t) := dist(x(t), D) = |x(t) − yt |, mit einem yt ∈ D. Für h > 0 und mit ρ(h) = sup{|f (s, x(s)) − f (t, x(t))| : t ≤ s ≤ t + h} folgt ϕ(t + h) = dist(x(t + h), D) 

t+h

= dist((yt + hf (t, yt )) + (x(t) − yt ) +

(f (s, x(s)) − f (t, yt ))ds, D)

t

≤ dist(yt + hf (t, yt ), D) + |x(t) − yt | + h|f (t, x(t)) − f (t, yt )| + hρ(h). Wähle η > 0 so klein, dass x(t), yt ∈ B¯ r (x0 ) ⊂ G für alle t ∈ [t0 , t0 + η] ⊂ J+ (t0 , x0 ) gilt. Dann ergeben die Subtangentialbedingung (S) und ρ(h) ≤ ε für 0 < h ≤ δ (δ, η > 0 hinreichend klein) ϕ(t + h) ≤ εh + ϕ(t) + Lhϕ(t) + εh.

7.2 Invarianzkriterien

159

Dabei bezeichnet L > 0 die Lipschitz-Konstante für f in der Kugel B¯ r (x0 ). Mit h → 0+ folgt daraus D + ϕ(t) ≤ 2ε + Lϕ(t), und dann mit ε → 0+ die Differentialungleichung D + ϕ(t) ≤ Lϕ(t),

t ∈ [t0 , t0 + η],

für ein hinreichend kleines η > 0. Der Anfangswert lautet ϕ(t0 ) = 0, da x(t0 ) = x0 ∈ D. Lemma 6.4.1 impliziert ϕ(t) = 0 für alle t ∈ [t0 , t0 + η], also x(t) ∈ D, da D abgeschlossen ist. Dies zeigt die positive Invarianz von D.

7.2

Invarianzkriterien

Bevor wir zu Anwendungen von Satz 7.1.4 kommen, wollen wir erneut die Subtangentialbedingung (S) diskutieren. Satz 7.2.1. Sei φ ∈ C 1 (Rn , R) und gelte ∇φ(x) = 0 für alle x ∈ φ −1 (a), d. h. a ist regulärer Wert für φ. Dann sind äquivalent: 1. D = φ −1 ((−∞, a]) ist positiv invariant für (7.1). 2. (f (t, x)|∇φ(x)) ≤ 0 für alle t ∈ R, x ∈ φ −1 (a) = ∂D. Beweis. Es gelte 1. Seien t ∈ R, x ∈ ∂D fixiert und sei z = f (t, x). Nach Satz 7.1.4 gilt für f und D die Subtangentialbedingung (S), d. h. es existiert eine Funktion p(h) ∈ D, sodass für jedes ε ∈ (0, 1) ein δ > 0 existiert, mit |x +hz−p(h)|2 ≤ εh für alle h ∈ (0, δ]. Da φ nach Voraussetzung C 1 ist, existiert zu ε ∈ (0, 1) ein ρ > 0, sodass |φ(p(h)) − φ(x) − (∇φ(x)|p(h) − x)| ≤ ε|p(h) − x|2 gilt, falls |p(h) − x|2 ≤ ρ. Wegen |p(h) − x|2 ≤ (1 + |z|2 )h nehmen wir im Weiteren 0 < h ≤ min{δ, ρ/(1 + |z|2 )} an. Nun ist φ(x) = a und φ(p(h)) ≤ a. Folglich erhalten wir     p(h) − x   p(h) − x   + ∇φ(x) (∇φ(x)|z) = ∇φ(x)z − h h ≤ |∇φ(x)|2 ε +

1 |φ(p(h)) − φ(x) − (∇φ(x)|p(h) − x)| h

≤ |∇φ(x)|2 ε + ε(1 + |z|2 ) ≤ Cε,

160

7 Invarianz

für alle h mit 0 < h ≤ min{δ, ρ/(1 + |z|2 )}. Da ε ∈ (0, 1) beliebig war, folgt die Behauptung. Sei nun 2. erfüllt und t0 ∈ R, x0 ∈ D fixiert. Wir betrachten die gestörte DGL x˙ = f (t, x) − ε∇φ(x). Nach dem Satz von Peano existiert mindestens eine Lösung xε (t) mit xε (t0 ) = x0 . Sei ϕ(t) = φ(xε (t)); es gilt ϕ(t0 ) = φ(x0 ) ≤ a, sowie ϕ(t) ˙ = (∇φ(xε (t))|x˙ε (t)) = (∇φ(xε (t))|f (t, xε (t))) − ε|∇φ(xε (t))|2 . Angenommen, xε (t) ∈ / D für ein t > t0 ; dann existiert ein t1 ≥ t0 mit xε (t) ∈ D für t ≤ t1 , xε (t1 ) ∈ ∂D. Hier gilt nun ϕ(t ˙ 1 ) ≤ −ε|∇φ(xε (t1 ))|22 < 0, da a regulärer Wert von φ ist, also mit ϕ(t ˙ 1 ) = lim

h→0+

ϕ(t1 ) − ϕ(t1 − h) a − ϕ(t1 − h) = lim ≥0 h→0+ h h

ein Widerspruch. Daher bleibt xε (t) solange in D, wie die Lösung existiert. Für ε → 0 konvergiert xε (t) gleichmäßig auf kompakten Intervallen gegen x(t), die Lösung von (7.1). Daher ist D positiv invariant.  Korollar 7.2.2. Seien φ1 , . . . , φk ∈ C 1 (Rn , R) und aj ∈ R regulärer Wert von φj , j = 1, . . . , k. Gilt dann (f (t, x)|∇φj (x)) ≤ 0

für alle x ∈ φj−1 (aj ), j = 1, . . . , k, t ≥ 0,

so ist D=

k 7

φj−1 ((−∞, aj ])

j =1

positiv invariant. Beweis. Nach Satz 7.2.1 ist Dj = φj−1 ((−∞, aj ]) positiv invariant bzgl. (7.1); damit ist 8  auch D = kj =1 Dj positiv invariant.

7.3 Konvexe invariante Mengen

7.3

161

Konvexe invariante Mengen

In diesem Abschnitt betrachten wir abgeschlossene Mengen, die positiv invariant für (7.1) sind, unter der Zusatzannahme der Konvexität. Zur Erinnerung: D ⊂ Rn heißt konvex, wenn mit x, y ∈ D auch die Verbindungsstrecke zwischen x und y zu D gehört, also x, y ∈ D "⇒ tx + (1 − t)y ∈ D

für alle t ∈ (0, 1).

Im Folgenden benötigen wir einige Eigenschaften konvexer Mengen, insbesondere die Existenz der metrischen Projektion auf D. Lemma 7.3.1. Sei D ⊂ Rn abgeschlossen und konvex. Dann existiert zu jedem u ∈ Rn genau ein P u ∈ D mit dist(u, D) = |u − P u|2 . P : Rn → D ist nichtexpansiv, d. h. Lipschitz mit Konstante 1 und es gilt (u − P u|v − P u) ≤ 0 für alle u ∈ Rn , v ∈ D.

(7.4)

Ferner ist u − P u ∈ N (P u) für alle u ∈ Rn , die Funktion φ(u) := 12 dist(u, D)2 ist stetig differenzierbar, und es gilt ∇φ(u) = u − P u,

für alle u ∈ Rn .

Beweis. Sei u ∈ Rn gegeben. Ist u ∈ D, so setzen wir P u = u. Sei nun u ∈ / D. Dann existiert eine Folge xn ∈ D mit |u − xn |2 → dist(u, D); da xn beschränkt ist, existiert eine Teilfolge xnk → x ∈ D und es gilt dist(u, D) = |u−x|2 . Wir zeigen, dass x dadurch eindeutig bestimmt ist. Dazu sei y ∈ D mit dist(u, D) = |u − y|2 . Es gilt dann aufgrund der Konvexität von D    |u − y|22 |u − x|22 x + y 2 1  + + (u − x|u − y) = dist(u, D) ≤ u −  2 2 4 4 2 2



1 (|u − x|2 + |u − y|2 )2 = dist(u, D)2 , 4

also |u − x+y 2 |2 = dist(u, D). Es folgt (u − x|u − y) = |u − x|2 |u − y|2 und daher u − x = u − y, also x = y, denn |u − x|2 = |u − y|2 . Setzt man nun P u = x, so ist P : Rn → D wohldefiniert. Wir zeigen (7.4). Es gilt für alle w ∈ D

162

7 Invarianz

|u − P u|22 = dist(u, D)2 ≤ |u − w|22 = |(u − P u) + (P u − w)|22 = |u − P u|22 + 2(u − P u|P u − w) + |P u − w|22 , folglich (u − P u|w − P u) ≤

1 |w − P u|22 , 2

für alle w ∈ D. Mit v ∈ D ist auch w = tv + (1 − t)P u ∈ D, t ∈ (0, 1), da D konvex ist, und es gilt w − P u = t (v − P u). Nach Division durch t erhält man (u − P u|v − P u) ≤

t |v − P u|22 . 2

Für t → 0+ ergibt sich die Relation (7.4). Als nächstes zeigen wir, dass P nichtexpansiv ist. Dazu seien u, y ∈ Rn ; setzt man v = P y in (7.4), so erhält man (u − P u|P y − P u) ≤ 0, also |P y − P u|22 ≤ (P y − u|P y − P u) = (y − P y|P u − P y) +(y − u|P y − P u)    ≤0 nach (7.4)

≤ |y − u|2 |P y − P u|2 , woraus |P y − P u|2 ≤ |y − u|2 für alle u, y ∈ Rn folgt. Die Differenzierbarkeit von φ sieht man folgendermaßen. Es ist zum Einen φ(x + h) − φ(x) − (x − P x|h) =

1 |h + P x − P (x + h)|22 + (x − P x|P x − P (x + h)) ≥ 0, 2

und zum Anderen φ(x + h) − φ(x) − (x − P x|h)   |h|22 = |h|22 − |P (x + h) − P x|22 /2 + (x + h − P (x + h)|P x − P (x + h)) ≤ , 2

7.3 Konvexe invariante Mengen

163

wie eine kurze Rechnung und (7.4) zeigen. Damit sind alle Behauptungen des Lemmas bewiesen. 

Bemerkungen 7.3.2. 1. Gl. (7.4) ist sogar charakteristisch für die metrische Projektion P , denn es gilt die Implikation: Für x ∈ D und u ∈ Rn mit (u − x|v − x) ≤ 0 für alle v ∈ D, folgt x = P u. Es gelte also (7.4). Dann ist |u − x|22 = (u − x|u − x) = (u − x|v − x) + (u − x|u − v) ≤ |u − x|2 |v − u|2 , also |u − x|2 ≤ |u − v|2 , für alle v ∈ D, falls u = x gilt. Daraus folgt x = P u. Für u = x ∈ D ist P u = u = x. 2. Ist D ⊂ Rn abgeschlossen und konvex, dann ist N (x) für jedes x ∈ ∂D nichtleer. Dies sieht man folgendermaßen. Sei x ∈ ∂D. Wähle eine Folge (xn ) ⊂ Rn \ D mit xn → x. Dann gilt νn :=

xn − P xn ∈ N (P xn ). |xn − P xn |2

Die Folge (νn ) besitzt eine konvergente Teilfolge νnk → ν und ν ∈ N (x). Diese äußere Normale erfüllt (z|ν) ≤ (x|ν) für alle z ∈ D; sie definiert damit eine Stützhyperebene an D in x ∈ ∂D. 3. Sei D = B¯ R (x0 ) eine euklidische Kugel. Dann ist die metrische Projektion durch . Px =

x, |x − x0 |2 ≤ R, x−x0 x0 + R |x−x0 |2 , |x − x0 |2 > R,

also durch die radiale Projektion gegeben. Insbesondere ist die radiale Projektion nichtexpansiv. Für allgemeinere abgeschlossene D ist die Umkehrung von Lemma 7.1.3 leider falsch, da es mitunter nicht genügend viele äußere Normalen gibt. Für konvexe Mengen jedoch ist sie richtig, wie wir nun zeigen werden. Lemma 7.3.3. Sei D ⊂ Rn abgeschlossen und konvex und sei z ∈ Rn , x ∈ ∂D. Dann sind äquivalent: 1. limh→0+ h1 dist(x + hz, D) = 0; 2. (z|y) ≤ 0 für alle y ∈ N (x).

164

7 Invarianz

Beweis. Wir haben nur noch 2. ⇒ 1. zu zeigen. Gelte also 2., aber wir nehmen an, 1. sei falsch. Dann existiert ein ε0 > 0 und eine Folge hn → 0+ mit ε0 hn ≤ dist(x + hn z, D) ≤ hn |z|2 . Es folgt    x − P (x + hn z)   ε0 ≤  + z ≤ |z|2 ; hn daher existiert eine Teilfolge, welche wir wieder mit hn bezeichnen, derart, dass hn → 0+ und yn :=

x − P (x + hn z) +z→y hn

gilt; insbesondere ist y = 0. Dieses y ist eine äußere Normale an D in x, denn mit (7.4) erhalten wir für v ∈ D 0 ≤ (yn |P (x + hn z) − v) → (y|x − v), also (y|x − v) ≥ 0, und daher |x + y − v|22 = |x − v|22 + 2(x − v|y) + |y|22 ≥ |y|22 ,

für alle v ∈ D,

d. h. B|y|2 (x + y) ∩ D = ∅, also y ∈ N (x). Außerdem ergibt (7.4) mit v = x und u = x + hn z die Ungleichung (x + hn z − P (x + hn z)|x − P (x + hn z)) ≤ 0, also nach Division durch h2n und mit n → ∞ (y|y − z) ≤ 0,

d. h.

(z|y) ≥ |y|22 > 0,

was einen Widerspruch zu 2. bedeutet. Als direkte Folgerung aus Satz 7.1.4 und Lemma 7.3.3 erhalten wir den Satz 7.3.4. Sei D ⊂ G abgeschlossen und konvex. Dann sind äquivalent: 1. D ist positiv invariant für (7.1); 2. (f (t, x)|y) ≤ 0 für alle t ∈ R, x ∈ ∂D, y ∈ N (x).



7.4 Positiv homogene autonome Systeme

165

Ist D ⊂ G abgeschlossen, positiv invariant und beschränkt, so existieren alle in D startenden Lösungen global nach rechts; das ist eine direkte Konsequenz des Satzes über die Fortsetzbarkeit von Lösungen. Ist D außerdem konvex, so können wir noch mehr sagen. Satz 7.3.5. Sei D ⊂ G abgeschlossen, beschränkt und konvex und sei D positiv invariant für (7.1). Dann gilt: 1. Ist f τ -periodisch in t, so existiert mindestens eine τ -periodische Lösung x∗ (t) von (7.1) in D. 2. Ist f autonom, so besitzt (7.1) mindestens ein Equilibrium x∗ in D. Beweis. 1. Definiere eine Abbildung T : D → D durch T x0 = x(τ ; 0, x0 ); da D positiv invariant ist, gilt T D ⊂ D. T ist stetig nach dem Satz über die stetige Abhängigkeit. Da D abgeschlossen, beschränkt und konvex ist, liefert der Fixpunktsatz von Brouwer einen Fixpunkt x0 ∈ D von T , d. h. T x0 = x0 . Die Lösung x(t; 0, x0 ) erfüllt daher x0 = x(τ ; 0, x0 ), also gilt auch x(t; 0, x0 ) = x(t + τ ; 0, x0 ), da f τ -periodisch in t ist. Damit ist x(t; 0, x0 ) eine periodische Lösung von (7.1). 2. Setze τn = 2−n ; da f autonom ist, ist f insbesondere τn -periodisch, nach (i) existieren daher τn -periodische Lösungen xn (t) von (7.1) in D. Die Folge (xn )n∈N ⊂ C([0, 1], D) ist beschränkt, da D beschränkt ist; sie ist aber auch gleichgradig stetig, da x˙n = f (xn ) und f auf D beschränkt ist. Der Satz von Arzelà-Ascoli ergibt eine gleichmäßig konvergente Teilfolge xnk → x∞ ; es ist x˙∞ = f (x∞ ) und x∞ ∈ D, wie man anhand der äquivalenten Integralgleichung sieht. Wir zeigen, dass x∞ (t) sogar konstant ist. Dazu muss man nur beachten, dass jedes xn (t) τm -periodisch für n ≥ m ist; mit n → ∞ folgt daher: x∞ (t) ist τm -periodisch für alle m ∈ N. Das heißt aber x∞ (0) = x∞ (kτm )

für alle k ∈ {0, . . . , 2m }, m ∈ N;

die Menge {k2−m : k ∈ {0, . . . , 2m }, m ∈ N} ist dicht in [0, 1], folglich muss x∞ (t) konstant sein. 

7.4

Positiv homogene autonome Systeme

Im Abschn. 6.6 hatten wir ein Modell zur Paarbildung kennengelernt, das auf ein homogenes System führte. Hier wollen wir solche positiv homogenen Systeme allgemein untersuchen. Dazu betrachten wir das autonome Problem

166

7 Invarianz

x˙ = f (x),

t ≥ 0,

x(0) = x0 ,

(7.5)

wobei f : Rn → Rn stetig und quasipositiv sei (vgl. Abschn. 4.2). Wir nehmen ferner wieder Eindeutigkeit der Lösungen nach rechts an. Dann ist der Standardkegel K := Rn+ positiv invariant für (7.5). Die Funktion f heißt positiv homogen, wenn f (αx) = αf (x) für alle α ≥ 0 und x ∈ Rn+ gilt. Insbesondere ist dann f (0) = 0, also 0 ein Equilibrium für (7.5), das triviale Equilibrium. Homogene Differentialgleichungen erlauben nichttriviale Exponentiallösungen der Form x∗ (t) = eλ∗ t z∗ , mit λ∗ ∈ R und z∗ ∈ K, z∗ = 0. Denn aufgrund der positiven Homogenität von f gilt für ein solches x∗ (t) λ∗ eλ∗ t z∗ = x˙∗ (t) = f (x∗ (t)) = f (eλ∗ t z∗ ) = eλ∗ t f (z∗ ), also ist x∗ (t) genau dann eine Lösung von (7.5), wenn das Paar (z∗ , λ∗ ) Lösung des nichtlinearen Eigenwertproblems f (z∗ ) = λ∗ z∗

(7.6)

ist. Aufgrund der positiven Homogenität ist mit (z∗ , λ∗ ) auch jedes (αz∗ , λ∗ ), α ≥ 0 eine Lösung von (7.6). Daher ist es naheliegend eine Normierung einzuführen. Dazu sei e = [1, 1, . . . , 1]T . Ist nun x(t) eine nichttriviale Lösung von (7.5) in K, so gilt ρ(t) := (x(t)|e) > 0, und damit ist z(t) := x(t)/ρ(t) wohldefiniert. Die Zerlegung x(t) = ρ(t)z(t) ergibt ρ(t)z(t) ˙ + ρ(t)˙z(t) = x(t) ˙ = f (x(t)) = f (ρ(t)z(t)) = ρ(t)f (z(t)), aufgrund der Homogenität von f . Ferner gilt ρ(t) ˙ = (x(t)|e) ˙ = (f (x(t))|e) = (f (ρ(t)z(t))|e) = ρ(t)(f (z(t))|e), folglich z˙ (t) = f (z(t)) − (f (z(t))|e)z(t), also ist z von ρ entkoppelt. Die Funktion ρ ergibt sich durch Integration zu  ρ(t) = ρ0 exp{

t

(f (z(s))|e)ds}, 0

wenn z(t) bekannt ist. Daher ist das System (7.5) auf K \ {0} mit positiv homogenem f äquivalent zu

7.4 Positiv homogene autonome Systeme

z˙ = f (z) − (f (z)|e)z,

167

t ≥ 0,

z(0) = z0 ,

(7.7)

mit der Nebenbedingung (z(t)|e) = 1. Setzt man nun D := {z ∈ K : (z|e) = 1}, das ist das Standardsimplex im Rn , so ist D ⊂ K abgeschlossen, konvex und beschränkt, sowie positiv invariant für (7.7). Nach Satz 7.3.5 besitzt das System (7.7) mindestens ein Equilibrium z∗ in D. Das bedeutet aber f (z∗ ) = (f (z∗ )|e)z∗ , also ist (z∗ , λ∗ ) eine nichttriviale Lösung des Eigenwertproblems (7.6) mit zugehörigem Eigenwert λ∗ := (f (z∗ )|e). Satz 7.4.1. Sei f : Rn → Rn stetig, quasipositiv und positiv homogen, und seien die Lösungen von (7.5) eindeutig nach rechts. Dann sind (7.5) auf Rn+ \ {0} und (7.7) auf dem Standardsimplex D in Rn äquivalent, und zwar mittels der Transformation x = ρz,

(z|e) = 1.

Das System (7.7) besitzt mindestens ein Equilibrium z∗ ∈ D, das nichtlineare Eigenwertproblem die Lösung (z∗ , λ∗ ) mit λ∗ = (f (z∗ )|e), und (7.5) hat die Schar αeλ∗ t z∗ (α > 0) nichttrivialer Exponentiallösungen. Ist ferner f positiv, gilt also f (D) ⊂ Rn+ , so ist λ∗ ≥ 0, und ist f strikt positiv, gilt also f (D) ⊂ int Rn+ , so sind λ∗ > 0 und z∗ ∈ int Rn+ . Dieses Resultat ist ohne weitere Voraussetzungen auf das (nichtlineare!) Paarbildungsmodell aus Abschn. 6.6 anwendbar. Man erhält damit exponentielle, sog. persistente Lösungen für dieses Modell. Eine weitere Bemerkung ist die Folgende. Sei f ∈ C 1 (Rn ; Rn ) positiv homogen. Dann gilt für alle λ > 0, f  (λx)x =

d d f (λx) = [λf (x)] = f (x). dλ dλ

Mit λ → 0+ folgt damit f (x) = f  (0)x, d. h. f ist linear, und wenn f quasipositiv ist, dann auch f  (0). Dies zeigt, dass wir hier nicht sehr weit vom linearen Fall entfernt sind. Aber selbst im Spezialfall f (x) = Ax, mit einer quasipositiven Matrix A ∈ Rn×n , d. h. aij ≥ 0, i = j , ist das Resultat interessant. Satz 7.4.1 liefert uns dann nämlich einen positiven Eigenvektor z∗ ∈ Rn+ von A zum reellen Eigenwert λ∗ = (Az∗ |e). Ist A positiv, d. h. aij ≥ 0, dann ist λ∗ ≥ 0, und ist A strikt positiv, d. h. aij > 0, dann sind λ∗ > 0 und z∗ ∈ int Rn+ . Dies ist ein zentraler Teil des Satzes von Perron und Frobenius, den wir nun formulieren wollen. Dazu benötigen wir den Begriff der Irreduzibilität. Definition 7.4.2. Eine Matrix A ∈ Rn×n heißt reduzibel, falls es eine Permutationsmatrix P gibt mit

168

7 Invarianz

 P −1 AP =

 A1 0 . B A2

Andernfalls nennt man A irreduzibel. Man überlegt sich leicht, dass A genau dann irreduzibel ist, wenn es zu jeder echten Teilmenge I von {1, . . . , n} Indizes i ∈ I und k ∈ I gibt mit aik = 0. Damit ist klar, dass A genau dann irreduzibel ist, wenn die transponierte Matrix AT diese Eigenschaft hat. Eine reduzible Matrix lässt sich mittels einer Permutationsmatrix P auf Block-Dreiecksform bringen, wobei die Blöcke auf der Hauptdiagonalen irreduzibel sind. Satz 7.4.3 (Perron-Frobenius). 1. (a) Sei A ∈ Rn×n positiv. Dann ist λ = r(A) Eigenwert von A mit einem positiven Eigenvektor v ∈ Rn+ . (b) Ist A positiv und irreduzibel, dann ist v strikt positiv, also v ∈ int Rn+ , r(A) algebraisch einfach, und kein weiterer Eigenwert besitzt einen positiven Eigenvektor. (c) Ist A strikt positiv, dann gilt |λ| < r(A) für alle λ ∈ σ (A) \ {r(A)}. 2. (a) Sei A quasipositiv. Dann ist λ = s(A) Eigenwert von A mit einem positiven Eigenvektor v. (b) Ist A quasipositiv und irreduzibel, dann ist v strikt positiv, s(A) algebraisch einfach, und kein weiterer Eigenwert besitzt einen positiven Eigenvektor. Ferner gilt Re λ < s(A) für alle λ ∈ σ (A) \ {s(A)}. Beweis.  −(k+1) Ak , also ist (s − A)−1 positiv. 1.(a) Für s > r = r(A) gilt (s − A)−1 = ∞ k=0 s −1 Angenommen r ∈ σ (A); dann ist (z − A) holomorph in einer Umgebung von r, also stetig, daher existiert (r − A)−1 und ist positiv. Sei μ ∈ C ein Eigenwert von A, |μ| = r und sei w = 0 ein dazugehöriger Eigenvektor. Definiere y ∈ Rn+ mittels der Einträge yi = |wi |; es gilt dann ryi = |μwi | = |(Aw)i | ≤ (Ay)i , also ist (A − r)y ≥ 0. Durch Anwendung von (r − A)−1 folgt 0 ≤ y ≤ 0, also y = 0 im Widerspruch zur Annahme w = 0. Daher ist r Eigenwert von A. Um zu sehen, dass es zu r einen positiven Eigenvektor gibt, beachte man, dass die Resolvente (s − A)−1 eine rationale Matrixfunktion ist. s = r ist ein Pol für (s − A)−1 mit der Ordnung l ≥ 1, also haben wir R := lim (s − r)l (s − A)−1 ≥ 0, s→r+

R = 0,

7.4 Positiv homogene autonome Systeme

169

da (s − A)−1 für s > r positiv ist, und es gilt AR = rR, denn A(s − A)−1 = s(s − A)−1 − I . Wähle ein w ∈ Rn+ mit v := Rw = 0, also v ≥ 0. Dann gilt Av = rv und v ist positiv. 1.(b) Ist A irreduzibel und v positiver Eigenvektor zum Eigenwert r := r(A), so ist v strikt positiv. Denn ist I := {i : vi = 0} = ∅, so gibt es aufgrund der Irreduzibilität von A Indizes i ∈ I und j ∈ I mit aij > 0. Folglich erhält man den Widerspruch 0 = rvi =

n 

aik vk ≥ aij vj > 0,

k=1

also ist I = ∅, d. h. v ist strikt positiv. Da AT ebenfalls irreduzibel ist, gibt es einen strikt positiven Eigenvektor v ∗ von AT zum Eigenwert r. Insbesondere ist (v|v ∗ ) > 0, also kann man (v|v ∗ ) = 1 annehmen. Damit steht v∗ senkrecht auf allen Eigenräumen E(μ) von A, μ = r, und so kann es keine weiteren positiven Eigenvektoren zu Eigenwerten μ = r geben. Um zu zeigen, dass r einfach ist, sei Aw = rw ein weiterer Eigenvektor; durch Übergang zu w − (w|v ∗ )v kann man (w|v ∗ ) = 0 annehmen, also ist w ∈ Rn+ . Da v strikt positiv ist, gilt w + tv ∈ int Rn+ für große t ∈ R+ , also gibt es ein t0 > 0 mit w0 := w + t0 v ∈ ∂Rn+ . Ist w0 = 0 so ist w0 positiver Eigenvektor von A, und somit w0 ∈ int Rn+ , was aber nicht sein kann, da mindestens eine Komponente von w0 Null sein muss. Also ist w0 = 0, und daher sind w und v linear abhängig. Somit ist r geometrisch einfach. Sei nun Aw − rw = v; Skalarmultiplikation mit v ∗ ergibt dann den Widerspruch 1 = (v|v ∗ ) = (Aw − rw|v ∗ ) = (w|AT v ∗ − rv ∗ ) = 0, also ist r halbeinfach und daher algebraisch einfach. 1.(c) Sei A strikt positiv und sei Aw = λw, w = 0, λ = r. Definiere den Vektor y durch yi = |wi |. Dann folgt |λ|yi = |λwi | = |

n  k=1

aik wk |
0 für alle i, j = 1, . . . , n gilt, und w kein Vielfaches eines positiven Vektors ist. Durch Multiplikation mit vi∗ und Summation über i ergibt sich |λ|(y|v ∗ ) < (Ay|v ∗ ) = r(y|v ∗ ), also |λ| < r, da w = 0 also y positiv und v ∗ strikt positiv ist. 2. Wir kennen schon die Identität r(eA ) = es(A) aus Übung 3.10., die für alle Matrizen A gilt. Ferner folgt aus Übung 7.13., dass eA positiv ist, falls A quasipositiv ist,

170

7 Invarianz

und eA ist strikt positiv, falls A außerdem irreduzibel ist. Damit kann man 1. auf eA anwenden, und alle Behauptungen in 2. folgen aus dem Satz 11.1.1 über den Funktionalkalkül, den wir in Kap. 11 beweisen. 

7.5

Differentialungleichungen und Quasimonotonie

Als weitere Anwendung der Invarianz abgeschlossener Mengen betrachten wir Differentialungleichungen der Form ⎧ ⎨x˙ − f (t, x) ≤ y˙ − f (t, y), i i i i ⎩xi (t0 ) ≤ yi (t0 ),

t ∈ J = [t0 , t1 ], i = 1, . . . , n.

(7.8)

Unter welcher Voraussetzung an f : R+ × G → Rn gilt dann xi (t) ≤ yi (t),

t ∈ J, i = 1, . . . , n ?

Um zu sehen, was diese Frage mit Invarianz zu tun hat, setzen wir u(t) = y(t) − x(t), t ∈ J ; es ist dann ui (t0 ) ≥ 0, i = 1, . . . , n, also u(t0 ) ∈ Rn+ . Wir möchten u(t) ∈ Rn+ für alle t ∈ J zeigen, d. h. die Invarianz von Rn+ bzgl. einer noch zu definierenden DGL für u(t). Nun ist u(t) ˙ = y(t) ˙ − x(t) ˙ = f (t, y(t)) − f (t, x(t)) + [y(t) ˙ − f (t, y(t)) − (x(t) ˙ − f (t, x(t)))] = f (t, u(t) + x(t)) − f (t, x(t)) + d(t) =: g(t, u(t)), wobei d(t) = y(t) ˙ − f (t, y(t)) − (x(t) ˙ − f (t, x(t))) ∈ Rn+ für alle t ∈ J gilt. Ist also Rn+ positiv invariant für u˙ = g(t, u), so folgt u(t) ∈ Rn+ , für alle t ∈ J . Nach dem Positivitätskriterium ist Rn+ positiv invariant für diese Gleichung, falls gi (t, u) ≥ 0 für alle u ≥ 0 mit ui = 0 gilt. Dabei beachte man, dass die Lösungen von u˙ = g(t, u) eindeutig sind, falls f lokal Lipschitz in x ist, oder allgemeiner die Eindeutigkeitsbedingung aus Satz 6.5.1 erfüllt. Da di (t) ≥ 0 ist, werden wir daher auf die folgende Definition geführt. Definition 7.5.1. Sei f : J ×G → Rn . Die Funktion f heißt quasimonoton (wachsend), falls für alle t ∈ J , x, y ∈ G, i = 1, . . . , n gilt

7.5 Differentialungleichungen und Quasimonotonie

171

(QM) x ≤ y, xi = yi "⇒ fi (t, x) ≤ fi (t, y). Beispiele. f (t, x) = A(t)x mit A(t) ∈ Rn×n ist quasimonoton, falls aij (t) ≥ 0 für alle i = j gilt, also A(t) quasipositiv ist. Ist f stetig differenzierbar in x, so ist f genau dann quasimonoton, wenn die Matrix ∂x f (t, x) in jedem Punkt (t, x) quasipositiv ist. Für n = 1 ist jedes f quasimonoton. In Worten: f ist quasimonoton, wenn jede Komponentenfunktion fi in allen xj mit j = i monoton wachsend ist. Fassen wir unser Ergebnis zusammen im folgenden Satz 7.5.2. Sei f : [t0 , t1 ] × G → Rn stetig und quasimonoton, und sei die Eindeutigkeitsbedingung aus Satz 6.5.1 erfüllt. Seien x, y : [t0 , t1 ] → G stetig differenzierbar und gelte x˙i (t) − fi (t, x(t)) ≤ y˙i (t) − fi (t, y(t)), xi (t0 ) ≤ yi (t0 ),

t ∈ [t0 , t1 ], i = 1, . . . , n.

Dann gilt xi (t) ≤ yi (t) für alle t ∈ [t0 , t1 ], i = 1, . . . , n. In vielen Fällen ist es angemessen, andere Ordnungen auf Rn als die Standardordnung zu verwenden. Es ist nicht schwer, das Analogon von Satz 7.5.2 zu formulieren, indem man Invarianz allgemeiner Kegel betrachtet. Definition 7.5.3. Eine Menge K ⊂ Rn heißt Kegel, wenn K abgeschlossen, konvex und positiv homogen (d. h. λK ⊂ K für alle λ ≥ 0) ist. Ein Vektor v ∈ K, v = 0 wird positiv genannt. Ein Kegel K heißt echt, wenn außerdem K ∩ (−K) = {0} gilt. Ist K ein Kegel, so heißt K ∗ = {x ∗ ∈ Rn : (x|x ∗ ) ≥ 0, für alle x ∈ K} der zu K duale Kegel. Der duale Kegel ist tatsächlich ein Kegel, wie man leicht nachprüft. Man beachte, dass x ∈ K genau dann gilt, wenn (x|x ∗ ) ≥ 0 für alle x ∗ ∈ K ∗ erfüllt ist; insbesondere ist K ∗∗ = K. Dies sieht man z. B. folgendermaßen: Sei P die metrische Projektion auf K, und x ∈ Rn mit (x|x ∗ ) ≥ 0 für alle x ∗ ∈ K ∗ . Dann gilt nach Lemma 7.3.1 (x − P x|k) ≤ (x − P x|P x) für alle k ∈ K. Setzt man k = τ v mit v ∈ K und schickt τ → ∞, so erhält man (x − P x|v) ≤ 0 für alle v ∈ K, also P x − x ∈ K ∗ , und andererseits gilt mit k = 0 die Ungleichung (x−P x|P x) ≥ 0. Es folgt (P x−x|P x−x) = (P x−x|P x)−(P x−x|x) ≤ 0, also x = P x ∈ K.

172

7 Invarianz

Sei K ein Kegel im Rn ; mittels K

x≤y

⇐⇒

y−x ∈K

wird auf Rn eine teilweise Ordnung definiert mit den Eigenschaften K

(α) x ≤ y

und

K

y≤z

K

(γ ) x ≤ y, z ∈

K

x≤z

K

(β) α ≥ 0, x ≤ y K

"⇒

"⇒ αx ≤ αy

Rn

(Transitivität)

(Homogenität)

K

"⇒ x + z ≤ y + z

(Additivität);

K

K

(δ) xn ≤ yn , xn → x, yn → y ⇒ x ≤ y (Abgeschlossenheit); ist K außerdem echt, so gilt auch K

() x ≤ y

und

K

y≤x

"⇒ x = y

(Symmetrie).

Umgekehrt überlegt man sich auch leicht, dass eine teilweise Ordnung ≤ auf Rn mittels K := {x ∈ Rn : x ≥ 0} einen Kegel definiert, falls (α), (β), (γ ), (δ) gelten; () ist dann äquivalent zur Echtheit des Kegels. Die Bedeutung des dualen Kegels klärt Lemma 7.5.4. Sei K ⊂ Rn ein Kegel. Dann gilt für x ∈ ∂K: N (x) = {z ∈ Rn \ {0} : −z ∈ K ∗ und (x|z) = 0}. Insbesondere ist K genau dann positiv invariant für (7.1), wenn (f (t, x)|z) ≥ 0,

für alle x ∈ ∂K, z ∈ K ∗ mit (x|z) = 0

erfüllt ist. Beweis. „⊃“ Sei −z ∈ K ∗ . Wir zeigen, dass z äußere Normale an K in x ∈ ∂K ist, falls außerdem (x|z) = 0 gilt. Angenommen, es ist u ∈ B|z|2 (x + z) ∩ K. Es folgt dann 0 ≤ (u| − z) = (u − x − z| − z) + (x + z| − z) ≤ |u − (x + z)|2 |z|2 − |z|22 < 0, ein Widerspruch, folglich gilt z ∈ N (x). „⊂“ Sei nun umgekehrt z ∈ N (x). Dann gilt |x + z − u|2 ≥ |z|2 , also

für alle u ∈ K,

7.5 Differentialungleichungen und Quasimonotonie

173

|x − u|22 + 2(x − u|z) ≥ 0.

(7.9)

Setzt man u = x + ty, y ∈ K beliebig, t > 0, so ergibt (7.9) nach Division durch t t|y|2 − 2(y|z) ≥ 0, also mit t → 0+ (y|z) ≤ 0 für alle y ∈ K, d. h. −z ∈ K ∗ . Setzt man u = (1 − t)x in (7.9) und dividiert durch t ∈ (0, 1), so ergibt sich entsprechend t|x|2 + 2(x|z) ≥ 0, also mit t → 0+ auch (x|z) ≥ 0, d. h. (x|z) = 0. Die zweite Behauptung folgt unmittelbar aus Satz 7.3.4.



Um die geeignete Verallgemeinerung der Quasimonotonie zu erhalten, bemerken wir zunächst, dass (Rn+ )∗ = Rn+ gilt. Nun ist für K = Rn+ die Bedingung x ≤ y,

xi = yi

"⇒

fi (t, x) ≤ fi (t, y)

dann und nur dann erfüllt, wenn x ≤ y,

z ∈ K∗

mit

(x|z) = (y|z)

"⇒

(f (t, x)|z) ≤ (f (t, y)|z)

gilt. Diese Beobachtung ergibt die K

Definition 7.5.5. Sei K ⊂ Rn ein Kegel, ≤ die erzeugte Ordnung, und sei f : J × G → Rn . Dann heißt f quasimonoton (bzgl. K), falls für alle t ∈ J , x, y ∈ G gilt: K

(QM) x ≤ y, z ∈ K ∗ , (x − y|z) = 0

"⇒

(f (t, y) − f (t, x)|z) ≥ 0.

Unter Verwendung von Satz 7.3.4 können wir nun Satz 7.5.2 direkt auf allgemeine Kegel bzw. Ordnungen übertragen. Satz 7.5.6. Sei f : [t0 , t1 ] × G → Rn stetig und sei die Eindeutigkeitsbedingung aus K

Satz 6.5.1 erfüllt. Sei K ⊂ Rn ein Kegel, ≤ die von K erzeugte Ordnung, und sei f quasimonoton bzgl. K. Seien x, y : [t0 , t1 ] → G stetig differenzierbar und gelte

174

7 Invarianz

⎧ K ⎪ ⎨ x(t) ˙ − f (t, x(t)) ≤ y(t) ˙ − f (t, y(t)), ⎪ ⎩

x(t0 ) ≤ y(t0 ),

K

Dann gilt x(t) ≤ y(t)

7.6

t ∈ [t0 , t1 ].

K

für alle t ∈ [t0 , t1 ].

Autonome quasimonotone Systeme

Sei f : Rn → Rn stetig und quasimonoton bezüglich eines echten Kegels K mit K

induzierter Ordnung ≤. Wir betrachten in diesem Abschnitt das autonome System ⎧ ⎨x˙ = f (x), ⎩x(0) = x0 ,

(7.10)

K

und nehmen an, dass die Lösungen eindeutig sind. Gegeben seien x 0 ≤ x 0 , mit K

f (x 0 ) ≥ 0

und

K

f (x 0 ) ≤ 0;

x 0 heißt Sub-Equilibrium, x 0 Super-Equilibrium von (7.10). Setze K

K

D = [x 0 , x 0 ] := {x ∈ Rn : x 0 ≤ x ≤ x 0 }. D heißt das von x 0 und x 0 erzeugte Ordnungsintervall. Aus Satz 7.5.6 folgt, dass D K

K

positiv invariant für (7.10) ist; denn ist x0 ∈ D, so gilt x 0 ≤ x0 ≤ x 0 , und die Lösung x(t) mit Anfangswert x(0) = x0 erfüllt K

x˙ − f (x) = 0 ≥ −f (x 0 ), K

K

x˙ − f (x) = 0 ≤ −f (x 0 ),

K

folglich x 0 ≤ x(t) ≤ x 0 für alle t ≥ 0, d. h. x(t) ∈ D für alle t ≥ 0. Echte Kegel haben gute Eigenschaften, wie das folgende Lemma zeigt. K

Lemma 7.6.1. Sei K ⊂ Rn ein Kegel mit der erzeugten Ordnung ≤. Dann sind äquivalent: 1. K ist ein echter Kegel; K

K

2. K ist normal, d. h. es gibt γ > 0, sodass aus 0 ≤ x ≤ y folgt: |x| ≤ γ |y|;

7.6 Autonome quasimonotone Systeme K

175

K

3. Aus xn ≤ yn ≤ zn und xn → x∞ ← zn folgt yn → x∞ ; 4. 5. 6. 7.

K

K

Ordnungsintervalle [a, b] = {x ∈ Rn : a ≤ x ≤ b} sind kompakt; x ∈ K, (x|x ∗ ) = 0 für alle x ∗ ∈ K ∗ impliziert x = 0; int K ∗ = ∅; es gibt ein x0∗ ∈ K ∗ mit (x|x0∗ ) > 0 für alle 0 = x ∈ K, also einen strikt positiven dualen Vektor.

Ist dies der Fall, so sind monotone ordnungsbeschränkte Folgen konvergent. Beweis. K

K

(i) Sei K ein echter Kegel, aber nicht normal. Dann gibt es Folgen 0 ≤ xn ≤ yn mit |xn | > n|yn |. Setze un = xn /|xn |, vn = yn /|xn |; dann gibt es eine Teilfolge mit unk → u∞ = 0 und es gilt vn → 0. Da K abgeschlossen ist, ist einerseits u∞ ∈ K, aber andererseits auch −u∞ = limk→∞ (vnk −unk ) ∈ K, im Widerspruch zur Echtheit von K. Also impliziert 1. K normal, also 2. K

K

K

K

(ii) Sei xn ≤ yn ≤ zn und xn → x∞ ← zn . Ist K normal, so folgt |yn − xn | ≤ γ |zn − xn | → 0, also auch yn → x∞ . Daher folgt 3. aus 2. (iii) Es gelte 3. Angenommen, es existiert ein unbeschränktes Ordnungsintervall [a, b]. Dann gibt es eine Folge xn ∈ [a, b] mit |xn | → ∞. Setze un = xn /|xn |; dann gilt

(iv)

(v) (vi)

(vii)

a/|xn | ≤ un ≤ b/|xn | also mit 3. un → 0 im Widerspruch zu |un | = 1. Daher folgt 4. aus 3. K K Gelte 4. Das Ordnungsintervall [0, 0] = {x ∈ Rn : 0 ≤ x ≤ 0} ist gleich K ∩ (−K). Ist v ∈ K ∩ (−K), dann auch tv für alle t ∈ R, also ist [0, 0] = K ∩ (−K) genau dann beschränkt, wenn K ∩ (−K) = {0} ist, also wenn der Kegel echt ist. Daher ist 4. äquivalent zu 1. Es ist x0 ∈ K ∩ (−K) dann und nur dann, wenn (x0 |x ∗ ) = 0 für alle x ∗ ∈ K ∗ gilt. Dies zeigt die Äquivalenz von 1. und 5. Ist x ∗ ∈ K ∗ strikt positiv, also (x|x ∗ ) > 0 für alle x ∈ K\{0}, dann schon uniform positiv, d. h. es gibt eine Konstante c > 0 mit φ(x) := (x|x ∗ ) ≥ c|x| für alle x ∈ K. Denn φ(x) hat auf K ∩∂B1 (0) ein strikt positives Minimum. Andererseits ist ein x ∗ ∈ K ∗ genau dann uniform positiv, wenn x ∗ ∈ int K ∗ gilt. Dies zeigt die Äquivalenz von 6. und 7. Sei x ∗ ∈ K ∗ strikt positiv und x0 ∈ K ∩ (−K), x0 = 0. Dann gilt 0 < (x0 |x ∗ ) < 0, ein Widerspruch. Also impliziert 6., dass K echt ist. Umgekehrt sei K echt. Da K ∗ ∩ ∂B1 (0) kompakt ist, gibt es eine dichte Folge {xk∗ } ⊂ K ∗ ∩ ∂B1 (0). Setze  −2 ∗ ∗ ∗ ∗ x∗ = ∞ k=1 k xk ; offenbar ist x ∈ K wohldefiniert. Ist nun (x|x ) = 0 für ein ∗ x ∈ K, so folgt (x|xk ) = 0 für alle k, also aufgrund der Dichtheit der Folge sogar (x|y ∗ ) = 0 für alle y ∗ ∈ K ∗ . Dies impliziert mit 5. aber x = 0, also ist x ∗ strikt positiv. 

176

7 Invarianz

Da K nach Voraussetzung echt ist, ist das Ordnungsintervall D nach Lemma 7.6.1 beschränkt, also kompakt und konvex. Daher folgt aus Satz 7.3.5 die Existenz eines Equilibriums x∞ ∈ D. Es gilt aber noch viel mehr. Dazu betrachten wir die speziellen Lösungen x(t) und x(t) von (7.10) zu den Anfangswerten x 0 bzw. x 0 . Diese bleiben in D, K

K

und für jede andere in D startende Lösung x(t) gilt x(t) ≤ x(t) ≤ x(t), t > 0. Folglich erhalten wir K

K

K

x(t) ≤ x(t + h) ≤ x(t + h) ≤ x(t), t, h > 0, K

d. h. x(t) ist monoton wachsend und x(t) monoton fallend bzgl. der Ordnung ≤. Diese Funktionen besitzen daher nach Lemma 7.6.1 Grenzwerte x ∞ und x ∞ , welche Equilibria von (7.10) sind. Insbesondere ist D∞ = [x ∞ , x ∞ ] wieder positiv invariant und jede in D startende Lösung konvergiert gegen D∞ , d. h. D∞ ist global attraktiv in D. Ferner liegen alle Equilibria von (7.10) (aus D) und auch alle periodischen Lösungen von (7.10) in D∞ . Gilt weiter x ∞ =x ∞ , d. h. (7.10) besitzt nur ein Equilibrium in D, dann konvergieren alle in D startenden Lösungen gegen dieses Equilibrium x∞ , d. h. x∞ ist global attraktiv in D. Wir haben somit den folgenden Satz bewiesen. Satz 7.6.2. Sei f : Rn → Rn stetig und quasimonoton bezüglich eines echten Kegels K K

und seien x 0 ≤ x 0 Sub- bzw. Superequilibria für (7.10). Dann ist D = [x 0 , x 0 ] positiv K

invariant, und es existieren Equilibria x ∞ ≤ x ∞ in D derart, dass für alle Equilibria x∞ ∈ D von (7.10) gilt: x∞ ∈ D∞ = [x ∞ , x ∞ ]. D∞ ist positiv invariant und global attraktiv in D. Besitzt (7.10) höchstens ein Equilibrium x∞ ∈ D, so ist x∞ global attraktiv in D. Dieses Resultat wollen wir jetzt verwenden, um das qualitative Verhalten der chemischen Kinetik aus Abschn. 6.6 zu untersuchen. Beispiel. Chemische Kinetik. Wir betrachten das System x˙1 = a1 − x1 − r(x1 , x2 ),

x1 (0) = x01 > 0,

x˙2 = a2 − x2 − r(x1 , x2 ),

x2 (0) = x02 > 0,

(7.11)

aus Abschn. 6.6, wobei ai > 0 und r : R2+ → R stetig und wachsend in beiden Variablen, r(x1 , 0) = r(0, x2 ) = 0, sind. O.B.d.A. kann man a2 ≥ a1 annehmen, ansonsten vertausche man x1 und x2 . Wir hatten schon gezeigt, dass dieses System einen globalen Halbfluss auf D := R2+ erzeugt. Es gibt genau ein Equilibrium in int D, das durch die Gleichungen x2 = a2 − a1 + x1 und r(x1 , a2 − a1 + x1 ) = a1 − x1 bestimmt ist; die letzte Gleichung besitzt genau eine Lösung x ∈ (0, a1 ), da r in beiden Variablen wachsend ist. Das System ist quasimonoton bzgl. der vom Kegel K = {(x1 , x2 ) ∈ R2 : x1 ≥ 0, x2 ≤ 0}

7.7 Ein Klassenmodell für Epidemien

177

induzierten Ordnung. Man sieht leicht, dass x = (b1 , 0) ein Super-Equilibrium ist, sofern b1 ≥ a1 ist, und ebenso ist x = (0, b2 ) ein Sub-Equilibrium, wenn b2 ≥ a2 ist, es gilt K

x ≤ x. Jeder Anfangswert x0 ∈ D liegt in einem dieser Ordnungsintervalle. Daher ist Satz 7.6.2 anwendbar, und das Equilibrium ist global asymptotisch stabil in D.

7.7

Ein Klassenmodell für Epidemien

Die mathematische Modellierung von Infektionskrankheiten erfordert häufig eine weitergehende Differenzierung der Populationsklassen S der Suszeptiblen und I der Infektiösen. Im Folgenden betrachten wir ganz allgemein n Unterklassen der Population mit jeweils Sk Infizierbaren und Ik Infektiösen, k = 1, . . . , n. Ferner nehmen wir an, dass die Individuen die Klasse nicht wechseln können und berücksichtigen keine Geburts- und Sterbevorgänge. Folglich ist die Anzahl Sk + Ik =: Nk > 0 der k-ten Unterklasse konstant. Ferner sei ak > 0 die (pro Kopf) Gesundungsrate der k-ten Unterklasse und rkl die Kontaktrate der Infektion eines Infizierbaren der Klasse k durch einen Infektiösen der l-ten Klasse. Damit ergibt sich das System I˙k = −ak Ik +

n 

rkl Sk Il

l=1

= −ak Ik +

n 

rkl Nk Il −

l=1

n 

rkl Ik Il

l=1

für k ∈ {1, . . . , n}, wobei wir Sk = Nk − Ik eingesetzt haben. Wir normalisieren die Variablen, indem wir vk = Ik /Nk und bkl = rkl Nl ≥ 0 setzen, und erhalten so das System v˙k = −ak vk +

n 

bkl vl −

l=1

vk (0) = vk0 ,

n 

bkl vk vl ,

t ≥ 0, k = 1, . . . , n,

l=1

(7.12)

k = 1, . . . , n.

Wir nehmen ferner an, dass die Population bezüglich der Infektion irreduzibel ist, das heißt: Für jede echte Teilmenge J = ∅ von {1, . . . , n},

(7.13)

existieren l ∈ J, k ∈ {1, · · · , n} \ J mit bkl > 0.

(7.14)

Diese wesentliche Annahme besagt, dass eine gegebene Gruppe J von Unterklassen stets mindestens eine der nicht in J enthaltenen Unterklassen infizieren kann. Andernfalls könnte man die Gruppe J und ihr Komplement getrennt behandeln.

178

7 Invarianz

Wir fassen die Komponenten zu den Vektoren v = [v1 , . . . , vn ]T und v 0 = die n × n–Matrix A = [akl ] durch nichtlinearen Abbildungen

[v10 , . . . , vn0 ]T zusammen. Ferner definieren wir akl = bkl für k = l und akk = bkk − ak , sowie die g(v) =

n 

 bkl vk vl

l=1

und

k=1,...,n

f (v) = Av − g(v).

Man beachte, dass auf Grund der angenommenen Irreduzibilität der Population die Matrix A und damit auch ihre Transponierte AT irreduzibel sind. Mit diesen Vereinbarungen lässt sich das System (7.12) als v˙ = Av − g(v),

t ≥ 0,

v(0) = v 0 ,

(7.15)

schreiben. In unserem Modell sind dabei nur Anfangswerte v 0 im Einheitswürfel Wn = [0, 1]n von Interesse. Die Existenz einer eindeutigen positiven Lösung von (7.12) ergibt sich leicht aus dem Satz von Picard–Lindelöf und dem Positivitätssatz. Sei x ∈ ∂Wn ein Vektor, der nicht auf den Koordinatenhyperebenen liegt, und sei ν eine äußere Normale an ∂Wn in x. Dann gilt νk = 0, wenn xk ∈ (0, 1), und νk ≥ 0, wenn xk = 1 ist. Somit folgt die Ungleichung (ν|f (x)) =



− ak νk +

xk =1

n 

bkl xl νk −

l=1

n 

 bkl xl νk ≤ 0.

l=1

Damit ist Wn nach Satz 7.3.4 positiv invariant, und da Wn beschränkt ist, existieren alle in Wn startenden Lösungen global nach rechts und bleiben in Wn . Sei nun v 0 = 0 und t > 0. Wenn vk (t) für ein k gleich 1 wäre, dann wäre t ein lokales Maximum und v˙k (t) müsste gleich 0 sein. Andererseits folgte aus (7.12), dass v˙k (t) strikt negativ wäre. Also sind alle Komponenten von v(t) strikt kleiner als 1. Wir nehmen an, dass mindestens eine Komponente von v(t) gleich 0 sei. Da 0 eine stationäre Lösung ist, können nicht alle Komponenten von v(t) verschwinden. Weil die Population irreduzibel ist, gibt es also Indizes k, j ∈ {1, . . . , n} mit bkj > 0, vk (t) = 0 und vj (t) > 0. Aus der Differentialgleichung (7.12) und der schon gezeigten Positivität von v(t) folgt nun v˙k (t) =

n 

bkl vl (t) > 0.

l=1

Wieder ergibt sich ein Widerspruch, also sind alle Komponenten von v(t) größer Null. Daher gilt v(t) ∈ int Wn , sofern t > 0 und v0 ∈ Wn , v0 = 0 ist, d. h. die nichttriviale Lösungen gehen instantan ins Innere von Wn . Da die Matrix AT quasipositiv und irreduzibel ist, hat sie nach dem Satz von Perron– Frobenius einen strikt positiven Eigenvektor y zum Eigenwert s(A) = s(AT ). Wir setzen

7.7 Ein Klassenmodell für Epidemien

179

nun (x) = (x|y) für x ∈ Wn . Mit δ = mink yk > 0 gilt zunächst δ |x|1 ≤ (x) ≤ |y|∞ |x|1 .

(7.16)

Die Differentialgleichung (7.15) impliziert ˙ (v) = (Av|y) − (g(v)|y) = s(A)(v) −

n 

bkl yk vk vl

(7.17)

k,l=1

für v ∈ Wn . Seien s(A) ≤ 0 und v 0 = 0. Dann ist s(A)(v) ≤ 0 und die Doppelsumme ˙ ist für t > 0 strikt positiv. Also ist (v) für v ∈ Wn \ {0} strikt negativ. Somit ist  eine strikte Ljapunov-Funktion auf Wn und (7.15) hat außer 0 kein weiteres Equilibrium v∗ in Wn . Mit Satz 5.5.6 folgt v(t) → 0 für t → ∞, und die Ungleichung (7.16) zeigt auch die Stabilität des Equilibriums v = 0. Damit haben wir den ersten Teil des Hauptresultats dieses Abschnitts gezeigt, das wie folgt lautet: Satz 7.7.1. Das System (7.12) sei irreduzibel im Sinne von (7.13) und sei v Lösung von (7.12) mit v(0) = v 0 ∈ Wn = [0, 1]n . Dann gelten die folgenden Aussagen, wobei A vor (7.15) definiert wurde. (i) Sei s(A) ≤ 0. Dann konvergiert v(t) für t → ∞ gegen das einzige Equilibrium v = 0 in W n . v ist global asymptotisch stabil in Wn , die Infektion stirbt aus. (ii) Seien s(A) > 0 und v 0 = 0. Dann konvergiert v(t) für t → ∞ gegen das einzige Equilibrium v∗ in W n \ {0}, v∗ ist global asymptotisch stabil in Wn \ {0}. Dabei liegt v∗ in (0, 1)n , die Infektion bleibt also in allen Unterklassen erhalten. Beweis. Wir müssen nur noch den zweiten Teil zeigen. Dazu verwenden wir Satz 7.6.2; im Folgenden sei also s(A) > 0. Seien 0 ≤ v ≤ w ≤ e = [1, . . . , 1]T , k ∈ {1, . . . , n} und vk = wk . Dann gilt fk (v) = −ak wk + (1 − wk )

n 

bkl vl ≤ fk (w),

l=1

sodass (7.12) quasimonoton ist. Die Funktion e ist ein Super-Equilibrium von (7.12), da f (e) negativ ist. Nach dem Satz von Perron–Frobenius hat A einen strikt positiven Eigenvektor z zum Eigenwert s(A). Setze ζ = mink zk > 0; dann ist fk (ηz) = ηs(A)zk − η2

n  l=1

bkl zk zl ≥ η(ζ s(A) − η|B||z|∞ |z|1 ) ≥ 0,

180

7 Invarianz

sofern η > 0 genügend klein gewählt wird. Daher ist ηz ein Sub-Equilibrium, für jedes η ∈ (0, η0 ). Wir nehmen an, dass es zwei stationäre Lösung v∗ und v  in Wn \ {0} gäbe; beide strikt positiv. Wir können annehmen, dass m = maxk v∗k /vk > 1 und dass m = v∗1 /v1 . Dann ergeben sich die Ungleichungen v∗1 > v1 und v∗1 ≥ v1 v∗k /vk für k = 2, . . . , n. Aus 0 = −a1 v∗1 + (1 − v∗1 )

n 

b1l v∗l

k=1

folgt die Identität 0 = −a1 v1 + (1 − v∗1 )

n 

b1l v∗l

k=1

v1 . v∗1

Andererseits haben wir 0 = −a1 v1 + (1 − v1 )

n 

b1l vl .

k=1

Es gelten 1 − v∗1 < 1 − v1 und v1 v∗l /v∗1 ≤ vl , und es gibt ein j mit b1j > 0 auf Grund der Annahme (7.13). Somit führen die obigen Gleichungen auf einen Widerspruch, und es folgt v  = v∗ . Satz 7.6.2 impliziert daher, dass jede Lösung v(t) mit Anfangswert v0 ∈ [ηz, e] gegen das eindeutige Equilibrium konvergiert. Lösungen werden instantan positiv, sind dann also in einem der Ordnungsintervalle [ηz, e]; damit konvergieren alle Lösungen v(t) mit  Startwert v0 ∈ Wn , v0 = 0, gegen das nichttriviale Equilibrium.

Übungen 7.1 Berechnen Sie die äußeren Normalen für die Kugeln in den lp -Normen, 1 ≤ p ≤ ∞. √ 7.2 Sei Q ∈ Rn×n symmetrisch und positiv definit, und sei |x|Q := (Qx|x) die induzierte Norm auf Rn . Berechnen Sie die äußeren Normalen der Einheitskugel in dieser Norm. Sehen Sie den Bezug zur entsprechenden Klammer [·, ·]Q ? (Vgl. Abschn. 6.4.) 7.3 Endliche Markov-Prozesse. Sei A = [aij ] eine Markov-Matrix, d. h. A ist quasipo sitiv, und ni=1 aij = 0, j = 1, . . . , n. Zeigen Sie, dass Rn+ und die Hyperebene (x|e) = c positiv invariant für x˙ = Ax sind. Daher ist auch das Standardsimplex D = {x ∈ Rn+ : (x|e) = 1}, also die Menge der Wahrscheinlichkeitsverteilungen, positiv invariant. Zeigen Sie, dass es mindestens ein x∗ ∈ D mit Ax∗ = 0 gibt.

Übungen

181

7.4 Es seien die Mengen Kj definiert durch K1 = {x ∈ R3 : x12 + x22 ≤ x32 },

K2 = {x ∈ R3 : x12 + x22 ≤ x32 , x3 ≥ 0},

K3 = {x ∈ R3 : x1 ≥ 0, x2 = x3 = 0}, K4 = {x ∈ R3 : x3 ≥ 0}. Welche dieser Mengen sind Kegel, welche sind echt? Berechnen Sie die dualen Kegel, welche davon sind echt und welche haben innere Punkte? Interpretieren Sie Quasimonotonie bzgl. der Kegel. 7.5 Sei f : R+ × Rn → Rn stetig und stetig differenzierbar bzgl. x ∈ Rn . Zeigen Sie, dass f genau dann quasimonoton bzgl. des Standardkegels Rn+ ist, wenn ∂x f (t, x) für alle t ≥ 0, x ∈ Rn quasipositiv ist. 7.6 Diskutieren Sie achsenparallele positiv invariante Rechtecke des FitzHugh-NagumoSystems (vgl. Übung 4.6). 7.7 Betrachten Sie das SIS-Klassenmodell aus Abschn. 7.7 für den Fall zweier Klassen weiblicher, bzw. männlicher, heterosexueller Individuen. Dann gilt b11 = b22 = 0,   −a1 b12 A= . b21 −a2 Untersuchen Sie die Equilibria und das asymptotische Verhalten dieses Modells. 7.8 Wenden Sie die Ergebnisse über homogene Systeme aus Abschn. 7.4 auf das Paarbildungsmodell aus Abschn. 6.6 an. Unter welchen Bedingungen gibt es exponentiell wachsende persistente Lösungen? 7.9 Untersuchen Sie die Existenz und Eigenschaften der metrischen Projektionen für kompakte konvexe Mengen bzgl. der lp -Normen, für p ∈ [1, ∞], p = 2. Für welche p ist sie einwertig, für welche stetig, für welche Lipschitz? 7.10 Betrachten Sie das Holling-Modell u˙ = u − λu2 − vf (u),

v˙ = −μv + vf (u),

wobei μ, λ > 0 und f : R+ → R aus C 2 streng wachsend mit f (0) = 0 sei. Zeigen Sie, dass es genau dann ein Koexistenz-Equilibrium gibt, wenn μ < lims→∞ f (s) gilt, und beweisen Sie mit Invarianz-Techniken, dass dann alle Lösungen mit positiven Anfangswerten beschränkt sind. 7.11 Formulieren und beweisen Sie das Analogon zu Satz 7.4.1 über homogene Systeme für einen echten Kegel mit inneren Punkten. 7.12 Formulieren und beweisen Sie das Analogon zu Satz 7.4.3 von Perron und Frobenius für einen echten Kegel mit inneren Punkten. Wie sollte man irreduzibel für solche Kegel definieren? 7.13 Sei A eine n × n-Matrix. Zeigen Sie: (a) Ist A quasipositiv, so ist eA positiv. (b) Ist A quasipositiv und irreduzibel, so ist eA strikt positiv.

8

Ljapunov-Funktionen und Stabilität

Es sei G ⊂ Rn offen, f : R+ × G → Rn stetig. Wir betrachten das Anfangswertproblem ⎧ ⎨x˙ = f (t, x), ⎩x(t0 ) = x0 ,

t ≥ t0 ,

(8.1)

wobei t0 ≥ 0 und x0 ∈ G sind. Lösungen sind in diesem Kapitel nicht notwendig eindeutig. Ist x(t) eine nichtfortsetzbare Lösung, so sei ihr Existenzintervall mit J (x) bezeichnet, sowie J+ (x) = J (x) ∩ [t0 , ∞). Wir haben bereits in Kap. 5 die Bedeutung von Funktionen V (x) mit der Eigenschaft, dass ϕ(t) = V (x(t)) für jede Lösung x(t) von (8.1) fallend ist, kennengelernt. Dieses Kapitel dient der Vertiefung der Theorie der Ljapunov-Funktionen.

8.1

Ljapunov-Funktionen

In diesem Abschnitt sollen einige grundsätzliche Eigenschaften und Beispiele für solche Funktionen V diskutiert werden. Wir beginnen mit der Definition 8.1.1. Sei V : R+ × G → R stetig. V heißt Ljapunov-Funktion für (8.1), falls die Funktion ϕ(t) = V (t, x(t)),

t ∈ J+ (x),

(8.2)

fallend ist, für jede Lösung x(t) von (8.1).

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_8

183

184

8 Ljapunov-Funktionen und Stabilität

Da man die Lösungen von (8.1) im Allgemeinen nicht kennt, ist es praktisch unmöglich direkt zu zeigen, dass ein V eine Ljapunov-Funktion ist – das liegt auch daran, dass V in Definition 8.1.1 nur als stetig vorausgesetzt wurde. Ist hingegen V aus C 1 (R+ × G), dann ist es auch die in (8.2) definierte Funktion ϕ und die Kettenregel ergibt ϕ(t) ˙ = (∂t V )(t, x(t)) + (∇x V (t, x(t))|x(t)) ˙ = (∂t V )(t, x(t)) + (∇x V (t, x(t))|f (t, x(t))). Die rechte Seite dieser Beziehung hängt wie V und f nur von t und x ab, es ist daher sinnvoll, die folgende Funktion zu definieren V˙ (t, x) = (∂t V )(t, x) + (∇x V (t, x)|f (t, x)),

t ∈ R+ , x ∈ G.

(8.3)

V˙ heißt orbitale Ableitung von V längs Lösungen von (8.1). Es ist klar, dass V ∈ C 1 genau dann eine Ljapunov-Funktion für (8.1) ist, wenn V˙ (t, x) ≤ 0 für alle t ∈ R+ , x ∈ G gilt. Man beachte, dass diese Charakterisierung nicht mehr die Kenntnis der Lösungen von (8.1) voraussetzt, sondern nur von den Funktionen V und f Gebrauch macht. Da man in Anwendungen nicht immer mit C 1 -Ljapunov-Funktionen auskommt, ist es zweckmäßig den Begriff der orbitalen Ableitung allgemeiner zu halten. Ist V : R+ × G → R stetig, so definieren wir 1 V˙ (t, x) = lim sup [V (t + h, x + hf (t, x)) − V (t, x)], h h→0+

t ≥ 0, x ∈ G;

(8.3 )

V˙ (t, x) heißt wieder orbitale Ableitung von V längs (8.1). Wie zuvor hängt V˙ nur von V und f ab (sowie von t und x), verwendet also ebenfalls nicht die Lösungen von (8.1). Leider ist es in dieser Allgemeinheit nicht mehr richtig, dass V˙ (t, x) ≤ 0 auf R+ × G äquivalent dazu ist, dass V eine Ljapunov-Funktion für (8.1) ist. Schränkt man sich aber auf Funktionen V ein, die lokal Lipschitz in x sind, so ist die Situation besser, denn es gilt das Lemma 8.1.2. Sei V : R+ × G → R stetig und lokal Lipschitz in x. Dann sind äquivalent: 1. V ist eine Ljapunov-Funktion für (8.1); 2. Es gilt V˙ (t, x) ≤ 0 für alle t ≥ 0, x ∈ G. Ist dies der Fall, und x(t) eine Lösung von (8.1), so erfüllt ϕ(t) := V (t, x(t)) die Gleichung D + ϕ(t) = V˙ (t, x(t)) für alle t ∈ J+ (x).

(8.4)

8.1 Ljapunov-Funktionen

185

Beweis. Mit Lemma 6.4.1 genügt es, die Relation (8.4) zu zeigen. Dazu sei eine Lösung x(t) von (8.1) sowie ein t ∈ J+ (x) fixiert. Wähle U = [t, t + δ) × Bδ (x(t)) ⊂ R+ × G derart, dass |V (s, x) − V (s, y)| ≤ L|x − y| für alle s ∈ [t, t + δ), x, y ∈ Bδ (x(t)) gilt und sei h0 > 0 so gewählt, dass h0 < δ und x[t, t + h0 ] ⊂ Bδ (x(t)) sowie h0 |f (t, x(t))| < δ erfüllt sind. Nun gilt für h ≤ h0 ϕ(t + h) − ϕ(t) = V (t + h, x(t + h)) − V (t, x(t)) = V (t + h, x(t) + hf (t, x(t))) − V (t, x(t)) + R(h) mit R(h) = V (t + h, x(t + h)) − V (t + h, x(t) + hf (t, x(t))). Es folgt |R(h)| ≤ L|x(t + h) − x(t) − hf (t, x(t))|  t+h     = L (x(s) ˙ − x(t)) ˙ ds  = o(h), t

da x(t) eine C 1 -Lösung ist. Daraus folgt die Behauptung.



Der Zusammenhang mit Invarianz von Mengen wird im folgenden Korollar deutlich. Korollar 8.1.3. Sei V eine autonome Ljapunov-Funktion für (8.1). Dann sind die Mengen D = V −1 ((−∞, α]) ⊂ G positiv invariant für (8.1). Beweis. Ist t0 ≥ 0, x0 ∈ D, also V (x0 ) ≤ α, so gilt auch V (x(t)) ≤ V (x0 ) ≤ α für alle  t ≥ t0 , da ϕ(t) = V (x(t)) in t fallend ist. Eine Ljapunov-Funktion gibt daher im Gegensatz zu Satz 7.2.1 nicht nur eine positiv invariante Menge, sondern eine ganze Familie derer! Auch sei bemerkt, dass alle in D startenden Lösungen in D bleiben, D ist also nicht nur schwach positiv invariant, sondern positiv invariant! Wir betrachten nun einige einfache Beispiele für Ljapunov-Funktionen. Beispiele. 1. V (x) = 12 |x|22 ; V˙ (x) = (∇V (x)|f (t, x)) = (x|f (t, x)). V ist genau dann eine Ljapunov-Funktion, wenn (x|f (t, x)) ≤ 0 für alle t ≥ 0, x ∈ G gilt.

186

8 Ljapunov-Funktionen und Stabilität

2. V (x) = xi ; V˙ (x) = (∇V (x)|f (t, x)) = (ei |f (t, x)) = fi (t, x), i ∈ {1, . . . , n}. V ist genau dann eine Ljapunov-Funktion, wenn fi (t, x) ≤ 0 für alle t ≥ 0, x ∈ G, i ∈ {1, . . . , n}. 3. Die folgenden Funktionen lassen wir dem Leser zur Übung: V (x) = |x|∞ = max |xi | ;

V (x) = |x|1 =

i=1,...,n

n 

|xi |,

i=1

V (x) = max xi ;

V (x) =

i=1,...,n

n 

xi .

i=1

4. Gradientensysteme. Es sei φ ∈ C 1 (G), f (x) = −∇φ(x) und V gegeben durch V (x) = φ(x). Dann erhält man für die orbitale Ableitung V˙ (x) = (∇φ(x)|−∇φ(x)) = −|∇φ(x)|22 ≤ 0. 5. Hamilton-Systeme. Gegeben sei eine stetig differenzierbare Funktion H : Rn × Rn → R. Das 2n-dimensionale System q˙ = ∂p H (q, p), p˙ = −∂q H (q, p),

q(0) = q0 , p(0) = p0 ,

heißt Hamilton-System, und spielt in der Hamiltonschen Mechanik die zentrale Rolle. Um den Bezug zu früheren Beispielen herzustellen, betrachten wir die Gleichung für die Bewegung eines Teilchens in einem Potentialfeld, also mx¨ = −∇φ(x). Setzt man q = x, p = mx˙ und H (p, q) = p2 /2m + φ(q), so erhält man die entsprechende Hamiltonsche Formulierung des Problems. Sei nun (q(t), p(t)) eine Lösung des Hamilton Systems. Dann gilt für ϕ(t) := H (q(t), p(t)) ˙ + (∂p H (q, p)|p) ˙ ϕ˙ = (∂q H (q, p)|q) = (∂q H (q, p)|∂p H (q, p)) + (∂p H (q, p)| − ∂q H (q, p)) = 0, also ist die Hamilton Funktion H ein erstes Integral, insbesondere eine LjapunovFunktion. In der Hamiltonschen Mechanik ist H die Energie des Systems. 6. Allgemeiner ist jedes erste Integral eines Systems x˙ = f (x) eine Ljapunov-Funktion. Um einen direkten Bezug zwischen dem Prinzip der linearisierten Stabilität und LjapunovFunktionen herzustellen, betrachten wir die Ljapunov-Gleichung für Matrizen A ∈ Rn×n AT Q + QA = −I.

(8.5)

8.1 Ljapunov-Funktionen

187

Sei nämlich die Gleichung x˙ = Ax asymptotisch stabil. Dann gibt es Konstanten ω > 0 und M ≥ 1, sodass |eAt | ≤ Me−ωt für t ≥ 0 gilt. Damit können wir 



Q :=

T

eA t eAt dt

0

definieren und das Integral konvergiert absolut. Nun ist Q symmetrisch, und es ist  (Qx|x) =



|eAt x|2 dt > 0,

für alle x = 0,

0

√ also ist Q positiv definit und definiert daher mittels |x|Q := (Qx|x) eine Norm auf Rn . Wir berechnen  ∞ d AT t At [e e ]dt = −I, AT Q + QA = dt 0 d. h. Q ist eine Lösung der Ljapunov-Gleichung. Umgekehrt sei Q eine symmetrische, positiv definite Lösung der Ljapunov-Gleichung. Dann gibt es positive Konstanten c1 , c2 mit c1 |x|22 ≤ (Qx|x) ≤ c2 |x|22 ,

x ∈ Rn .

Ist nun x(t) die Lösung von x˙ = Ax mit Anfangswert x0 , dann gilt d (Qx(t)|x(t)) = (Qx(t)|x(t)) ˙ + (Qx(t)|x(t)) ˙ dt = ([AT Q + QA]x(t)|x(t)) = −|x(t)|22 ≤ −c2−1 (Qx(t)|x(t)),

t > 0,

d. h. die Funktion V (x) = (Qx|x) ist eine strikte Ljapunov-Funktion für x˙ = Ax, also ist ϕ(t) = V (x(t)) strikt fallend entlang nichtkonstanter Lösungen von x˙ = Ax. Mehr noch, es folgt dann nämlich |x(t)|22 ≤ (1/c1 )(Qx(t)|x(t)) ≤ (1/c1 )e−t/c2 (Qx0 |x0 ) ≤ (c2 /c1 )e−t/c2 |x0 |22 , für t > 0, d. h. die Gleichung x˙ = Ax ist asymptotisch stabil. Wir formulieren dieses Resultat wie folgt. Satz 8.1.4. Sei A ∈ Rn×n . Dann sind äquivalent: 1. Die Gleichung x˙ = Ax ist asymptotisch stabil. 2. Die Ljapunov-Gleichung AT Q + QA = −I besitzt eine symmetrische positiv definite Lösung.

188

8 Ljapunov-Funktionen und Stabilität

Ist dies der Fall, dann gilt mit einer Konstanten γ > 0 [Ax, x]Q ≤ −γ |x|Q , und die Kugeln B¯ r (0) bzgl. der Norm |x|Q = bezeichnet [·, ·] die Klammer aus Abschn. 6.4.



x = 0, (Qx|x) sind positiv invariant. Dabei

Das Vektorfeld Ax zeigt also bzgl. der Kugeln Br (0) in der Norm | · |Q strikt nach innen. Diese Eigenschaft bleibt auch für gestörte Vektorfelder f (x) = Ax +g(x) erhalten, sofern g(x) = o(|x|) und r > 0 hinreichend klein ist.

8.2

Stabilität

Wir betrachten die DGL x˙ = f (t, x),

(8.6)

wobei G ⊂ Rn offen und f : R+ × G → Rn stetig ist. Dabei lassen wir auch hier Nichteindeutigkeit der Lösungen zu. Das Existenzintervall einer nichtfortsetzbaren Lösung x(t) von (8.6) bezeichnen wir mit J (x) und es sei J+ (x) = J (x) ∩ [t0 , ∞). Es sei ferner x∗ (t) eine ausgezeichnete Lösung mit Anfangswert x∗ (t0 ) = x0∗ , die auf R+ existiert und als bekannt angenommen wird. Durch die Transformation y(t) = x(t) − x∗ (t) geht x∗ (t) in die triviale Lösung y∗ (t) ≡ 0 von y˙ = f (t, y + x∗ (t)) − f (t, x∗ (t)) = g(t, y) über; daher können wir im folgenden stets f (t, 0) = 0

(8.7)

annehmen, sodass die ausgezeichnete Lösung die triviale Lösung x∗ (t) ≡ 0 ist. Definition 8.2.1. Sei t0 ≥ 0 fixiert. Die triviale Lösung x∗ (t) ≡ 0 von (8.6) heißt 1. stabil, falls es zu jedem ε > 0 ein δ = δ(ε, t0 ) > 0 gibt, sodass jede Lösung x(t) von (8.6) |x(t)| ≤ ε für alle t ∈ J+ (x) erfüllt, sofern ihr Anfangswert x(t0 ) = x0 ∈ B¯ δ (0) ⊂ G erfüllt. 2. instabil, falls sie nicht stabil ist.

8.2 Stabilität

189

3. attraktiv, falls es eine Kugel B¯ δ0 (0) ⊂ G gibt, sodass jede nichtfortsetzbare Lösung x(t) mit Anfangswert x(t0 ) = x0 ∈ B¯ δ0 (0) global nach rechts existiert und x(t) → 0 für t → ∞ erfüllt. 4. asymptotisch stabil, falls sie stabil und attraktiv ist. Bemerkungen 8.2.2. 1. Sind die Lösungen von (8.6) eindeutig bestimmt, so stimmen diese Definitionen mit denen in Abschn. 5.1 überein. 2. Ist x∗ (t) ≡ 0 stabil, so existiert jede nichtfortsetzbare Lösung x(t) mit Anfangswert x0 ∈ B¯ δ (0) ⊂ G global nach rechts. Dies folgt direkt aus dem Fortsetzungssatz. 3. Ist die triviale Lösung stabil, dann auch eindeutig. Das ist direkte Konsequenz der Definition. Stabilität einer Lösung bedeutet deren stetige Abhängigkeit vom Anfangswert auf ganz [t0 , ∞). 4. Ist die triviale Lösung instabil, dann kann es in jeder Kugel B¯ δ (0) einen Anfangswert x0 geben, sodass eine nichtfortsetzbare Lösung mit diesem Anfangswert nicht global nach rechts existiert. 5. Weder folgt aus Stabilität die Attraktivität, noch umgekehrt, wie wir schon in Kap. 5 gesehen haben. In manchen Situationen ist es wünschenswert, eine Gleichmäßigkeit bzgl. der Anfangszeit t0 zu haben. Dies führt auf die folgende Begriffsbildungen, die analog zu Definition 8.2.1 sind. Definition 8.2.3. Die triviale Lösung x∗ (t) ≡ 0 heißt 1. uniform stabil, falls es zu jedem ε > 0 ein δ = δ(ε) > 0 unabhängig von t0 ≥ 0 gibt, sodass jede Lösung x(t) von (8.6) |x(t)| ≤ ε für alle t ∈ J+ (x) erfüllt, sofern ihr Anfangswert x(t0 ) = x0 ∈ B¯ δ (0) ⊂ G erfüllt. 2. uniform attraktiv, falls es ein δ0 > 0 gibt, sodass jede nichtfortsetzbare Lösung x(t) mit Anfangswert x(t0 ) = x0 ∈ B¯ δ0 (0) global nach rechts existiert, und x(t) → 0 für t − t0 → ∞ gleichmäßig in (t0 , x0 ) ∈ R+ × B¯ δ0 (0) erfüllt. 3. uniform asymptotisch stabil, falls sie uniform stabil und uniform attraktiv ist. Bemerkung. Offenbar sind uniform stabil, uniform attraktiv und uniform asymptotisch stabil stärkere Begriffe als stabil, attraktiv und asymptotisch stabil. Ist allerdings f τ -periodisch in t oder sogar autonom, so impliziert stabil schon uniform stabil. Hingegen ist selbst im autonomen Fall uniform attraktiv stärker als attraktiv, da uniform attraktiv eine Gleichmäßigkeit bzgl. x0 enthält, attraktiv jedoch nicht; vgl. Bsp. 2 in Abschn. 9.2. Sind hingegen die Lösungen eindeutig, ist f τ -periodisch oder autonom, so impliziert asymptotisch stabil auch uniform asymptotisch stabil; vgl. Übung 8.7.

190

8 Ljapunov-Funktionen und Stabilität

Zur Illustration dieser Konzepte betrachten wir nochmals das lineare System x˙ = A(t)x + b(t),

(8.8)

wobei A ∈ C(R+ ; Rn×n ) und b ∈ C(R+ , Rn ) sind. Ist x∗ (t) irgendeine Lösung von (8.8) und x(t) eine weitere, so erfüllt y(t) = x(t) − x∗ (t) die homogene Gleichung y˙ = A(t)y. Hat x∗ (t) daher eine der eben eingeführten Stabilitätseigenschaften bzgl. (8.8), so hat die triviale Lösung der homogenen Gleichung x˙ = A(t)x

(8.9)

diese ebenfalls, und umgekehrt. Es ist daher sinnvoll zu sagen, dass (8.9) (bzw. (8.8)) diese Eigenschaft hat. Die Lösungen von (8.9) sind durch x(t; t0 , x0 ) = X(t)X−1 (t0 )x0

(8.10)

gegeben, wobei X(t) ein Fundamentalsystem von (8.9) ist, d. h. eine globale Lösung der Matrix-Differentialgleichung X˙ = A(t)X, t ∈ R+ .

(8.11)

Nun gilt der Satz 8.2.4. Sei X(t) ein Fundamentalsystem für (8.9) Dann gelten: Gl. (8.9) ist stabil ⇐⇒ |X(t)| ≤ C für t ≥ 0. Gl. (8.9) ist attraktiv ⇐⇒ (8.9) ist asymptotisch stabil ⇐⇒ limt→∞ |X(t)| = 0. Gl. (8.9) ist uniform stabil ⇐⇒ |X(t)X−1 (s)| ≤ C für s ≤ t, s, t ≥ 0. Gl. (8.9) ist uniform attraktiv ⇐⇒ |X(t + s)X−1 (s)| → 0 für t → ∞ gleichmäßig in s ≥ 0. 5. Gl. (8.9) ist uniform asymptotisch stabil ⇐⇒ es gibt ein α > 0 mit |X(t)X−1 (s)| ≤ Ce−α(t−s) für s ≤ t, s, t ≥ 0.

1. 2. 3. 4.

Beweis. 1. und 2. hatten wir schon Abschn. 5.3 gezeigt. 3., 4. und 5. beweist man ähnlich (vgl. Übung 8.1). 

8.3 Ljapunovs direkte Methode

8.3

191

Ljapunovs direkte Methode

Es sei f : R+ ×Br (0) → Rn stetig und gelte f (t, 0) ≡ 0. Wir wollen nun die Verwendung von Ljapunov-Funktionen aufzeigen, um Stabilitätseigenschaften der trivialen Lösung x∗ (t) ≡ 0 von (8.6) zu erhalten. Es sei also V : R+ ×Br (0) → R eine Ljapunov-Funktion, genauer sei V stetig, lokal Lipschitz in x und es gelte 1 V˙ (t, x) = lim sup [V (t + h, x + hf (t, x)) − V (t, x)] ≤ 0 h→0+ h für alle t ≥ 0, x ∈ Br (0). Das Wesentliche an der direkten Methode von Ljapunov sind Invarianzsätze der folgenden Art. Lemma 8.3.1. Sei G ⊂ Br (0) ein Gebiet, V eine Ljapunov-Funktion für (8.6) und α ∈ R. Außerdem gelte 1. V (t0 , x0 ) < α für ein (t0 , x0 ) ∈ R+ × G; 2. V (t, x) ≥ α auf R+ × ∂G. Dann existiert jede nichtfortsetzbare Lösung x(t) von (8.6) mit Anfangswert x(t0 ) = x0 global nach rechts, und es gilt x(t) ∈ G für alle t ≥ 0. Beweis. Sei x(t) = x(t; t0 , x0 ) und ϕ(t) = V (t, x(t)), t ≥ t0 . Dann ist ϕ(t) monoton fallend auf dem Existenzintervall J+ (x) von x(t), also erhält man ϕ(t) < α für alle t ∈ / G für ein t1 > t0 , so gäbe es ein kleinstes J+ (x), denn ϕ(t0 ) < α. Wäre nun x(t1 ) ∈ t2 ≥ t0 mit x(t2 ) ∈ ∂G. Dann folgt aber aus 2. ϕ(t2 ) = V (t2 , x(t2 )) ≥ α > ϕ(t2 ), also ein Widerspruch. Die Lösung bleibt also in G, ist somit beschränkt, und existiert nach dem Fortsetzungssatz global nach rechts. Damit ist das Lemma bewiesen.  Wir benötigen als nächstes die Definition 8.3.2. Sei W : R+ × Br (0) → R+ gegeben mit W (t, 0) ≡ 0. 1. W heißt positiv definit, falls es eine stetige, streng wachsende Funktion ψ : R+ → R+ mit ψ(0) = 0 gibt, so, dass gilt W (t, x) ≥ ψ(|x|),

für alle t ≥ 0, x ∈ Br (0).

192

8 Ljapunov-Funktionen und Stabilität

2. W heißt negativ definit, falls −W positiv definit ist. Für den Spezialfall W (t, x) = (Ax|x), mit A ∈ Rn×n symmetrisch, gilt, dass A genau dann positiv definit ist, wenn die dazugehörige quadratische Form positiv definit im Sinne von Definition 8.3.2 ist. (vgl. Übung 8.2). Der Hauptsatz der direkten Methode von Ljapunov ist der Satz 8.3.3. Sei V : R+ × Br (0) → R stetig, lokal Lipschitz in x, eine Ljapunov-Funktion für (8.6) mit V (t, 0) ≡ 0. Dann gelten die folgenden Aussagen: 1. Ist V positiv definit, so ist x∗ = 0 stabil für (8.6). 2. Ist V positiv definit und gilt limx→0 V (t, x) = 0 gleichmäßig auf R+ , so ist x∗ = 0 uniform stabil für (8.6). 3. Ist V positiv definit, V˙ negativ definit und ist f beschränkt auf R+ ×Br (0), so ist x∗ = 0 asymptotisch stabil für (8.6). 4. Ist V positiv definit, V˙ negativ definit und gilt limx→0 V (t, x) = 0 gleichmäßig auf R+ , so ist x∗ = 0 uniform asymptotisch stabil für (8.6). Beweis. Zu 1.: Es ist V (t, x) ≥ ψ(|x|) auf R+ × Br (0), also gilt für ein ε ∈ (0, r) die Ungleichung V (t, x) ≥ ψ(ε) = α auf R+ × ∂Bε (0). Da nun V (t, 0) ≡ 0 und V stetig ist, existiert zu jedem t0 ≥ 0 ein δ = δ(t0 , ε), mit V (t0 , x0 ) < α, für alle |x0 | ≤ δ. Lemma 8.3.1 impliziert dann x(t) ∈ G := Bε (0) für alle t ≥ t0 , für jede nichtfortsetzbare Lösung von (8.6) mit Anfangswert x(t0 ) = x0 . Also ist x∗ ≡ 0 stabil. Zu 2.: Gilt außerdem limx→0 V (t, x) = 0 gleichmäßig auf R+ , so lässt sich δ = δ(ε) im Beweisschritt 1 unabhängig von t0 wählen. Daher ist x∗ = 0 dann sogar uniform stabil. Zu 3.: Es genügt zu zeigen, dass x∗ = 0 attraktiv ist, denn die Stabilität folgt schon aus 1. Nach Voraussetzung gilt V˙ (t, x) ≤ −χ (|x|), wobei χ stetig und streng wachsend ist. Es sei nun o.B.d.A. χ = ψ, da min{ψ(s), χ (s)} wieder stetig und streng wachsend ist und −χ (s) ≤ − min{ψ(s), χ (s)}, sowie ψ(s) ≥ min{ψ(s), χ (s)} gilt. Sei t0 ≥ 0 fixiert und wähle δ0 = δ(t0 , r/2) aus 1.; dann ist V (t0 , x0 ) < α = ψ(r/2) für alle |x0 | ≤ δ0 . Für eine beliebige nichtfortsetzbare Lösung x(t) mit x(t0 ) = x0 gilt nun mit ϕ(t) = V (t, x(t)) D + ϕ(t) = V˙ (t, x(t)) ≤ −ψ(|x(t)|), t ≥ t0 , also nach Übung 6.7



ϕ(t) ≤ ϕ(t0 ) −

t

ψ(|x(s)|) ds,

t ≥ t0 .

t0

Nun ist ϕ(t0 ) < α und ϕ(t) = V (t, x(t)) ≥ ψ(|x(t)|), daher erfüllt ρ(t) = ψ(|x(t)|) die Integralungleichung  t ρ(s) ds < α, t ≥ t0 , (8.12) ρ(t) + t0

8.3 Ljapunovs direkte Methode

193

∞ also ist t0 ρ(s) ds ≤ α < ∞, da ρ ≥ 0 ist. Nach Voraussetzung ist f beschränkt, folglich ist x(t) global Lipschitz in t und wegen der Stabilität von x∗ = 0 daher ρ(t) gleichmäßig stetig. Daraus erhält man ρ(t) → 0 für t → ∞ und schließlich |x(t)| = ψ −1 (ρ(t)) → 0 für t → ∞, da ψ −1 (s) ebenfalls stetig und streng wachsend ist. Zu 4.: Gilt außerdem limx→0 V (t, x) = 0 gleichmäßig auf R+ , so ist δ0 = δ(r/2) nach Beweisschritt 2 unabhängig von t0 . Sei ε > 0 gegeben; wir haben zu zeigen, dass es ein T = T (ε) gibt mit |x(t)| ≤ ε

für alle t ≥ t0 + T , |x0 | ≤ δ0 ;

daraus folgt die uniforme Attraktivität und mit 2. die uniforme asymptotische Stabilität. Setze κ(s) = sup V (t, x) + ψ(s),

0 < s < r.

t∈R+ |x| η + ηT ≥ η + α, das heißt ein Widerspruch, da η > 0 ist. Folglich ist σ (t0 + T ) < η und daher σ (t) < η für alle t ≥ t0 + T , woraus folgt |x(t)| = ψ −1 (ψ(|x(t)|)) ≤ ψ −1 (V (t, x(t))) = (ψ −1 ◦ κ ◦ ψ −1 )(σ (t)) ≤ (ψ −1 ◦ κ ◦ ψ −1 )(η) = ε. Daher ist x∗ = 0 uniform attraktiv.



194

8.4

8 Ljapunov-Funktionen und Stabilität

Limesmengen und das Invarianzprinzip

In diesem und den folgenden Abschnitten schränken wir uns auf autonome Funktionen f (t, x) ≡ f (x) und entsprechend auf autonome Ljapunov-Funktionen ein, und wollen für diesen einfacheren Fall das asymptotische Verhalten der Lösungen des Anfangswertproblems x˙ = f (x),

t ≥ 0,

x(0) = x0 ,

(8.14)

untersuchen. Dabei sei f : G → Rn stetig, G ⊂ Rn offen. Wir lassen auch hier Nichteindeutigkeit der Lösungen zu. Sei zunächst x : R+ → Rn eine beliebige stetige Funktion. Dann nennt man γ+ (x) := x(R+ ) Bahn oder Orbit der Funktion x. Die Menge ω+ (x) := {y ∈ Rn : es gibt eine Folge tk → ∞ mit x(tk ) → y} heißt (positive) Limesmenge von x. Offensichtlich gilt γ+ (x) = γ+ (x) ∪ ω+ (x). Des Weiteren ist ω+ (x) abgeschlossen. Denn ist (yk ) ⊂ ω+ (x), yk → y, so wähle zu k ∈ N ein tk ∈ R+ , tk ≥ k, mit |yk − x(tk )| ≤ 1/k. Dann folgt |y − x(tk )| ≤ |y − yk | + |yk − x(tk )| ≤ |y − yk | + 1/k → 0 für k → ∞, also ist auch y ∈ ω+ (x). Mit Bolzano–Weierstraß ist die Limesmenge ω+ (x) genau dann nichtleer, wenn limt→∞ |x(t)| < ∞ ist. Proposition 8.4.1. Sei x : R+ → Rn stetig, und sei γ+ (x) beschränkt. Dann ist ω+ (x) nichtleer, kompakt, zusammenhängend, und es gilt lim dist(x(t), ω+ (x)) = 0.

t→∞

Beweis. Nach dem Satz von Bolzano–Weierstraß existiert eine konvergente Folge x(tk ) → y, mit tk → ∞, für k → ∞. Daher ist ω+ (x) nichtleer. ω+ (x) ist abgeschlossen, und ω+ (x) ⊂ γ+ (x) beschränkt, also kompakt. Angenommen es gibt eine Folge tk → ∞ mit dist(x(tk ), ω+ (x)) ≥ ε0 > 0, für alle k ∈ N. Dann existiert wieder nach Bolzano–Weierstraß eine konvergente Teilfolge x(tkl ) → y ∈ ω+ (x) für l → ∞, was im Widerspruch zu ε0 > 0 steht. Wir zeigen schließlich, dass ω+ (x) zusammenhängend ist. Wäre dies falsch, so gäbe es kompakte disjunkte ω1 , ω2 mit ω+ (x) = ω1 ∪ ω2 , die beide nichtleer sind. Wähle y1 ∈ ω1 , y2 ∈ ω2 sowie Folgen (tk ), (sk ) → ∞ mit tk < sk < tk+1 , sodass x(tk ) → y1 und x(sk ) → y2 gilt. Da ε0 := dist(ω1 , ω2 ) > 0 ist, existiert zu jedem k ein rk ∈ (tk , sk ) mit dist(x(rk ), ωi ) ≥ ε0 /3 > 0, i = 1, 2. Da (x(rk )) beschränkt ist, gibt es

8.4 Limesmengen und das Invarianzprinzip

195

Abb. 8.1 Der Grenzzyklus im Beispiel

y 2

1

2

1

1

2

x

1

2

folglich eine konvergente Teilfolge x(rkl ) → v ∈ ω+ (x) = ω1 ∪ ω2 , im Widerspruch zu  dist(x(rk ), ωi ) ≥ ε0 /3 > 0, i = 1, 2. Hier interessieren wir uns natürlich für Funktionen x : R+ → Rn , die Lösungen einer Differentialgleichung x˙ = f (x) sind. Die Limesmenge gibt Aufschluss über das asymptotische Verhalten einer Lösung. Beispiel. ⎧ ⎨x˙ = y − (x 2 + y 2 − 1)x, ⎩y˙ = −x − (x 2 + y 2 − 1)y,

⎧ ⎨r˙ = −r(r 2 − 1), oder in Polarkoordinaten ⎩ϕ˙ = −1.

(0, 0) ist ein Equilibrium dieses Systems und für r = 1 haben wir ein periodisches Orbit. Gilt (x0 , y0 ) = (0, 0), so ist ω+ (x0 , y0 ) = ∂B1 (0), denn es ist r˙ > 0 für r < 1 und r˙ < 0 für r > 1. Limesmengen beschränkter Lösungen von (8.14) haben eine außerordentlich wichtige Eigenschaft. Proposition 8.4.2. Sei x : R+ → G eine beschränkte Lösung von (8.14) und sei ω+ (x) ⊂ G. Dann besteht ω+ (x) aus globalen Lösungen von (8.14), also Lösungen auf R, d. h. ω+ (x) ist schwach invariant für (8.14). Insbesondere sind kompakte Limesmengen positiv und negativ invariant, wenn die Lösungen von (8.14) eindeutig sind. Beweis. Sei y ∈ ω+ (x) gegeben. Wähle eine wachsende Folge tk → ∞ mit x(tk ) → y. Wir fixieren ein beliebiges kompaktes Intervall [a, b] ⊂ R, und wählen ein k0 mit tk0 +a ≥ 0. Dann sind die Funktionen yk (s) := x(tk + s) für k ≥ k0 auf [a, b] wohldefiniert und Lösungen von x˙ = f (x). Sie sind beschränkt, und haben beschränkte Ableitungen auf

196

8 Ljapunov-Funktionen und Stabilität

[a, b], da f stetig und γ+ (x) ⊂ G kompakt ist; sie sind daher gleichgradig stetig. Der Satz von Arzelà-Ascoli liefert eine auf [a, b] gleichmäßig konvergente Teilfolge ykm → z. Die Funktion z ist wieder eine Lösung, ihr Anfangswert ist z(0) = y, und für jedes s ∈ [a, b] gilt z(s) ← ykm (s) = x(tkm + s) für m → ∞, woraus z(s) ∈ ω+ (x) für alle s ∈ [a, b] folgt. Nun ist ω+ (x) kompakt, also lässt sich z nach links und nach rechts zu einer globalen  Lösung z : R → Rn mit z(R) ⊂ ω+ (x) fortsetzen. Das Hauptergebnis dieses Abschnittes ist der folgende Satz, der etwas über die Lage der Limesmengen in Gegenwart einer Ljapunov-Funktion aussagt. Um den Satz formulieren zu können, benötigen wir den Begriff der maximalen schwach-invarianten Teilmenge: Sei D ⊂ G beliebig. Wir betrachten dann die Menge aller vollständigen Orbits in D, also der Lösungen x(t) von (8.14) auf R, die in D liegen, also γ (x) = x(R) ⊂ D erfüllen. Die maximale schwach-invariante Teilmenge MD von D ist definiert als die Vereinigung all dieser Orbits. Satz 8.4.3 (Invarianzprinzip von La Salle). Sei G ⊂ Rn offen, V : G → R sei eine Ljapunov-Funktion für x˙ = f (x) und V sei lokal Lipschitz. Ferner sei M = {x ∈ G : V˙ (x) = 0}, und M sei die maximale schwach-invariante Teilmenge von M. Sei x eine globale Lösung nach rechts, sodass γ+ (x) ⊂ G kompakt ist. Dann gilt ω+ (x) ⊂ M, also insbesondere dist(x(t), M) → 0 für t → ∞. Beweis. Wir zeigen als erstes, dass V auf ω+ (x) konstant ist. Die Funktion ϕ(t) = V (x(t)) ist nach Voraussetzung monoton fallend, also existiert wegen der Kompaktheit von γ+ (x) der Grenzwert ϕ(∞) = limt→∞ ϕ(t). Sind nun y, z ∈ ω+ (x), so gilt x(tk ) → y, x(sk ) → z, folglich ϕ(tk ) → ϕ(∞) = V (y) aber auch ϕ(sk ) → ϕ(∞) = V (z), da V stetig ist. Es folgt V (y) = V (z), d. h. V ist auf ω+ (x) konstant. Wäre nun V˙ (y) < 0 für ein y ∈ ω+ (x), so würde für jede Lösung x(t) mit Anfangswert x(0) = y gelten V (x(t)) < V (y) für t > 0. Da nun nach Proposition 8.4.2 durch jeden Punkt in ω+ (x) ⊂ G eine Lösung in ω+ (x) verläuft, ergäbe dies einen Widerspruch zur Konstanz von V auf ω+ (x). Folglich gilt ω+ (x) ⊂ M und da ω+ (x) schwach invariant  ist, auch ω+ (x) ⊂ M, aufgrund der Maximalität von M. Zum Abschluss dieses Abschnittes führen wir noch einige Begriffe ein. Definition 8.4.4. Ein x0 ∈ G wird von M ⊂ G angezogen, falls x(t) → M für t → ∞ für jede Lösung von (8.14) gilt. Die Menge A+ (M) = {x0 ∈ G : x(t) → M, t → ∞, für jede Lösung von (8.14)} heißt Anziehungsbereich (oder auch Attraktivitätsbereich) von M. Schließlich heißt die Menge M Attraktor (oder attraktiv), falls A+ (M) eine Umgebung von M ist. Gilt sogar A+ (M) = G, so heißt M globaler Attraktor für (8.1).

8.4 Limesmengen und das Invarianzprinzip

197

Man beachte, dass A+ (M) stets invariant ist. Es gilt ω+ (x) ⊂ M für alle x0 ∈ A+ (M), und jede Lösung von (8.14). Der globale Attraktor im Beispiel bzgl. G = R2 \ {0} ist der Einheitskreis ∂B1 (0). Als Folgerung zu Satz 8.4.3 erhalten wir folgendes Resultat über den globalen Attraktor von (8.14). Korollar 8.4.5. Sei G ⊂ Rn offen, V : G → R lokal Lipschitz eine Ljapunov-Funktion für x˙ = f (x), und sei M = {x ∈ G : V˙ (x) = 0}, sowie M die maximale schwachinvariante Teilmenge von M. Sei G positiv invariant, und jede Lösung sei nach rechts beschränkt. Dann ist M der globale Attraktor für (8.14) in G. Dieses Resultat lässt sich auf partielle Ljapunov-Funktionen verallgemeinern. Satz 8.4.6. Sei G ⊂ Rn offen, V : G → R lokal Lipschitz mit V (x) → ∞ für dist(x, ∂G) → 0 oder |x| → ∞,

(8.15)

und mit einem α ∈ R gelte V˙ (x) < 0 für alle x ∈ G mit V (x) > α.

(8.16)

Sei D = {x ∈ G; V (x) ≤ α} und M die maximale schwach invariante Teilmenge von D. Dann existieren alle in G startenden Lösungen von (8.14) global in G. Die Menge D ⊂ G ist kompakt und positiv invariant, und M ist globaler Attraktor für (8.14) in G. Beweis. Aufgrund von (8.15) ist D ⊂ G kompakt, vgl. Proposition 5.5.2. Sei x0 ∈ D, x(t) eine nicht fortsetzbare Lösung von (8.14) nach rechts in G mit Existenzintervall [0, t+ ), und sei ϕ(t) = V (x(t)). Dann ist ϕ(0) ≤ α, und aus Lemma 8.1.2 folgt D + ϕ(t) ≤ 0 für alle t ∈ [0, t+ ) mit ϕ(t) > α. Lemma 6.4.1 für ω = 0 und ρ ∗ (t) = α zeigt, dass ϕ(t) ≤ α in [0, t+ ) gilt. Also gilt x(t) ∈ D für alle t ∈ [0, t+ ) und mit Kompaktheit von D ist daher t+ = ∞. Folglich ist ω+ (x) = ∅ in D enthalten, und daher ω+ (x) ⊂ M. Sei andererseits x0 ∈ G \ D, also V (x0 ) > α, und x(t) eine nicht fortsetzbare Lösung von (8.14) in G mit Existenzintervall [0, t+ ). Es gibt dann zwei Möglichkeiten: Erstens könnte die Lösung in endlicher Zeit t0 < t+ in D eintreten, also x(t0 ) ∈ D. Wie bereits gezeigt, existiert x(t) dann global und konvergiert gegen M. Zweitens könnte x(t) ∈ D für alle t ∈ [0, t+ ) gelten, also ϕ(t) := V (x(t)) > α für alle t ∈ [0, t+ ). Da V in G \ D eine Ljapunov-Funktion ist, existiert die Lösung mit Proposition 5.5.2 global und ist beschränkt. Nun ist V˙ < 0 auf G \ D, also gilt zunächst E ⊂ D. Angenommen, es existiert ein y ∈ ω+ (x) mit y ∈ G \ D. Dann folgt y ∈ E ⊂ D aus Lemma 5.5.3, ein Widerspruch. Also gilt ω+ (x) ⊂ D, was schließlich ω+ (x) ⊂ M nach sich zieht, da die positive Limesmenge schwach invariant ist.

198

8 Ljapunov-Funktionen und Stabilität

Daher existieren alle in G startenden Lösungen global nach rechts in G, und M ist globaler Attraktor für (8.14) in G.  Beispiel. Das FitzHugh-Nagumo System in der Elektro-Physiologie lautet folgendermaßen: x˙ = g(x) − y,

(8.17)

y˙ = σ x − γ y.

Dabei sind γ , σ > 0 Konstanten, und g : R → R ist stetig mit g(0) = 0. Typischerweise ist g eine kubische Funktion mit 3 Nullstellen 0 < a < b, also z. B. g(x) = −x(x − a) (x − b). Hier nehmen wir lediglich an, dass es ein r > 0 gibt mit g(x)x < 0

für |x| ≥ r.

Der Existenzsatz von Peano 6.1.1 zeigt, dass dieses System lokal lösbar ist, allerdings müssen die Lösungen nicht eindeutig sein. Wir wählen G = R2 und als partielle LjapunovFunktion V (x, y) = x 2 /2 + y 2 /2σ . Es ist V˙ (x, y) = (∇V (x, y)|f (x, y)) = g(x)x − (γ /σ )y 2 ,

(x, y) ∈ R2 ,

also V˙ (x, y) < 0 für alle |x| ≥ r, y ∈ R. Betrachte nun die Levelmenge V −1 (α); es folgt für |x| ≤ r und (x, y) ∈ V −1 (α) V˙ (x, y) = g(x)x − (γ /σ )y 2 = g(x)x + γ x 2 − 2αγ < 0, sofern α > α0 := max{g(x)x + γ x 2 : |x| ≤ r}/2γ gilt. Daher ergibt Satz 8.4.6 globale Existenz nach rechts und einen globalen Attraktor M ⊂ D = V −1 (−∞, α0 ]. Die gesamte Dynamik des Sytems findet daher innerhalb der Ellipse x 2 /2 + y 2 /2σ ≤ α0 statt. Unter stärkeren Annahmen kann man sogar eine strikte Ljapunov-Funktion  auf ganz R2 konstruieren. Dazu schreibt man das System als Gleichung zweiter Ordnung x¨ + q  (x)x˙ + γp(x) = 0, falls g ∈ C 1 (R), wobei q(x) = γ x − g(x) und p(x) = (σ/γ )x − g(x) sind. Die Transfomation z = x˙ + q(x) ergibt dann das System x˙ = z − q(x),

z˙ = −γp(x).

Definiere φ(x, z) = z2 /2 + γ P (x), wobei P eine Stammfunktion von p ist. Es gilt nun für die orbitale Ableitung von φ ˙ φ(x, z) = γp(x)(z − q(x)) − γp(x)z = −γp(x)q(x) ≤ 0,

8.5 Mathematische Genetik

199

falls p(x)q(x) ≥ 0 für alle x ∈ R ist. In den Variablen x, y wird die Ljapunov-Funktion φ wegen z = γ x − y zu (x, y) = φ(x, γ x − y) =

σ 1 (γ x − y)2 + x 2 − γ G(x), 2 2

wobei G(x) eine Stammfunktion für g(x) ist. ˙ Ist nun p ≡ q, also γ = σ/γ , so folgt (x, y) = −γ q 2 (x), also ist  in diesem Fall eine strikte Ljapunov-Funktion, falls die Nullstellenmenge von q diskret ist, denn es ist (x∗ , y∗ ) ∈ E genau dann, wenn q(x∗ ) = 0 und y∗ = (σ/γ )x∗ . Daher konvergiert jede Lösung gegen ein Equilibrium, sofern die Nullstellenmenge von q diskret ist. Im allgemeinen Fall γ = σ/γ ist die Bedingung p(x)q(x) ≥ 0 äquivalent zu 0 ≤ γ xp(x) · xq(x) = (σ x 2 − γ g(x)x)(γ x 2 − g(x)x), also, falls zum Beispiel xg(x) ≤ min{γ , σ/γ }x 2 ,

x ∈ R.

Ist diese (zu) starke Bedingung erfüllt, dann ist  auch eine strikte Ljapunov-Funktion, sofern die Nullstellen von q und p diskret sind, also konvergieren auch in diesem Fall alle Lösungen gegen ein Equilibrium. Man beachte, dass für kubisches g(x) = −x(x−a)(x−b), 0 < a < b, und für γ < σ/γ einzig das triviale Equilibrium (0, 0) existiert, was in der Elektrophysiologie in der Regel nicht der Fall ist. Wir werden auf das FitzHugh-Nagumo System später zurückkommen.

8.5

Mathematische Genetik

Wir betrachten eine (große) Population von diploiden Organismen, die sich geschlechtlich gemäß den Mendelschen Gesetzen fortpflanzen. Es bezeichnen i = 1, . . . , n eine (haploide) Chromosomenbesetzung mit Genen, die möglich sind, xij die Anzahl der Zygoten, die den i-ten und den j -ten Satz im Zellkern tragen und xi die Anzahl der Gameten mit Satz i. Identifiziert man ein Zygotum mit den entsprechenden zwei Gameten, so gilt die Beziehung   xi = 2xii + xij + xj i . j =i

j =i

Nimmt man Symmetrie in xij an, so gilt daher xi = 2

 j

xij ,

x :=

 i

xi = 2

 i,j

xij ,

200

8 Ljapunov-Funktionen und Stabilität

x ist die Gesamtanzahl der Gameten. Biologisch interessant sind die Häufigkeiten pij = 2

xij , x

pi =

xi , x

und es sind die pi , für die wir eine Differentialgleichung herleiten möchten. Bezeichnet mij die Fitness der (i, j )-Zygoten, so gilt unter Ausschließung von Mutation und Rekombination, also bei reiner Selektion x˙ij = mij xij . Da [xij ]i,j symmetrisch ist, kann man auch M := [mij ]i,j als symmetrisch annehmen. Für die Ableitung von pi gilt p˙ i =

x˙ d  xi  x˙i = − pi dt x x x     x˙ij pi −2 = =2 x˙kj mij pij − pi mkj pkj . x x j

k,j

j

k,j

Um die pij durch die pi ausdrücken zu können, macht man nun die Hardy-Weinberg Annahme: pij = pi pj für alle i, j . Biologisch wird diese Annahme meist als Zufallspaarung gedeutet. Sie ist nicht unumstritten, wir werden ihr aber folgen. Die Hardy-Weinberg Annahme impliziert nun die Gleichung p˙ i = pi

 j

mij pj − pi



pk mkj pj .

k,j

Mit p = [pi ]i und P = diag(pi ), so erhält man die Fisher-Wright-Haldane-Gleichung (F W H )

p˙ = P Mp − W (p)p = f (p),

wobei W (p) = (p|Mp) gesetzt wurde. Setzt man e = [1, . . . , 1]T , so ist p = P e und man erhält die äquivalente Form (F W H )

p˙ = P (Mp − W (p)e) = f (p).

Wir wollen nun die bisher erarbeiteten Methoden auf (FWH) anwenden. Zunächst ist Rn+ invariant, wie auch int Rn+ und jeder Teilrand von Rn+ von der Form {p ∈ Rn+ : pi1 = · · · = pik = 0} und auch {p ∈ Rn+ : pi1 = · · · = pik = 0, pj > 0, j = i1 , . . . , ik }, denn pi = 0 impliziert fi (p) = 0.

8.6 Gradientenartige Systeme

201

Biologisch interessant ist vor allem das Standardsimplex D = {p ∈ Rn+ : (p|e) = 1}, da p eine Wahrscheinlichkeitsverteilung repräsentieren soll. Wir untersuchen daher die Invarianz von D. Dazu sei p(t) eine Lösung in Rn+ auf dem maximalen Intervall J (p) mit p(0) = p0 ∈ D. Wir setzen ϕ(t) = (p(t)|e) und h(t) = W (p(t)). Es ist dann wegen (FWH) ϕ(t) ˙ = h(t)(1 − ϕ(t)), t ∈ J, folglich ϕ(t) ≡ 1, wegen der Eindeutigkeit der Lösung dieser DGL und da ϕ(0) = 1 ist. Daher ist D positiv invariant und ebenso D◦ = {p ∈ int Rn+ : (p|e) = 1}. Sei V (p) = −W (p). Wir zeigen, dass V eine Ljapunov-Funktion auf D für (FHW) ist. Dazu sei q = Mp; mit p = P e und W (p) = (Mp, p) = (q|p) = (P q|e) gilt dann V˙ (t) = −(∇W (p)|f (p)) = −2(Mp|P Mp) + 2W (p)(Mp, p) = −2(P q|q) + 2(P q|e)2 ≤ −2(P q|q) + 2(P q|q)(P e|e) = −2(P q|q) + 2(P q|q) = 0, da P positiv semidefinit ist. Ferner ist V˙ = 0 dann und nur dann, wenn P 1/2 q und P 1/2 e linear abhängig sind, also wenn α, β existieren mit αP 1/2 q + βP 1/2 e = 0, |α| + |β| = 0. Daraus folgt αP Mp + βp = 0, also α = 0, da p = 0 ist und schließlich P Mp = λp, (p|e) = 1, d. h. λ = (Mp|p) = W (p). Folglich gilt V˙ = 0 genau dann, wenn p ∈ E = {p ∈ D : f (p) = 0}, d. h. es ist M = E. In der Literatur heißt diese Aussage Fundamentaltheorem von Fisher. Aus Satz 8.4.3 folgt nun p(t) → E, t → ∞ für alle p0 ∈ D. Ferner gilt sogar p(t) → p∞ ∈ E, falls E ∩ W −1 (α) für jedes α ∈ R diskret ist, wie Satz 5.5.6 zeigt.

8.6

Gradientenartige Systeme

Wir betrachten das autonome System x˙ = f (x),

t ≥ 0,

x(0) = x0 ∈ G,

(8.18)

wobei G ⊂ Rn offen, f : G → Rn stetig ist. Nichteindeutigkeit von Lösungen ist also zugelassen. Definition 8.6.1. Die autonome DGL (8.18) heißt gradientenartig, falls es eine strikte Ljapunov-Funktion für (8.18) gibt, also eine stetige Funktion V : G → R mit der Eigenschaft, dass ϕ(t) = V (x(t)) entlang jeder nichtkonstanten Lösung x(t) von (8.18) streng fällt.

202

8 Ljapunov-Funktionen und Stabilität

Selbstverständlich ist jedes Gradientensystem x˙ = −∇φ(x)

(8.19)

mit φ ∈ C 1 (G; R) gradientenartig, denn V (x) = φ(x) ergibt V˙ (x) = −|∇φ(x)|22 . Allerdings haben wir bereits in Kap. 5 Beispiele von gradientenartigen Systemen kennengelernt, die keine Gradientensysteme sind: Das gedämpfte Pendel und das Volterra–Lotka-Modell mit Sättigung. Wir können nun den Satz 5.5.6 hinsichtlich der Regularität von f und V verallgemeinern, und gleichzeitig einen einfacheren Beweis angeben. Satz 8.6.2 (Konvergenzsatz). Sei (8.18) gradientenartig und bezeichne E = f −1 (0) die Equilibriumsmenge von (8.18). Sei K ⊂ G kompakt und sei x(t) eine beschränkte Lösung von (8.18) auf R+ mit γ+ (x) ⊂ K. Dann gilt lim dist(x(t), E) = 0.

t→∞

Ist außerdem E ∩ V −1 (α) diskret für jedes α ∈ R, so gilt sogar lim x(t) = x∞ ,

t→∞

für ein x∞ ∈ E. Es gibt keine nichttrivialen periodischen Lösungen. Beweis. Da nach Voraussetzung K ⊃ γ+ (x) und K eine kompakte Teilmenge von G ist, ist die Limesmenge ω+ (x) der Lösung nichtleer, kompakt, zusammenhängend, und es gilt ω+ (x) ⊂ K ⊂ G. Da ϕ(t) = V (x(t)) fallend ist, existiert ϕ∞ = limt→∞ ϕ(t), also ist V auf ω+ (x) konstant. Da nach Proposition 8.4.2 durch jeden Punkt von ω+ (x) eine Lösung verläuft, und V längs nicht konstanten Lösungen streng fällt, kann ω+ (x) nur aus Equilibria bestehen, d. h. ω+ (x) ⊂ E. Damit ist lim dist(x(t), E) ≤ lim dist(x(t), ω+ (x)) = 0,

t→∞

t→∞

also die erste Behauptung bewiesen. Ist nun E ∩ V −1 (ϕ∞ ) diskret, so ist ω+ (x) ⊂ E ∩ V −1 (ϕ∞ ) einpunktig, da ω+ (x) nach Proposition 8.4.1 zusammenhängend ist. Dies zeigt die zweite Behauptung. Gäbe es schließlich eine nichtkonstante τ -periodische Lösung x(t), so würde sich der Widerspruch V (x(0)) = V (x(τ )) < V (x(0)) ergeben, also ist auch die letzte Behauptung bewiesen.  In Satz 5.5.4 hatten wir gesehen, dass Equilibria x∗ , die strikte Minima einer LjapunovFunktion V sind, stabil, und sogar asymptotisch stabil sind, falls x∗ zusätzlich isoliert

8.7 Chemische Reaktionssysteme

203

in E und V eine strikte Ljapunov-Funktion ist. Ist hingegen x∗ kein Minimum und die Ljapunov-Funktion strikt, dann ist x∗ instabil. Satz 8.6.3 (Cetaev-Krasovskij). Sei V : G → R stetig, x∗ ∈ G ein Equilibrium von (8.18), und sei V (x∗ ) = 0. Für ein r0 > 0 gelte E ∩ Br0 (x∗ ) ⊂ V −1 [0, ∞), V −1 (−∞, 0) ∩ Br (x∗ ) = ∅,

für jedes r ∈ (0, r0 ),

und sei V eine strikte Ljapunov-Funktion auf V −1 (−∞, 0) ∩ Br0 (x∗ ). Dann ist x∗ für (8.18) instabil. Beweis. Setze G0 = V −1 (−∞, 0) und Gε = G0 ∩ Bε (x∗ ). Angenommen, x∗ wäre stabil. Dann gibt es zu ε > 0 ein δ > 0, sodass für jede Lösung x(t) von (8.18) x(t) ∈ Bε (x∗ ) für alle t ≥ 0 gilt, sofern der Anfangswert x0 in Bδ (x∗ ) liegt. Fixiere ein ε ∈ (0, r0 ), und sei o.B.d.A. δ < ε. Dann gibt es nach Voraussetzung ein x0 ∈ Gδ = G0 ∩ Bδ (x∗ ), folglich erfüllt die Funktion ϕ(t) := V (x(t)) die Bedingung ϕ(0) < 0. Da V eine LjapunovFunktion in Gr0 = G0 ∩ Br0 (x∗ ) ist, gilt ϕ(t) ≤ ϕ(0) < 0 für alle t ≥ 0, also insbesondere x(t) ∈ Gε für alle t ≥ 0, wegen der Stabilitätsannahme. Daher ist x(t) beschränkt, also ist die positive Limesmenge ω+ (x) ⊂ Br0 (x∗ ) ∩ V −1 (−∞, ϕ(0)) nichtleer. Da V eine strikte Ljapunov-Funktion in Gr0 ist, gilt ω+ (x) ⊂ E ∩ Br0 (x∗ ). Daher gibt es ein Equilibrium  x∞ ∈ Br0 (x∗ ) ∩ V −1 (−∞, ϕ(0)), im Widerspruch zur Voraussetzung. Man beachte, dass die Voraussetzung E ∩Br0 (x∗ ) ⊂ V −1 [0, ∞) in Satz 8.6.3 insbesondere dann erfüllt ist, wenn x∗ in E isoliert ist, d. h. E ∩ Br0 (x∗ ) = {x∗ } für ein r0 > 0 oder wenn V auf der Menge E der Equilibria lokal konstant ist.

8.7

Chemische Reaktionssysteme

In diesem Abschnitt wollen wir allgemeine Reaktionssysteme mit sog. Massenwirkungskinetik betrachten. Dazu seien n Substanzen Ai gegeben, mit Konzentrationen ci , die wir zu einem Vektor c zusammenfassen. Zwischen diesen Spezies mögen nun m Reaktionen stattfinden, diese werden mit dem Index j versehen. Die j -te Reaktion lässt sich durch ein Schema der Form kj+  n νij+ Ai  νij− Ai , − i=1 kj i=1

n 

j = 1, . . . , m,

beschreiben. Die Konstanten kj± sind die Geschwindigkeitskonstanten der Hin- bzw. der Rückreaktion; sind beide positiv, so ist die Reaktion reversibel, ist kj+ > 0 aber kj− = 0,

204

8 Ljapunov-Funktionen und Stabilität

dann heißt die Reaktion irreversibel. Man beachte, dass wir aufgrund der Symmetrie im Reaktionsschema kj+ > 0 annehmen können. Die Zahlen νij± heißen stöchiometrische Koeffizienten der Reaktion. Dies sind natürliche Zahlen oder 0, νij+ gibt an wieviele Mol an Ai bei der Hinreaktion verbraucht werden, νij− wieviele Mol entstehen. Eine Substanz Ak − heißt Produkt in der j -ten Reaktion, falls νkj > 0 ist, Ak heißt in dieser Reaktion Edukt, + falls νkj > 0 ist. Der Vektor νj mit den Einträgen νij = νij+ − νij− heißt Stöchiometrie der j -ten Reaktion. Die Reaktionsrate rj (c) der j -ten Reaktion unter der Annahme von Massenwirkungskinetik wird nun analog zur Gleichgewichtsreaktion modelliert, sie lautet dann ν+

ν−

rj (c) = −kj+ ni=1 ci ij + kj− ni=1 ci ij ,

j = 1, . . . , m,

oder in Kurzform +



rj (c) = −kj+ cνj + kj− cνj ,

j = 1, . . . , m.

Befindet sich die j -te Reaktion im Gleichgewicht, so gilt das Massenwirkungsgesetz ν+

ni=1 ci ij

ν−

ni=1 ci ij

=

kj− kj+

=: Kj ,

j = 1, . . . , m,

oder in Kurzform cνj = Kj ,

j = 1, . . . , m.

Das die Kinetik beschreibende Differentialgleichungssystem ergibt sich nun zu c˙i =

m 

νij rj (c1 , . . . , cn ),

ci (0) = ci0 , i = 1, . . . , n,

j =1

oder in Vektorschreibweise c˙ =

m 

νj rj (c),

c(0) = c0 .

(8.20)

j =1

Fasst man die Reaktionsraten rj (c) zu einem Vektor r(c) zusammen und definiert die n × m-Matrix N durch die Einträge νij , so kann man (8.20) noch kompakter als c˙ = N r(c),

c(0) = c0 ,

(8.21)

8.7 Chemische Reaktionssysteme

205

formulieren. Reaktionen, die der Massenwirkungskinetik genügen, nennt man in der Chemie Elementarreaktionen, im Gegensatz zu sog. Bruttokinetiken, die aus Vereinfachungen resultieren. Die Reaktionsraten kj± sind i. Allg. noch temperaturabhängig, hier haben wir uns auf den isothermen, homogenen Fall beschränkt, d. h. es wird angenommen, dass die Temperatur stets konstant ist, und dass die Substanzen ideal durchmischt sind. Andernfalls müsste man auch eine Temperaturbilanz mitführen und Transportwiderstände wie Diffusion berücksichtigen. Außerdem haben wir in diesem Abschnitt angenommen, dass das betrachtete Reaktionssystem isoliert ist, also keine Substanzen zu- oder abgeführt werden. Man spricht dann von einem abgeschlossenen System oder Batch-System. In offenen Systemen müssen Zuund Abströme ebenfalls modelliert werden. Zum Beispiel hat man im Falle konstanter Zuströme und entsprechender paritätischer Abströme auf der rechten Seite von (8.21) einen Term der Form (cf − c)/τ zu addieren, wobei τ > 0 Verweilzeit des Reaktors f genannt wird, bzw. γ = 1/τ Durchflussrate. Dabei ist die i-te Komponente ci ≥ 0 von cf die Konzentration der Substanz Ai im Zustrom, dem Feedstrom. Da die Funktionen rj Polynome in c sind, ergibt der Satz von Picard und Lindelöf die lokale Existenz und Eindeutigkeit einer Lösung von (8.20). Wir überprüfen als nächstes die Positivitätsbedingung. Dazu sei ck = 0, sowie ci ≥ 0 für alle anderen i. Ist Ak Edukt in − der j -ten Reaktion, so folgt rj (c) = kj− cνj ≥ 0 sowie νkj > 0. Ist Ak hingegen Produkt, dann ist rj (c) ≤ 0 und νkj < 0. Es folgt in beiden Fällen νkj rj (c) ≥ 0, für alle j , also c˙k ≥ 0. Damit ist das Positivitätskriterium erfüllt, und folglich gilt ci (t) ≥ 0 für alle t ≥ 0 und i = 1, . . . , n, sofern die Anfangswerte ci0 sämtlich nichtnegativ sind. Es ist aber auch int Rn+ positiv invariant; dies sieht man folgendermaßen. Mit hk (c) =





+ − νj νkj kj c +

+ νkj >0



+

− + νj νkj kj c ≥ 0,

− νkj >0

und gk (c) =



+

+ + νj νkj kj c

−ek

+

+ νkj >0





− − νj νkj kj c

−ek

≥ 0,

− νkj >0

folgt c˙k = −ck gk (c) + hk (c) ≥ −ωck , da hk (c) ≥ 0 und ω = maxt∈[0,a] gk (c(t)) < ∞ ist. Es folgt ck (t) ≥ e−ωt c0k , also ck (t) > 0 für alle t ∈ [0, a] sofern c0k > 0 ist. Dabei ist 0 < a < t+ (c0 ) beliebig. Sei S = R(N ) = span{ν1 , . . . , νm }; dieser Teilraum des Rn heißt stöchiometrischer Teilraum des Reaktionssystems. Aus (8.20) folgt nun c(t) ˙ ∈ S für alle t, also c(t) ∈ c0 + S,

t ∈ J,

206

8 Ljapunov-Funktionen und Stabilität

wobei J das maximale Existenzintervall einer Lösung bezeichne. Der affine Teilraum c0 +S heißt die zum Anfangswert c0 gehörige Kompatibilitätsklasse des Reaktionssystems, diese ist daher invariant für (8.20). Die Dimension von S sei im Folgenden mit s bezeichnet, es ist natürlich s ≤ m und s ≤ n, aber sogar s < n. Dies sieht man folgendermaßen. Es sei βi > 0 die Molmasse der Substanz Ai , β der Vektor mit den Einträgen βi . Bei chemischen Reaktionen bleibt die Gesamtmasse erhalten. Dies bedeutet (νj |β) =

n 

νij βi = 0,

j = 1, . . . , m,

i=1

also ist β ∈ R(N )⊥ , insbesondere ist s < n. Ferner haben wir d (β|c) = (β|c) ˙ = (β|N r(c)) = 0, dt also ist (β|c(t)) ≡ (β|c0 ). Daraus folgt mit Hilfe der Positivität der ci (t) und βi > 0, dass alle ci (t) beschränkt bleiben, womit Lösungen für alle positive Zeiten existieren. Daher erzeugt (8.20) einen Halbfluss auf Rn+ und auf int Rn+ . Wir fixieren eine Basis {e1 , . . . , en−s } von R(N )⊥ und fassen diese Vektoren in der n × (n − s)-Matrix E T zusammen. Es gilt also EN = 0, d. h. ker E = R(N ). Da man e1 = β wählen kann und alle βi > 0 sind, kann man annehmen, dass E nur positive Einträge hat; evtl. addiere man zu den ej geeignete Vielfache von e1 = β. Durch Anwendung von E auf (8.20) erhält man Ec(t) = Ec0 =: u0 für alle t ≥ 0, wir haben also n − s Erhaltungssätze. Die Equilibria von (8.20) sind die Lösungen des nichtlinearen algebraischen Gleichungssystems Nr(c) = 0.

(8.22)

Da die Kompatibilitätsklassen (c0 + S) ∩ Rn+ abgeschlossen, beschränkt, konvex und positiv invariant sind, impliziert Satz 7.3.5 die Existenz mindestens eines Equilibriums in jeder dieser Kompatibilitätsklassen, allerdings müssen diese nicht eindeutig sein. Echte Equilibria sind nun solche, in denen jede einzelne Reaktion im Gleichgewicht ist, also Lösungen c∗ von r(c) = 0. Diese können auch auf dem Rand von Rn+ liegen, wir interessieren uns hier nur für solche im Inneren von Rn+ , die also ci > 0 für alle i = 1, . . . , n erfüllen; diese werden im Folgenden positive echte Equilibria genannt. ν Ist nun c∗ ein positives echtes Equilibrium, so folgt c∗j = Kj für alle j , insbesondere gilt log Kj = (νj | log c∗ ), wobei log c den Vektor mit den Komponenten log(ci ) bezeichnet. Dies ist ein lineares Gleichungssystem für log c∗ , das nicht immer lösbar ist. Nummeriert man die νj so, dass die ersten s Vektoren linear unabhängig sind, dann erhält man die Verträglichkeitsbedingungen

8.7 Chemische Reaktionssysteme

νj =

s 

207

α

sk=1 Kk j k = Kj ,

αj k νk ,

j = s + 1, . . . , m.

(8.23)

k=1

Ist s = m < n, so gibt es stets ein solches c∗ , sofern alle Kj > 0 sind, und dann ist auch c∗i > 0 für alle i. Sind nun alle Reaktionen reversibel, gilt also Kj > 0 für alle j = 1, . . . , m, und sind die Verträglichkeitsbedingungen erfüllt, so existiert ein positives echtes Equilibrium. Hierbei werden also irreversible Reaktionen ausgeschlossen. Wir nehmen im Folgenden an, dass ein solches positives echtes Equilibrium c∗ existiert. Sei jetzt c¯ ein weiteres positives echtes Equilibrium in der gleichen Kompatibilitäts¯ = 0, also c∗ − c¯ ∈ R(N ), und (νj | log c∗ − log c) ¯ = 0 für klasse; dann folgt E(c∗ − c) alle j , also log c∗ − log c¯ ∈ R(N )⊥ . Dies impliziert ¯ log c∗ − log c) ¯ = 0 = (c∗ − c|

n  (c∗i − c¯i )(log c∗i − log c¯i ), i=1

also c∗i = c¯i für alle i, da log streng wachsend ist. Dies zeigt, dass es in jeder Kompatibilitätsklasse höchstens ein positives echtes Equilibrium geben kann. Nun definieren wir die Funktion (c) :=

n  [ci log(ci /c∗i ) − (ci − c∗i )],

ci > 0, i = 1, . . . , n.

i=1

Es ist ∂k (c) = log[ck /c∗k ], und  (c) = diag(1/ck ), folglich ist c = c∗ das einzige ν Minimum von , und es ist strikt. Mit Kj = c∗j erhält man für eine Lösung c(t), die den Rand von Rn+ nicht trifft,  d (c) = ( (c)|c) ˙ = (νj | log[c/c∗ ])rj (c) dt m

j =1

=

m  − + (νj | log[c/c∗ ])kj+ (Kj cνj − cνj ) j =1

=

m 

ν+



+

kj+ c∗j [(c/c∗ )νj − (c/c∗ )νj ] log(c/c∗ )νj

j =1

=−

m  j =1



kj+ cνj c∗j [(c/c∗ )νj − 1] log(c/c∗ )νj ≤ 0, ν

208

8 Ljapunov-Funktionen und Stabilität

˙ da log streng wachsend ist. Ferner impliziert (c) = 0 aus diesem Grund ν ν j j (c/c∗ ) = 1, also c = Kj für alle j , d. h. c ist ein weiteres echtes Equilibrium. Daher ist ˙ {c ∈ int Rn+ : (c) = 0} ⊂ {c ∈ int Rn+ : cνj = Kj , j = 1, . . . , m} =: E. Die positiv invariante Menge (c0 + S) ∩ Rn+ ist beschränkt und abgeschlossen, also ist die Limesmenge ω+ (c0 ) ⊂ (c0 + S) ∩ Rn+ nichtleer, kompakt und zusammenhängend. Es gibt nun zwei Möglichkeiten. Die erste ist ω+ (c0 ) ⊂ ∂Rn+ , diese wollen wir hier nicht weiter diskutieren. Die zweite Möglichkeit ist ω+ (c0 ) ∩ int Rn+ = ∅. Dann gilt ˙ ∅ = ω+ (c0 ) ∩ int Rn+ ⊂ {c ∈ int Rn+ : (c) = 0} ⊂ E, also gibt es mindestens ein positives echtes Equilibrium c¯ in der Kompatibilitätsklasse c0 + S. Dieses ist eindeutig bestimmt, also ω+ (c0 ) = {c}, ¯ da ω+ (c0 ) zusammenhängend ist. Damit haben wir den folgenden Satz bewiesen: Satz 8.7.1. 1. Das System (8.20) besitzt zu jedem Anfangswert c0 ∈ Rn+ genau eine globale Lösung für t ≥ 0. Diese erfüllt c(t) ∈ Rn+ ∩ (c0 + S), wobei S = R(N ) den stöchiometrischen Teilraum des Reaktionssystems bezeichnet. Ist c0 ∈ int Rn+ , dann gilt auch c(t) ∈ int Rn+ für alle t > 0. 2. In jeder Kompatibilitätsklasse Rn+ ∩ (c0 + S) gibt es mindestens ein Equilibrium. 3. Das System (8.20) besitzt genau dann ein positives echtes Equilibrium c∗ , wenn Kj > 0 für alle j = 1, . . . , m gilt, und die Verträglichkeitsbedingungen (8.23) erfüllt sind. 4. Es existiere ein positives echtes Equilibrium c∗ , also eine Lösung von r(c) = 0 mit c∗i > 0 für alle i. Dann gilt die Alternative: (a) ω+ (c0 ) ⊂ ∂Rn+ , d. h. c(t) konvergiert gegen ∂Rn+ für t → ∞; (b) Es gibt genau ein positives echtes Equilibrium c¯ ∈ c0 + S, und c(t) konvergiert für t → ∞ gegen c. ¯

Es gibt keine nichttrivialen periodischen Lösungen.

Existiert ein solches c∗ nicht, dann ist die Dynamik des Systems (8.20) wesentlich komplizierter.

8.8 Die Methode von Lojasiewicz

8.8

209

Die Methode von Lojasiewicz

Sei G ⊂ Rn offen, f : G → Rn stetig, und sei V eine differenzierbare, strikte LjapunovFunktion für x˙ = f (x). Wir hatten in Abschn. 8.6 Konvergenz beschränkter Lösungen bewiesen, sofern die Equilibriumsmenge E = f −1 (0) in jeder Niveaumenge von V diskret ist. Diese Annahme ist wesentlich, wie in den folgenden Beispielen gezeigt wird. Beispiel 1. Sei G := R2 \ {0} und betrachte das System 0 x˙ = (x + y)(1 − 0x 2 + y 2 ), y˙ = (y − x)(1 − x 2 + y 2 ).

(8.24)

In Polarkoordinaten liest sich (8.24) als r˙ = −r(r − 1), θ˙ = r − 1. Daher ist die Menge der Equilibria E von (8.24) in G durch den Einheitskreis gegeben, also nicht diskret. Die Lösungen lassen sich explizit angeben zu r(t) =

r0 , r0 + (1 − r0 )e−t

θ (t) = θ0 + log(r0 + (1 − r0 )e−t ),

t ∈ R+ .

Daher gilt r(t) → 1 und θ (t) → θ0 + log(r0 ) für t → ∞, d. h. alle Lösungen sind konvergent. Man sieht ferner leicht, dass V (x, y) = V (r) = (r −1)2 eine strikte LjapunovFunktion in G ist, denn es gilt V˙ (r) = (∇V (x, y)|f (x, y)) = −2r(r − 1)2 ,

(x, y) ∈ G.

y

y

2

2

2

1

1

1

1

2

x

2

1

1

1

1

2

2

Abb. 8.2 Phasenportraits zu den Beispielen

2

x

210

8 Ljapunov-Funktionen und Stabilität

Beispiel 2. Sei wieder G := R2 \ {0} und betrachte das System 0 0 x˙ = −x(0x 2 + y 2 − 1)3 − y(0x 2 + y 2 − 1)2 , y˙ = −y( x 2 + y 2 − 1)3 + x( x 2 + y 2 − 1)2 .

(8.25)

In Polarkoordinaten wird (8.25) zu r˙ = −r(r − 1)3 , θ˙ = (r − 1)2 . Auch in diesem Beispiel ist die Menge der Equilibria E in G durch den Einheitskreis gegeben, also nicht diskret. Man überzeugt sich leicht, dass V (x, y) := (r − 1)2 auch hier eine strikte Ljapunov-Funktion ist, denn es gilt V˙ (r) = (∇V (x, y)|f (x, y)) = −2r(r − 1)4 < 0,

r = 1.

Insbesondere gilt auch hier r(t) → 1 für t → ∞. Mittels Separation der Variablen erhält man 1 1 1 dθ =− = − , dr r(r − 1) r r −1 folglich θ (r) = c0 − ln(|r − 1|/r). Damit spiralen die Lösungen für t → ∞, also für r → 1 gegen den Einheitskreis. In diesem Beispiel konvergieren die Lösungen also nicht. Welche zusätzlichen Eigenschaften sind in solchen Situationen für Konvergenz der Lösungen entscheidend? Dazu definieren wir α(x, y) :=

(∇V (x, y)|f (x, y)) , |∇V (x, y)|2 |f (x, y)|2

(x, y) ∈ G.

√ Eine 0 einfache Rechnung ergibt α1 (x, y) = −1/ 2 für Beispiel 1, und α2 (x, y) = −|r −1| + (r − 1)2 in Beispiel 2. Man sieht, dass α2 → 0 für r → 1 gilt, wohingegen α1 = / 1√ −1/ 2, also strikt negativ, insbesondere in der Nähe von E ist. Da die Limesmengen der Lösungen ohnehin Teilmengen von E sind, kommt es nur auf eine Umgebung von E an. Daher ist es plausibel, die folgende Bedingung zu fordern: Es gibt eine Umgebung U ⊂ G von E, sodass es zu jeder kompakten Teilmenge K von U eine Konstante c(K) > 0 gibt, mit (W )

(∇V (x)|f (x)) ≤ −c(K)|∇V (x)|2 |f (x)|2 ,

für alle x ∈ K.

8.8 Die Methode von Lojasiewicz

211

Man beachte, dass Gradientensysteme diese Bedingung stets erfüllen, und zwar auf ganz G mit Konstante c = c(G) = 1. Sei jetzt x(t) eine globale beschränkte nichtkonstante Lösung von x˙ = f (x), und sei K := x(R+ ) ⊂ G. Dann gibt es aufgrund von ω+ (x) ⊂ E ein t1 ≥ 0 mit x([t1 , ∞)) ⊂ U , also können wir o.B.d.A. t1 = 0 annehmen. Sei a ∈ ω+ (x) beliebig fixiert. V ist auf ω+ (x) konstant, also V (y) = V (a) auf ω+ (x), und V (x(t)) > V (a) für alle t ≥ 0, da V eine strikte Ljapunov-Funktion ist. Sei θ ∈ (0, 1] fixiert und setze (t) = (V (x(t)) − V (a))θ ; man beachte, dass  wohldefiniert ist. Dann erhalten wir mit (W) −

(∇V (x(t))|f (x(t)) d d (t) = −θ (V (x(t)) − V (a))θ−1 V (x(t)) = −θ dt dt (V (x(t)) − V (a))1−θ ≥ θ c(K)|f (x(t))|2

|∇V (x(t))|2 (V (x(t)) − V (a))1−θ

≥ θ c(K)|x(t)| ˙ 2 m, sofern wir wüssten, dass |∇V (x(t))|2 ≥m>0 (V (x(t)) − V (a))1−θ gilt. Nehmen wir an dem sei so. Dann ergibt Integration über R+  θ c(K)m

N



N

|x(t)| ˙ 2 dt ≤ −

0

˙ (s)ds = (0) − (N ) → (0) < ∞,

0

also ist |x(·)| ˙ 2 ∈ L1 (R+ ). Das impliziert nun für t > t¯ ≥ 0 |x(t) − x(t¯)|2 ≤



t t¯

|x(s)| ˙ 2 ds → 0,

für t, t¯ → ∞,

also existiert der Grenzwert limt→∞ x(t) =: x∞ und x∞ ∈ E. Diese Argumentationskette ist die Methode von Lojasiewicz. Sie beruht in zentraler Weise auf der Lojasiewicz-Ungleichung. Sei V : G → R aus C 1 . Wir sagen, dass für V die Lojasiewicz-Ungleichung gilt, wenn es zu jedem kritischen Punkt a ∈ G von V Konstanten θa ∈ (0, 1/2], ma > 0 und δa > 0 gibt, derart, dass ma |V (x) − V (a)|1−θa ≤ |∇V (x)|2 , erfüllt ist.

für alle x ∈ Bδa (a) ⊂ G,

212

8 Ljapunov-Funktionen und Stabilität

Lojasiewicz selbst hat gezeigt, dass diese Ungleichung gilt, wenn V in G reell analytisch ist. In regulären Punkten von V ist sie trivialerweise erfüllt. Um den Beweis mit Hilfe der Lojasiewicz-Ungleichung abzuschließen, überdecken wir die kompakte Menge ω+ (x) ⊂ E, durch endlich viele Kugeln Bδi (ai ) mit ai ∈ ω+ (x), sodass die Lojasiewicz-Ungleichung in diesen Kugeln mit Konstanten mi > 0 und θi ∈ 6 (0, 1/2] gilt. Setzt man dann U0 = i Bδi (ai ), θ = min θi , und m = min mi , so gilt die Lojasiewicz-Ungleichung auf U0 und beliebigem a ∈ ω+ (x), denn V ist auf ω+ (x) konstant. Die Lösung x(t) bleibt nach endlicher Zeit in U ∩ U0 , also o.B.d.A. für alle t ≥ 0, und damit ist der obige Beweis vollständig. Wir fassen zusammen: Satz 8.8.1. Sei G ⊂ Rn offen, f : G → Rn stetig, V ∈ C 1 (G; R) eine strikte LjapunovFunktion für x˙ = f (x), und sei E = f −1 (0) ⊂ G die Equilibriumsmenge. Es gelte die Bedingung (W) und V erfülle die Lojasiewicz-Ungleichung in einer Umgebung U ⊂ G von E. Dann konvergiert jede globale beschränkte Lösung x(t) mit x(R+ ) ⊂ G gegen ein Equilibrium. Die Lojasiewicz-Technik lässt sich auch verwenden, um die Stabilitätsaussage in Satz 5.5.4, der für isolierte Equilibria gedacht ist, auf den allgemeinen Fall zu erweitern. Das Resultat lautet wie folgt. Satz 8.8.2. Sei G ⊂ Rn offen, f : G → Rn stetig, V ∈ C 1 (G; R) eine strikte LjapunovFunktion für x˙ = f (x), die die Winkelbedingung (W) und die Lojasiewicz-Ungleichung in einer Umgebung U ⊂ G von E = f −1 (0) erfüllt. Sei x∗ ∈ E ein Equilibrium, das lokales Minimum von V ist. Dann ist x∗ ∈ E für die Gleichung x˙ = f (x) stabil, und sogar asymptotisch stabil, wenn x∗ in E isoliert ist. Beweis. Wähle ein r > 0 so, dass V (x) ≥ V (x∗ ) =: α für x ∈ B¯ r (x∗ ) ⊂ U gilt. Ist nun V (x0 ) = α, dann ist V (x(t)) = α für jede Lösung mit Anfangswert x0 ∈ B¯ δ (x∗ ), δ ∈ (0, r), also x(t) ≡ x0 ∈ E, da V nach Voraussetzung eine strikte Ljapunov-Funktion ist. Sei ε ∈ (0, r) gegeben, x0 ∈ B¯ δ (x∗ ), δ ∈ (0, ε), mit V (x0 ) > α, und x(t) eine nichtfortsetzbare Lösung von x˙ = f (x) mit Anfangswert x0 und Existenzintervall [0, t+ ). Definiere t1 := sup{t ∈ (0, t+ ) : |x(s) − x∗ |2 ≤ ε, s ∈ [0, t]}. Sei zunächst V (x(t)) > α für alle t ∈ [0, t1 ). Dann ist ϕ(t) = (V (x(t)) − α)θ in [0, t1 ) wohldefiniert, stetig differenzierbar und wie zuvor liefert die Lojasiewicz-Technik eine Konstante C > 0 mit  t  t |x(s)| ˙ ds ≤ |x − x | − C ϕ(s)ds ˙ |x(t) − x∗ |2 ≤ |x0 − x∗ |2 + 2 0 ∗ 2 0

0

= |x0 − x∗ |2 + C(ϕ(0) − ϕ(t)) ≤ |x0 − x∗ |2 + C(V (x0 ) − V (x∗ ))θ ,

8.8 Die Methode von Lojasiewicz

213

für alle t ∈ [0, t1 ). Wähle δ ∈ (0, ε/4), so dass x0 ∈ B¯ δ (x∗ ) die Bedingung (V (x0 ) − V (x∗ ))θ ≤ ε/4C erfüllt. Dann folgt aus obiger Abschätzung die Ungleichung |x(t) − x∗ |2 ≤ δ + ε/4 ≤ ε/2 < ε,

t ∈ [0, t1 ),

also gilt t1 = t+ . Nach dem Fortsetzungssatz ist dann t+ = ∞ und außerdem gilt x(t) ∈ B¯ ε (x∗ ) für alle t ≥ 0. Sollte es andererseits ein erstes t0 < t1 geben, mit ϕ(t0 ) = 0, dann ist V (x(t)) = α für alle t ≥ t0 , also x(t) ≡ x(t0 ) ein Equilibrium. Also bleibt die Lösung auch in diesem Fall in der Kugel B¯ ε (x∗ ). Daher ist x∗ ∈ E für die Gleichung x˙ = f (x) stabil. Die verbleibende Behauptung folgt aus Satz 8.6.2.  Beispiel 3. Als Anwendung betrachten wir ein Teilchen im Potentialfeld mit Dämpfung. Sei φ : Rn → R aus C 2 und g : Rn → Rn sei aus C 1 , mit g(0) = 0. Das Problem u¨ + g(u) ˙ + ∇φ(u) =0, u(0) = u0 ,

(8.26)

u(0) ˙ = u1 ,

ist mit x = [x1 , x2 ]T = [u, u] ˙ T äquivalent zum System x˙ = f (x), wobei f (x) = [u, ˙ −g(u) ˙ − ∇φ(u)]T = [x2 , −g(x2 ) − ∇φ(x1 )]T ist. Die Equilibriumsmenge E dieses Systems besteht aus Paaren der Form (x1 , 0), wobei x1 kritischer Punkt von φ ist, also ∇φ(x1 ) = 0. Als Ljapunov-Funktion betrachten wir zunächst die Energie V0 (x) =

1 |x2 |22 + φ(x1 ). 2

Diese ist eine strikte Ljapunov-Funktion falls (g(y)|y) > 0 für alle y ∈ Rn , y = 0 ist. Man beachte, dass jede Lösung von (8.26) nach rechts beschränkt ist, sofern φ koerziv ist, also φ(u) → ∞ für |u|2 → ∞ gilt, und nur (g(y)|y) ≥ 0 für alle y ∈ Rn ist. Die Funktion V0 bringt die Lösungen in die Nähe der Equilibriumsmenge. Sie ist allerdings nicht gut genug, um die Lojasiewicz-Technik anwenden zu können. Daher betrachten wir nun die modifizierte Energie V (x) =

1 |x2 |22 + φ(x1 + εx2 ); 2

wobei ε ∈ (0, 1] später gewählt wird. Wir können uns auf eine kompakte Umgebung K × B¯ ρ (0) ⊂ Rn × Rn von E ∩ BR (0) ⊂ R2n einschränken, da jede Lösung nach rechts

214

8 Ljapunov-Funktionen und Stabilität

beschränkt ist und gegen E konvergiert. Man beachte, dass g auf B¯ ρ (0) global Lipschitz mit einer Konstante L > 0 ist. Für x = (x1 , x2 ) ∈ K × B¯ ρ (0) erhalten wir daraus |f (x)|2 ≤ |x2 |2 + |g(x2 )|2 + |∇φ(x1 )|2 ≤ C(|x2 |2 + |∇φ(x1 )|2 ), wobei wir zusätzlich verwendet haben, dass g(0) = 0 ist. Als nächstes ist  ∇V (x) =

∇φ(x1 + εx2 ) x2 + ε∇φ(x1 + εx2 )



also |∇V (x)|2 ≤ C(|∇φ(x1 )|2 + |x2 |2 ), für (x1 , x2 ) ∈ K × B¯ ρ (0), denn ∇φ ist Lipschitz mit Konstante M > 0 auf K + B¯ ρ (0) = {y = y1 + y2 ∈ Rn : y1 ∈ K, y2 ∈ B¯ ρ (0)}. In den obigen Abschätzungen ist C > 0 eine generische Konstante, welche stetig von ε, L und M abhängt. Schließlich ist −(∇V (x)|f (x)) = (g(x2 ) + ∇φ(x1 )) · (x2 + ε∇φ(x1 + εx2 )) − x2 · ∇φ(x1 + εx2 ) = g(x2 ) · x2 + ε|∇φ(x1 )|22 + εg(x2 ) · ∇φ(x1 ) + (∇φ(x1 ) − ∇φ(x1 + εx2 )) · (x2 − ε∇φ(x1 ) − εg(x2 )) ≥ γ |x2 |22 + ε|∇φ(x1 )|22 − εL|x2 |2 |∇φ(x1 )|2 − εM|x2 |2 ((1 + εL)|x2 |2 + ε|∇φ(x1 )|2 ), falls (g(y)|y) ≥ γ |y|22 für y ∈ B¯ ρ (0) mit einem γ > 0. Die Youngsche Ungleichung ergibt daher −(∇V (x)|f (x)) ≥ c(|x2 |22 + |∇φ(x1 )|22 ) ≥ c|f (x)|2 |∇V (x)|2 , für alle x = (x1 , x2 ) ∈ K × Bρ (0), sofern ε ∈ (0, 1] hinreichend klein gewählt wird. Daher ist auch die Winkelbedingung (W) erfüllt. Man beachte, dass die Menge E der Equilibria genau aus den kritischen Punkten von V besteht. Um die Lojasiewicz-Ungleichung für V zu zeigen, nehmen wir an, sie sei für φ erfüllt. Sei a = (a1 , 0) ∈ E, also insbesondere ∇V (a) = 0 und sei x = (x1 , x2 ) ∈ Bδ (a1 , 0) ⊂ R2n , mit δ > 0 so klein, dass |x2 |2 ≤ 1 und |∇φ(x1 )|2 ≤ 1 ist. Dann gilt für hinreichend kleines ε > 0

8.8 Die Methode von Lojasiewicz

215 2(1−θ)

(V (x) − V (a))1−θ ≤ C[|x2 |2

+ |φ(x1 + εx2 ) − φ(a1 )|1−θ ]

≤ C[|x2 |2 + |∇φ(x1 + εx2 )|2 ] ≤ C|∇V (x)|2 , da 2(1 − θ ) ≥ 1 ist. Damit liefert Satz 8.8.1 das folgende Korollar. Korollar 8.8.3. Sei φ ∈ C 2 (Rn ; R) koerziv und derart, dass φ die Lojasiewicz Ungleichung erfüllt, g ∈ C 1 (Rn ; Rn ), genüge den Bedingungen g(0) = 0, (g(y)|y) > 0, y = 0,

(g(y)|y) ≥ γ |y|22 , y ∈ B¯ ρ (0),

mit γ , ρ > 0. Dann konvergiert jede Lösung von (8.26) gegen einen kritischen Punkt von φ. Ein Equilibrium x∗ = (u∗ , 0) ∈ E ist stabil, wenn u∗ ein lokales Minimum von φ ist, und asymptotisch stabil, wenn x∗ zusätzlich in E isoliert ist. Ist x∗ = (u∗ , 0) ∈ E, u∗ kein lokales Minimum von φ und existiert ein r0 > 0 mit φ(u) ≥ φ(u∗ ), für alle (u, 0) ∈ E ∩ Br0 (u∗ , 0), so ist x∗ instabil. Beweis. Wir beweisen noch die Stabilitätsaussagen. Ist u∗ ein lokales Minimum von φ, dann ist x∗ = (u∗ , 0) ein lokales Minimum von V , also impliziert Satz 8.8.2 die Stabilität von x∗ . Ist andererseits u∗ kein lokales Minimum von φ, so ist (u∗ , 0) auch kein lokales Minimum von V . Wegen V (E ∩ Br0 (x∗ )) ⊂ [V (x∗ ), ∞) für ein r0 > 0, liefert Satz 8.6.3 die Instabilität von x∗ .  1 Beispiel 4. Es sei g(y) = y, und φ(u) = 2k (|u|22 − 1)k mit k ≥ 2. Die Menge der kritischen Punkte von φ ist gegeben durch {0} ∪ ∂B1 (0). Da φ als Polynom reell analytisch ist, gilt die Lojasiewicz-Ungleichung für φ. Es gilt (g(y)|y) = |y|22 und offenbar ist φ koerziv. Also konvergiert nach Korollar 8.8.3 jede Lösung u(t) gegen einen kritischen Punkt von φ. Sei k ≥ 2 gerade. Dann ist jedes u∗ ∈ ∂B1 (0) ein lokales Minimum von φ, also ist jedes Equilibrium (u∗ , 0), u∗ ∈ ∂B1 (0) nach Satz 8.8.2 stabil. Der kritische Punkt u∗ = 0 ist ein lokales Maximum von φ und das Equilibrium (0, 0) ist isoliert in der Menge der Equilibria. Satz 8.6.3 liefert daher die Instabilität von (0, 0). Ist hingegen k ≥ 2 ungerade, so ist u∗ ∈ ∂B1 (0) kein lokales Minimum von φ, also ist jedes Equilibrium (u∗ , 0), u∗ ∈ ∂B1 (0) instabil nach Satz 8.6.3, denn φ ist konstant auf ∂B1 (0). Andererseits ist u∗ = 0 für ungerades k ein lokales Minimum von φ, also ist das Equilibrium (0, 0) in diesem Fall stabil nach Satz 8.8.2.

216

8 Ljapunov-Funktionen und Stabilität

Beispiel 5. Mittels der Lojasiewicz-Technik lassen sich die Aussagen über Mathematische Genetik in Abschn. 8.5 verschärfen. Dort hatten wir gesehen, dass V (p) = −W (p) eine strikte Ljapunov-Funktion ist. Auf der invarianten Menge D erfüllt V auch die Lojasiewicz-Ungleichung |V (p) − V (a)|1−θ ≤ c|P0 ∇V (p)|2 ,

p ∈ Br (a) ∩ D,

da V ein Polynom ist, also reell analytisch. Dabei ist P0 = I − n1 e ⊗ e die orthogonale Projektion auf D. Wir zeigen nun die Winkelbedingung (W) auf jeder kompakten Teilmenge K von D0 , dem relativen Inneren von D, also D◦ := {p ∈ D : pk > 0, k = 1, . . . , n}. Dazu setzen wir u = Mp − W (p)e, um die Relationen −P0 ∇V (p) = 2P0 Mp = 2P0 (Mp − W (p)e) = 2P0 u, f (p) = P (Mp − W (p)e) = P u, und −(P0 ∇V (p)|f (p)) = 2(P0 u|P u) = 2(u|P u) zu erhalten, denn es ist (e|P u) = (p|u) = (p|Mp − W (p)e) = 0. Daraus folgt −(P0 ∇V (p)|f (p)) = 2(u|P u) = 2

n 

pk u2k ≥ 2 min{pk }|u|22

k=1



2m|u|22

≥ 2mc|P0 u|2 |P u|2 = mc|f |2 |P0 ∇V (p)|2 ,

sofern min pk ≥ m > 0 ist. Nun liefert Satz 8.8.2, dass ein Polymorphismus, also ein Equilibrium p∗ ∈ D◦ stabil ist, wenn W (p) in p∗ ein lokales Maximum in D besitzt, und asymptotisch stabil ist, wenn p∗ ∈ D◦ zusätzlich in E isoliert ist. Ist das Equilibrium p∗ ∈ D◦ kein lokales Maximum von W und existiert ein r0 > 0, so dass Br0 (p∗ ) ⊂ D◦ und W (p) ≤ W (p∗ ) für alle Equilibria p ∈ E ∩ Br0 (p∗ ), so ist p∗ ∈ D◦ nach Satz 8.6.3 instabil. Weiter zeigt Satz 8.8.1, dass eine Lösung p(t) mit mink pk (t) ≥ m > 0 für alle t ≥ 0 gegen einen Polymorphismus konvergiert.

8.9

Ljapunov-Funktionen und Konvergenzraten

In den vorherigen Abschnitten haben wir gesehen, wie man Ljapunov Funktionen verwenden kann, um Konvergenz von Lösungen für t → ∞ zu zeigen. Es stellt sich nun die Frage, inwieweit diese Konvergenzaussagen auch quantitativer Natur sind, also ob

8.9 Ljapunov-Funktionen und Konvergenzraten

217

man etwas über Konvergenzraten aussagen kann. Bevor wir diese Diskussion beginnen, hat man das folgende Beispiel zur Kenntnis zu nehmen, welches zeigt, dass die Konvergenz einer Lösung gegen ein Equilibrium beliebig schlecht sein kann. Beispiel 1. Im Falle n = 1 betrachten wir die DGL x˙ = f (x) mit f (x) =

⎧ ⎨−e−1/x 2 /2x 3

, x = 0,

⎩0

, x = 0.

Es ist wohlbekannt, dass f ∈ C ∞ (R) gilt. Ferner ist die triviale Lösung x∗ = 0 asymptotisch stabil, denn f (x) > 0 für x < 0 und f (x) < 0 für x > 0. Natürlich ist V (x) = x 2 /2 eine strikte Ljapunov Funktion, mit V  (0) = 0 und V  (0) = 1. Die Lösung der Differentialgleichung mit Anfangswert x(0) = x0 = (log c)−1/2 , c > 1, ist durch die Funktion x(t) = (log(c + t))−1/2 für t ≥ 0 gegeben, die zwar für t → ∞ gegen x∗ = 0 konvergiert, aber schwächer als jede Potenzfunktion t → t −α , α > 0. Wir bereiten diesen Abschnitt mit einem Lemma vor, welches für sich genommen schon interessant ist. Lemma 8.9.1. Sei ϕ : R+ → R+ stetig, ϕ(0) = 1 und gelte (H1) ϕ(t)  ∞ ≤ cϕ(s), t ≥ s ≥ 0, (H2) t ϕ 1+α (s)ds ≤ T ϕ(t), t ≥ 0, mit Konstanten c, T > 0 und α ≥ 0. Dann gilt . ϕ(t) ≤

(ec)e−t/T , t ≥ T , α = 0, 1/α −1/α c(1 + α) (1 + αt/T ) , t ≥ T , α > 0.

Die Konvergenzraten sind optimal. Beweis. (i) Sei zunächst α = 0 und setze ψ(t) =

∞ t

ϕ(s)ds. Dann folgt aus (H2)

˙ ψ(t) = −ϕ(t) ≤ −ψ(t)/T , also ψ(t) ≤ e−t/T ψ(0) ≤ T e−t/T für alle t ≥ 0. Für t ≥ T ergibt nun (H1)  t ϕ(s)ds ≤ cψ(t − T ) ≤ cT e−(t−T )/T = ecT e−t/T , t ≥ T . T ϕ(t) ≤ c t−T

(ii) Im Fall α > 0 setze ψ(t) =

∞ t

ϕ 1+α (s)ds. Hier folgt aus (H2)

218

8 Ljapunov-Funktionen und Stabilität

˙ −ψ(t) = ϕ 1+α (t) ≥ ψ 1+α (t)/T 1+α , also d −α ˙ ≥ α/T 1+α , ψ (t) = −αψ −(1+α) (t)ψ(t) dt und nach Integration ψ −α (t) ≥ ψ −α (0) + αt/T 1+α ≥ T −α (1 + αt/T ), da ψ(0) ≤ T ϕ(0) = T nach (H2). Daraus folgt 



ψ(t) =

ϕ 1+α (s)ds ≤ T (1 + αt/T )−1/α ,

t ≥ 0.

t

(iii) Im Fall α > 0 ergibt die Bedingung (H1) für t ≥ rT (r > 0 wird später gewählt)  rT ϕ 1+α (t) ≤ c1+α

t

ϕ 1+α (s)ds ≤

t−rT

≤ c1+α ψ(t − rT ) ≤ c1+α T (1 − αr + αt/T )−1/α , wobei die letzte Abschätzung aus (ii) folgt. Setze nun r = (1 + αt/T )/(1 + α). Dann gilt ϕ 1+α (t) ≤ (c1+α /r)(1 − α/(1 + α) + (αt/T )(1 − α/(1 + α)))−1/α = c1+α (1 + α)

1+α α

(1 + αt/T )−

1+α α

,

also folglich ϕ(t) ≤ c(1 + α)1/α (1 + αt/T )−1/α ,

t ≥ T,

d. h. die Behauptung im Fall α > 0. Die Optimalität der Raten belegen die Beispiele ϕ(t) = e−t/T für α = 0 und ϕ(t) = (1 + t)−1/α im Fall α > 0.  Man beachte, dass Bedingung (H1) in diesem Lemma insbesondere dann erfüllt ist, wenn ϕ(t) fallend ist. Die Normierung ϕ(0) = 1 kann leicht durch eine Skalierung erreicht werden, welche nicht die Konvergenzraten verändert.

8.9 Ljapunov-Funktionen und Konvergenzraten

219

Wir betrachten nun die autonome Gleichung x˙ = f (x),

(8.27)

wobei f : G → Rn lokal Lipschitz ist, G ⊂ Rn offen. Sei a ∈ E := f −1 (0) ein Equilibrium, und sei x(t) eine Lösung von (8.27) die für t → ∞ gegen a konvergiert. Sei weiter V ∈ C 1 (G; R) eine Ljapunov-Funktion für (8.27). Dann haben wir für ϕ(t) = V (x(t)) die Relation ϕ(t) ˙ = (∇V (x(t))|f (x(t)) ≤ 0,

t ≥ 0.

Um etwas über die Konvergenzrate von x(t) → a für t → ∞ aussagen zu können, gelte − (∇V (x)|f (x)) ≥ ca |x − a|2+α 2 ,

x ∈ Br (a) ⊂ G,

(8.28)

mit Konstanten ca , r > 0 und einem α ≥ 0. Durch Verschiebung von V kann man V (a) = 0 annehmen, sowie x(t) ∈ Br (a) für alle t ≥ 0, also ist ϕ(t) ≥ 0 für alle t ≥ 0. Integration von t bis ∞ ergibt die Ungleichung  ∞ |x(s) − a|2+α t ≥ 0. ca 2 ds ≤ ϕ(t), t

Ist weiter V ∈ C 2 (G; R) und ∇V (a) = 0, so folgt mittels Taylor Entwicklung |V (x)| = |V (x) − V (a) − (∇V (a)|x − a)| ≤ M|x − a|22 ,

x ∈ Br (a),

mit M = max{&∇ 2 V (y)& : y ∈ Br (a)}. Wir erhalten so die Ungleichung  ∞ ϕ 1+α/2 (s)ds ≤ ϕ(t), t ≥ 0. (ca /M 1+α/2 ) t

Lemma 8.9.1 ergibt dann ϕ(t) → 0 für t → ∞ exponentiell im Fall α = 0 bzw. polynomiell mit Rate 2/α für α > 0. Um etwas über die Konvergenzrate von x(t) gegen a für t → ∞ sagen zu können, beachte man, dass d |x(t) − a|22 = 2(x(t) − a|f (x(t))) = 2(x(t) − a|f (x(t)) − f (a)) ≥ −2L|x(t) − a|22 , dt wobei L die Lipschitz-Konstante von f im Kompaktum Br (a) ⊂ G bezeichnet. Dies impliziert |x(s) − a|22 ≥ e−2L(s−t) |x(t) − a|22 , also

s ≥ t ≥ 0,

220

8 Ljapunov-Funktionen und Stabilität





ϕ(t) ≥ ca t

=

 |x(s) − a|2+α 2 ds





≥ ca

e

−(2+α)L(s−t)

t

 ds |x(t) − a|2+α 2

ca |x(t) − a|2+α 2 , (2 + α)L

für alle t ≥ 0. Daher gilt x(t) → a für t → ∞ exponentiell falls α = 0 und polynomiell mit Rate 2/[(2 + α)α] falls α > 0 ist. Wir fassen zusammen. Satz 8.9.2. Sei G ⊂ Rn offen, f : G → Rn lokal Lipschitz, und V ∈ C 2 (G; R) eine Ljapunov-Funktion für (8.27). Sei a ∈ E = f −1 (0) ein Equilibrium mit V (a) = 0, ∇V (a) = 0 und sei x(t) eine nach rechts globale Lösung von (8.27) in G mit x(t) → a für t → ∞, und es gelte (8.28). Dann konvergiert x(t) gegen a im Fall α = 0 exponentiell, und im Fall α > 0 polynomial mit Rate 2/[(2 + α)α]. Man beachte, dass die Bedingung ∇V (a) = 0 gilt, falls f in a differenzierbar und f  (a) invertierbar ist. Dies ist für alle Ljapunov-Funktionen im Equilibrium a richtig, denn die Bedingung (∇V (x)|f (x)) ≤ 0 in G impliziert (∇V (a)|f  (a)v) = 0 für alle v ∈ Rn , also folgt ∇V (a) = 0. Des Weiteren sei bemerkt, dass dann V ∈ C 2 (G; R) die Ungleichung 0 ≤ −(∇V (x)|f (x)) = −(∇V (x) − ∇V (a)|f (x) − f (a)) ≤ |∇V (x) − ∇V (a)|2 |f (x) − f (a)|2 ≤ Ca |x − a|22 ,

x ∈ Br (a) ⊂ G,

nach sich zieht, wobei die Konstante Ca > 0 das Produkt der Lipschitz-Konstanten von ∇V und f in Br (a) ist. Dies erklärt die Form des Exponenten 2 + α in (8.28). Beispiel 2. Betrachte das Volterra-Lotka Modell mit Sättigung aus Abschn. 5.5. Wie dort gezeigt wurde, ist die Funktion V0 (x, y) = e(x − x∗ log(x/x∗ )) + c(y − y∗ log(y/y∗ )),

x, y > 0,

eine strikte Ljapunov-Funktion in G = (0, ∞)2 , mit der Dissipationsrate (∇V0 (x, y)|f (x, y)) = −eb(x − x∗ )2 ,

x, y > 0.

Diese Rate ist leider nicht stark genung, um Satz 8.9.2 anwenden zu können. Aber eine kleine Modifikation leistet das Gewünschte in einer Kugel um das nichttriviale Equilibrium, nämlich Vε (x, y) = V0 (x, y) + ε(x − x∗ )(y − y∗ ),

|x − x∗ |2 , |y − y∗ |2 < r.

8.9 Ljapunov-Funktionen und Konvergenzraten

221

Wählt man ε > 0 und r > 0 klein genug, dann ist (8.28) mit α = 0 erfüllt, also konvergieren die Lösungen exponentiell gegen das Koexistenzequilibrium (x∗ , y∗ ) für t → ∞. An Satz 8.9.2 ist bemerkenswert, dass keinerlei Informationen über die Linearisierung f  (a) benötigt werden, diese muss nicht einmal existieren. Ist andererseits f ∈ C 1 und σ (f  (a)) ⊂ C− , dann zeigt das Prinzip der linearisierten Stabilität exponentielle Konvergenz. Diese Aussage werden wir in Kap. 10 auf sogenannte normal stabile bzw. normal hyperbolische Equilibria ausdehnen. Die Bedingung (8.28) impliziert insbesondere, dass das Equilibrium a in E = f −1 (0) isoliert ist. Falls das nicht der Fall sein sollte, so bietet sich die Lojasiewicz-Technik aus Abschn. 8.8 als Ausweg an: Es sei also nun V ∈ C 1 (G; R) eine Ljapunov-Funktion für (8.27), welche die Lojasiewicz-Ungleichung und die Winkelbedingung (W) aus Abschn. 8.8 erfüllt, und es sei wie bisher a ∈ E mit V (a) = 0, und x(t) → a eine Lösung von (8.27). Durch Zeitverschiebung kann x(t) ∈ Br (a) für alle t ≥ 0 angenommen werden, also gilt insbesondere ϕ(t) ≥ 0 für alle t ≥ 0. Dann folgt nach der Herleitung in Abschn. 8.8  ∞ θ |x(s)| ˙ t ≥ t0 . |x(t) − a|2 ≤ 2 ds ≤ ϕ (t), t

In diesem Fall genügt es daher, die Konvergenzrate von ϕ(t) → 0 für t → ∞ zu betrachten. Dazu nehmen wir an, dass 1+γ

|f (x)|2 ≥ ca |∇V (x)|2

,

x ∈ Br (a),

(8.29)

mit Konstanten ca , r > 0 und γ ≥ 0 gilt. Diese Bedingung ist für einen Gradientenfluss f (x) = −∇V (x) trivialerweise mit γ = 0 erfüllt. Bedingung (8.29) ergibt mit cr = c(B¯ r (a)) aus der Winkelbedingung (W) und den Konstanten m > 0, θ ∈ (0, 1/2] aus der Lojasiewicz-Ungleichung die Abschätzung ϕ(t) ˙ = (∇V (x(t))|f (x(t)) ≤ −cr |∇V (x(t))|2 |f (x(t))|2 2+γ

≤ −cr ca |∇V (x(t))|2

≤ −cr ca mV (x(t))(1−θ)(2+γ ) ,

also nach Integration von t bis ∞ 



c1

ϕ 1+α (s)ds ≤ ϕ(t),

t ≥ 0,

t

wobei c1 = cr ca m und α = (1 − θ )(2 + γ ) − 1 ≥ γ /2. Lemma 8.9.1 impliziert nun ϕ(t) → 0 exponentiell für α = 0, d. h. für θ = 1/2, γ = 0, und ansonsten polynomial mit Rate 1/α. Dies ergibt das zweite Resultat über Konvergenzraten.

222

8 Ljapunov-Funktionen und Stabilität

Satz 8.9.3. Sei G ⊂ Rn offen, f : G → Rn lokal Lipschitz, und V ∈ C 1 (G; R) eine Ljapunov-Funktion für (8.27), welche die Lojasiewicz-Ungleichung mit Konstante θ ∈ (0, 1/2] und die Winkelbedingung (W) erfüllt. Sei a ∈ E = f −1 (0) ein Equilibrium, V (a) = 0, x(t) eine Lösung von (8.27) in G mit x(t) → a für t → ∞, und gelte (8.29). Dann konvergiert x(t) gegen a exponentiell, falls γ = 0, θ = 1/2 sind, und andernfalls polynomial mit Rate 1/[(1 − θ )γ + 1 − 2θ ]. Beispiel 3. Betrachte nochmals das Teilchen im Potentialfeld mit Dämpfung wie im Abschn. 8.8. Es gilt in der Nähe eines Equilibriums a = (u, 0) (u ist kritischer Punkt von φ) |∇V (x)|22 = |x2 + ε∇φ(x1 + εx2 )|22 + |∇φ(x1 + εx2 )|22 ≤ 2|x2 |22 + (2ε + 1)|∇φ(x1 + εx2 )|22 ≤ 2|x2 |22 + 2(2ε + 1)(εM|x2 |22 + |∇φ(x1 )|22 ) ≤ C1 (|∇φ(x1 )|22 + |x2 |22 ) ≤ C2 (|∇φ(x1 ) + g(x2 )|22 + |x2 |22 ) = C2 |f (x)|22 , wobei C1 > 0 sich stetig aus ε > 0 und der Lipschitz-Konstanten M > 0 von ∇φ auf Br (u) zusammensetzt und C2 > 0 ist wiederum stetig abhängig von C1 und der LipschitzKonstanten von g auf Br (0). Es folgt die Ungleichung (8.29) mit γ = 0 in einer Kugel um a, folglich impliziert Satz 8.9.3 exponentielle Konvergenz von x(t) → a für t → ∞, wenn θ für φ gleich 1/2 ist, und für θ ∈ (0, 1/2) ist die Konvergenz polynomiell mit der Rate 1/(1 − 2θ ).

Übungen 8.1 Führen Sie den Beweis von Satz 8.2.4 aus. 8.2 Sei ψ : R+ → R+ stetig wachsend, ψ(0) = 0 und ψ(s) > 0 für s > 0. Konstruieren Sie eine Funktion ψ0 : R+ → R+ stetig, streng wachsend, ψ0 (0) = 0 und ψ(s) ≥ ψ0 (s) für s > 0. 8.3 Sei W (x) = (Ax|x), mit A ∈ Rn×n symmetrisch. Zeigen Sie, dass die Matrix A genau dann positiv definit ist, wenn die dazugehörige quadratische Form W (x) positiv definit im Sinne von Definition 8.3.2 ist. 8.4 Die Funktionen V1 (x) = |x|∞ , V2 (x) = max{xk : k = 1, . . . , n}, V3 (x) = |x|1 sind nicht differenzierbar. Berechnen Sie V˙j (x). Vergleichen Sie das Ergebnis für V3 mit  dem für die differenzierbare Funktion V4 (x) = j xj . 8.5 Zeigen Sie, dass positiv definite Lösungen der Ljapunov-Gleichung AT Q + QA = −I eindeutig bestimmt sind. 8.6 Es sei das lineare System x˙ = A(t)x gegeben. Sei A(t) von der Form A(t) = D(t) + B(t) mit stetigen Funktionen D, B : R → Rn×n , wobei D(t) diagonal, negativ

Übungen

223

semidefinit und B(t) schiefsymmetrisch, also B(t) = −B(t)T für alle t ∈ R seien. Konstruieren Sie eine Ljapunov-Funktion für das System, und untersuchen Sie seine Stabilitätseigenschaften. 8.7 Sei f (t, x) τ -periodisch in t, lokal Lipschitz in x, und sei das System x˙ = f (t, x) mit f (t, 0) ≡ 0 gegeben. Zeigen Sie für die triviale Lösung, dass dann stabil bereits uniform stabil, und asymptotisch stabil schon uniform asymptotisch stabil implizieren. 8.8 Untersuchen Sie die Fisher-Wright-Haldane-Gleichung aus Abschn. 8.5 für die Fitnessmatrizen ⎤ ⎤ ⎡ ⎤ ⎡ ⎤ ⎡ ⎡ 1 5 6 2 4 1 2 4 5 1 2 1 ⎥ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎢ F = ⎣2 3 1⎦, ⎣4 1 3⎦, ⎣4 3 1⎦, ⎣5 4 2⎦ 6 2 4 1 1 5 5 3 1 1 1 1 und skizzieren Sie die zugehörigen Phasenportraits im Standardsimplex. 8.9 Sei V : (−a, a) → R aus C 1 , und V (0) = V  (0) = 0. (i) Zeigen Sie die Lojasiewicz-Ungleichung für V in 0, sofern V eine analytische Fortsetzung auf eine Kugel Br (0) ⊂ C besitzt, und dass dann θ = 1/m mit m = min{k ∈ N : V (k) (0) = 0} gewählt werden kann. (ii) Geben Sie Funktionen V ∈ C ∞ (−a, a) an, die die Lojasiewicz-Ungleichung nicht erfüllen. 8.10 Sei V : Rn → R aus C 2 , V (0) = ∇V (0) = 0 und sei ∇ 2 V (0) nicht singulär. Zeigen Sie, dass V die Lojasiewicz-Ungleichung in einer Kugel Br (0) mit θ = 1/2 erfüllt.

9

Ebene autonome Systeme

Wir betrachten in diesem Kapitel den speziellen, aber wichtigen zweidimensionalen autonomen Fall. Dazu seien G ⊂ R2 offen, f : G → R2 stetig, und die Differentialgleichung x˙ = f (x)

(9.1)

gegeben. Wir nehmen im ganzen Kapitel an, dass die Lösungen von (9.1) durch ihre Anfangswerte eindeutig bestimmt sind. So ist x(t; x0 ) die Lösung von (9.1) mit Anfangswert x(0) = x0 ∈ G. Die Menge der Equilibria wird wie zuvor mit E bezeichnet, also E := f −1 (0) = {x ∈ G : f (x) = 0}. Im Gegensatz zum n-dimensionalen Fall mit n ≥ 3 sind die Limesmengen der Lösungen im Fall n = 2 sehr gut verstanden. So sagt das Poincaré-Bendixson-Theorem, dass eine Limesmenge, die kein Equilibrium enthält, schon Orbit einer periodischen Lösung ist. Was macht den Fall n = 2 so besonders? Die Antwort darauf ist der Jordansche Kurvensatz, der besagt, dass eine Jordan-Kurve, also eine geschlossene, stetige, doppelpunktfreie Kurve, die Ebene in zwei disjunkte offene, zusammenhängende Teilmengen zerlegt, in ihr Inneres und in ihr Äußeres.

9.1

Transversalen

Das zentrale Hilfsmittel in der Poincaré-Bendixson-Theorie ist das Konzept der Transversalen.

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_9

225

226

9 Ebene autonome Systeme

Definition 9.1.1. Ein Segment L = {τy0 + (1 − τ )y1 : τ ∈ [0, 1]} mit y0 = y1 , heißt Transversale für das Vektorfeld f , falls f (x) = λ(y1 − y0 )

für alle λ ∈ R, x ∈ L,

(9.2)

erfüllt ist. In anderen Worten, L ist eine Transversale, falls kein Equilibrium auf L liegt, und die Richtung der Transversalen von der von f (x) für jedes x ∈ L verschieden ist, d. h. y1 − y0 und f (x) sind für jedes x ∈ L linear unabhängig. Bemerkung 9.1.2. 1. Ist x ∈ G \ E, dann existiert eine Transversale durch x. Eine solche kann jede Richtung haben, mit Ausnahme von der von ±f (x). Dies folgt aus der Stetigkeit von f , da man Transversalen beliebig kurz wählen darf. 2. Das Segment L = {τy0 + (1 − τ )y1 : τ ∈ [0, 1]} ist genau dann eine Transversale, wenn (T )

(f (x)|z) = 0

für alle x ∈ L, z = 0 mit (y1 − y0 |z) = 0,

erfüllt ist. 3. Ist L eine Transversale und x0 ∈ L, so gilt x(t; x0 ) ∈ L für alle |t| = 0 hinreichend klein. Dies bedeutet, wenn ein Orbit L trifft, dann kreuzt es L. Denn wäre x(tk , x0 ) ∈ L, für eine Folge tk → 0, so würde (x(tk , x0 ) − x(0, x0 )|z) =0 tk für alle z ∈ Rn mit (y1 − y0 |z) = 0 gelten. Daraus folgt aber (f (x0 )|z) = 0, im Widerspruch zu (T). 4. Alle Orbits, die eine Transversale treffen, überqueren sie in der gleichen Richtung. Denn ist z = 0 orthogonal zu L, so hat die stetige Funktion ϕ(τ ) := (f (τy0 + (1 − τ )y1 )|z) für alle τ ∈ [0, 1] das gleiche Vorzeichen. Proposition 9.1.3. Sei L = {τy0 + (1 − τ )y1 : τ ∈ [0, 1]} eine Transversale für (9.1), und sei x0 ∈ L ∩ G kein Endpunkt von L. Dann gibt es zu jedem ε > 0 eine Kugel B¯ δ (x0 ), sodass jede Lösung x(t; x1 ) mit Anfangswert x1 ∈ B¯ δ (x0 ) die Transversale für ein t1 ∈ [−ε, ε] trifft. Beweis. Andernfalls gäbe es ein ε0 > 0 und eine Folge xk → x0 , sodass x(t, xk ) ∈ L für alle t ∈ [−ε0 , ε0 ] gilt. Sei z = 0 orthogonal zu L; setze ϕk (t) = (x(t, xk ) − x0 |z),

9.1 Transversalen

227

und ϕ0 (t) = (x(t, x0 ) − x0 |z). Aus xk → x0 folgt dann ϕk → ϕ0 gleichmäßig auf [−ε0 , ε0 ]. Nach Annahme ist x(t, xk ) ∈ L also sgn ϕk (t) auf [−ε0 , ε0 ] konstant. Andererseits hat aber ϕ0 (t) in t = 0 einen Vorzeichenwechsel, denn es ist ϕ0 (0) = 0  und ϕ˙0 (0) = (f (x0 )|z) = 0. Damit haben wir einen Widerspruch erhalten. Die folgende Proposition ist nicht ganz so leicht zu zeigen. Proposition 9.1.4. Sei L = {τy0 + (1 − τ )y1 : τ ∈ [0, 1]} eine Transversale, und C = x[a, b] ein Teilorbit der Lösung x(t) für (9.1). Dann gelten: 1. L ∩ C ist endlich, also L ∩ C = {x1 , . . . , xm }. 2. Ist x(t) nicht periodisch und x(tj ) = τj y0 + (1 − τj )y1 , mit t1 < t2 < · · · < tm , so gilt entweder τ1 < τ2 < · · · < τm oder τ1 > τ2 > · · · > τm . 3. Ist x(t) periodisch und C = γ (x) das Orbit von x(t), so ist L∩C höchstens einpunktig. Beweis. 1. Angenommen, L ∩ C wäre nicht endlich. Dann gäbe es eine Folge (xk ) ⊂ L ∩ C, mit xk → x0 ∈ L ∩ C. Sei xk = x(tk ) und sei evtl. nach Übergang zu einer Teilfolge tk → t0 ∈ [a, b]. Es folgt xk − x0 x(tk ) − x(t0 ) = → x(t ˙ 0 ) = f (x0 ), tk − t0 tk − t0 also mit einem z = 0 orthogonal zu L 0=

(xk − x0 |z) → (f (x0 )|z), tk − t0

d. h. (f (x0 )|z) = 0 für x0 ∈ L, im Widerspruch zu (T). 2. Seien xj = x(tj ), j = 1, 2, t1 < t2 zwei aufeinanderfolgende Schnittpunkte der Lösung mit L, sei xj = τj y0 + (1 − τj )y1 , und es gelte o.B.d.A. τ1 < τ2 , also x1 = x2 . Der Kurvenbogen x[t1 , t2 ] und das Segment S[τ1 , τ2 ] = {τy0 + (1 − τ )y1 : τ ∈ [τ1 , τ2 ]} stellen eine geschlossene doppelpunktfreie Kurve im R2 dar; vgl. Abb. 9.1. Nach dem Jordanschen Kurvensatz teilt diese Kurve die Ebene R2 in ein Innengebiet Gi und ein Außengebiet Ga , sodass R2 = Gi ∪ ∪ Ga gilt, wobei die Vereinigungen disjunkt sind. Wir betrachten nun die Lösung für t ≥ t2 : die Lösung kann den Kurvenbogen x[t1 , t2 ] aufgrund der Eindeutigkeit der Lösungen nicht schneiden, und auf S[τ1 , τ2 ] zeigt das Vektorfeld f ins Außengebiet, denn f (x2 ) hat diese Eigenschaft, also gilt sie nach Bemerkung 9.1.2 auf ganz L. Daher ist Ga für diese Lösung positiv invariant, weshalb der nächste Schnittpunkt x3 = x(t3 ) nur im Außengebiet Ga liegen kann, d. h. aber τ3 > τ2 . Analog geht es für die negative Zeitrichtung.

228

9 Ebene autonome Systeme

Abb. 9.1 Transversale

L

Ga x2

x1

Gi

x(t)

3. Ist x(t1 ) = x(t2 ) ∈ L so ist x(t) offensichtlich periodisch. Angenommen x(t) ist periodisch und x(t1 ) = x(t2 ). Dann müsste die Lösung für t ≥ t2 die Jordan-Kurve aus dem 2. Teil des Beweises schneiden, was nicht möglich ist. Daher ist das Segment S[τ1 , τ2 ] = {x2 } trivial, und ist das geschlossene Orbit von x(t). 

Proposition 9.1.5. Sei γ+ (x) ⊂ G kompakt, L eine Transversale für (9.1), und sei y ∈ L ∩ ω+ (x). Dann gibt es eine wachsende Folge tk → ∞ mit xk := x(tk ) ∈ L und xk → y. Beweis. Da y ∈ ω+ (x) gilt, gibt es eine wachsende Folge t¯k → ∞ mit x¯k := x(t¯k ) → y; o.B.d.A. kann man t¯k+1 ≥ t¯k + 2 annehmen. Nach Proposition 9.1.3 gibt es zu ε = 1/m eine Kugel B¯ δm (y) mit der Eigenschaft, dass es zu jedem z ∈ B¯ δm (y) mindestens ein t (z) ∈ [−1/m, 1/m] gibt mit x(t (z), z) ∈ L. Nun gilt für k ≥ km , m ∈ N hinreichend groß, x(t¯k ) ∈ B¯ δm (y). O.B.d.A. gelte km+1 ≥ km + 1. Wir definieren nun eine Folge (tm ) durch tm = t¯km + t (x¯km ). Dann ist tm wachsend, denn wegen |t (x¯km )| ≤ 1/m gilt 1 m+1 1 +2− m+1

tm+1 = t¯km+1 + t (x¯km+1 ) ≥ t¯km +1 − ≥ t¯km

≥ t¯km + 1 ≥ t¯km + t (x¯km ), für alle m ∈ N. Ferner gilt tm → ∞, sowie x(tm ) ∈ L aber auch x(tm ) → y, da x(tm ) =  x(t (x¯km ), x¯km ) mit |t (x¯km )| ≤ 1/m ist. Eine interessante Folgerung aus Proposition 9.1.5 ist das

9.2 Poincaré-Bendixson-Theorie

229

Korollar 9.1.6. Sei γ+ (x) ⊂ G kompakt und L eine Transversale für (9.1). Dann ist L ∩ ω+ (x) höchstens einpunktig. Beweis. Angenommen es seien x, ¯ z¯ ∈ L ∩ ω+ (x). Nach Proposition 9.1.5 gibt es Folgen ¯ zk → z¯ . tk → ∞, sk → ∞, tk < sk < tk+1 mit xk = x(tk ), zk = x(sk ) ∈ L und xk → x, Da sich nach Proposition 9.1.4 die natürliche Ordnung auf γ+ (x) auf die Ordnung der Schnittpunkte des Orbits mit L überträgt, folgt mit xk = τk y0 + (1 − τk )y1 und zk =  σk y0 + (1 − σk )y1 die Relation τk < σk < τk+1 . Das impliziert nun x¯ = z¯ .

9.2

Poincaré-Bendixson-Theorie

Wir beginnen mit einer Charakterisierung periodischer Lösungen mittels Limesmengen, die typisch zweidimensional ist. Lemma 9.2.1. Sei γ+ (x) ⊂ G kompakt. Die Lösung x(t) von (9.1) ist genau dann periodisch, wenn γ+ (x) ∩ ω+ (x) = ∅ gilt. Ist dies der Fall so ist γ+ (x) = ω+ (x). Beweis. Ist x(t) periodisch, so ist offensichtlich γ+ (x) = ω+ (x). Sei nun umgekehrt y = x(t0 ) ∈ γ+ (x) ∩ ω+ (x). Ist der Anfangswert x0 von x(t) ein Equilibrium, so gilt x(t) = x0 für alle t ≥ 0, also ist auch y = x0 ∈ E. Sei also x0 ∈ E; dann ist aufgrund der Eindeutigkeit der Lösungen auch y ∈ E. Also gibt es nach Bemerkung 9.1.2 eine Transversale L durch y. Da y ∈ ω+ (x) ist, existiert nach Proposition 9.1.5 eine wachsende Folge tk → ∞ mit x(tk ) ∈ L und x(tk ) → y. Angenommen x(t) ist nicht periodisch. Dann gelten mit der durch die natürliche Ordnung auf γ+ (x) erzeugten Ordnung auf L für tk ≥ t0 , mit y = τ0 y0 + (1 − τ0 )y1 und x(tk ) = τk y0 + (1 − τk )y1 die Relationen τ0 < τk < τk+1 . Ferner gilt |τk − τ0 ||y1 − y0 | = |x(tk ) − y| → 0, also auch τk → τ0 für k → ∞, ein Widerspruch. Also ist die Lösung x(t) periodisch.  Dieses Lemma ist in Dimensionen n ≥ 3 falsch, wie das folgende Beispiel zeigt. Beispiel. Der irrationale Fluss auf dem Torus. Betrachte das 3D-System ⎧ u˙ = −v − α √ uw , u(0) = 3, ⎪ ⎪ ⎨ u2 +v 2 v˙ = u − α √ vw , v(0) = 0, 2 2 ⎪ ⎪ √ u +v ⎩ w˙ = α( u2 + v 2 − 2), w(0) = 0,

(9.3)

230

9 Ebene autonome Systeme

wobei α ∈ Q irrational, α > 0 ist. Die Lösung kann man explizit angeben: u(t) = [2 + cos(αt)] cos(t), v(t) = [2 + cos(αt)] sin(t), w(t) = sin(αt). Man überzeugt sich durch direktes Nachrechnen, das dies tatsächlich die Lösung von (9.3) ist. Es gilt nun (u(t) − 2 cos(t))2 + (v(t) − 2 sin(t))2 + w(t)2 = 1,

t ∈ R,

d. h. die Lösung liegt auf dem Torus T, der durch u(φ, θ ) = [2 + cos(θ )] cos(φ), v(φ, θ ) = [2 + cos(θ )] sin(φ), w(φ, θ ) = sin(θ ),

φ, θ ∈ [0, 2π ],

parametrisiert ist. Nun gilt γ+ (u, v, w) ⊂ ω+ (u, v, w) = T, da α irrational ist, aber (u, v, w) ist nicht periodisch. Man nennt solche Funktionen quasiperiodisch da es 2 unabhängige “Perioden”, nämlich 2π und 2π/α gibt. Ist hingegen α ∈ Q, dann ist die Lösung periodisch; vgl. dazu Übung 9.8. Wir können nun das Hauptresultat der Poincaré-Bendixson-Theorie beweisen. Satz 9.2.2 (Poincaré-Bendixson). Sei γ+ (x) ⊂ G kompakt, und sei ω+ (x) ∩ E = ∅. Dann ist entweder ω+ (x) = γ+ (x), d. h. x(t) ist eine periodische Lösung, oder aber ω+ (x) ist ein periodisches Orbit, ein Grenzzyklus. Beweis. Sei x(t) nicht periodisch. Da ω+ (x) nichtleer und invariant ist, enthält ω+ (x) nach Proposition 8.4.2 ein vollständiges Orbit γ (z). Da ω+ (z) ebenfalls nichtleer und kompakt ist, gibt es ein y ∈ ω+ (z) ⊂ ω+ (x). Da nach Voraussetzung y ∈ E ist, gibt es eine Transversale L durch y. Nach Korollar 9.1.6 ist ω+ (x) ∩ L = {y}. Andererseits, mit y ∈ ω+ (z) zeigt Proposition 9.1.5, dass γ+ (z)∩L nichtleer ist, folglich y ∈ ω+ (z)∩γ+ (z), also ist z(t) nach Lemma 9.2.1 ein periodisches Orbit. Wir zeigen ω+ (x) = γ+ (z). Andernfalls gäbe es eine Folge (yk ) ⊂ ω+ (x) \ γ+ (z) mit yk → y¯ ∈ γ+ (z), da ω+ (x) zusammenhängend ist. Wähle erneut eine Transversale ¯ nach Korollar 9.1.6, aber aus Proposition 9.1.3 L¯ durch y. ¯ Wieder gilt ω+ (x) ∩ L¯ = {y} folgt, dass es |tk | ≤ 1 gibt, sodass x(tk , yk ) ∈ L¯ ∩ ω+ (x), also x(tk , yk ) = y¯ ∈ γ+ (z) gilt. Aus der Eindeutigkeit der Lösungen folgt aber x(tk , yk ) ∈ ω+ (x) \ γ (z), was einen  Widerspruch bedeutet. Daher ist ω+ (x) = γ+ (z).

9.2 Poincaré-Bendixson-Theorie

231

Wir notieren das folgende wichtige Korollar 9.2.3. Sei ∅ = K ⊂ G kompakt, K ∩ E = ∅ und γ+ (x) ⊂ K. Dann besitzt (9.1) mindestens eine periodische Lösung in K. An diesem Korollar ist bemerkenswert, dass man keine weiteren topologischen Eigenschaften wie etwa Konvexität von K braucht; vgl. Satz 7.3.5. Für den Fall, dass ω+ (x) höchstens endlich viele Equilibria enthält, ergibt sich das folgende Bild. Satz 9.2.4. Sei K ⊂ G kompakt, γ+ (x) ⊂ K und K ∩ E endlich. Dann gelten die Alternativen: 1. ω+ (x) = {x∞ } für ein x∞ ∈ E. 2. ω+ (x) ist ein periodisches Orbit. 3. ω+ (x) besteht aus endlich vielen Equilibria und außerdem aus (möglicherweise unendlich vielen) Orbits, die für t → ±∞ gegen eines dieser Equilibria konvergieren. Beweis. Da nach Voraussetzung K ∩ E endlich ist, gibt es höchstens endlich viele Equilibria in ω+ (x). Gilt ω+ (x) ⊂ E, dann ist ω+ (x) = {x∞ } einpunktig, da zusammenhängend; dies ist Alternative 1. Gibt es nun x1 ∈ ω+ (x) \ E, so ist dieses x1 Anfangspunkt eines vollständigen Orbits γ (z) ⊂ ω+ (x), da diese Menge invariant ist. ω+ (z) ist ebenfalls nichtleer; wir nehmen an es gibt ein y ∈ ω+ (z) \ E. Wähle eine Transversale L durch y. Nach Korollar 9.1.6 ist einerseits ω+ (x) ∩ L = {y}, andererseits L ∩ γ+ (z) = ∅, woraus mit Lemma 9.2.1 folgt, dass z ein periodisches Orbit ist. Wie im Beweis von Satz 9.2.2 folgt nun ω+ (x) = γ+ (z); dies ist Alternative 2. ± ∈ Im verbleibenden Fall hat jedes nichtkonstante Orbit γ (z) ⊂ ω+ (x) Grenzwerte x∞  ω+ (x) ∩ E; das ist die dritte Alternative. ± haben, heißen heteroklin, falls Vollständige Orbits, die für t → ±∞ Grenzwerte x∞ − = x + ist, und homoklin im Fall x − = x + . Ist insbesondere ω (x) ∩ E = {x }, x∞ + ∞ ∞ ∞ ∞ so besagt Satz 9.2.4, dass entweder ω+ (x) = {x∞ } ist, oder ω+ (x) zusätzlich nur – möglicherweise mehr als ein – homokline Orbits mit Grenzwert x∞ enthalten kann. Homokline Orbits kann man als Grenzfall periodischer Orbits mit Periode ∞ ansehen. Ist ω+ (x) ∩ E nicht diskret, so kann ω+ (x) ⊂ E gelten, ohne dass x(t) einen Grenzwert besitzt; vgl. Beispiel 2 in Abschn. 8.8.

Beispiel 1. Der Brusselator von Prigogine und Nicolis. Das System . u˙ = a − bu + u2 v − u, v˙ = bu − u2 v,

(9.4)

232

9 Ebene autonome Systeme

wurde vom Nobelpreisträger I. Prigogine zusammen mit dem Mathematiker G. Nicolis verwendet um Mechanismen biologischer Strukturbildung zu erläutern. Hier wollen wir lediglich zeigen, dass dieses System für Parameterwerte b > 1 + a 2 , a > 0, periodische Lösungen besitzt. Sei G = R2 . Zunächst sind sowohl der Standardkegel R2+ als auch dessen Inneres int R2+ positiv invariant, da f1 (0, v) = a > 0 ist, und f2 (u, 0) = bu ≥ 0 für u ≥ 0 gilt, sowie > 0 falls u > 0 ist. Das einzige Equilibrium des Systems ist (u∗ , v∗ ) = (a, b/a) ∈ int R2+ . Die Linearisierung A = f  (u∗ , v∗ ) ergibt die Matrix  A=

 b − 1 a2 . −b −a 2

Es ist also sp A = b − 1 − a 2 > 0 und detA = a 2 > 0. Daher ist das Equilibrium (u∗ , v∗ ) für 1 + a 2 < b < (1 + a)2 eine instabile Spirale und für b > (1 + a)2 ein instabiler Knoten; für b = (1 + a)2 ist es ein falscher Knoten. Da das Equilibrium (u∗ , v∗ ) für b > 1 + a 2 in negativer Zeitrichtung asymptotisch stabil ist, ist die Kugel B¯ r (u∗ , v∗ ) nach Satz 8.1.4 bezüglich der Norm | · |Q negativ invariant, sofern r > 0 klein genug ist und das Vektorfeld f zeigt auf ∂ B¯ r (u∗ , v∗ ) bezüglich der Norm | · |Q strikt nach außen. Wir können deshalb den Schluss ziehen, dass im Fall b > 1 + a 2 keine nichttriviale Lösung gegen dieses Equilibrium konvergiert. Man beachte außerdem, dass die instabile Mannigfaltigkeit zweidimensional ist, also eine Umgebung des Equilibriums (u∗ , v∗ ) enthält (vgl. auch Kap. 10). Um die Existenz einer periodischen Lösung zu zeigen, konstruieren wir zunächst eine positiv invariante Menge K = {(u, v) ∈ R2+ : u + v ≤ α, v − u ≤ β}, mit α, β ≥ 0 wie folgt; vgl. Abb. 9.2. Sei (u, v) ∈ ∂K mit u + v = α; dann ist y1 = [1, 1]T ein Normalenvektor in diesen Punkten, und es gilt (f (u, v)|y1 ) = a − u ≤ 0, sofern u ≥ a ist. Gilt andererseits (u, v) ∈ ∂K mit v − u = β, so sollte u ≤ a gelten. Dann ist in diesem Fall y2 = [−1, 1]T ein Normalenvektor, und es gilt (f (u, v)|y2 ) = (u−a)+2u(b −uv) ≤ 2u(b−uv) ≤ 0, sofern b ≤ uv ist. Weiter gilt (f (u, v)|y2 ) ≤ u−a+2bu = (1+2b)u−a ≤ 0, falls u ≤ a/(1 + 2b) gilt. Ist v = u + β, so gilt uv ≥ b, falls u ≥ b/β. Dies führt auf die Bedingung b/β ≤ a/(1 + 2b). Wählt man nun zunächst β so groß, dass β ≥ b(1 + 2b)/a ist, und dann α = 2a + β, so ist K ⊂ G positiv invariant. Da K ⊂ G kompakt ist, folgt die Beschränktheit aller Lösungen, die in K starten. Deren Limesmengen sind in K \{(u∗ , v∗ )} enthalten, also gilt nach Satz 9.2.2, dass ω+ (x) ⊂ K ein periodisches Orbit ist. Dieses bildet eine geschlossene doppelpunktfreie C 1 -Kurve, welche die Ebene in ein Innengebiet Gi und ein Außengebiet Ga zerteilt. Wir werden später sehen, dass das Innengebiet Gi das

9.2 Poincaré-Bendixson-Theorie

233 v

v 5 4

4

3

3

2

2

1

1 1

2

3

4

5

u

1

2

3

4

5

u

Abb. 9.2 Brusselator mit a = 1, b = 1, bzw. b = 3

Equilibrium enthält, die periodische Lösung also das Equilibrium umkreist. Man beachte auch, dass die positive Invarianz von K für β → ∞ globale Existenz nach rechts, aller in R2+ startenden Lösungen ergibt.

Beispiel 2. Ein homoklines Orbit; vgl. Abb. 9.3. Das System .

x˙ = x + xy − (x + y)(x 2 + y 2 )1/2 , y˙ = y − x 2 + (x − y)(x 2 + y 2 )1/2 ,

(9.5)

lautet in Polarkoordinaten r˙ = r(1 − r),

φ˙ = r(1 − cos φ).

Es besitzt genau zwei Equilibria, (0, 0) ist ein instabiler echter Knoten, und (1, 0) hat den stabilen Eigenwert −1 mit Eigenvektor e1 , und den Eigenwert 0 mit Eigenvektor e2 . Der Einheitskreis bildet ein homoklines Orbit. Weitere homokline Orbits können wegen der Monotonie der Funktion r(t) für r(0) ∈ / {0, 1} nicht existieren. Ebenso sieht man, dass es keine periodischen Orbits gibt. Aus Satz 9.2.4 folgt daher, dass ω+ (x0 , y0 ) für jeden Startwert (x0 , y0 ) = (0, 0) entweder nur aus dem Equilibrium (1, 0) besteht oder ˙ zusätzlich aus dem homoklinen Orbit. Letzteres ist allerdings nicht der Fall, da φ(t) >0 gilt, solange φ(t) = 2kπ, k ∈ Z. Somit konvergieren alle Lösungen mit Anfangswert = (0, 0) für t → ∞ gegen das Equilibrium (1, 0). Es ist daher ein globaler Attraktor in R2 \ {(0, 0)}, aber aufgrund des homoklinen Orbits ist (1, 0) instabil.

234

9 Ebene autonome Systeme

Abb. 9.3 Ein homoklines Orbit

y 2 1

2

1

1

2

x

1 2

9.3

Periodische Lösungen

In diesem Abschnitt wollen wir uns mit Kriterien für Existenz oder Nichtexistenz periodischer Lösungen für (9.1) befassen, die auf der Poincaré-Bendixson-Theorie beruhen, aber auch andere Argumente verwenden. Abgesehen von gradientenartigen Systemen, die nach Satz 8.6.2 in keiner Dimension nichttriviale periodische Lösungen besitzen, ist das bekannteste Kriterium für Nichtexistenz das Negativ-Kriterium von Bendixson, welches wir nun beweisen. Satz 9.3.1. Sei G einfach zusammenhängend, ρ ∈ C 1 (G; R), f ∈ C 1 (G; R2 ) und es gelte: Zu jeder offenen Teilmenge ∅ = U ⊂ G gibt es eine offene Teilmenge ∅ = V ⊂ U mit (N )

div(ρ(x)f (x)) > 0,

für alle x ∈ V .

Dann besitzt (9.1) keine nichttrivialen periodischen Lösungen in G. Beweis. Zunächst beachte man, dass die Voraussetzung (N ) bereits die Eigenschaft div(ρ(x)f (x)) ≥ 0 für alle x ∈ G nach sich zieht. Gäbe es nämlich ein x0 ∈ G mit div(ρ(x0 )f (x0 )) < 0, so wäre die Menge U := {x ∈ G : div(ρ(x)f (x)) < 0} ⊂ G nichtleer und aus Stetigkeitsgründen offen. Nach Voraussetzung (N ) existiert eine nichtleere Menge V ⊂ U , so dass div(ρ(x)f (x)) > 0 für alle x ∈ V ⊂ U gilt, ein Widerspruch. Angenommen, es gäbe eine nichtkonstante periodische Lösung von (9.1) in G. Es sei = γ+ (x) das Orbit dieser periodischen Lösung; berandet nach dem Jordanschen

9.3 Periodische Lösungen

235

Kurvensatz das Innengebiet Gi von . Da G einfach zusammenhängend ist, gilt Gi ⊂ G. Da der Rand wenigstens aus C 1 ist, lässt sich der Gaußsche Integralsatz auf Gi anwenden. Es gilt daher nach (N )   0< div(ρ(x)f (x))dx = ρ(x)(f (x)|ν(x))d , Gi



wobei ν(x) das Feld der äußeren Normalen an bezeichnet. Nun ist das Vektorfeld f (x) tangential an , da das Orbit einer Lösung von (9.1) ist, also gilt (f (x)|ν(x)) = 0 für alle x ∈ . Daher haben wir einen Widerspruch erhalten, d. h. (9.1) besitzt keine echte periodische Lösung.  Beispiel 1. Als einfaches Beispiel betrachten wir die nichtlineare Schwingungsgleichung u¨ + h(u)u˙ + g(u) = 0. Dabei seien g und h stetig differenzierbar auf R. Mit x = (x1 , x2 ) = (u, u) ˙ ist dieses Problem äquivalent zu (9.1), wobei f (x) = [x2 , −h(x1 )x2 − g(x1 )]T ist. Equilibria sind die Punkte (u∗ , 0) mit g(u∗ ) = 0. Nun ist div f (x) = −h(x1 ) < 0, sofern die Dämpfung h(u) für alle u positiv ist. Satz 9.3.1 impliziert mit ρ ≡ −1, dass es keine nichttrivialen periodischen Lösungen geben kann. Beispiel 2. Der Brusselator. Wir hatten im vorhergehenden Abschnitt gesehen, dass der Brusselator für b > 1 + a 2 mindestens eine echte periodische Lösung besitzt. Das Negativkriterium von Bendixson zeigt andererseits, dass es für b ≤ 1 + a 2 keine echten periodischen Lösungen geben kann. Denn es gilt div(ρ(x)f (x)) < 0,

x ∈ int R2+ , u = a,

1

wobei ρ(x) = u−2 e2( a −a)(u+v) , x = [u, v]T , ist; vgl. Übung 9.9. Daher ist das Equilibrium (a, b/a) nach dem Satz von Poincaré-Bendixson für b ≤ 1 + a 2 global attraktiv in R2+ und für b < 1 + a 2 sogar global asymptotisch stabil. Ein weiteres negatives Kriterium, dass sich insbesondere auf Hamiltonsche Systeme (H )

q˙ = ∂p H (q, p),

p˙ = −∂q H (q, p),

anwenden lässt, ist komplementär zu gradientenartigen Systemen. Man beachte, dass im Fall H ∈ C 2 die Identität div[∂p H (q, p), −∂q H (q, p)]T = 0 gilt.

236

9 Ebene autonome Systeme

˙ ≡ 0 auf G.  Satz 9.3.2. Sei  ∈ C 1 (G; R) ein erstes Integral für (9.1), d. h. es gilt  sei auf keiner offenen Teilmenge U von G konstant. Dann besitzt (9.1) keinen Grenzzyklus in G. Man beachte, dass dieser Satz keine Aussagen über periodische Lösungen macht, sondern nur über Grenzzyklen. Der harmonische Oszillator x+x ¨ = 0 hat nur periodische Lösungen, aber keinen Grenzzyklus. Beweis. Angenommen, = ω+ (x0 ) ⊂ G wäre ein Grenzzyklus; setze x(t) := x(t, x0 ). Sei K ⊂ G eine kompakte Umgebung von , die kein Equilibrium enthält. Da dist(x(t), ) → 0 für t → ∞ gilt, ist x(t) ∈ K für t ≥ t0 , sofern t0 groß genug gewählt ist. Wähle eine Transversale L durch einen Punkt y ∈ , und sei x(t1 ), x(t2 ) ∈ L mit t2 > t1 ≥ t0 zwei aufeinanderfolgenden Schnittpunkte der Lösung x(t) mit L. Definiere D als den Bereich der durch , die Transversale L und durch den Kurvenbogen x[t1 , t2 ] berandet wird. Dann ist D ⊂ K kompakt und positiv invariant für (9.1). Nach dem Satz von Poincaré-Bendixson haben alle Lösungen, die in D starten, den Grenzzyklus als Limesmenge. Da  entlang Lösungen konstant ist, gilt nun (x) = (y) für alle x ∈ D; da aber int D = ∅ ist, ergibt dies einen Widerspruch zur Annahme, dass  auf keiner offenen Menge konstant ist.  Das Argument im Beweis von Satz 9.3.2 zeigt, dass ein Grenzzyklus wenigstens “einseitig“ als Menge asymptotisch stabil ist. Ein positives Kriterium für die Existenz eines Grenzzyklus haben wir bereits im Beispiel des Brusselators kennengelernt. Wir formulieren es allgemeiner als. Satz 9.3.3. Sei f ∈ C 1 (G; R2 ), K ⊂ G kompakt und positiv invariant, und gelte K ∩ E = {x∗ } mit Re σ (f  (x∗ )) > 0. Dann besitzt (9.1) mindestens einen Grenzzyklus in K. Beweis. Da x∗ in negativer Zeitrichtung asymptotisch stabil ist, ist die Kugel B¯ r (x∗ ) bzgl. der Norm | · |Q aus Satz 8.1.4 negativ invariant, das Vektorfeld f zeigt auf ∂Br (x∗ ) bezüglich der Norm | · |Q strikt nach außen, sofern r > 0 hinreichend klein ist. Daher ist die Menge D := K \ Br (x∗ ) positiv invariant und auf ∂Br (x∗ ) startende Lösungen sind nicht periodisch. Satz 9.2.2 impliziert die Behauptung. 

9.4

Lienard-Gleichung

Lienard-Gleichung nennt man eine Gleichung der Form (L)

x¨ + h(x)x˙ + g(x) = 0.

9.4 Lienard-Gleichung

237

Dabei sind die h, g : R → R aus C 1 . Wir setzen   x h(s)ds, G(x) = H (x) = 0

x

g(s)ds,

x ∈ R.

0

Die auf den ersten Blick unkonventionelle Transformation y = x˙ + H (x) überführt (L) in das System . x˙ = y − H (x), (LT ) y˙ = −g(x). Die Equilibria von (L) bestehen aus Punkten der Form (x∗ , 0), die Equilibria für (LT) sind von der Form (x∗ , H (x∗ )), wobei in beiden Fällen g(x∗ ) = 0 gilt. Typischerweise ist g(x) eine Rückstellkraft, die das System in die triviale Gleichgewichtslage x = 0, also (0, 0) für (LT) bringen will. Daher sind die folgenden Annahmen für g(x) sinnvoll: (G1) g(x)x > 0 für alle x = 0, (G2) G(x) → ∞ für |x| → ∞. Dann ist offenbar E = {(0, 0)}. Als Ljapunov-Funktion wählen wir den Ansatz V (x, y) = 1 2 2 y + G(x). Offenbar ist V aufgrund von (G1) positiv definit, und es gilt V (x, y) → ∞ für x 2 + y 2 → ∞, wegen (G2), also ist V koerziv. Für V˙ ergibt sich die Beziehung 1 V˙ (x, y) = −g(x)H (x) = −(xg(x)) · H (x), x folglich gilt V˙ (x, y) ≤ 0 genau dann, wenn xH (x) ≥ 0 ist. Die Linearisierung von (LT) im Equilibrium (0, 0) ergibt die Matrix  A=

 −h(0) 1 , −g  (0) 0

also sp A = −h(0), und det A = g  (0). Daher ist (0, 0) kein Sattelpunkt des Systems (LT), falls wir zusätzlich g  (0) > 0 annehmen. Der Reibungskoeffizient hat in Anwendungen typischerweise die Eigenschaft (H S)

xH (x) > 0,

x ∈ R, x = 0,

oder er erfüllt (H )

h(0) < 0,

xH (x) > 0,

für alle |x| ≥ a.

Das Verhalten des Systems (LT) ist in diesen Fällen wesentlich verschieden.

238

9 Ebene autonome Systeme

4

x

x

6 4

2

3

2

2 1

1

2

3

x

3

2

2

1

2

1

2

3

x

4 6

4

Abb. 9.4 van der Pol-Oszillator mit μ = 1 und μ = 3

Wir setzen zunächst (HS) voraus, d. h. es liegt stets Dämpfung vor. Dann gilt V˙ ≤ 0 auf R2 , also ist (0, 0) nach Satz 8.3.3 stabil. Alle Lösungen existieren global und sind beschränkt, da V koerziv ist. Nun ist V˙ (x, y) = 0 genau dann, wenn x = 0 ist. Dann ist aber x˙ = y = 0 mit Ausnahme des Equilibriums (0, 0), daher ist V in diesem Fall eine strikte Ljapunov-Funktion. Also ist das System (LT) gradientenartig, und mit Satz 8.6.2 konvergiert jede Lösung gegen das triviale Equilibrium. Sei nun (H) erfüllt. Dann gilt sp A = −h(0) > 0, also ist das Equilibrium (0, 0) instabil, genauer ein instabiler Knoten oder eine instabile Spirale. Wir wollen Satz 9.3.3 anwenden. Dazu besteht die Hauptarbeit darin, eine kompakte positive invariante Menge zu finden. Dann impliziert Satz 9.3.3 die Existenz eines Grenzzyklus. Zunächst sei bemerkt, dass das Vektorfeld f (x, y) = [y − H (x), −g(x)]T für x = 0 horizontal ist, es ist für y > 0 nach rechts und für y < 0 nach links gerichtet. Für x = a > 0 gilt H (a) > 0 und g(a) > 0, also liegt f (a, y) im 4. Quadranten falls y > H (a) und im 3. Quadranten für y < H (a). Analog gilt für x = −a < 0 H (−a) < 0 und g(−a) < 0, d. h. f (−a, y) liegt im 1. Quadranten für y > H (−a) und im 2. Quadranten wenn y < H (−a) ist. Damit zeigt das Vektorfeld in den vertikalen Streifen −a < x < a hinein, wenn x = a und y < H (a) bzw. x = −a und y > H (−a) gelten, ansonsten zeigt es aus dem Streifen hinaus. (i) Wir setzen c0 = sup |g(x)|, |x|≤a

c1 = sup |H (x)|, |x|≤a

fixieren ein R > c1 , und betrachten die in (0, R) startende Lösung von (LT). Aufgrund von 0 ≥ y(t) ˙ ≥ −c0 folgt R ≥ y(t) ≥ R − c0 t, für t ≥ 0, jedenfalls solange x(t) ≤ a gilt. Daher ist y(t) ≥ c1 , solange t ≤ t∗ := (R − c1 )/c0 ist. Andererseits gilt x(t) ˙ ≥ y(t)−c1 ≥ R −c1 −c0 t, solange x(t) ≤ a ist, und für solche t ist x(t) ≥ (R − c1 )t − c0 t 2 /2. Die rechte Seite dieser Ungleichung hat für t = t∗ ein Maximum, dessen Wert (R − c1 )2 /(2c0 ) beträgt. Gilt daher a < (R − c1 )2 /(2c0 ), so erreicht x(t) nach dem Zwischenwertsatz den Wert a für ein t = t1 (R) ∈ (0, t∗ ).

9.4 Lienard-Gleichung

239

Setzt man nun z = t1 (R)/(R − c1 ), so folgt a/(R − c1 )2 ≥ z − c0 z2 /2, und mit z ≤ t∗ /(R − c1 ) = 1/c0 gilt daher t1 (R)/(R − c1 ) → 0 mit R → ∞. Deshalb gibt es zu jedem η > 0 ein R(η) > c1 mit t1 (R) ≤ η(R − c1 ) für alle R ≥ R(η). Es folgt R ≥ y(t1 (R)) ≥ R − c0 t1 (R) ≥ R − ηc0 (R − c1 ),

für R ≥ R(η).

Aus dieser Abschätzung folgt leicht R ≥ y(t1 (R)) > c1 ≥ H (a), falls η ∈ (0, 1/c0 ) gilt. Die Lösung bleibt also oberhalb der Schaltkurve y = H (x). Das gleiche Argument lässt sich auf die in (0, −R) startende Lösung anwenden, und ebenso gilt es für negative Zeiten. Diese Lösungen für R = R(η) liefern den oberen und unteren Rand der gesuchten Menge K. (ii) Als nächstes betrachten wir die Lösung mit Anfangswert (x(0), y(0)) = (a, R), R > c1 . Diese startet in den Bereich x ≥ a hinein. Dort ist V eine Ljapunov-Funktion, also ist ϕ(t) := V (x(t), y(t)) ≤ V (a, R). Wir behaupten, dass es ein erstes t2 (R) > 0 gibt mit x(t2 ) = a, die Lösung kehrt also in den Streifen |x| ≤ a zurück. Wäre dies nicht der Fall, so würde x(t) > a für alle Zeiten gelten, die Lösung ist aber beschränkt, besitzt daher eine nichttriviale Limesmenge, welche nach dem Satz von PoincaréBendixson ein periodisches Orbit sein müsste. Dies kann aber nicht sein, da y(t) in x ≥ a streng fallend ist. Daher gibt es dieses erste t2 (R) mit x(t) > a in (0, t2 (R)) und x(t2 (R)) = a. ˙ 2 (R)) ≤ 0. Wir wollen (iii) Offenbar muss y(t2 (R)) ≤ H (a) gelten, aufgrund von x(t y(t2 (R)) ≥ −R + δ zeigen. Allerdings benötigen wir dafür die folgende Zusatzannahme: (H  ) lim|x|→∞ |H (x)| =: H∞ > 0. Nun gilt  t2 1 1 y(t2 )2 − R 2 = ϕ(t2 ) − ϕ(0) = ϕ(t)dt ˙ 2 2 0  t2  =− g(x(t))H (x(t))dt = − 0

R

H (x(y))dy. y(t2 )

Die Zusatzannahme (H  ) in Verbindung mit (H) ergibt H (x) ≥ δ0 für x ≥ a. Daraus folgt  y(t2 )2 − R 2 = −2

R y(t2 )

H (x(y))dy ≤ −2δ0 (R − y(t2 )),

240

9 Ebene autonome Systeme

also y(t2 ) ≥ −R + 2δ0 . Wählt man also δ < 2δ0 so folgt die Behauptung. Analog geht man an der linken Seite des Streifens vor. (iv) Die kompakte Menge ist nun die von diesen 4 Lösungen und 4 vertikalen Segmenten berandete Menge; vgl. Abb. 9.4. Man beachte, dass auf diesen Segmenten, also z. B. S1 = {(a, y) : R ≥ y ≥ x(t1 (R))}, das Vektorfeld f nach K hinein zeigt, da dort y > H (a) gilt. Die Konstruktion ist abgeschlossen, und Satz 9.3.3 ergibt das folgende Resultat: Satz 9.4.1. Es seien g, h ∈ C 1 (R; R) mit den folgenden Eigenschaften:. (G0 )

g  (0) > 0,

xg(x) > 0 für alle x = 0,

(H0 )

h(0) < 0,

xH (x) > 0 für alle |x| > a,

lim G(x) = ∞.

|x|→∞

lim|x|→∞ |H (x)| > 0.

Dann besitzt die Lienard-Gleichung (L) mindestens einen Grenzzyklus. Für g(x) = x und h(x) = μ(x 2 − 1) (μ > 0) heißt (L) van-der-Pol-Gleichung. Offensichtlich sind die Voraussetzungen (G0 ) und (H0 ) in diesem Fall erfüllt.

9.5

Biochemische Oszillationen

Differentialgleichungen der folgenden Form treten in der Modellierung gewisser biochemischer Systeme auf. u˙ = ν − f (u, v),

(9.6)

v˙ = ην − μv + f (u, v),

wobei ν, μ, η > 0 Konstanten sind, und f ∈ C 1 (R2 ; R) die folgenden Eigenschaften hat: ∂u f (u, v) > 0, f (0, v) ≤ 0,

∂v f (u, v) > 0,

u, v > 0;

f (u, 0) ≥ 0,

u, v ≥ 0.

(9.7)

Da nach Voraussetzung f lokal Lipschitz ist, erzeugt (9.6) einen lokalen Fluss in R2 . Die zweite Bedingung in (9.7) stellt sicher, dass der Standardkegel R2+ positiv invariant ist. Denn ist u = 0, so folgt u˙ = ν − f (0, v) > 0, und ebenso impliziert v = 0 die Ungleichung v˙ = ην + f (u, 0) > 0, das Positivitätskriterium ist also erfüllt. Um nun globale Existenz der Lösungen nach rechts zu zeigen, genügt es, Anfangswerte u0 > 0, v0 > 0 zu betrachten, da jede auf dem Rand von R2+ startende Lösung sofort ins Innere des Standardkegels strebt. Wir konstruieren nun für 0 < ε < ην/μ und R > 0 eine Familie von Mengen Dε,R ⊂ R2+ wie folgt; man fertige dazu eine Skizze an. Zunächst sei

9.5 Biochemische Oszillationen

241

uε als Lösung von ν = f (u, ε) definiert. Dazu nehmen wir ν < limu→∞ f (u, v) für jedes v > 0 an. Da f (0, ε) ≤ 0 und f (·, ε) streng wachsend ist, existiert uε und ist eindeutig bestimmt. Beginne mit der horizontalen Geraden (u, ε) für 0 ≤ u ≤ R und R ≥ uε . Auf dieser Strecke ist das Vektorfeld (ν − f (u, v), ην − μv + f (u, v)) nach oben gerichtet. Dann folgen wir der Vertikalen (R, v) von v = ε bis v = v∗ = (1 + η)ν/μ. Auf Grund der Monotonie von f gilt auf dieser Strecke ν − f (u, v) ≤ ν − f (uε , ε), also zeigt das Vektorfeld nach links. Danach folgen wir der Geraden u + v = c, mit c = R + (1 + η)ν/μ bis zum Schnittpunkt mit der Ordinate, also (0, c). Durch Addition der Komponenten des Vektorfeldes erhält man auf dieser Strecke (1 + η)ν − μv ≤ 0, da hier v ≥ v∗ gilt. Also zeigt das Vektorfeld auch auf dieser Strecke in Dε,R hinein. Schließlich folgt man der Vertikalen von (0, c) zurück zum Ausgangspunkt. Auf diese Weise haben wir beschränkte, konvexe und abgeschlossene Teilmengen von R2+ konstruiert, die positiv invariant für (9.6) sind. Durch geeignete Wahl von ε > 0 und R > 0 kann man nun für den Anfangswert (u0 , v0 ) ∈ Dε,R erreichen, die zugehörige Lösung bleibt in Dε,R , ist also nach rechts beschränkt und existiert damit auch global nach rechts. Als nächstes berechnen wir die Equilibria (u∗ , v∗ ) von (9.6). Durch Addition der Gleichungen ergibt sich v∗ = (1 + η)ν/μ > 0. Das entsprechende u∗ ist Lösung von f (u, v∗ ) = ν. Da f (·, v∗ ) streng wachsend und f (0, v∗ ) ≤ 0 ist, gibt es genau eine Lösung u∗ dieser Gleichung, sofern ν < limu→∞ f (u, v∗ ) gilt. Die Stabilität dieses Equilibriums bestimmt man wie immer mittels Linearisierung A der rechten Seite von (9.6) in (u∗ , v∗ ). Dies führt auf die Matrix   −∂u f (u∗ , v∗ ) −∂v f (u∗ , v∗ ) A= . ∂u f (u∗ , v∗ ) ∂v f (u∗ , v∗ ) − μ Die Determinante von A ist det A = μ∂u f (u∗ , v∗ ) > 0, und für die Spur ergibt sich sp A = ∂v f (u∗ , v∗ ) − ∂u f (u∗ , v∗ ) − μ. Daher ist (u∗ , v∗ ) kein Sattelpunkt, sondern eine (stabile oder instabile) Spirale bzw. ein (stabiler oder instabiler) Knoten. Da jede in einem Punkt (u0 , v0 ) ∈ R2+ startende Lösung in R2+ bleibt und nach rechts beschränkt ist, ist ihre Limesmenge ω+ (u0 , v0 ) nichtleer, und trifft den Rand von R2+ nicht, da sie invariant ist. Gl. (9.6) besitzt genau ein Equilibrium, also gilt nach dem Satz von Poincaré-Bendixson entweder ω+ (u0 , v0 ) = {(u∗ , v∗ )} oder ω+ (u0 , v0 ) ist ein periodisches Orbit. Ein homoklines Orbit kommt hier nicht in Frage, da dann (u∗ , v∗ ) ein Sattelpunkt sein müsste. Insbesondere existiert im Fall sp A > 0 mindestens eine periodische Lösung, und jede Lösung (ausgenommen das Equilibrium (u∗ , v∗ )) konvergiert für t → ∞ gegen eine periodische Lösung. Damit hat das System in diesem Fall oszillatorisches Verhalten. Wir fassen zusammen.

242

9 Ebene autonome Systeme

Satz 9.5.1. Es seien ν, μ, η > 0 Konstanten. Das Vektorfeld f ∈ C 1 (R2 ; R) erfülle die Bedingungen limu→∞ f (u, v) > ν für alle v > 0, und ∂u f (u, v) > 0, f (0, v) ≤ 0,

∂v f (u, v) > 0, f (u, 0) ≥ 0,

u, v > 0;

u, v ≥ 0.

(9.8)

Dann erzeugt das System (9.6) einen globalen Halbfluss auf R2+ . Es existiert genau ein Equilibrium (u∗ , v∗ ) ∈ R2+ , und es ist u∗ , v∗ > 0. Sei γ∗ := ∂v f (u∗ , v∗ ) − ∂u f (u∗ , v∗ ) − μ. Ist γ∗ < 0, so ist (u∗ , v∗ ) asymptotisch stabil, für γ∗ > 0 hingegen instabil. Im Falle γ∗ > 0 konvergiert jede Lösung in R2+ gegen ein periodisches Orbit (natürlich mit Ausnahme des Equilibriums). Wir betrachten zum Abschluss zwei Beispiele. (a) f (u, v) = uv 2 ; dies ist ein vereinfachtes Sel’kov-Modell. Hier haben wir u∗ =

μ2 , (1 + η)2 ν

ν v∗ = (1 + η) , μ

und γ∗ = 2u∗ v∗ − v∗2 − μ = μ

ν2 1−η − (1 + η)2 2 . 1+η μ

Für η ≥ 1 ist γ∗ < 0, aber für η < 1 ist γ∗ > 0 genau dann, wenn μ3 > ν 2 (1 + η)3 /(1 − η) erfüllt ist. Abb. 9.5 zeigt das Phasendiagramm für dieses Modell. (b) f (u, v) = u(1 + v)2 ; diese Funktion tritt im Goldbeter–Lefever-Modell auf. Da f (u, 0) > 0 ist, kann man hier auch den Fall η = 0 betrachten. Dann sind u∗ =

νμ2 , (μ + ν)2

v∗ =

ν , μ

und γ∗ = μ

ν − μ (μ + ν)2 . − μ+ν μ2

Für ν ≤ μ ist hier γ∗ < 0, für ν > μ ist γ∗ > 0 genau dann, wenn (1 + ν/μ)3 < μ(ν/μ − 1) gilt.

9.6 Der Index isolierter Equilibria

2.0

243 v

v

2.0

1.5

1.5

1.0

1.0

0.5

0.5

0.5

1.0

1.5

2.0

u

0.5

1.0

1.5

2.0

2.5

3.0

u

Abb. 9.5 Biochemischer Oszillator

9.6

Der Index isolierter Equilibria

Sei f ∈ C 1 (G; R2 ). Ist a ∈ R2 , a = 0, so definieren wir ϕ(a) als den Winkel den a mit e1 = [1, 0]T bildet. Sei nun ⊂ G \ E eine rechts-orientierte C 1 -Jordan-Kurve, also geschlossen und doppelpunktfrei. Wir definieren den Index von f bzgl. als die Änderung des normierten Winkels ϕ(f2π(x)) bei einem Umlauf längs der Kurve : 1 ind(f, ) := 2π



1 d(ϕ ◦ f ) = 2π



1 0

d ϕ(f (σ (s)))ds, ds

(9.9)

wobei σ : [0, 1] → R2 eine C 1 -Parametrisierung von bezeichnet. Hierbei ist die Funktion x → ϕ(f (x)) als stetig anzusehen, der Winkel ϕ(f (x)) kann also beliebige Werte in R annehmen. Mit anderen Worten: Der Index von f bzgl. ist die Windungszahl der Kurve f ( ) um 0. Lemma 9.6.1. Sei f ∈ C 1 (G; R2 ), ⊂ G \ E eine C 1 -Jordan-Kurve mit Innengebiet  ⊂ G, und sei  ∩ E = ∅. Dann ist ind(f, ) = 0. Beweis. Ist f1 (x) > 0, so ist



f2 (x) ϕ(f (x)) = arctan f1 (x)

 + 2kπ,

wobei k ∈ Z konstant ist, solange f1 (x) > 0 gilt. Es folgt 1 d f2 f1 f˙2 − f˙1 f2 d ϕ(f (σ (s))) = = 2 ds 1 + (f2 /f1 ) ds f1 f12 + f22     1 f1 ∂2 f2 − (∂2 f1 )f2  σ˙ 2 = 2 . (∂1 f1 )f2 − f1 ∂1 f2 −σ˙ 1 f1 + f22

244

9 Ebene autonome Systeme

Diese Darstellung gilt auch in den anderen Bereichen, nicht nur für f1 > 0. Damit folgt 1 ind(f, ) = 2π



1

0

d 1 ϕ(f (σ (s)))ds = ds 2π

 (g(x)|ν(x))dσ,

wobei ν(x) die äußere Normale an = ∂, dσ das Linienelement auf , und g(x) das Vektorfeld   1 f1 ∂2 f2 − (∂2 f1 )f2 g(x) = 2 (x) f1 + f22 (∂1 f1 )f2 − f1 ∂1 f2 bezeichnen. Der Divergenzsatz impliziert daher ind(f, ) =

1 2π

 (g(x)|ν(x))dσ =

1 2π

 div g(x)dx = 0, 

da g aufgrund von f (x) = 0 in  wohldefiniert ist, und wie eine einfache Rechnung zeigt, g ∈ C 1 die Relation div g(x) = 0 in  erfüllt, sofern f ∈ C 2 ist. Das Lemma ist somit für f ∈ C 2 bewiesen. Da sich jedes f ∈ C 1 (G; R2 ) auf kompakten Teilmengen von G gleichmäßig durch C 2 -Funktionen approximieren lässt, ist die Behauptung des Lemmas  auch für f ∈ C 1 richtig. Sei nun f nur noch stetig in G. Approximiere f durch eine Folge von C 1 -Funktionen fk , gleichmäßig auf kompakten Teilmengen von G. Dann gilt ind(fk , ) =

1 1 [ϕ(fk (σ (1))) − ϕ(fk (σ (0)))] → [ϕ(f (σ (1))) − ϕ(f (σ (0)))], 2π 2π

und dies ist unabhängig von der gewählten Folge fk . Damit ist ind(f, ) für alle f ∈ C(G; R2 ) mittels ind(f, ) =

1 [ϕ(f (σ (1))) − ϕ(f (σ (0)))] 2π

definiert, sofern ∩ E = ∅ ist. Hierbei bezeichnet σ : [0, 1] → R2 nach wie vor eine C 1 -Parametrisierung von . Es ist klar, dass ind(f, ) Werte in Z annimmt und stetig von f abhängt. Daher gilt Lemma 9.6.1 auch für f ∈ C(G; R2 ). Schließlich beseitigen wir noch die Glattheitsannahme an . Dazu sei eine stetige Jordan-Kurve mit ∩ E = ∅. Wir approximieren von innen her durch eine Folge von C 1 -Jordan-Kurven k . Ist k ≥ k0 , mit k0 hinreichend groß, so ist ind(f, k ) wohldefiniert, und mit Lemma 9.6.1 unabhängig von k. Daher definieren wir ind(f, ) := ind(f, k ),

k ≥ k0 .

9.6 Der Index isolierter Equilibria

245

Lemma 9.6.1 bleibt so für alle stetigen Jordan-Kurven und f ∈ C(G; R2 ) mit ∩ E = ∅ richtig. Damit können wir nun den Index eines isolierten Equilibriums von (9.1) einführen. Es sei x∗ ∈ E isoliert. Wähle eine Jordan-Kurve ∗ um den Punkt x∗ , derart, dass kein weiteres Equilibrium innerhalb oder auf ∗ liegt, und setze ind(f, x∗ ) := ind(f, ∗ ). Diese Zahl heißt Index des isolierten Equilibriums x∗ von f . Aufgrund von Lemma 9.6.1 ist diese Definition unabhängig von der speziellen Wahl von ∗ . Eine direkte Folgerung aus Lemma 9.6.1 und der Definition des Index ist das Korollar 9.6.2. Sei ⊂ G \ E eine Jordan-Kurve mit Innengebiet  ⊂ G, und sei  ∩ E = {x1 , . . . , xm } endlich. Dann gilt ind(f, ) =

m 

ind(f, xj ).

j =1

Der folgende Satz – Hopfscher Umlaufsatz genannt –, hat wichtige Konsequenzen für periodische Lösungen von (9.1). Satz 9.6.3 (Hopfscher Umlaufsatz). Sei ⊂ G \ E eine C 1 -Jordan-Kurve, und gelte (f (x)|ν(x)) = 0 auf , wobei ν(x) die äußere Normale an bezeichne. Dann gilt ind(f, ) = 1. Ist das Innengebiet von in G enthalten, so gibt es dort mindestens ein Equilibrium. Beweis. Wir können o.B.d.A. |f (x)|2 = 1 auf annehmen, und das Koordinatensystem so wählen, dass im ersten Quadranten liegt, und die x-Achse im Punkt (a, 0) berührt. Sei die Parametrisierung x(s) von über die Bogenlänge s, so orientiert, dass x(s) ˙ = f (x(s)) T gilt, sowie x(0) = (a, 0) = x(l) ist; es gilt dann x(0) ˙ = [1, 0] = e1 . Wir konstruieren ein Vektorfeld g(s, t) auf dem Dreieck T = {(s, t) : 0 ≤ s ≤ t ≤ l} wie folgt: ⎧ ⎪ s ∈ [0, l] ⎨ g(s, s) = f (x(s)), g(0, l) = −e1 = [−1, 0]T ⎪ ⎩ g(s, t) = x(t)−x(s) , s = t. |x(t)−x(s)| Das Vektorfeld g ist auf T stetig und verschwindet in keinem Punkt, denn es gilt |g(s, t)|2 = 1, für alle (s, t) ∈ T . Daher gilt ind(g, ∂T ) = 0 nach Lemma 9.6.1. Die Änderung des Winkels zwischen g(s, s) = f (x(s)) und e1 von 0 nach le := [l, l]T , also ind(f, ), ist daher gleich der Änderung des Winkels entlang der Vertikalen von 0 nach

246

9 Ebene autonome Systeme

le2 plus der Änderung längs der Horizontalen von le2 nach le. Sei θ (s, t) dieser Winkel. Es ist θ (0, 0) = 0 da g(0, 0) = x(0) ˙ = e1 ist. Da im ersten Quadranten liegt, ist 0 ≤ θ (0, t) ≤ π , und θ (0, l) = π . Daher ist die Änderung längs der Vertikalen von (0, 0) nach (0, l) gleich π . Ebenso sieht man, dass längs der Horizontalen von (0, l) nach (l, l) π ≤ θ (s, l) ≤ 2π ist, und θ (l, l) = 2π , da g(l, l) = x(l) ˙ = e1 ist. Daher ist ind(f, ) = 1.  Wir formulieren nun die Konsequenzen des Hopfschen Umlaufsatzes für das zweidimensionale autonome System (9.1). Satz 9.6.4. Sei ⊂ G ein periodisches Orbit von (9.1) und sei ihr Innengebiet  ⊂ G. Dann gelten die folgenden Aussagen: 1. ind(f, ) = 1; 2.  ∩ E = ∅; 3. Ist E diskret, so ist  ∩ E = {x1 , . . . , xm } endlich, und es gilt m 

ind(f, xj ) = 1.

j =1

Insbesondere gibt es im Innengebiet  von mindestens ein Equilibrium. Beweis. 1. Da = γ+ (x) ein periodisches Orbit von (9.1) ist, gilt x(t) ˙ = f (x(t)), d. h. ist C 1 und f (x) ist tangential an , sowie = 0. Der Hopfsche Umlaufsatz ergibt die Behauptung. 2. Lemma 9.6.1 zeigt, dass wenigstens ein Equilibrium von f im Innengebiet  von liegen muss. 3. Es ist E ∩  = E ∩  kompakt. Da E diskret ist, gibt es zu jedem x∗ ∈ E eine Kugel Br∗ (x∗ ) die keine weiteren Equilibria enthält. Da diese Kugeln E ∩ überdecken, genügen bereits endlich viele, d. h. E ∩  ist endlich. Die letzte Behauptung folgt aus dem Hopfschen Umlaufsatz und aus Korollar 9.6.2.  Als nächstes berechnen wir den Index eines nicht ausgearteten Equilibriums. Proposition 9.6.5. Sei f ∈ C 1 (G; R2 ) und sei x∗ ∈ E nicht ausgeartet, es gelte also det f  (x∗ ) = 0. Dann ist ind(f, x∗ ) = sgn det f  (x∗ ). Insbesondere gilt ind(f, x∗ ) = −1 genau dann, wenn x∗ ein Sattelpunkt ist. Für Knoten, Spiralen und Zentren gilt hingegen ind(f, x∗ ) = 1.

9.6 Der Index isolierter Equilibria

247

Beweis. Es sei o.B.d.A. x∗ = 0 und ε > 0 hinreichend klein gegeben. Mit A = f  (0) ist für |x| = r |τ Ax + (1 − τ )f (x)| = |Ax − (1 − τ )(Ax − f (x))| ≥ |Ax| − |Ax − f (x)| ≥ |A−1 |−1 r − εr > 0, sofern r > 0 hinreichend klein ist. Daher ist gτ (x) := τ Ax + (1 − τ )f (x) = 0 auf ∂Br (0). Da die Funktion ψ(τ ) := ind(gτ , ∂Br (0)) stetig ist und Werte in Z hat, folgt ψ(0) = ψ(1), also ind(f, 0) = ind(A·, 0). Daher genügt es die lineare Abbildung Ax zu betrachten. Für das im Beweis von Lemma 9.6.1 definierte Vektorfeld g(x) erhalten wir det A g(x) = |Ax|22



 x1 . x2

Folglich ist für = ∂Br (0) mit ν(x) = r −1 [x1 , x2 ]T r det A ind(A·, 0) = 2π



dσ det A = 2 2π |Ax|2

 |x|2 =1

dσ . |Ax|22

Da ind(A·, 0) eine ganze Zahl ist und stetig in den Einträgen aij von A, ist diese Zahl konstant, solange det A nicht das Vorzeichen wechselt. Ist nun det A > 0 und a11 a22 > 0, so ergibt a12 , a21 → 0 und a11 , a22 → sgn a11 den Index ind(A·, 0) = 1; gilt nun a11 a22 ≤ 0, dann ergibt a11 , a22 → 0 und a12 → sgn a12 , a21 → sgn a21 wiederum ind(A·, 0) = 1. Ebenso argumentiert man im Fall det A < 0, um dann ind(A·, 0) = −1 zu erhalten. Damit ist die Proposition bewiesen.  Eine interessante Folgerung ist Korollar 9.6.6. Sei G ⊂ R2 offen und einfach zusammenhängend, f ∈ C 1 (G; R2 ) und es sei jedes Equilibrium x∗ ∈ E ein Sattelpunkt, es gelte also det f  (x∗ ) < 0. Dann besitzt (9.1) keine periodische Lösung in G. Beweis. Wäre ein periodisches Orbit, so wäre ind (f, ) = 1 nach Satz 9.6.4 Nach Voraussetzung und mit dem Satz über inverse Funktionen ist E diskret, also folgt aus Satz 9.6.4 und Proposition 9.6.5.

248

9 Ebene autonome Systeme

1 = ind(f, ) =

m  j =1

ind(f, xj ) =

m 

(−1) = −m < 0,

j =1



ein Widerspruch. Eine weitere Folgerung beinhaltet die Existenz eines Equilibriums.

Korollar 9.6.7. Sei G ⊂ R2 offen und einfach zusammenhängend, f ∈ C 1 (G; R2 ), und sei ∅ = K ⊂ G kompakt und positiv invariant. Dann besitzt (9.1) mindestens ein Equilibrium in G. Beweis. Sei x0 ∈ K; da K positiv invariant und kompakt ist, ist die Limesmenge ω+ (x0 ) nichtleer. Enthält sie kein Equilibrium, dann ist sie nach dem Satz von Poincaré-Bendixson ein periodisches Orbit. Da G einfach zusammenhängend ist, liegt das Innengebiet dieses Orbits in G. Nach Satz 9.6.4 gibt es dort mindestens ein Equilibrium. 

Übungen 9.1 Die Gleichung x¨ + a x˙ + bx + cx 3 = 0 heißt Duffing-Gleichung. Man zeige: (a) Ist a = 0, so gibt es keine periodische Lösung. (b) Ist a = 0, so gibt es keinen Grenzzyklus. 9.2 Die Gleichung x¨ + μ(x 2 − 1)x˙ + x = 0 heißt van-der-Pol-Gleichung. Man zeige, dass diese Gleichung für μ ≥ 0 mindestens eine periodische Lösung besitzt. 9.3 Man zeige, dass Satz 9.4.1 im Falle g  (0) = 0 richtig bleibt. Tipp: V (x) ist eine Ljapunov-Funktion nahe 0 für den Rückwärtsfluss. 9.4 Die Lienard-Gleichung besitzt genau eine periodische Lösung, falls zusätzlich zu den Voraussetzungen von Satz 9.4.1 die folgenden Bedingungen erfüllt sind: h(x) ist gerade, g(x) ungerade, H (x) < 0 für 0 < x < a, H (x) > 0 für x > a, und H (x) → ∞ wachsend für a < x → ∞. ˙ 9.5 Erfüllt H (x) die Bedingung (H0 ) aus Satz 9.4.1, so besitzt die Gleichung y¨ +H (y)+ y = 0 mindestens eine periodische Lösung. Tipp: Setzen Sie x = −y. ˙ 9.6 Seien f, g ∈ C(G; R2 ), ⊂ G eine Jordan-Kurve, und gelte αf (x) + βg(x) = 0,

für alle x ∈ , α, β ≥ 0, (α, β) = (0, 0).

Dann sind ind(f, ) und ind(g, ) wohldefiniert und es gilt ind(f, ) = ind(g, ). 9.7 Sei ⊂ G ein periodisches Orbit für (9.1), f ∈ C 1 (G; R2 ), und sei x∗ ∈  ⊂ G, dem Innengebiet von , ein Sattelpunkt, also det f  (x∗ ) < 0. Ist die Menge E der Equilibria nicht ausgeartet, so gibt es mindestens drei Equilibria von (9.1) in .

Übungen

249

9.8 Führen sie die Details im Torus-Beispiel aus Abschn. 9.2 aus. Tipp: Approximationssatz von Kronecker. 9.9 Verifizieren Sie die Bedingung div(ρ(x)f (x)) < 0 im Beispiel 2 in Abschn. 9.3. 9.10 Zeigen Sie die Konvergenz der Lösungen in Beispiel 2 aus Abschn. 9.2 mittels der Lojasiewicz-Technik.

Linearisierung und invariante Mannigfaltigkeiten

10

In diesem Kapitel untersuchen wir das Verhalten von Lösungen der autonomen Differentialgleichung z˙ = f (z)

(10.1)

in der Nähe eines Equilibriums. Dazu sei G ⊂ Rn offen, f ∈ C 1 (G; Rn ) und z∗ ∈ G mit f (z∗ ) = 0. Im Weiteren schreiben wir kurz |x| = |x|2 für einen Vektor x ∈ Rn .

10.1

Sattelpunkte autonomer Systeme

Wir nennen z∗ einen Sattelpunkt, falls die Matrix A = f  (z∗ ) ∈ Rn×n keine Eigenwerte auf der imaginären Achse hat, aber jeweils mindestens einen mit positivem und negativem Realteil. Wähle R > 0, sodass BR (z∗ ) ⊂ G gilt. Wir setzen wieder x = z − z∗ , h(x) = f (x + z∗ ) − f  (z∗ )x, x ∈ BR (0) und betrachten das Verhalten der Gleichung x˙ = Ax + h(x)

(10.2)

in der Nähe von x∗ = 0, wobei A = f  (z∗ ). Man beachte, dass nach Konstruktion h ∈ C 1 (BR (0); Rn ) und h(0) = h (0) = 0 gilt. Abb. 10.1 zeigt anschaulich, wie sich das Phasenportrait in der Nähe des Sattelpunktes x∗ = 0 ändert, wenn man vom linearen Problem y˙ = Ay

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_10

(10.3)

251

252

10 Linearisierung und invariante Mannigfaltigkeiten y2

y2

1.0

1.0

0.5

0.5

1.0

0.5

0.5

1.0

y1

1.0

0.5

0.5

0.5

1.0

y1

0.5

1.0

1.0

Abb. 10.1 Linearer und nichtlinearer Sattelpunkt

zum nichtlinearen Problem (10.2) übergeht. Die gesamten Trajektorien werden durch die Nichtlinearität h = h(x) verbogen, um so stärker, je weiter man sich vom Sattelpunkt entfernt. Die topologischen Eigenschaften des Flusses bleiben dabei allerdings erhalten. Dieses Verhalten ist nicht nur an den zweidimensionalen Fall gebunden, wie wir gleich sehen werden. Dazu benötigen wir jedoch noch eine Bezeichnung. Der Morse-Index k ∈ N eines Sattelpunktes z∗ ∈ G von (10.1) wird durch die Anzahl der Eigenwerte von A = f  (z∗ ) mit positivem Realteil (Vielfachheit mitgezählt) definiert. Wir kommen nun zur genauen Beschreibung nichtlinearer Sattelpunkte. Der nachfolgende Satz ist dabei für Equilibria von (10.1) formuliert. Satz 10.1.1. Sei G ⊂ Rn offen, f ∈ C 1 (G; Rn ) und sei z∗ ∈ G ein Sattelpunkt von (10.1). Setze Ms = {y ∈ G : z(t, y) existiert auf R+ und lim z(t, y) = z∗ }, t→∞

und Mu = {y ∈ G : z(t, y) existiert auf R− und lim z(t, y) = z∗ }. t→−∞

Ferner bezeichnen wir mit Xs bzw. Xu die von den stabilen bzw. instabilen Eigenwerten von A = f  (z∗ ) aufgespannten Teilräume des Rn , deren Dimensionen durch dim Xs = n − k und dim Xu = k gegeben sind, wobei k der Morse-Index von z∗ ist. Dann gilt

10.1 Sattelpunkte autonomer Systeme

253

1. Ms bzw. Mu sind C 1 -Mannigfaltigkeiten der Dimension n − k bzw. k, welche durch z∗ verlaufen, d. h. z∗ ∈ Ms ∩ Mu . 2. Die Tangentialräume von Ms bzw. Mu in z∗ sind Xs bzw. Xu ; insbesondere schneiden sich Ms und Mu in z∗ transversal. 3. Die Mannigfaltigkeiten Ms und Mu sind invariant bezüglich (10.1). 4. Es gibt Zahlen 0 < δ ≤ ρ derart, dass für alle y ∈ Bδ (z∗ ) gilt y∈ / Ms "⇒ |z(t, y) − z∗ | > ρ, für mindestens ein t > 0, und y∈ / Mu "⇒ |z(t, y) − z∗ | > ρ, für mindestens ein t < 0. Beweis. Es genügt, alle Behauptungen für die stabile Mannigfaltigkeit Ms zu beweisen, denn durch Zeitumkehr ergeben sich die entsprechenden Aussagen für die instabile Mannigfaltigkeit Mu . Sei Ps die Projektion auf den Teilraum Xs längs Xu , d. h. es gilt R(Ps ) = Xs und N(Ps ) = Xu ; ferner sei Pu = I − Ps . Dann existieren Konstanten M ≥ 1, η > 0, sodass die Abschätzungen |eAt Ps | ≤ Me−ηt und |e−At Pu | ≤ Me−ηt für alle t > 0 gelten. Wir wählen nun r > 0 so klein, dass die Abschätzung |h(x)| ≤

η |x|, 2M

für |x| ≤ r

erfüllt ist und zeigen zunächst, dass Ms die C 1 -Eigenschaft in einer Kugel um z∗ ∈ G besitzt. Dazu betrachten wir die Integralgleichung  u(t) = eAt x + 0

t

 eA(t−s) Ps h(u(s))ds −



eA(t−s) Pu h(u(s))ds,

(10.4)

t

wobei x ∈ Xs ist. Um die Existenz einer Lösung von (10.4) zu sichern, verwenden wir den Satz über implizite Funktionen, den wir aus [27, Theorem 15.1, Corollary 15.1] zitieren. Satz 10.1.2 (über implizite Funktionen). Seien X, Y, Z Banach-Räume, U ⊂ X, V ⊂ Y Umgebungen von x0 ∈ X und y0 ∈ Y , F : U × V → Z stetig, und stetig differenzierbar bezüglich y. Ferner gelte F (x0 , y0 ) = 0 und Fy−1 (x0 , y0 ) ∈ B(Z, Y ). Dann existieren Kugeln Bδ (x0 ) ⊂ U , Bρ (y0 ) ⊂ V und genau eine stetige Abbildung  : Bδ (x0 ) → Bρ (y0 ), sodass (x0 ) = y0 und F (x, (x)) = 0 für alle x ∈ Bδ (x0 ) gilt.

254

10 Linearisierung und invariante Mannigfaltigkeiten

In Bδ (x0 ) × Bρ (y0 ) besitzt die Gleichung F (x, y) = 0 keine weiteren Lösungen. Gilt für ein m ∈ N ∪ {∞, ω} zusätzlich F ∈ C m (U × V), so ist auch  ∈ C m (Bδ (x0 )). Wir definieren einen Banachraum U durch U := {u ∈ C(R+ ; Rn ) : &u&η = sup |u(t)|eηt/2 < ∞}. t≥0

Nach Übung 10.1 ist die Abbildung H : Xs × BrU (0) → U , definiert durch 

t

H (x, u)(t) = u(t) − eAt x −





eA(t−s) Ps h(u(s))ds +

0

eA(t−s) Pu h(u(s))ds

t

stetig differenzierbar bezüglich (x, u) ∈ Xs × BrU (0). Es gilt Dx H (x, u)(t) = −eAt Ps und für v ∈ U ist 

t

Du H (x, u)v(t) = v(t) −

eA(t−s) Ps h (u(s))v(s)ds +

0





eA(t−s) Pu h (u(s))v(s)ds.

t

Insbesondere ist H (0, 0) = 0 und Du H (0, 0) = I , denn nach Voraussetzung gilt h(0) = Funktionenexistieren nun Zahlen δ > 0 und h (0) = 0. Nach dem Satz über implizite  ρ ∈ (0, r), und eine Funktion  ∈ C 1 BδXs (0); BρU (0) , mit H (x, (x)) = 0 für alle x ∈ BδXs (0). Ferner ist (x) die einzige Lösung von H (x, u) = 0 in BρU (0). Differenzieren wir die Gleichung H (x, (x)) = 0 bezüglich x ∈ BδXs (0), so erhalten wir die Identität (Dx H )(x, (x)) + (Du H )(x, (x)) (x) = 0,

x ∈ BδXs (0).

Insbesondere gilt also  (0)(t) = eAt Ps , da (0) = 0 ist. Wir setzen u(t; x) = (x)(t). Dann ist u eine Lösung der Integralgleichung (10.4) und es gilt  u(t, x) = e

At

 x−



e

−As





t

Pu h(u(s, x))ds +

0

eA(t−s) h(u(s, x))ds.

(10.5)

0

Da ferner u(t, x) → 0 für t → +∞ gilt, ist z(t) = z∗ + u(t, x) eine Lösung von (10.1) mit z(0) = z∗ + u(0, x) = z∗ + x − q(x) ∈ Ms . Hierbei ist q(x) durch 



q(x) =

e−As Pu h(u(s, x))ds

0

gegeben, das heißt q(x) ∈ R(Pu ) = Xu und es gilt q  (x) =

 0



e−As Pu h ((x)(s)) (x)(s)ds,

10.1 Sattelpunkte autonomer Systeme

255

also mit h (0) = 0 insbesondere q  (0) = 0. Wir haben damit durch die Abbildung BδXs (0)  x → z∗ + x − q(x) ∈ Rn eine C 1 -Mannigfaltigkeit M∗s ⊂ Ms definiert, die wegen q  (0) = 0 den Raum Xs als Tangentialraum in x = 0 bzw. z = z∗ besitzt. Ist nun z(t) = x(t) + z∗ eine Lösung von (10.1) mit |x(t)| ≤ ρ für alle t ≥ 0 und gilt |x(0)| < δ, dann existiert das Integral 



eA(t−s) Pu h(x(s))ds,

t

denn es gilt die Abschätzung    

∞ t

   eA(t−s) Pu h(x(s))ds  ≤

t



η eη(t−s) ρds = ρ/2. 2

Folglich ist 

t

Pu x(t) = e Pu x(0) + At

eA(t−s) Pu h(x(s))ds

0

  = eAt Pu x(0) +



  e−As Pu h(x(s))ds −

0



eA(t−s) Pu h(x(s))ds,

t

und da die Funktion Pu x(t) nach Voraussetzung beschränkt ist, erhält man notwendigerweise  ∞ e−As Pu h(x(s))ds = 0. Pu x(0) + 0

Daher gilt 

t

x(t) = eAt Ps x(0) + 0

 eA(t−s) Ps h(x(s))ds −



eA(t−s) Pu h(x(s))ds,

t

das heißt x(t) ist eine Lösung von (10.4) in Bρ (0). Mittels der Eindeutigkeit der Lösungen von (10.4) in BU C(R+ ; Rn ), dem Raum der beschränkten gleichmäßig stetigen Funktionen auf R+ , erhalten wir nun x(t) = u(t, Ps x(0)) und daher auch x(0) = u(0, Ps x(0)) = Ps x(0) − q(Ps (x(0))), das heißt z(0) ∈ M∗s . Dadurch ist die Mannigfaltigkeit M∗s innerhalb von Ms lokal um z∗ charakterisiert.

256

10 Linearisierung und invariante Mannigfaltigkeiten

Allerdings stimmt es im Allgemeinen nicht, dass Ms ∩ B¯ ρ (z∗ ) = M∗s gilt. Man wähle zum Beispiel ein System, welches ein homoklines Orbit besitzt; vgl. Abb. 1.9. Man bezeichnet M∗s auch als die lokale stabile Mannigfaltigkeit, während Ms die globale stabile Mannigfaltigkeit darstellt. Um zu sehen, dass Ms eine C 1 -Mannigfaltigkeit ist, sei y0 ∈ Ms \ {z∗ } beliebig fixiert. Es existiert dann ein t0 > 0 mit der Eigenschaft z(t0 , y0 ) =: z0 ∈ M∗s . Folglich gilt z0 = x0 − q(x0 ) + z∗ , mit einem x0 ∈ BδXs (0). Die Abbildung y → z(t0 , y) ist ein Diffeomorphismus einer Umgebung von y0 auf eine Umgebung von z0 , mit der Inversen y → z(−t0 , y). Damit ist die Komposition g(x) := z(−t0 , x − q(x) + z∗ ) ein Homöomorphismus einer Umgebung von x0 ∈ Xs auf eine Teilmenge von Ms , welche y0 enthält. Definiert man die Topologie durch die von solchen Umgebungen erzeugte, so  wird Ms zu einer C 1 -Mannigfaltigkeit. Man beachte, dass im Allgemeinen die Topologie auf Ms nicht die von Rn induzierte ist, vgl. Abb. 1.9. Gilt hingegen Ms ∩ Mu = {z∗ }, dann stimmt die Topologie auf Ms mit der von Rn induzierten überein, vgl. Übung 10.2. Der Beweis von Satz 10.1.1 zeigt, dass die Konvergenzrate der Lösungen auf Ms bzw. Mu für t → +∞ bzw t → −∞ exponentiell ist.

10.2

Ebene Wellen für Reaktions-Diffusionsgleichungen

In der Biologie, der Chemie und in der Biochemie spielen Wechselwirkungen zwischen Wachstum bzw. Reaktion und Transportprozessen wie Konvektion oder Diffusion eine zentrale Rolle. Ein typisches Beispiel für die Modellierung von ReaktionsDiffusionsprozessen bildet das System partieller Differentialgleichungen ∂s u(s, ξ ) = D

ξ u(s, ξ ) + f (u(s, ξ )),

s ∈ R, ξ ∈ RN ,

(10.6)

wobei D eine symmetrische positiv definite Rn×n -Matrix, die Diffusionsmatrix ist, ξ = N 2 N j =1 ∂ξj den Laplace-Operator in den Raumvariablen ξ ∈ R bezeichnet, und f ∈ C 1 (Rn ; Rn ) die Reaktionen repräsentiert. Eine ebene Welle für (10.6) ist eine Lösung der Form u(s, ξ ) = x((k|ξ ) − cs),

s ∈ R, ξ ∈ RN ,

(10.7)

wobei k ∈ RN , |k|2 = 1, den Wellenvektor, also die Ausbreitungsrichtung der Welle beschreibt, und c ≥ 0 die Ausbreitungsgeschwindigkeit bedeutet. Setzt man ein solches u in (10.6) ein, so sieht man dass u genau dann eine Lösung von (10.6) ist, wenn x die gewöhnliche Differentialgleichung D x(t) ¨ + cx(t) ˙ + f (x(t)) = 0,

t ∈ R,

(10.8)

10.2 Ebene Wellen für Reaktions-Diffusionsgleichungen

257

löst. Jede globale Lösung von (10.8) ergibt damit eine ebene Welle für (10.6). Aufgrund der Rotationssymmetrie des Laplace-Operators kann hier der Wellenvektor k beliebig gewählt werden. Es ist offensichtlich, dass Equilibria x∗ von (10.8), also Lösungen der algebraischen Gleichung f (x) = 0, genau den zeitlich und räumlich konstanten Lösungen von (10.6) entsprechen, und Lösungen von (10.8) mit c = 0 sind die ebenen stationären Wellen, solche mit c > 0 die ebenen fortschreitenden Wellen von (10.6). Von Interesse sind nun bestimmte beschränkte Wellen, also beschränkte globale Lösungen von (10.8), insbesondere • Wellenfronten: Dies sind genau die heteroklinen Orbits von (10.8), also Lösungen x(t) derart, dass ± , lim x(t) = x∞

t→±∞

− + x∞ = x∞

existieren; • Pulswellen: Dies sind genau die homoklinen Orbits von (10.8), also Lösungen x(t) derart, dass lim x(t) = x∞

t→±∞

existiert; • Wellenzüge: Dies sind genau die periodischen Orbits von (10.8), also τ -periodische Lösungen x(t), mit minimaler Periode τ > 0. Daher sind solche Lösungen von (10.8) besonders relevant. Häufig kommen weitere Einschränkungen hinzu, wie Positivität, falls der Vektor u Konzentrationen oder Populationsdichten beschreibt. Betrachten wir ein berühmtes Beispiel. Beispiel. Die Fisher-Gleichung (Kolmogoroff, Piscounoff 1937). Gegeben sei die FisherGleichung ∂s u =

u + f (u),

(10.9)

wobei f ∈ C 1 (R; R), f (0) = f (1) = 0, f (τ ) > 0 für τ ∈ (0, 1), f  (0) > 0, f  (1) < 0. Ein typisches Beispiel für f ist die Funktion f (τ ) = τ (1 − τ ); in diesem Fall beschreibt (10.9) die Ausbreitung einer Population, die logistisch wächst, mittels Diffusion. Die Variable u bedeutet die Größe der Population in x zur Zeit t. Wir suchen eine Wellenfront von 1 nach 0, also eine streng fallende Funktion z(t), die das Problem z¨ + c˙z + f (z) = 0,

mit

lim z(t) = 1, lim z(t) = 0

t→−∞

t→∞

löst. In anderen Worten, gesucht ist ein c ∈ R+ , sodass das System erster Ordnung

258

10 Linearisierung und invariante Mannigfaltigkeiten

Abb. 10.2 Heteroklines Orbit für die Fisher-Gleichung

w 0.2

0.4

0.6

0.8

1.0

z

0.05 0.10 0.15 0.20

z˙ = w, w˙ = −cw − f (z),

(10.10)

ein heteroklines Orbit besitzt, welches die Equilibria (1, 0) und (0, 0) miteinander verbindet; vgl. Abb. 10.2. Zunächst schauen wir uns die Linearisierungen A(x, y) von (10.10) in den beiden Equilibria an. Es gilt  0 1 , A(0, 0) = −f  (0) −c 

also sp A(0, 0) = −c und det A(0, 0) = f  (0) > 0. Folglich ist (0, 0) nach dem Prinzip der linearisierten Stabilität0 für c > 0 stets asymptotisch stabil; genauer 0 eine  (0) und ein stabiler Knoten für c ≥ 2 f  (0). f stabile Spirale für 0 < c < 2 0 Daher ist c ≥ c∗ := 2 f  (0) notwendig für die Existenz einer Wellenfront für (10.9). Linearisierung von (10.10) in (1, 0) ergibt 

 0 1 A(1, 0) = , −f  (1) −c also sp A(1, 0) = −c < 0 und det A(1, 0) = f  (1) < 0, das heißt (1, 0) ist stets ein Sattelpunkt. Nach Satz 10.1.1 existiert die instabile Mannigfaltigkeit Mu , die in (1, 0) gerade den Tangentialraum Xu besitzt, der vom positiven Eigenwert von A(1, 0) aufgespannt wird; es gilt 1 Xu = span{[1, c2 /4 − f  (1) − c/2]T }.

10.3 Das Hartman-Grobman Theorem

259

Da beide Komponenten des Eigenvektors streng positiv sind, liegt der nach links unten gerichtete Teil der instabilen Mannigfaltigkeit Mu lokal im Dreieck G, das von den Ecken (0, 0), (1, 0) und (1, −α) aufgespannt wird. Aus Übung 10.3 folgt, dass G positiv invariant für (10.10) ist, falls man α > 0 geeignet wählt. Daraus folgt, dass der untere Teil der instabilen Mannigfaltigkeit das Dreieck G nicht mehr verlässt. Wegen z˙ ≤ 0 existieren keine periodischen Lösungen von (10.10) in G. Aus Satz 9.2.4 folgt, dass die instabile Mannigfaltigkeit Mu das gesuchte heterokline Orbit ist, denn es gibt keine weiteren Equilibria in int G. Dieses Resultat war damals eine große Überraschung. Um zu verstehen warum, nehmen wir jetzt an, dass f ein Potential besitzt, also f = ∇φ, wobei φ ∈ C 2 (Rn ; R) ist. Man beachte, dass wir in diesem Fall für D = I genau die Gleichung für das gedämpfte ˙ x) ˙ + φ(x) eine LjapunovTeilchen im Potentialfeld erhalten! Dann ist V (x, x) ˙ = 12 (D x| Funktion für (10.8), die für c > 0 sogar strikt ist. Daher kann es dann keine echten periodischen Lösungen und auch keine homoklinen Orbits geben, also keine fortschreitenden Wellenzüge und Pulse für (10.6). Ist ferner f linear, also f (x) = Ax, A symmetrisch, so gibt es überhaupt keine beschränkten Lösungen von (10.8), insbesondere auch keine Wellenfronten. Daher sind Diffusionswellen ein speziell nichtlineares Phänomen! Erfüllt das Potential nun zusätzlich die Lojasiewicz-Ungleichung, dann impliziert Korollar 8.8.3, dass jede beschränkte Lösung, die auf einer instabilen Mannigfaltigkeit eines Sattelpunktes von (10.8) liegt, ein heteroklines Orbit für (10.8) ist, also eine Wellenfront für (10.6) darstellt.

10.3

Das Hartman-Grobman Theorem

Sei z∗ ∈ G ein Sattelpunkt für (10.1) und A := f  (z∗ ). Nach Satz 10.1.1 verhält sich der von (10.2) erzeugte lokale Fluss in einer Umgebung BR (0) ⊂ Rn wie der lineare Fluss, welcher durch die DGL x˙ = Ax erzeugt wird. Sei nun zunächst r : Rn → Rn beschränkt und global Lipschitz mit r(0) = 0. Wir betrachten das Anfangswertproblem x˙ = Ax + r(x),

t ∈ R,

x(0) = y,

(10.11)

wobei σ (A) ∩ iR = ∅ und σ (A) ∩ C± = ∅ (wir nennen A ∈ Rn×n dann hyperbolisch). Dieses Problem erzeugt nach den Resultaten aus Kap. 2 einen globalen Fluss auf Rn , den wir mit x(t; y) bezeichnen. Im Weiteren werden wir zeigen, dass es eine konjugierende Abbildung  : Rn → Rn stetig und bijektiv, also einen Homeomorphismus gibt, mit der Eigenschaft (0) = 0 und x(t; (y)) = (eAt y),

t ∈ R, y ∈ Rn .

260

10 Linearisierung und invariante Mannigfaltigkeiten

Mit anderen Worten: Der Fluss verhält sich unter den obigen Voraussetzungen an r global wie der lineare Fluss eAt y. P. Hartman und D. Grobman haben unabhängig voneinander gezeigt, dass ein solches  tatsächlich existiert, sofern die Lipschitz-Konstante η > 0 von r hinreichend klein ist. Satz 10.3.1 (Hartman-Grobman). Sei A ∈ Rn×n hyperbolisch, r : Rn → Rn beschränkt und global Lipschitz mit Lipschitz-Konstante η > 0, r(0) = 0, und sei η > 0 hinreichend klein. Dann gibt es einen Homeomorphismus  : Rn → Rn mit (0) = 0 und x(t; (y)) = (eAt y),

t ∈ R, y ∈ Rn ,

(10.12)

wobei x(t; y) die eindeutige Lösung von (10.11) bezeichnet. Der Homeomorphismus  ist von der Form  = id + g, mit einer Abbildung g ∈ BU C(Rn ; Rn ), und ist in dieser Klasse eindeutig bestimmt. Eine lokale Version dieses Satzes schließt sich am Ende dieses Abschnittes an. Zur Vorbereitung des Beweises von Satz 10.3.1 betrachten wir das lineare Problem x˙ = Ax + f,

t ∈ R,

(10.13)

wobei A hyperbolisch ist und f : R → Rn stetig und beschränkt. Der Greensche Kern GA (t) für (10.13) ist definiert durch . eAt Ps , t > 0, GA (t) := (10.14) −eAt Pu , t < 0. Dabei bezeichnen Ps und Pu wie in Abschn. 10.1 die Projektionen auf den stabilen bzw. instabilen Teilraum von A. Da σ (A)∩iR = ∅ ist, besitzt die homogene Gl. (10.13) mit f = 0 keine beschränkten nichttrivalen Lösungen, also ist die beschränkte Lösung von (10.13) eindeutig bestimmt. Für f ∈ BC(R; Rn ) definieren wir eine Abbildung t → x(t) durch  x(t) =

R

 GA (s)f (t − s)ds =

t −∞

 eA(t−s) Ps f (s)ds −



eA(t−s) Pu f (s)ds,

t

Der Greensche Kern hat die Eigenschaft |GA (t)| ≤ Me−ω|t| ,

t ∈ R \ {0},

mit Konstanten M ≥ 1 und ω > 0, also gilt  |GA |L1 (R) =



−∞

|GA (t)|dt ≤ 2M/ω.

t ∈ R. (10.15)

10.3 Das Hartman-Grobman Theorem

261

Nach der letzten Abschätzung ist x(t) für jedes t ∈ R wohldefiniert und eine direkte Rechnung zeigt, dass x(t) die beschränkte Lösung von (10.13) ist. Ist außerdem f ∈ BU C(R; Rn ) oder f ∈ Lip(R; Rn ) (f ist global Lipschitz auf R) oder f ∈ BC 1 (R; Rn ), so haben x und x˙ dieselben Eigenschaften, und ist f zusätzlich eine τ -periodische Funktion, dann auch x; dies folgt sofort aus der Definition von x(t). Bevor wir nun den Beweis des Satzes führen, wollen wir die Grundidee erläutern. Dazu sei die konjugierende Abbildung  = id + g bereits bekannt, mit einem beschränkten und stetig differenzierbarem g. Dann ergibt (10.12) x(t; ˙ (y)) =  (eAt y)AeAt y = Ax(t; (y)) + r(x(t; (y))) = A(eAt y) + r((eAt y)), also für t = 0  (x)Ax = A(x) + r((x)),

x ∈ Rn ,

und somit g  (x)Ax = Ag(x) + r(x + g(x)),

x ∈ Rn .

Es folgt für die Funktion u(t) = g(eAt y) u(t) ˙ = g  (eAt y)AeAt y = Au(t) + r(eAt y + u(t)),

t ∈ R,

und da r und g beschränkt sind,  u(t) =

R

GA (s)r(eA(t−s) y + g(eA(t−s) y))ds,

Setzt man in dieser Relation t = 0 so erhält man  g(y) = GA (s)r(e−As y + g(e−As y))ds, R

t ∈ R.

y ∈ Rn .

(10.16)

Dies ist eine Funktionalgleichung für die gesuchte Funktion g(y), und bildet den Ausgangspunkt des folgenden Beweises. Beweis von Satz 10.3.1. (i) Wir zeigen jetzt die Existenz und Eindeutigkeit einer beschränkten und gleichmäßig stetigen Lösung von (10.16) mittels des Banachschen Fixpunktsatzes. Dazu sei X = BU C(Rn ; Rn ) ausgerüstet mit der Supremums-Norm und T definiert durch  (T g)(x) =

R

GA (s)r(e−As x + g(e−As x))ds,

x ∈ Rn , g ∈ X.

262

10 Linearisierung und invariante Mannigfaltigkeiten

Da r beschränkt ist, ist T g für jedes g ∈ X eine wohldefinierte Funktion auf Rn , und es gilt |(T g)(x)| ≤ |GA |L1 (R) |r|∞ ≤ 2M|r|∞ /ω,

x ∈ Rn ,

also ist T g beschränkt. Sei η > 0 die globale Lipschitz-Konstante von r. Dann gilt  |(T g)(x) − (T g)(x)| ¯ ≤  ≤

R

|GA (s)||r(e−As x + g(e−As x))−r(e−As x¯ +g(e−As x))|ds ¯

|s|≤N

|GA (s)|η(|e−As (x − x)| ¯ + |g(e−As x)−g(e−As x)|)ds ¯

 +

|s|≥N

|GA (s)|ds2|r|∞ .

Zu gegebenem ε > 0 wähle zunächst ein N so groß, dass die Norm des zweiten Integrals ≤ ε/2 wird (das geht, da GA ∈ L1 (R)) und fixiere dieses N . Da g gleichmäßig stetig ist, existiert ein δ ∈ (0, ε/(4C)), so dass |g(y) − g(y)| ¯ ≤ ε/(4C),

falls |y − y| ¯ ≤ δ,

wobei C = 2Mη/ω. Zu fixiertem N , definiere MN = sup{|e−As | : |s| ≤ N }. Dann ist die Norm des ersten Integrals ebenfalls ≤ ε/2, sofern |x − x| ¯ ≤ δ/MN gilt. Dieses Argument zeigt, dass die Funktion x → (T g)(x) auf Rn gleichmäßig stetig ist. Daher ist T : X → X eine wohldefinierte Selbstabbildung. Die Kontraktionseigenschaft von T erhält man wie folgt.  |(T g)(x) − (T g)(x))| ¯ ≤

R

|GA (s)|η|g(e−As x) − g(e ¯ −As x)|ds

¯ ∞, ≤ |GA |L1 (R) η|g − g| also |T g − T g| ¯ ∞ ≤ |GA |L1 (R) η|g − g| ¯∞≤

2ηM |g − g| ¯ ∞, ω

g, g¯ ∈ X.

Ist nun η < ω/(2M), dann ist T eine strikte Kontaktion, also besitzt T einen eindeutigen Fixpunkt g ∈ X = BU C(Rn ; Rn ) und dies ist die eindeutige Lösung der Funktionalgleichung (10.16) in X. Man kann sogar noch mehr sagen: Sei X0 := {g ∈ X : g(0) = 0} ausgerüstet mit der Supremums-Norm. Dann zeigt man wie oben, dass T eine Kontraktion auf X0 ist. Ferner gilt T : X0 → X0 , da

10.3 Das Hartman-Grobman Theorem

263

 (T g)(0) =

R

GA (s)r(g(0))ds = 0,

für alle g ∈ X0 , wegen r(0) = 0. Nun ist X0 ein abgeschlossener Teilraum von X, also ist (X0 , | · |∞ ) vollständig und damit besitzt T genau einen Fixpunkt in X0 . (ii) Sei g ∈ BU C(Rn ; Rn ) die Lösung von (10.16) und  := id + g, d. h. (y) = y + g(y) für y ∈ Rn . Wir zeigen, dass  die gesuchte Abbildung ist. Ersetzt man y in (10.16) durch eAt y, so folgt  (eAt y) = eAt y +  = eAt y +

R

R

GA (s)r(eA(t−s) y + g(eA(t−s) y))ds GA (t − s)r((eAs y))ds.

Mit der Definition von GA (t) und mit (10.16) folgt daraus 

t

(eAt y) = eAt (y) +

eA(t−s) r((eAs y))ds,

t ∈ R,

0

wobei hier auch die Eigenschaft Ps + Pu = id eingeht. Also ist u(t) := (eAt y) die eindeutige Lösung des Anfangswertproblems u˙ = Au + r(u),

t ∈ R,

u(0) = (y).

Die Eindeutigkeit der Lösungen von (10.11) ergibt daher (eAt y) = x(t; (y)),

t ∈ R,

also erfüllt  die Relation (10.12). (iii) Als nächstes beweisen wir die Eindeutigkeitsaussage im Satz. Sei daher  = id + g mit (10.12) und g ∈ BU C(Rn ; Rn ) gegeben. Dann erhält man mit der Definition von GA (t) und der Eigenschaft Ps + Pu = id 

t

(e y) = x(t; (y)) = e (y) + At

At

eA(t−s) r((eAs y))ds

0

    = eAt (y) − GA (s)r((e−As y))ds + GA (s)r((eA(t−s) y))ds. R

Setzt man k(y) :=



R GA (s)r((e

R

−As y))ds,

so folgt

(g − k)(eAt y) = eAt (g(y) − k(y)),

y ∈ Rn , t ∈ R,

264

10 Linearisierung und invariante Mannigfaltigkeiten

also genügt f (y) := g(y) − k(y) dem Invarianzgesetz f (eAt y) = eAt f (y),

t ∈ R, y ∈ Rn ,

(10.17)

und zudem ist f beschränkt, denn g und k haben diese Eigenschaft. Schreibt man f (y) = e−At f (eAt y) und wendet die Projektionen Ps bzw. Pu an, so folgt mit t → −∞ bzw. t → +∞, dass f (y) = 0 für alle y ∈ Rn gilt, also  g(y) = k(y) =

R

GA (s)r((e

−As

 y))ds =

R

GA (s)r(e−As + g(e−As y))ds.

Daher ist g ∈ BU C(Rn ; Rn ) = X stets eine bzw. die Lösung von (10.16) in X und damit ist  = id + g eindeutig bestimmt in dieser Klasse. (iv) Es bleibt noch zu zeigen, dass  = id + g mit g aus (10.16) ein Homeomorphismus ist. Wir setzen  = id − h wobei h durch  GA (s)r(x(−s; y))ds, y ∈ Rn , h(y) = R

definiert ist, und zeigen zunächst, dass  eine Linksinverse für  ist. Dazu betrachten wir die Komposition  ◦ (y) = ((y)) = (y) − h((y)). Die Funktionalgleichung für g, die Definition von h und (10.12) ergeben  ((y)) = y + g(y) −  = y + g(y) −

R

R

GA (s)r(x(−s; (y))ds GA (s)r((e−As y))ds = y,

also ist  surjektiv und  injektiv. (v) Im letzten Schritt zeigen wir die globale Injektivität von . Dazu verwenden wir nochmals die Definition von GA (s) und erhalten mit Ps + Pu = id  e (y) = e y − e h(y) = e y − e At

At

At



t

= eAt y +

At

R

eA(t−s) r(x(s; y))ds −

0



= x(t; y) −

At

R

GA (s)r(x(−s; y))ds  R

GA (t − s)r(x(s; y))ds,

GA (t − s)r(x(s; y))ds

10.3 Das Hartman-Grobman Theorem

265

also  x(t; y) = e (y) + At

R

GA (t − s)r(x(s; y))ds,

t ∈ R, y ∈ Rn .

(10.18)

Sei nun (y) = (y), ¯ und setze v(t) = x(t; y) sowie v(t) ¯ = x(t; y). ¯ Dann folgt aus (10.18)  v(t) − v(t) ¯ =

R

GA (t − s)(r(v(s)) − r(v(s)))ds, ¯

also ist v(t) − v(t) ¯ beschränkt mit |v − v| ¯ ∞ ≤ 2|r|∞ |GA |L1 (R+ ) . Die globale Lipschitz-Stetigkeit von r liefert dann die Abschätzung |v − v| ¯ ∞ ≤ |GA |L1 η|v − v| ¯ ∞ ≤ (2ηM/ω)|v − v| ¯ ∞, d. h. |v − v| ¯ ∞ = 0 sofern η < ω/(2M) gilt, dies ist dieselbe Bedingung an η, die wir für den Existenzbeweis von g in (i) verwendet haben. Folglich ist in diesem Fall v(t) = v(t) ¯ für alle t ∈ R, insbesondere für t = 0 also y = v(0) = v(0) ¯ = y. ¯ Somit ist  global injektiv, also nach (iv) bijektiv mit  −1 = .  Das Hartman-Grobman Theorem lässt sich auch lokal formulieren. Dazu sei D ⊂ Rn offen mit 0 ∈ D und r ∈ C 1 (D; Rn ) mit r(0) = r  (0) = 0 gegeben. Fixiere eine Kugel BR (0) ⊂ D so dass sup{|r  (x)| : |x| < R} =: η < ω/(2M) gilt, und setze r˜ = r ◦ P , wobei P die metrische Projektion auf B¯ R (0) bezeichnet. Dann ist r˜ beschränkt und global Lipschitz mit Konstante η, da die metrische Projektion nichtexpansiv ist; vgl. Abschn. 7.3. Also gibt es nach dem Satz von Hartman-Grobman eine konjugierende Abbildung für (10.11) mit r˜ anstelle von r. Nun gilt aufgrund der Eindeutigkeit der Lösungen x(t; y) = x(t; ˜ y) sofern x(t; ˜ y) ∈ BR (0) ist (dies ist insbesondere erfüllt, falls y ∈ BR (0) und t ∈ (−δ, δ) mit einem hinreichend kleinen δ > 0). Dieses Argument ergibt das folgende Korollar. Korollar 10.3.2. Sei A ∈ Rn×n hyperbolisch, D ⊂ Rn offen mit 0 ∈ D und r ∈ C 1 (D; Rn ) mit r(0) = r  (0) = 0. Dann gibt es eine Kugel BR (0) ⊂ D und einen Homeomorphismus  auf Rn mit x(t; (y)) = (eAt y), für alle y ∈ Rn und t ∈ R, für die x(t; (y)) ∈ BR (0) gilt. Man beachte, dass wir hier für  keine Eindeutigkeit erhalten, da r auf verschiedene Weisen zu einem r˜ fortgesetzt werden kann.

266

10.4

10 Linearisierung und invariante Mannigfaltigkeiten

Normal stabile Equilibria

Sei G ⊂ Rn offen und f ∈ C 1 (G; Rn ). Wir haben bereits in Abschn. 5.4 gesehen, dass man das Stabilitätsverhalten eines Equilibriums z∗ ∈ G der Differentialgleichung z˙ = f (z)

(10.19)

mittels der Eigenwerte der Jacobi-Matrix f  (z∗ ) ∈ Rn×n lokal charakterisieren kann. Dabei mussten wir den Fall ausschließen, dass mindestens ein Eigenwert λ von f  (z∗ ) mit Re λ = 0 existiert. In diesem Abschnitt wollen wir nun Kriterien angeben, unter denen man auch im Fall 0 ∈ σ (A) auf Stabilität des Equilibriums z∗ von (10.19) schließen kann. Wir werden außerdem zeigen, dass die Lösung z(t) gegen ein Equilibrium z∞ konvergiert, welches aber im Allgemeinen von z∗ verschieden ist. Sei E ⊂ G die Menge der Equilibria von (10.19), das heißt z∗ ∈ E genau dann, wenn f (z∗ ) = 0. Für ein z∗ ∈ E werden wir im Weiteren annehmen, dass z∗ in einer m-dimensionalen C 1 -Mannigfaltigkeit von Equilibria enthalten ist. Das heißt, es existiert eine offene Menge U ⊂ Rm , 0 ∈ U und eine C 1 -Funktion  : U → Rn , sodass die folgenden Bedingungen erfüllt sind. • (U ) ⊂ E, (0) = z∗ , • Rang   (0) = m. Wir werden sehen, dass sich in einer Umgebung von z∗ keine anderen Equilibria befinden, als jene, die durch die Abbildung  gegeben sind, d. h. E ∩Br1 (z∗ ) = (U ) für ein r1 > 0. Ist z eine Lösung von (10.19), so löst die Funktion u = z − z∗ die Differentialgleichung u˙ = Au + h(u),

(10.20)

mit A := f  (z∗ ) und h(u) := f (u + z∗ ) − f (z∗ ) − f  (z∗ )u. ˜ Rn ) und h(0) = h (0) = 0 gilt, Man beachte, dass aufgrund der Voraussetzung h ∈ C 1 (G, ˜ = G − z∗ ist. Mittels der verschobenen Funktion ψ(ζ ) = (ζ ) − z∗ erhalten wobei G wir ferner eine Gleichung für die Equilibria von (10.20) − Aψ(ζ ) = h(ψ(ζ )), ζ ∈ U.

(10.21)

Es folgt −Aψ  (ζ ) = h (ψ(ζ ))ψ  (ζ ), also −Aψ  (0) = h (0)ψ  (0) = 0, das heißt Tz∗ E ⊂ N (A), wobei Tz∗ E den Tangentialraum von E in z∗ bezeichnet. Das Hauptresultat dieses Abschnittes ist der

10.4 Normal stabile Equilibria

267

Satz 10.4.1. Sei z∗ ein Equilibrium von (10.19), f ∈ C 1 (G, Rn ) und es sei A = f  (z∗ ). Angenommen z∗ ist normal stabil, das heißt 1. In einer Umgebung von z∗ ist die Menge der Equilibria E eine C 1 -Mannigfaltigkeit der Dimension m ∈ N, 2. Tz∗ E = N (A), 3. 0 ist ein halbeinfacher Eigenwert von A, das heißt Cn = N (A) ⊕ R(A), 4. σ (A) \ {0} ⊂ {μ ∈ C : Re μ < 0}. Dann ist z∗ stabil und es existiert ein δ > 0, sodass die eindeutige Lösung z(t) von (10.19) zum Anfangswert z0 mit |z0 − z∗ | ≤ δ für alle t ≥ 0 existiert und für t → ∞ exponentiell gegen ein z∞ ∈ E konvergiert. Beweis. Der Beweis des Satzes gliedert sich in mehrere Teile. (a) Wir setzen Xc = N(A) und Xs = R(A). Sei Pc die Projektion auf R(Pc ) = Xc längs N (Pc ) = Xs und Ps sei die Projektion auf R(Ps ) = Xs längs N (Ps ) = Xc . Insbesondere gilt also Pc + Ps = I . Ferner bezeichne Al = APl den Teil der Matrix A in Xl , l ∈ {c, s}. Beachte, dass Ac = 0 wegen R(Pc ) = N (A) gilt. Aus den Voraussetzungen 1. und 2. folgt außerdem dim Xc = dim N(A) = dim Tz∗ (E) = m. (b) Betrachte die Abbildung g : U ⊂ Rm → Xc ,

g(ζ ) := Pc ψ(ζ ).

Nach Konstruktion gilt g ∈ C 1 (U, Xc ) und g  (0) = Pc ψ  (0) : Rm → Xc ist ein Isomorphismus. Nach dem Satz von der inversen Funktion ist g daher ein C 1 Diffeomorphismus von einer Umgebung der 0 in Rm auf eine Umgebung BρX0c (0) der 0 in Xc , denn g(0) = 0. Die inverse Abbildung g −1 : BρX0c (0) → Rm ist also C 1 und g −1 (0) = 0. Wir setzen (x) := ψ(g −1 (x)) für x ∈ BρX0c (0). Dann gilt  ∈ C 1 (BρX0c (0), Rn ), (0) = 0, {(x) + z∗ : x ∈ BρX0c (0)} = E ∩ W, wobei W eine geeignete Umgebung von z∗ in Cn ist. Offensichtlich gilt dann Pc (x) = ((Pc ◦ ψ) ◦ g −1 )(x) = (g ◦ g −1 )(x) = x, x ∈ BρX0c (0),

268

10 Linearisierung und invariante Mannigfaltigkeiten

das heißt (x) = Pc (x) + Ps (x) = x + Ps (x) für x ∈ BρX0c (0). Mittels der Abbildung φ(x) := Ps (x) erhalten wir also φ ∈ C 1 (BρX0c (0), Xs ), φ(0) = φ  (0) = 0,

(10.22)

und {x + φ(x) + z∗ : x ∈ BρX0c (0)} = E ∩ W. Die Eigenschaft φ  (0) = 0 folgt aus der Tatsache R(  (0)) ⊂ N (A) = Xc und Ps Xc = 0 (nach Voraussetzung 2 gilt sogar R(  (0)) = N (A)). Die Mannigfaltigkeit E kann also durch den verschobenen Graph der Funktion φ in einer Umgebung von z∗ dargestellt werden. Wenden wir die Projektionen Pc und Ps auf (10.21) an und verwenden wir x + φ(x) = ψ(g −1 (x)) für x ∈ BρX0c (0), so erhalten wir die äquivalenten Gleichungen Pc h(x + φ(x)) = 0,

Ps h(x + φ(x)) = −As φ(x),

x ∈ BρX0c (0),

(10.23)

für die Equilibria von (10.20). Im Weiteren wählen wir ρ0 > 0 so klein, dass die Abschätzungen |φ  (x)| ≤ 1,

|φ(x)| ≤ |x|

(10.24)

für alle x ∈ BρX0c (0) gelten. Dies gelingt offenbar immer durch die Eigenschaft (10.22). (c) Mittels der neuen Variablen x = Pc u = Pc (z − z∗ ), y = Ps u − φ(Pc u) = Ps (z − z∗ ) − φ(Pc (z − z∗ )), erhalten wir nun das folgende System in Xc × Xs , ⎧ ⎨x˙ = T (x, y), ⎩y˙ = As y + R(x, y),

x(0) = x0 , y(0) = y0 ,

mit x0 = Pc u0 und y0 = Ps u0 − φ(Pc u0 ) und den Funktionen T (x, y) = Pc h(x + φ(x) + y), R(x, y) = Ps h(x + φ(x) + y) + As φ(x) − φ  (x)T (x, y).

(10.25)

10.4 Normal stabile Equilibria

269

Aus (10.23) folgt T (x, y) = Pc (h(x + φ(x) + y) − h(x + φ(x))) , R(x, y) = Ps (h(x + φ(x) + y) − h(x + φ(x))) − φ  (x)T (x, y),

(10.26)

insbesondere gilt T (x, 0) = R(x, 0) = 0

für alle

x ∈ BρX0c (0),

das heißt, die Menge der Equilibria E von (10.19) nahe z∗ wurde auf die Menge BρX0c (0) × {0} ⊂ Xc × Xs reduziert. Das System (10.25) heißt Normalform von (10.19) nahe des normal stabilen Equilibriums z∗ . ˜ Rn ) und h(0) = h (0) = 0, existiert zu jedem η > 0 ein r = (d) Wegen h ∈ C 1 (G, r(η) > 0, sodass die Abschätzung |h(u1 ) − h(u2 )| ≤ η|u1 − u2 |,

u1 , u2 ∈ Br (0),

(10.27)

gilt. Im Weiteren treffen wir die Annahme r ∈ (0, 3ρ0 ]. Mit u1 = x + φ(x) + y und u2 = x + φ(x) erhalten wir aus (10.24), (10.26) und (10.27) |T (x, y)|, |R(x, y)| ≤ Cη|y|,

(10.28)

für alle x ∈ B¯ ρXc (0), y ∈ B¯ ρXs (0) und alle ρ ∈ (0, r/3), wobei C > 0 eine gleichmäßige Konstante ist. Nach dem Existenz- und Eindeutigkeitssatz besitzt das Problem (10.20) zu jedem u0 ∈ Bδ (0) mit δ ∈ (0, r) eine eindeutige lokale Lösung u(t), welche sich nach dem Fortsetzungssatz auf ein maximales Existenzintervall [0, t+ ) fortsetzen lässt. Wir zeigen im Weiteren, dass die Lösung u(t) global existiert und stabil ist. Sei u0 ∈ Bδ (0), N := |Pc | + |Ps | mit Nδ < ρ < ρ0 . Dann gilt mit (10.24) Xc x0 = Pc u0 ∈ BN δ

und

Xs y0 = Ps u0 − φ(x0 ) ∈ BN δ.

Ferner definieren wir t1 := t1 (x0 , y0 ) := sup{t ∈ (0, t+ ) : |x(τ )|Xc , |y(τ )|Xs ≤ ρ, τ ∈ [0, t]}, wobei (x(t), y(t)) die eindeutige Lösung von (10.25) zum Anfangswert (x0 , y0 ) bezeichnet. Angenommen t1 < t+ . Nach der Formel der Variation der Konstanten gilt für die Lösung y(t) der zweiten Gleichung von (10.25) zum Anfangswert y0 die Darstellung 

t

y(t) = eAs t y0 + 0

eAs (t−s) R(x(s), y(s))ds,

t ∈ [0, t1 ].

270

10 Linearisierung und invariante Mannigfaltigkeiten

Wegen σ (As ) = σ (A) \ {0}, Voraussetzung 4. und (10.28) erhalten wir mit einem ω > 0 die Abschätzung |y(t)| ≤ Me−ωt |y0 | + MCη



t

e−ω(t−s) |y(s)|ds,

0

für alle t ∈ [0, t1 ], wobei M = M(ω) > 0 eine Konstante ist. Das Lemma von Gronwall liefert daher |y(t)| ≤ M|y0 |e(MCη−ω)t ,

t ∈ [0, t1 ].

Im Folgenden sei nun η > 0 so klein, dass MCη < ω/2 gilt, also |y(t)| ≤ M|y0 |e−ωt/2 ,

t ∈ [0, t1 ].

Wir benutzen dieses Resultat für eine geeignete Abschätzung der Lösung x(t). Integration der ersten Gleichung in (10.25) ergibt  |x(t)| ≤ |x0 | +

t

 |T (x(s), y(s))|ds ≤ |x0 | + Cη

0

t

|y(s)|ds

0



t

≤ |x0 | + MCη|y0 |

e−ωs/2 ds = |x0 | + 2MCη|y0 |(1 − e−ωt/2 )/ω

0

≤ |x0 | + C1 |y0 |, für alle t ∈ [0, t1 ] mit C1 := 2MCη/ω > 0. Also gilt |x(t)| + |y(t)| ≤ |x0 | + (C1 + M)|y0 | ≤ (1 + C1 + M)Nδ,

t ∈ [0, t1 ].

Wähle nun δ ≤ ρ/[2N(1 + C1 + M)]. Es folgt |x(t)| + |y(t)| ≤ ρ/2 für alle t ∈ [0, t1 ], was aber offensichtlich der Definition von t1 widerspricht. Wir können daher den Schluss t1 = t+ treffen und wegen (10.24) gilt |u(t)| ≤ |x(t)| + |φ(x(t))| + |y(t)| ≤ ρ/2 + ρ/2 + ρ/2 = 3ρ/2 < r/2, für alle t ∈ [0, t+ ). Dies zeigt , dass die Lösung u = u(t) von (10.20) zum Anfangswert u0 ∈ Bδ (0) die Kugel Br (0) nie verlässt, das heißt sie existiert für alle t ≥ 0 und das triviale Equilibrium u = 0 von (10.20) bzw. z = z∗ von (10.19) ist

10.4 Normal stabile Equilibria

271

stabil, denn zu hinreichend kleinem r > 0 existiert ein δ > 0, sodass z(t) ∈ Br (z∗ ) für alle t ≥ 0, sofern z0 ∈ Bδ (z∗ ). (e) Wir zeigen schließlich, dass die Lösung z(t) von (10.19) für t → ∞ exponentiell gegen ein z∞ ∈ E konvergiert. Aus den Abschätzungen von Schritt (d) erhalten wir |y(t)| ≤ M|y0 |e−ωt/2 , und |x(t)| + |y(t)| ≤ ρ/2, für alle t ≥ 0. Daher existiert der Grenzwert  lim

t→∞ 0

t





T (x(s), y(s))ds =

T (x(s), y(s))ds ∈ Xc .

0

Integration der ersten Gleichung in (10.25) ergibt 



lim x(t) = x0 +

t→∞

0

T (x(s), y(s))ds =: x∞ ∈ Xc ,

und es folgt   |x(t) − x∞ | = 

∞ t



  T (x(s), y(s))ds  ∞

≤ Cη

|y(s)|ds

t

≤ 2MCη|y0 |e−ωt/2 /ω,

t ≥ 0.

Die Funktion x(t) konvergiert also exponentiell gegen x∞ in Xc . Daher existiert der Grenzwert lim u(t) = lim (x(t) + φ(x(t)) + y(t)) = x∞ + φ(x∞ ) =: u∞

t→∞

t→∞

und u∞ + z∗ ist ein Equilibrium von (10.19). Für die Konvergenzrate von u(t) → u∞ für t → ∞ ergibt sich nach dem Mittelwertsatz und (10.24) |u(t) − u∞ | = |x(t) + φ(x(t)) + y(t) − x∞ − φ(x∞ )| ≤ |x(t) − x∞ | + |φ(x(t)) − φ(x∞ )| + |y(t)| ≤ 4MCη|y0 |e−ωt/2 /ω + M|y0 |e−ωt/2 = L|y0 |e−ωt/2 ,

t ≥ 0.

272

10 Linearisierung und invariante Mannigfaltigkeiten

Damit konvergiert z(t) exponentiell gegen z∞ := u∞ + z∗ ∈ E für t → ∞.



Beispiel. Sei G = R2 \ {0}. Betrachte das ebene System 1

x˙ = (x + y)(1 −

1

y˙ = (y − x)(1 −

x 2 + y 2 ), (10.29) x 2 + y 2 ).

Durch Übergang zu Polarkoordinaten (r, θ ), erhalten wir r˙ = −r(r − 1), θ˙ = r − 1. Die Menge der Equilibria von (10.29) ist also der Einheitskreis und für jeden Anfangswert (x0 , y0 ) ∈ G gilt r(t) → 1 für t → ∞. Das Phasenportrait ist rotationsinvariant, das heißt, es genügt, sich auf ein Equilibrium, sagen wir z∗ = (0, 1), einzuschränken. Es bezeichne f (x, y) die rechte Seite von (10.29). Offensichtlich gilt f ∈ C 1 (G, R2 ) und 

 0 −1 A = f (z∗ ) = . 0 −1 

Die Matrix A besitzt die beiden Eigenwerte 0 und −1 mit dazu gehörigen Eigenvektoren [1, 0]T und [1, 1]T . Der Eigenwert 0 ist halbeinfach und der Kern N (A) ist gerade der Tangentialraum Tz∗ E an E in z∗ . Also ist z∗ normal stabil und Satz 10.4.1 impliziert, dass jede Lösung, welche hinreichend nahe bei z∗ startet, für t → ∞ exponentiell gegen einen Punkt auf dem Einheitskreis konvergiert. Außerdem ist z∗ stabil (siehe auch Abschn. 8.8). Wir geben nun noch zwei Beispiele an, die zeigen, dass man auf die Bedingungen 2 und 3 aus Satz 10.4.1 nicht verzichten kann. Beispiele. (a) Sei G = R2 \ {0} und betrachte das System 1 1 x˙ = −x( x 2 + y 2 − 1)3 − y( x 2 + y 2 − 1)m , 1 1 y˙ = −y( x 2 + y 2 − 1)3 + x( x 2 + y 2 − 1)m .

(10.30)

10.5 Normal hyperbolische Equilibria

273

Durch Übergang zu Polarkoordinaten (r, θ ), erhalten wir das entkoppelte System r˙ = −r(r − 1)3 , θ˙ = (r − 1)m . Zunächst untersuchen wir den Fall m = 1. Die Menge der Equilibria ist wieder durch den Einheitskreis gegeben. Wie im Beispiel zuvor führen wir die Stabilitätsanalyse nur für das Equilibrium z∗ = (0, 1) durch. Es gilt   0 −1 A = f (z∗ ) = , 0 0 

wobei f (x, y) die rechte Seite von (10.30) bezeichnet. Daher ist λ = 0 ein Eigenwert von A mit algebraischer Vielfachheit 2 und dem Eigenraum N (A) = span{(1, 0)} = Tz∗ E. Der Eigenwert λ = 0 ist also nicht halbeinfach, das heißt, die Voraussetzung 3 aus Satz 10.4.1 ist nicht erfüllt. Hier konvergieren die Lösungen nicht, vgl. Beispiel 1 aus Abschn. 8.8. (b) In diesem Beispiel betrachten wir wieder das System (10.30), aber hier mit m = 2. In diesem Fall ist E wieder der Einheitskreis und für die Linearisierung in z∗ = (0, 1) gilt 

 00 . A = f (z∗ ) = 00 

Damit ist λ = 0 ein Eigenwert mit der algebraischen Vielfachheit 2 und es gilt N (A) = R2 , d. h. λ = 0 ist halbeinfach. Nun ist aber augenscheinlich die Bedingung 2 aus Satz 10.4.1 nicht erfüllt, denn Tz∗ E = span{(1, 0)}  R2 . Wie Beispiel 2 aus Abschn. 8.8 zeigt, konvergieren die Lösungen nicht.

10.5

Normal hyperbolische Equilibria

Wir wollen nun den Fall untersuchen, dass das Spektrum σ (A) der Linearisierung A = f  (z∗ ) von (10.19) auch Eigenwerte mit positivem Realteil enthält. Also nehmen wir im Weiteren an, dass sich σ (A) wie folgt zerlegen lässt: σ (A) = {0} ∪ σs ∪ σu ,

σj = ∅, j ∈ {u, s},

mit σs ⊂ {μ ∈ σ (A) : Re μ < 0} und σu ⊂ {μ ∈ σ (A) : Re μ > 0}. In dieser Situation können wir das folgende Resultat beweisen.

274

10 Linearisierung und invariante Mannigfaltigkeiten

Satz 10.5.1. Sei z∗ ein Equilibrium von (10.19), f ∈ C 1 (G, Rn ) und es sei A = f  (z∗ ). Angenommen z∗ ist normal hyperbolisch, das heißt 1. In einer Umgebung von z∗ ist die Menge der Equilibria E eine C 1 Mannigfaltigkeit der Dimension m ∈ N, 2. Tz∗ E = N (A), 3. 0 ist ein halbeinfacher Eigenwert von A, das heißt Cn = N (A) ⊕ R(A), 4. σ (A) ∩ iR = {0} und σj = ∅, j ∈ {u, s}. Dann ist z∗ instabil. Zu jedem hinreichend kleinen ρ > 0 existiert ein δ ∈ (0, ρ], sodass die Lösung z(t) von (10.19) zum Anfangswert z0 ∈ Bδ (z∗ ) genau eine der beiden folgenden Eigenschaften besitzt. • dist(z(t ∗ ), E) > ρ für ein t ∗ > 0, oder • z(t) existiert für alle t ≥ 0 und z(t) → z∞ ∈ E exponentiell für t → ∞. Beweis. Die Instabilität von z∗ folgt sofort aus Satz 5.4.1. Wegen Voraussetzung 3 können wir den Raum Cn wie folgt zerlegen: Cn = N(A) ⊕ N(λ2 ) ⊕ . . . ⊕ N(λr1 ) ⊕ N (λr1 +1 ) ⊕ . . . ⊕ N (λr2 ), wobei 2 ≤ r1 < r2 , Re λj < 0 für j ∈ {2, . . . , r1 } und Re λj > 0 für j ∈ {r1 + 1, . . . , r2 }. Seien Pc , Ps , Pu die zugehörigen Projektionen auf Xc = N (A), Xs = N (λ2 ) ⊕ . . . ⊕ N (λr1 ) und Xu = N(λr1 +1 ) ⊕ . . . ⊕ N(λr2 ), das heißt Pc + Ps + Pu = I . Ferner bezeichne Al = APl den Teil der Matrix A in Xl , l ∈ {c, s, u}. Wegen R(Pc ) = N (A) gilt wieder Ac ≡ 0. Für ein Element v ∈ Cn verwenden wir im Weiteren die Norm |v| = |Pc v| + |Ps v| + |Pu v|.

(10.31)

Sei ferner  die im Beweisschritt (b) von Satz 10.4.1 gewonnene Abbildung und wir definieren φl (x) = Pl (x) für alle x ∈ BρX0c (0). Dann gilt φl ∈ C 1 (BρX0c (0), Xl ),

φl (0) = φl (0) = 0,

l ∈ {s, u}

(10.32)

und {x + φs (x) + φu (x) + z∗ : x ∈ BρX0c (0)} = E ∩ W, für eine geeignete Umgebung W von z∗ . Von nun an sei ρ0 > 0 so klein gewählt, dass die Abschätzungen |φl (x)| ≤ 1,

|φl (x)| ≤ |x|,

l ∈ {s, u},

(10.33)

10.5 Normal hyperbolische Equilibria

275

für alle x ∈ BρX0c (0) gelten. Wenden wir die Projektionen Pl , l ∈ {c, s, u} auf die stationäre Gl. (10.21) an, so erhalten wir das System von Gleichungen Pc h(x + φs (x) + φu (x)) = 0, Pl h(x + φs (x) + φu (x)) = −Al φl (x),

x ∈ BρX0c (0), l ∈ {s, u}.

(10.34)

Wir definieren die neuen Variablen x = Pc u,

y = Ps u − φs (x)

und

v = Pu u − φu (x).

Diese Definitionen ergeben die Normalform von (10.19) in Xc × Xs × Xu in der Nähe des normal hyperbolischen Equilibriums z∗ zu ⎧ ⎪ ⎪ ⎨x˙ = T (x, y, v), ⎪ ⎪ ⎩

x(0) = x0 ,

y˙ = As y + Rs (x, y, v),

y(0) = y0 ,

v˙ = Au v + Ru (x, y, v),

v(0) = v0 ,

(10.35)

wobei die Funktionen T , Rs und Ru durch T (x, y, v) = Pc (h(x + y + v + φs (x) + φu (x)) − h(x + φs (x) + φu (x))), und Rl (x, y, v) = Pl (h(x + y + v + φs (x) + φu (x)) − h(x + φs (x) + φu (x))) − φl (x)T (x, y, v), l ∈ {s, u}, gegeben sind. Aus diesen Darstellungen folgt T (x, 0, 0) = Rl (x, 0, 0) = 0, l ∈ {s, u}, für alle x ∈ BρX0c (0), das heißt, die Menge der Equilibria E nahe z∗ wurde auf die Menge BρX0c (0) × {0} × {0} ⊂ Xc × Xs × Xu zurückgeführt. Sei nun η > 0 gegeben. Dann existiert ein r = r(η) > 0, sodass aus (10.27) die Abschätzung |T (x, y, v)|, |Rl (x, y, v)| ≤ Cη(|y| + |v|), l ∈ {s, u},

(10.36)

Xl für alle x, y, v ∈ B¯ 3ρ (0), l ∈ {c, s, u} mit 3ρ ∈ (0, r/5) folgt. Ohne Beschränkung der Allgemeinheit dürfen wir r ≤ 5ρ0 annehmen. Sei

z(t) = x(t) + y(t) + v(t) + φs (x(t)) + φu (x(t)) + z∗

276

10 Linearisierung und invariante Mannigfaltigkeiten

die Lösung von (10.19) zum Anfangswert z0 ∈ Bδ (z∗ ), δ ≤ ρ mit dem Existenzintervall [0, t+ ). Dann existiert entweder ein t ∗ ∈ (0, t+ ) mit dist(z(t ∗ ), E) > ρ oder dist(z(t), E) ≤ ρ für alle t ∈ [0, t+ ). Wir betrachten den letzteren Fall und setzen t1 := t1 (x0 , y0 , v0 ) := sup{t ∈ (0, t+ ) : |z(τ ) − z∗ | ≤ 3ρ, τ ∈ [0, t]}. Angenommen es gilt t1 < t+ . Aus (10.31) folgt zunächst |x(t)| ≤ 3ρ für alle t ∈ [0, t1 ]. Wegen (10.33) gilt aber auch |z(t) − z∗ | ≥ |x(t)| + |y(t) + φs (x(t))| ≥ |x(t)| − |φs (x(t))| + |y(t)| ≥ |y(t)|, t ∈ [0, t1 ], also |y(t)| ≤ 3ρ; entsprechend erhält man auch |v(t)| ≤ 3ρ für alle t ∈ [0, t1 ]. Da E abgeschlossen ist, gibt es für jedes z ∈ B3ρ (z∗ ) ein z¯ ∈ E, mit der Eigenschaft dist(z, E) = |z − z¯ |. Gilt zusätzlich dist(z, E) ≤ ρ, so erhalten wir aus der Dreiecksungleichung die Abschätzung |¯z − z∗ | < 4ρ. Für 4ρ ≤ ρ0 existiert daher ein x¯ ∈ BρX0c (0), mit z¯ = ¯ + φu (x) ¯ + z∗ . Aus diesen Überlegungen und mit (10.33), erhalten wir somit die x¯ + φs (x) verbesserte Abschätzung ρ ≥ dist(z(t), E) = |z(t) − z¯ (t)| ¯ = |x(t) − x(t)| ¯ + |y(t) + φs (x(t)) − φs (x(t))| + |v(t) + φu (x(t)) − φu (x(t))| ¯ ≥ |x(t) − x(t)| ¯ + |y(t)| − |φs (x(t)) − φs (x(t))| ¯ ≥ |y(t)|, für alle t ∈ [0, t1 ]; entsprechend erhält man auch die verbesserte Abschätzung |v(t)| ≤ ρ für alle t ∈ [0, t1 ]. Wir werden uns zunächst mit der Gleichung für v(t) befassen. Da die Matrix Au nur Eigenwerte mit positivem Realteil besitzt, integrieren wir die Gleichung für v(t) bezüglich t rückwärts, das heißt, wir verwenden die Lösungsdarstellung  t1 v(t) = eAu (t−t1 ) v(t1 ) − eAu (t−s) Ru (x(s), y(s), v(s))ds, t ∈ [0, t1 ]. (10.37) t

Aus (10.36) und der Eigenschaft |v(t1 )| ≤ ρ ergibt sich 

t1

|v(t)| ≤ Meω(t−t1 ) ρ + ηMC

eω(t−s) (|y(s)| + |v(s)|)ds, t ∈ [0, t1 ].

t

Integration von 0 bis t1 ergibt |v|L1 (0,t1 ) ≤ Mρ/ω + (ηMC/ω)(|y|L1 (0,t1 ) + |v|L1 (0,t1 ) ).

(10.38)

10.5 Normal hyperbolische Equilibria

277

Im nächsten Schritt leiten wir eine Abschätzung für |y|L1 (0,t1 ) her. Dazu integrieren wir die Gleichung für y(t). Es folgt  t |y(t)| ≤ Me−ωt |y0 | + ηMC e−ω(t−s) (|y(s)| + |v(s)|)ds, t ∈ [0, t1 ], 0

und nach einer weiteren Integration von 0 bis t1 |y|L1 (0,t1 ) ≤ M|y0 |/ω + (ηMC/ω)(|y|L1 (0,t1 ) + |v|L1 (0,t1 ) ).

(10.39)

Addition von (10.38) und (10.39) ergibt |y|L1 (0,t1 ) + |v|L1 (0,t1 ) ≤ M|y0 |/ω + Mρ/ω + (2ηMC/ω)(|y|L1 (0,t1 ) + |v|L1 (0,t1 ) ). Wähle η > 0 zusätzlich so klein, dass 2ηMC/ω ≤ 1/2 gilt. Dann folgt |y|L1 (0,t1 ) + |v|L1 (0,t1 ) ≤ 2M(ρ + |y0 |)/ω.

(10.40)

Nun wenden wir uns der Gleichung für x(t) zu. Mit Hilfe von (10.36) erhalten wir aus (10.40) für alle t ∈ [0, t1 ] die Abschätzung  t |T (x(s), y(s), v(s))|ds |x(t)| ≤ |x0 | + 0

≤ |x0 | + ηC(|y|L1 (0,t) + |v|L1 (0,t) ) ≤ |x0 | + 2ηMC(ρ + |y0 |)/ω. Wir wählen zuerst η > 0, dann |x0 | hinreichend klein und erhalten somit wegen |y(t)|, |v(t)| ≤ ρ für alle t ∈ [0, t1 ] die Ungleichung |z(t) − z∗ | < 3ρ, welche für alle t ∈ [0, t1 ] gilt. Das bedeutet aber einen Widerspruch zur Definition von t1 , also gilt t1 = t+ . Ferner können wir sagen, dass im Fall dist(z(t), E) ≤ ρ, t ≥ 0, die Lösungen x(t), y(t), v(t) global existieren und die Abschätzung |x(t)|, |y(t)|, |v(t)| ≤ 3ρ, für alle t ≥ 0 gilt. Die Gleichung für y(t) und (10.36) ergeben  t −ωt e−ω(t−s) (|y(s)| + |v(s)|)ds. |y(t)| ≤ Me |y0 | + ηMC

(10.41)

0

Da |v(t)| ≤ 3ρ für alle t ≥ 0 gilt und eAu (t−t1 ) → 0 exponentiell für t1 → ∞, folgt aus (10.37) die Lösungsdarstellung  ∞ eAu (t−s) Ru (x(s), y(s), v(s))ds, v(t) = − t

also mit (10.36)

 |v(t)| ≤ ηMC t



eω(t−s) (|y(s)| + |v(s)|)ds.

(10.42)

278

10 Linearisierung und invariante Mannigfaltigkeiten

Aus (10.41) und (10.42) erhalten wir für ϕ(t) := |y(t)| + |v(t)| die nicht-kausale Integralungleichung  ∞ e−ω|t−s| ϕ(s)ds =: μ(t), t ≥ 0, (10.43) ϕ(t) ≤ ce−ωt + β 0

mit c := M|y0 | und β := ηCM. Im Weiteren wollen wir nun zeigen, dass ϕ(t) eine Abschätzung der Form ϕ(t) ≤ be−αt für geeignete α > 0 und b > 0 erfüllt. Dazu beachte man zunächst, dass μ(t) eine beschränkte positive Lösung der linearen inhomogenen Differentialgleichung zweiter Ordnung − μ¨ + ω2 μ = 2ωβϕ

(10.44)

ist, mit μ(t) ≥ ϕ(t) ≥ 0. Subtraktion des Terms 2ωβμ in (10.44) liefert − μ¨ + ω12 μ = 2ω1 βψ,

(10.45)

wobei ω1 := (ω2 − 2ωβ)1/2 > 0 für β < ω/2, also η > 0 hinreichend klein, und ψ(t) := ω(ϕ(t) − μ(t))/ω1 gilt. Jede beschränkte Lösung von (10.45) besitzt nach dem Superpositionsprinzip die Darstellung  ∞ −ω1 t +β e−ω1 |t−s| ψ(s)ds, t ≥ 0. μ(t) = be 0

Wegen ψ(t) ≤ 0 folgt die Abschätzung |y(t)| + |v(t)| = ϕ(t) ≤ μ(t) ≤ be−ω1 t , für alle t ≥ 0, also insbesondere y(t) → 0 und v(t) → 0 exponentiell für t → ∞. Schließlich können wir in der Lösungsdarstellung für x(t) wegen (10.36) zur Grenze t → ∞ übergehen und sehen, dass der Grenzwert  ∞ T (x(s), y(s), v(s))ds ∈ Xc lim x(t) = x0 + t→∞

0

existiert. Damit ist z∞ = lim (x(t) + y(t) + v(t) + φs (x(t)) + φu (x(t))) + z∗ t→∞

= x∞ + φs (x∞ ) + φu (x∞ ) + z∗ , ein Equilibrium von (10.19). Ähnlich wie im Beweis zu Satz 10.4.1 sieht man, dass z(t)  exponentiell gegen z∞ konvergiert. Als direkte Folgerung aus Satz 10.5.1 und Satz 8.6.2 erhalten wir das folgende Korollar 10.5.2. Sei G ⊂ Rn offen, K ⊂ G kompakt und sei V ∈ C(G; R) eine strikte Ljapunov-Funktion für (10.19). Sei ferner z(t) eine Lösung von (10.19) mit γ+ (z) ⊂ K,

10.6 Teilchen im Potentialfeld mit Dämpfung

279

welche ein normal stabiles oder ein normal hyperbolisches Equilibrium z∗ in ihrer Limesmenge ω+ (z) hat. Dann konvergiert z(t) für t → ∞ gegen z∗ ∈ E. Liegt z(t) ferner in der instabilen Mannigfaltigkeit eines Sattelpunktes, so ist z(t) ein heteroklines Orbit. Beweis. Nach Satz 8.6.2 gilt dist(z(t), E) → 0 für t → ∞, d. h. wir können die Distanz der Lösung zur Menge der Equilibria für hinreichend großes t kontrollieren. Ferner existiert zu dem normal stabilen bzw. normal hyperbolischen Equilibrium z∗ ∈ ω+ (z) eine Folge (tk ), sodass z(tk ) → z∗ für k → ∞ gilt. Wählt man nun tk hinreichend groß, so impliziert Satz 10.4.1 bzw. Satz 10.5.1 die erste Behauptung. Da V eine strikte LjapunovFunktion ist, folgt die zweite Behauptung aus Satz 10.1.1. 

10.6

Teilchen im Potentialfeld mit Dämpfung

Seien φ : Rn → R aus C 2 und g : Rn → Rn aus C 1 , mit g(0) = 0. Das Problem u¨ + g(u) ˙ + ∇φ(u) = 0, u(0) = u0 ,

u(0) ˙ = u1 ,

(10.46)

˙ T äquivalent zum System x˙ = f (x), wobei ist mit x := [x1 , x2 ]T := [u, u] f (x) = [u, ˙ −g(u) ˙ − ∇φ(u)]T = [x2 , −g(x2 ) − ∇φ(x1 )]T ist. Die Menge E der Equilibria dieses Systems besteht aus Paaren der Form (x1 , 0), wobei x1 kritischer Punkt von φ ist. Als Ljapunov-Funktion betrachten wir die Energie V (x) =

1 |x2 |22 + φ(x1 ); 2

die Beziehung d V (x(t)) = −(g(x2 (t))|x2 (t)) = −(g(u(t))| ˙ u(t)) ˙ dt längs Lösungen zeigt, dass V ein Ljapunov-Funktion ist, sofern (g(y)|y) ≥ 0 für alle y ∈ Rn ; sie ist strikt, wenn (g(y)|y) > 0 für alle y ∈ Rn , y = 0 gelten. Ist weiter φ koerziv, gilt also φ(u) → ∞ für |u| → ∞, so ist jede Lösung beschränkt, und ihre Limesmengen sind somit nichtleer und liegen in E. Wir untersuchen nun, unter welchen Zusatzbedingungen ein Equilibrium x∗ = (u∗ , 0) normal stabil bzw. normal hyperbolisch ist. Dazu untersuchen wir die Menge der kritischen Punkte von φ nahe bei u∗ . Hier gibt es prinzipiell zwei Fälle zu unterscheiden:

280

10 Linearisierung und invariante Mannigfaltigkeiten

(a) ∇ 2 φ(u∗ ) ist nicht singulär. In diesem Fall ist das Equilibrium isoliert in E. (b) ∇ 2 φ(u∗ ) ist singulär. In diesem Fall ist u∗ typischerweise nicht isoliert, die kritischen Punkte von φ bilden eine Mannigfaltigkeit. Wir nennen u∗ nicht ausgeartet, wenn der Tangentialraum dieser Mannigfaltigkeit mit dem Kern von ∇ 2 φ(u∗ ) übereinstimmt. Sei konkreter φ(u) = ϕ(|u|22 ), wobei ϕ : R+ → R+ aus C 2 sei, mit ϕ(1) = 0, ϕ  (1) = 0, ϕ  (1) > 0, ϕ  (r) = 0 für r = 1. Die Einheitssphäre S1 besteht dann aus strikten Minima des Potentials, 0 ist ein lokales Maximum, und es gibt keine weiteren kritischen Punkte von φ. Das typische Beispiel ist das Double-Well-Potential φ(u) = 14 (|u|22 − 1)2 . In dieser Situation ist ∇φ(u) = 2ϕ  (|u|22 )u, und ∇ 2 φ(u) = 2ϕ  (|u|22 )I + 4ϕ  (|u|22 )u ⊗ u, also ist ∇ 2 φ(0) = 2ϕ  (0)I negativ definit da ϕ  (0) < 0 gilt, und ∇ 2 φ(u) = 4ϕ  (1)u ⊗ u für u ∈ S1 . Damit ist 0 Eigenwert von ∇ 2 φ(u) der geometrischen Vielfachheit n − 1 für jedes u ∈ S1 , und der Kern besteht aus allen Vektoren v mit (u|v) = 0; das ist genau der Tangentialraum an S1 in u. Die Annahme ϕ  (1) > 0 ist dabei wesentlich, ansonsten ist 1 (|u|22 − 1)k im Fall k ≥ 3 jeder Punkt auf der S1 ausgeartet. Insbesondere ist für φ(u) = 2k 1 jeder Punkt u ∈ S ausgeartet. Um die Bedeutung von nicht ausgeartet im allgemeinen Fall genauer zu verstehen, sei B = ∇ 2 φ(u∗ ), und sei k = dim N(B). Da B symmetrisch ist, gilt Cn = N (B) ⊕ R(B) und die Zerlegung ist orthogonal. Wir wählen eine Basis T = [τ1 , . . . , τk ] von N (B) und eine Basis N = [ν1 , . . . , νn−k ] von R(B), und betrachten die Gleichung h(r, s) := N T ∇φ(u∗ + T r + N s) = 0. h : Rk × Rn−k → Rn−k ist aus C 1 , es gilt h(0, 0) = 0 und ∂s h(0, 0) = N T BN ist invertierbar. Der Satz über implizite Funktionen ergibt eine C 1 -Funktion s : Bρ (0) → Rn−k mit s(0) = 0 und h(r, s(r)) = 0 für alle r ∈ Bρ (0). Ferner gilt 0 = N T BT + N T BN s  (0), also s  (0) = 0. Damit ist die Gleichung ∇φ(u) = 0 für die Equilibria nahe u∗ äquivalent zu T T ∇φ(u∗ + T r + N s(r)) = 0,

(10.47)

und eine C 1 -Parametrisierung der Lösungsmenge nahe u∗ ist durch die Abbildung r → u∗ + T r + N s(r) gegeben. Nun kann man schließen, dass u∗ genau dann nicht ausgeartet ist, wenn (10.47) für alle r ∈ Bδ (0) ⊂ Rk mit einem δ > 0 erfüllt ist. Als nächstes betrachten wir die Linearisierung A = f  (u∗ , 0), also  A=

 0 I . −∇ 2 φ(u∗ ) −g  (0)

10.6 Teilchen im Potentialfeld mit Dämpfung

281

λ = 0 ist genau dann ein Eigenwert von A, falls B = ∇ 2 φ(u∗ ) singulär ist. Der Kern von A besteht aus den Vektoren [v, 0]T , wobei v ∈ N(B) ist. Sei als nächstes [v, w]T ∈ N (A2 ). Dann gelten Bv + g  (0)w = 0

und

Bw = 0.

Multiplikation der ersten Gleichung mit w, ¯ der zweiten mit v, ¯ und Subtraktion führt auf (g  (0)w|w) = 0. Die Annahme (g  (0)y|y) ≥ η|y|22

für alle y ∈ Rn ,

mit einem η > 0, ergibt dann w = 0 und somit auch Bv = 0, d. h. [v, w]T ∈ N (A). Daher ist 0 halbeinfach. Sei λ = σ + iρ ein Eigenwert von A mit Eigenvektor [v, w]T . Dann gilt w = λv und λw + g  (0)w + Bv = 0, also λ2 v + λg  (0)v + ∇ 2 φ(u∗ )v = 0. Multipliziere skalar mit v¯ und zerlege in Real- und Imaginärteil, um (σ 2 − ρ 2 )|v|22 + σ Re(g  (0)v|v) − ρIm(g  (0)v|v) + (Bv|v) = 0, und 2σρ|v|22 + ρRe(g  (0)v|v) + σ Im(g  (0)v|v) = 0 zu erhalten, denn die Matrix B ist symmetrisch. Ist nun die obige Annahme für g  (0) erfüllt, so zeigt die zweite Gleichung, dass es auf der imaginären Achse außer λ = 0 keine Eigenwerte gibt. Daher ist das Equilibrium x∗ normal hyperbolisch, falls u∗ nicht ausgeartet ist. Multiplikation der ersten Gleichung mit σ , der zweiten mit ρ und Addition führt auf σ (σ 2 + ρ 2 )|v|22 + (σ 2 + ρ 2 )Re(g  (0)v|v) + σ (Bv|v) = 0. Ist B = ∇ 2 φ(u∗ ) positiv semidefinit, so zeigt diese Gleichung, dass es in der offenen rechten Halbebene, also für σ > 0, keine Eigenwerte gibt. In diesem Fall ist x∗ daher normal stabil, falls u∗ nicht ausgeartet ist. Wir fassen das Bewiesene in folgendem Satz zusammen. Satz 10.6.1. Sei φ ∈ C 2 (Rn ; R), g ∈ C 1 (Rn ; Rn ), g(0) = 0 und es gelte mit einem η > 0 (g  (0)y|y) ≥ η|y|2 ,

282

10 Linearisierung und invariante Mannigfaltigkeiten

für alle y ∈ Rn . Sei u∗ ein kritischer Punkt von φ und x∗ = (u∗ , 0) ∈ E sei das zugehörige Equilibrium von (10.46). Dann gelten 1. Ist ∇ 2 φ(u∗ ) nicht singulär, dann ist x∗ ∈ E ein hyperbolischer Punkt von (10.46), also asymptotisch stabil, falls ∇ 2 φ(u∗ ) positiv definit und ein Sattelpunkt, falls ∇ 2 φ(u∗ ) indefinit ist. 2. Ist ∇ 2 φ(u∗ ) singulär, aber u∗ nicht ausgeartet, dann ist x∗ ∈ E normal hyperbolisch, und sogar normal stabil, falls ∇ 2 φ(u∗ ) positiv semidefinit ist. 3. Sei φ zusätzlich koerziv und gelte (g(y)|y) > 0 für alle y ∈ Rn \ {0}. Dann konvergiert jede Lösung x(t) von (10.46), die ein nichtsinguläres oder ein normal stabiles oder ein normal hyperbolisches Equilibrium in ihrer Limesmenge ω+ (x) hat, für t → ∞ gegen ein Equilibrium. Beweis. Die dritte Behauptung folgt direkt aus Korollar 10.5.2 im Falle eines normal stabilen oder normal hyperbolischen Equilibriums in ω+ (x). Liegt jedoch ein nichtsingulärer Punkt (u∗ , 0) ∈ ω+ (x) vor, so ist (u∗ , 0) isoliert in E, also gilt ω+ (x) = {(u∗ , 0)}, da ω+ (x) zusammenhängend ist. Daraus folgt die Konvergenz der Lösung x(t)  gegen (u∗ , 0). Man vergleiche dieses Resultat mit Korollar 8.8.3 aus Abschn. 8.8.

10.7

Die stabile und die instabile Faserung

Sei G ⊂ Rn nichtleer, offen und f ∈ C 1 (G; Rn ). In diesem Abschnitt wollen wir den von der Differentialgleichung u˙ = f (u)

(10.48)

erzeugten Fluss in einer Umgebung eines normal hyperbolischen Equilibriums u∗ ∈ E = f −1 (0) genauer untersuchen. Ist u∗ ∈ E normal hyperbolisch, dann ist auch jedes w ∈ E in der Nähe von u∗ normal hyperbolisch. Daher sollte es in jedem w ∈ E ∩ Br (u∗ ) eine w w stabile Mannigfaltigkeit Mw s und eine instabile Mannigfaltigkeit Mu geben mit Ms ∩ w Mu ∩ Br (u∗ ) = {w}, und diese Mannigfaltigkeiten sollten stetig von w abhängen. Ihre Tangentialräume in w sollten die Bilder der Projektionen sein, die von den stabilen bzw. instabilen Teilräumen der Linearsisierung f  (w) herrühren. Unser Ziel ist es, diese Behauptungen zu beweisen. Die Familie der stabilen bzw. w instabilen Mannigfaltigkeiten Mw s und Ms bildet die stabile bzw. instabile Faserung w Ms und Mu von (10.48) in einer Umgebung von u∗ , und Mw s bzw. Mu bilden die Fasern. Diese sind positiv und negativ invariant bzgl. des von (10.48) erzeugten Flusses,

10.7 Die stabile und die instabile Faserung

283

und daher sind die für t → ∞ gegen w konvergierenden Lösungen genau die Lösungen mit Anfangswert u0 ∈ Mw s auf der stabilen Faserung; analoges gilt für t → −∞; vgl. Abb. 10.3. Im normal stabilen Fall ist die stabile Faserung eine Umgebung von u∗ , wie Satz 10.3.1 zeigt. Die Fasern der Faserungen sind C 1 -Mannigfaltigkeiten, die aber nur stetig von w ∈ E abhängen, sofern f ∈ C 1 ist. Dieser Verlust an Regularität in Richtung von E ist unvermeidlich. Man sollte die Situation mit der Normalen ν einer Hyperfläche im Rn vergleichen: ist ∈ C k , k ≥ 1, dann ist ν ∈ C k−1 . Allgemeiner werden wir sehen, dass k f ∈ C k die Regularität Mw i ∈ C , k ≥ 1, i = s, u nach sich zieht, aber die Faserungen k−1 Mi sind nur in C . Das Resultat über die stabile Faserung Ms lautet wie folgt. Satz 10.7.1. Sei G ⊂ Rn offen, f ∈ C 1 (G; Rn ), u∗ ∈ E = f −1 (0) ⊂ G normal hyperbolisch. Dann gibt es ein r > 0 und eine stetige Abbildung λs : BrXs (0) × BrXc (0) → Rn mit λs (0, 0) = u∗ , so dass die Lösung u(t) von (10.48) mit Anfangswert u(0) = λs (y0 , ξ ) global nach rechts existiert und u(t) → u∞ (ξ ) := u∗ + ξ + φ(ξ ),

t →∞

mit exponentieller Rate erfüllt. Dabei parametrisiert die Abbildung ξ → u∞ (ξ ) die Equilibriumsmenge E nahe u∗ . Das Bild von λs definiert die stabile Faserung Ms von (10.48) nahe u∗ . Für ein fixiertes ξ ∈ BrXc (0) definieren die Funktionen λξs : BrXs (0) → Rn , ξ

ξ

λξs (y0 ) := λs (y0 , ξ ),

die stabilen Fasern Ms := λs (BrXs (0)) der Faserung. Ferner gelten: Abb. 10.3 Faserungen bei u∗ ∈ E

284

10 Linearisierung und invariante Mannigfaltigkeiten

(i) Ein Anfangswert u0 ∈ Bδ (u∗ ) gehört genau dann zu Ms , wenn die zugehörige Lösung u(t) von (10.48) global nach rechts existiert und exponentiell gegen ein u∞ ∈ E konvergiert. ξ (ii) Die Funktionen λs sind aus C 1 und Dy0 λs ist stetig in (y0 , ξ ). ξ (iii) Die Fasern Ms sind C 1 -Mannigfaltigkeiten, die invariant für den von (10.48) erzeugten Fluss sind. (iv) Der Tangentialraum von Mus ∞ in u∞ ∈ E ist genau die Projektion des stabilen Teilraums der Linearisierung f  (u∞ ). (v) Ist u∗ normal stabil, dann ist Ms eine Umgebung von u∗ . Analoges gilt für die instabile Faserung. Satz 10.7.2. Sei G ⊂ Rn offen, f ∈ C 1 (G; Rn ), u∗ ∈ E = f −1 (0) ⊂ G normal hyperbolisch. Dann gibt es ein r > 0 und eine stetige Abbildung λu : BrXu (0) × BrXc (0) → Rn mit λu (0, 0) = u∗ , so dass die Lösung u(t) von (10.48) mit Anfangswert u(0) = λu (z0 , ξ ) global nach links existiert und u(t) → u∞ (ξ ) := u∗ + ξ + φ(ξ ),

t → −∞

mit exponentieller Rate erfüllt. Dabei parametrisiert die Abbildung ξ → u∞ (ξ ) die Equilibriumsmenge E nahe u∗ . Das Bild von λu definiert die instabile Faserung Mu von (10.48) bei u∗ ,. Für ein fixiertes ξ ∈ BrXc (0) definieren die Funktionen λξu : BrXu (0) → Rn , ξ

λξu (z0 ) := λu (z0 , ξ ),

ξ

die instabilen Fasern Mu := λu (BrXu (0)) der Faserung. Ferner gelten: (i) Ein Anfangswert u0 ∈ Bδ (u∗ ) gehört genau dann zu Mu , wenn die zugehörige Lösung u(t) von (10.48) global nach links existiert und für t → −∞ exponentiell gegen ein u∞ ∈ E konvergiert. ξ (ii) Die Funktionen λu sind aus C 1 und Dz0 λu ist stetig in (z0 , ξ ). ξ (iii) Die Fasern Mu sind C 1 -Mannigfaltigkeiten, die invariant für den von (10.48) erzeugten Fluss sind. (iv) Der Tangentialraum von Muu∞ in u∞ ∈ E ist genau die Projektion des instabilen Teilraums der Linearisierung f  (u∞ ). Weitergehende Regularität von λi enthält das ξ

Korollar 10.7.3. Sei zusätzlich f ∈ C k , k ∈ N∪{∞}. Dann sind λi ∈ C k−1 , und λi ∈ C k , i ∈ {s, u}.

10.7 Die stabile und die instabile Faserung

285

Die Konstruktion der Faserungen beruht auf der sogenannten asymptotischen Normalform von (10.48), die folgendermaßen definiert ist. Dazu seien Pl für l ∈ {s, c, u} die Spektralprojektionen von A = f  (u∗ ) wie in den Abschn. 10.4 and 10.5. Man parametrisiert wie dort die Equilibriumsmenge E nahe bei u∗ mittels der Abbildung ξ → u∗ + ξ + φ(ξ ), c ξ ∈ BRX (0), wobei φ = φs + φu mit φl , l ∈ {s, u}, wie in (10.32) (man beachte φl (0) = φl (0) = 0). Für die Abweichung v = u − u∗ vom Equilibrium u∗ erhält man wie zuvor die zu (10.48) äquivalente DGL v˙ = Av + h(v),

t > 0,

v(0) = v0 ,

wobei v0 = u0 −u∗ und h(v) = f (v+u∗ )−f  (u∗ )v für v ∈ G−u∗ mit h(0) = h (0) = 0. Wir definieren nun die neuen Variablen x = Pc v − ξ = Pc (u − u∗ ) − ξ, y = Ps v − φs (ξ ) = Ps (u − u∗ ) − φs (ξ ),

(10.49)

z = Pu v − φu (ξ ) = Pu (u − u∗ ) − φu (ξ ), also gilt u = x + y + z + u∗ + ξ + φ(ξ ) bzw. v = x + y + z + ξ + φ(ξ ). Mit Al := Pl A und Rl (x, y, z, ξ ) := Pl (h(x + y + z + ξ + φ(ξ )) − h(ξ + φ(ξ ))), l = c, s, u, erhält man nach einer direkten Rechnung das zu (10.48) äquivalente System x˙ = Rc (x, y, z, ξ ),

x(0) = x0 − ξ,

y˙ = As y + Rs (x, y, z, ξ ),

y(0) = y0 − φs (ξ ),

z˙ = Au z + Ru (x, y, z, ξ ),

z(0) = z0 − φu (ξ ),

(10.50)

wobei x0 = Pc (u0 − u∗ ), y0 = Ps (u0 − u∗ ), z0 = Pu (u0 − u∗ ). Man beachte Rl (0, 0, 0, ξ ) = 0 für alle ξ ∈ BRXc (0) und D(x,y,z) Rl (0, 0, 0, 0) = Pl h (0) = 0. Die Equilibriumsmenge E von (10.48) nahe u∗ wird damit auf die Menge {(0, 0, 0)} × BRXc (0) transformiert.

286

10 Linearisierung und invariante Mannigfaltigkeiten

Zur Konstruktion der Faserungen findet der Satz über implizite Funktionen erneut Anwendung. Sei dazu Y := Xs × Xc und X := {(x, y, z) ∈ C(R+ ; Xc × Xs × Xu ) : ||(x, y, z)||σ < ∞}, mit ||(x, y, z)||σ := sup eσ t (|x(t)| + |y(t)| + |z(t)|), t>0

wobei σ ∈ (0, ω) und ω > 0 wird so gewählt, dass |eAs t |B(Xs ) , |e−Au t |B(Xu ) ≤ Me−ωt für alle t ≥ 0 erfüllt ist. Wir definieren nun eine Abbildung Hs : BRX (0) × BRY (0) → X durch Hs (x, y, z; y0 , ξ )(t) := ⎤ ⎡ ∞ x(t) + t Rc (x(τ ), y(τ ), z(τ ), ξ )dτ  ⎥ ⎢ := ⎣ y(t) − eAs t (y0 − φs (ξ )) − 0t eAs (t−τ ) Rs (x(τ ), y(τ ), z(τ ), ξ )dτ ⎦  ∞ A (t−τ ) Ru (x(τ ), y(τ ), z(τ ), ξ )dτ. z(t) + t e u

(10.51)

Dann ist Hs : BRX (0) × BRY (0) → X wohldefiniert, denn es gilt zum Beispiel 



eσ t





Rc (x(τ ), y(τ ), z(τ ), ξ )dτ =

t

eσ (t−τ ) eσ τ Rc (x(τ ), y(τ ), z(τ ), ξ )dτ.

t

Nun ist τ → eσ τ Rc (x(τ ), y(τ ), z(τ ), ξ ) beschränkt und τ → eσ (t−τ ) integrierbar auf (t, ∞), also sind die Integrale endlich. Ferner ist Hs stetig, sowie stetig differenzierbar bezüglich der Variablen (x, y, z, y0 ) (bezüglich der Variablen ξ ist Hs im Allgemeinen nur stetig). Offenbar gilt Hs (0, 0, 0; 0, 0) = 0 und die Ableitung D(x,y,z) Hs (0, 0, 0; 0, 0) = IX ist invertierbar. Der Satz über implizite Funktionen Satz 10.1.2 liefert die lokale, stetige, eindeutige Auflösung s : BrY (0) → X mit s (0, 0) = (0, 0, 0) und Hs ( s (y0 , ξ ); y0 , ξ ) = 0,

(y0 , ξ ) ∈ BrY (0).

Ferner ist s stetig differenzierbar in y0 aber leider nur stetig in ξ . Ist nun f ∈ C k für k ∈ N ∪ {∞}, dann ist s aus C k−1 , und sogar aus C k für festes ξ . Für (x, y, z) =

s (y0 , ξ ) ∈ X setzen wir  x0 := ξ + x(0) = ξ −



Rc (x(τ ), y(τ ), z(τ ), ξ )dτ, 0

10.7 Die stabile und die instabile Faserung

287

und 



z0 := φu (ξ ) + z(0) = φu (ξ ) −

e−Au s Ru (x(τ ), y(τ ), z(τ ), ξ )dτ.

0

Ist (x, y, z) = s (y0 , ξ ) ∈ X, so liefert die Gleichung H ( s (y0 , ξ ); y0 , ξ ) = 0 die Identitäten x(t) ˙ = Rc (x(t), y(t), z(t), ξ ), t > 0,

x(0) = x0 − ξ,

y(t) ˙ = As y(t) + Rs (x(t), y(t), z(t), ξ ), t > 0,

y(0) = y0 − φs (ξ ),

z˙ (t) = Au y(t) + Ru (x(t), y(t), z(t), ξ ), t > 0,

z(0) = z0 − φu (ξ ),

und

also löst (x, y, z) das System (10.50). Dann ist u(t) := u∗ + x(t) + y(t) + z(t) + ξ + φ(ξ ) für t ≥ 0 eine Lösung von (10.48) und es gilt lim u(t) = u∗ + ξ + φ(ξ ) =: u∞ ∈ E

t→∞

mit exponentieller Rate, da (x, y, z) ∈ X. Die Abbildung λs : BrY (0) → Rn , definiert durch λs (y0 , ξ ) := u(0) = u∗ + x(0) + y(0) + z(0) + ξ + φ(ξ ) = u∗ + x(0) + y(0) + z(0) + ξ + φs (ξ ) + φu (ξ )

(10.52)

= u∗ + x0 + y0 + z0 , bildet die stabile Faserung der stabilen Mannigfaltigkeit Ms nahe dem normal hyperbolischen Equilibrium u∗ und , Mξs := λs (y0 , ξ ) : y0 ∈ BδXs (0) sind die stabilen Fasern für ξ ∈ BδXc (0), wobei δ ∈ (0, r) so gewählt ist, dass BδXs (0) × BδXc (0) ⊂ BrY (0) gilt. ξ ξ Da λs = λs (·, ξ ) für jedes ξ ∈ BδXc (0) stetig differenzierbar ist, sind die Fasern Ms C 1 -Mannigfaltigkeiten. Ferner sind die Fasern invariant, da die DGL (10.48) invariant gegenüber Zeit-Translationen ist, also gelten (ii) & (iii). Die Charakterisierung (i) von Ms

288

10 Linearisierung und invariante Mannigfaltigkeiten

folgt dann aus der Konstruktion und der Eindeutigkeit der Auflösungsfunktion s . Um Aussage (iv) zu beweisen, beachte man, dass Dy0 s (0, 0)w0 = [0, e−As t w0 , 0]T gilt, also Dy0 λs (0, 0) = IXs . Daher ist der Tangentialraum von M0s in u∗ genau die Projektion des stabilen Teilraums der Linearisierung f  (u∗ ). Den allgemeinen Fall erhält man durch Vertauschung der Rollen von u∗ und u∞ . Schließlich zeigt Satz 10.4.1, dass Ms eine Umgebung von u∗ ist, falls u∗ normal stabil ist, also gilt (v). Zur Konstruktion der instabilen Faserung kehrt man die Zeitrichtung um und verwendet die Abbildung Hu (x, y, z; z0 , ξ )(t) := ⎤ ⎡ t x(t) − −∞ Rc (x(τ ), y(τ ), z(τ ), ξ )dτ  ⎥ ⎢ t := ⎣ y(t) − −∞ eAs (t−τ ) Rs (x(τ ), y(τ ), z(τ ), ξ )dτ ⎦  0 z(t) − eAu t (z0 − φu (ξ )) + t eAu (t−τ ) Ru (x(τ ), y(τ ), z(τ ), ξ )dτ.

(10.53)

für t ≤ 0 auf dem Raum X × Y , wobei hier Y = Xu × Xc und X := {(x, y, z) ∈ C(R− ; Xc × Xs × Xu ) : ||(x, y, z)||σ < ∞}, mit ||(x, y, z)||σ := sup e−σ t (|x(t)| + |y(t)| + |z(t)|). t 0 kann wie zuvor gewählt werden.

Übungen 10.1 Es gelten die Bezeichnungen aus Satz 10.1.1. Zeigen Sie, dass die Abbildung H : Xs × BrU (0) → U , definiert durch 



t

H (x, u)(t) = u(t) − e x − At

e

A(t−s)



Ps h(u(s))ds +

0

eA(t−s) Pu h(u(s))ds

t

stetig differenzierbar bezüglich (x, u) ∈ Xs × BrU (0), r > 0, ist, wobei U den Banachraum U = {u ∈ C(R+ ; Rn ) : &u&η = sup |u(t)|eηt/2 < ∞}, η > 0 t≥0

bezeichnet.

Übungen

289

10.2 Seien Ms bzw. Mu die stabile bzw. instabile Mannigfaltigkeit aus Satz 10.1.1. Zeigen Sie, dass im Fall Mu ∩ Ms = {z∗ } die Topologie auf Ms mit der von Rn übereinstimmt. 10.3 Sei G ⊂ R2 das Dreieck, welches durch die Punkte (0, 0), (1, 0) und (1, −α), α > 0 aufgespannt wird. Zeigen Sie, dass das Dreieck G für die Fisher-Gleichung (10.9) invariant ist, falls man α > 0 geeignet wählt. 10.4 Gegeben sei das System von Differentialgleichungen (∗)

x˙ = ϕ(|x|2 )x,

mit einer C 1 -Funktion ϕ : [0, ∞) → R. (a) Bestimmen Sie alle Equilibria von (∗). (b) Charakterisieren Sie normal stabil bzw. normal hyperbolisch für (∗). 10.5 Zeigen Sie für die Huxley-Gleichung ∂s u =

u + f (u),

mit f (r) = r(1 − r)(r − a), r ∈ R, a ∈ (0, 1/2) die Existenz einer Wellenfront.

11

Periodische Lösungen

In diesem Kapitel beschäftigen wir uns mit der Existenz periodischer Lösungen der Differentialgleichung x˙ = A(t)x + b(t), mit τ -periodischen Funktionen A ∈ C(R; Rn×n ) und b ∈ C(R; Rn ). Wir untersuchen ferner das Stabilitätsverhalten periodischer Lösungen der Differentialgleichung x˙ = f (t, x) für τ -periodische Funktionen f (t + τ, x) = f (t, x), welche stetig in t und stetig differenzierbar in x sind. Wir werden sehen, dass sich das Stabilitätsverhalten grundlegend ändert, wenn man die Funktion f (t, x) durch eine autonome Funktion f (x) ersetzt. Bevor wir mit der eigentlichen Existenz- und Stabilitätstheorie periodischer Lösungen starten können, benötigen wir den Funktionalkalkül und beweisen außerdem den spektralen Abbildungssatz für beschränkte lineare Operatoren in Cn .

11.1

Der Funktionalkalkül

Sei A ∈ Cn×n und f : U → C holomorph in einer offenen Umgebung U ⊃ σ (A). Diese Funktionen bilden eine Algebra, die wir mit H(U ) bezeichnen. Für solche f lässt sich in eindeutiger Weise ein f (A) ∈ Cn×n definieren. Die Abbildung  : H(U ) → Cn×n , f → f (A), heißt Funktionalkalkül. Sie besitzt sehr schöne Eigenschaften, die in der Analysis sehr nützlich sind. Ist U = BR (0) ⊃ σ (A) eine Kugel so besitzt f ∈ H(U ) eine Potenzreihendarstellung  f (z) = k≥0 fk zk , deren Konvergenzradius ≥ R ist. Dann ist die Definition  f (A) = fk Ak k≥0

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_11

291

292

11 Periodische Lösungen

natürlich, und diese Reihe ist absolut konvergent, da der Spektralradius r(A) von A kleiner als R ist. Ein Beispiel, dass wir schon in Kap. 3 betrachtet haben, ist ft (z) = ezt , mittels der Exponentialreihe hatten wir ein Fundamentalsystem für die Gleichung x˙ = Ax gefunden. Allgemeiner hilft hier die folgende Konstruktion, die auf Funktionentheorie basiert. Sei U ⊃ σ (A) fixiert. Wähle eine rechtsorientierte Jordan-Kurve ⊂ U \ σ (A) so, dass die Windungszahl n( , λ) = 1 für jedes λ ∈ σ (A) ist. Solche Kurven nennen wir zulässig. muss nicht unbedingt zusammenhängend sein, z. B. könnte aus r kleinen Kreisen um die Eigenwerte λ1 , . . . , λr von A bestehen. Für f ∈ H(U ), definieren wir f (A) =

1 2π i



f (z)(z − A)−1 dz.

(11.1)



Man beachte, dass die Resolvente (z − A)−1 von A auf der Resolventenmenge, also der offenen Menge ρ(A) = C \ σ (A) wohldefiniert und holomorph ist. Daher ist diese Definition unabhängig von der speziellen Wahl von , ein Dankeschön an den Integralsatz von Cauchy. Ist f holomorph in BR (0), R > r(A), so kann man als Kurve den Kreis = ∂Br (0)  wählen, wobei r(A) < r < R ist. Ist f (z) = k≥0 fk zk die Potenzreihe von f , so folgt f (z) =

1 2π i



f (z)(z − A)−1 dz =





fk Ak =

k≥0



fk Ak ,

k≥0

denn es ist Ak :=

1 2π i



zk (z − A)−1 dz = Ak ,

k ∈ N0 ,



was man leicht mittels der Identität z(z − A)−1 = I + A(z − A)−1 , dem Integralsatz von Cauchy und Induktion sieht. Daher ist die Definition von f (A) in (11.1) konsistent mit der für Potenzreihen. Die Abbildung  : H(U ) → Cn×n definiert durch (f ) = f (A) ist offenbar linear und stetig. Sie ist aber auch multiplikativ und daher ein Algebrenhomomorphismus. Dies sieht man folgendermaßen: Sei  eine weitere zulässige Kurve, sodass innerhalb von  liegt; es ist dann n( , z) = 0 für alle z ∈  , und n(  , z) = 1 für alle z ∈ . Sind nun f, g ∈ H(U ), so gilt mit der Resolventengleichung (z − A)−1 (w − A)−1 = (w − z)−1 [(z − A)−1 − (w − A)−1 ], dem Satz von Fubini und dem Residuensatz:   1 f (z)g(w)(z − A)−1 (w − A)−1 dwdz f (A)g(A) = (2π i)2 

11.1 Der Funktionalkalkül

293

1 = (2π i)2

  



f (z)g(w)(w − z)−1 (z − A)−1 dwdz

  1 f (z)g(w)(w − z)−1 (w − A)−1 dwdz (2π i)2    1 = f (z)[ g(w)(w − z)−1 dw](z − A)−1 dz  (2π i)2   1 − g(w)[ f (z)(w − z)−1 dz](w − A)−1 dw (2π i)2   1 = f (z)g(z)(z − A)−1 dz = (f · g)(A). 2π i −

Insbesondere ist die Algebra (H(U )) ⊂ Cn×n kommutativ. Die Tatsache, dass  ein Algebrenhomomorphismus ist, hat wichtige Konsequenzen. Dazu sei λ ∈ σ (A) und Av = λv, v = 0. Dann ist (z − A)−1 v = (z − λ)−1 v für z ∈ ρ(A). Folglich gilt mit der Cauchyformel  1 f (A)v = f (z)(z − λ)−1 vdz = f (λ)v. 2π i Damit ist f (λ) Eigenwert von f (A), d. h. es gilt f (σ (A)) ⊂ σ (f (A)). Sei umgekehrt μ ∈ C, μ ∈ f (σ (A)). Dann ist die Funktion g(z) = 1/(μ − f (z)) in einer Umgebung U von σ (A) holomorph, und mit der Multiplikativität des Funktionalkalküls erhalten wir g(A)(μ − f (A)) = [g · (μ − f )](A) = 1(A) = I, also ist μ − f (A) invertierbar. Damit haben wir den Spektralabbildungssatz bewiesen: σ (f (A)) = f (σ (A)),

für alle f ∈ H(U ).

Sei nun allgemeiner (λ − A)k v = 0. Mittels Induktion folgt dann k−1 

(z − A)−1 v =

(−1)j (z − λ)−j −1 (λ − A)j v,

j =0

und daher mit Cauchy’s Integralformel f (A)v =

k−1 

(−1)j [

j =0

=

k−1  j =0

(−1)j

1 2π i



f (z)(z − λ)−j −1 dz](λ − A)j v



f (j ) (λ) (λ − A)j v. j!

(11.2)

294

11 Periodische Lösungen

Speziell für k = 2 ergibt dies (f (λ) − f (A))v = f  (λ)(λ − A)v,

(f (λ) − f (A))2 v = (f  (λ))2 (λ − A)2 v.

(11.3)

Es folgt f (A)N ((λ − A)k ) ⊂ N ((λ − A)k ) für alle k ∈ N, insbesondere lässt f (A) alle verallgemeinerten Eigenräume von A invariant. Sei nun jedes λ ∈ σ (A) mit f (λ) = μ halbeinfach für A, und sei f  (λ) = 0 auf f −1 (μ) ∩ σ (A). Ist (μ − f (A))2 v = 0, so folgt (μ − f (A))2 vj = 0 für jedes vj ∈ N (λj ), f (λj ) = μ, da die verallgemeinerten Eigenräume linear unabhängig sind. Gl. (11.3) impliziert (λj − A)2 vj = 0 also (λj − A)vj = 0 und dann mit (11.3) auch (μ − f (A))vj = 0. Daher ist der Eigenwert μ halbeinfach für f (A). Ebenso sieht man die Umkehrung: Ist (λ − A)2 v = 0 für ein λ ∈ f −1 (μ), dann mit (11.3) (μ − f (A))2 v = 0. Ist μ halbeinfach für f (A) so folgt (μ − f (A))v = 0 und dann mit (11.3) und f  (λ) = 0 auch (λ − A)v = 0. Wir fassen das bewiesene im folgenden Satz zusammen. Satz 11.1.1. Sei A ∈ Cn×n , und U ⊃ σ (A) offen. Dann ist der Funktionalkalkül  : H(U ) → Cn×n definiert durch  1 f (z)(z − A)−1 dz (f ) = f (A) := 2π i ein Algebrenhomomorphismus. Die Abbildung  hat die folgenden Eigenschaften: 1. 2. 3. 4. 5.

(H(U )) ist eine kommutative Unteralgebra von Cn×n . Es gilt (zk ) = Ak für alle k ∈ N0 . f (A)N ((λ − A)k )) ⊂ N ((λ − A)k ) für alle k ∈ N, λ ∈ σ (A), f ∈ H(U ). σ (f (A)) = f (σ (A)) für alle f ∈ H(U ) (Spektralabbildungssatz). Gelte f  (λ) = 0 für alle λ ∈ f −1 (μ) ∩ σ (A). (a) μ ist genau dann halbeinfacher Eigenwert für f (A), wenn jedes λ ∈ f −1 (μ) ∩ σ (A) halbeinfach für A ist. 9 (b) Es gilt N (μ − f (A)) = f (λ)=μ N(λ − A).

11.2

Floquet-Theorie

Seien A ∈ C(R; Rn×n ) und b ∈ C(R; Rn ) τ -periodisch. In diesem Abschnitt untersuchen wir das lineare System x˙ = A(t)x + b(t),

x(0) = x0 ,

(11.4)

und das zugehörige lineare homogene System y˙ = A(t)y,

y(0) = y0 .

(11.5)

11.2 Floquet-Theorie

295

Es sei Y (t) ein reelles Fundamentalsystem für (11.5), es gelte also det Y (0) = 0 und Y˙ (t) = A(t)Y (t), t ∈ R. Nach Lemma 3.1.2 erfüllt die Funktion ϕ(t) = det Y (t) die Differentialgleichung ϕ˙ = sp A(t)ϕ,

(11.6)

insbesondere ist ϕ(t) = 0 für alle t ∈ R. Auf Grund der Periodizität von A(t) ist Z(t) = Y (t + τ ) wieder ein Fundamentalsystem für (11.5), denn es ist det Z(0) = det Y (τ ) = ϕ(τ ) = 0 und ˙ Z(t) = Y˙ (t + τ ) = A(t + τ )Y (t + τ ) = A(t)Z(t), t ∈ R. Daher gibt es eine Matrix M ∈ Rn×n mit der Eigenschaft Y (t + τ ) = Y (t)M und det M = 0. Ist Z(t) ein weiteres Fundamentalsystem, so gilt einerseits Z(t + τ ) = Z(t)M˜ mit einer regulären Matrix M˜ ∈ Rn×n und andererseits Z(t) = Y (t)C, det C = 0, folglich ˜ Z(t + τ ) = Y (t + τ )C = Y (t)MC = Z(t)C −1 MC = Z(t)M. Die Matrix M ist also bis auf Ähnlichkeitstransformationen eindeutig bestimmt. Sei Y0 (t) das Fundamentalsystem von (11.5) mit Y0 (0) = I . Die zugehörige Matrix M0 = Y0 (τ ), die also der Relation Y0 (t + τ ) = Y0 (t)M0 genügt, heißt MonodromieMatrix von (11.5) und ihre Eigenwerte μ1 , . . . , μr heißen Floquet-Multiplikatoren. Man beachte, dass die Beziehung r :

κ

μj j = det Y0 (τ ) = e

τ 0

sp A(t)dt

> 0,

(11.7)

j =1

gilt, wobei κj die algebraische Vielfachheit von μj angibt. Insbesondere sind alle Eigenwerte der Matrix M0 von Null verschieden. Da A(t) hier als reell angenommen wurde, ist die Anzahl aller negativen Eigenwerte μj (mit Vielfachheit gezählt) gerade. Ist vj ein Eigenvektor von M0 zum Eigenwert μj , so erfüllt die Lösung yj (t) = Y0 (t)vj die Differentialgleichung (11.5) und es ist yj (τ ) = μj vj . Man kann die FloquetMultiplikatoren auch auf diese Weise definieren. Für die eigentliche Floquet-Theorie benötigen wir nun die Tatsache, dass jede invertierbare Matrix M einen Logarithmus in folgendem Sinne besitzt. Es existiert eine Matrix L ∈ Cn×n mit M = eL . Die Matrix L ist im Allgemeinen nicht eindeutig bestimmt und komplex-wertig. Man erhält eine solche Matrix L mit dem Funktionalkalkül log M =

1 2π i



(z − M)−1 log zdz.

(11.8)

296

11 Periodische Lösungen

Dabei ist z. B. log z der Hauptzweig des komplexen Logarithmus und bezeichnet eine Jordan-Kurve, welche alle Eigenwerte λ ∈ σ (M) rechtssinnig umrundet, sodass die 0 im Außengebiet von liegt. Eine solche Kurve existiert stets, da det M = 0 gilt. Je nach Wahl von erhält man unterschiedliche Logarithmen. Wesentlich schwieriger gestaltet sich die Frage, ob eine reelle Matrix M mit det M = 0 einen reellen Logarithmus besitzt. Schon das eindimensionale Beispiel M = −1 zeigt, dass die Antwort auf diese Frage im Allgemeinen negativ ausfällt. Tatsächlich ist det M > 0 eine notwendige Bedingung für die Existenz eines reellen Logarithmus von M. Denn ist M reell und existiert eine reelle Matrix L mit M = eL , so folgt det M = det eL = esp L > 0. Die Bedingung det M > 0 ist aber keineswegs hinreichend, wie das Beispiel   −α 0 M= , α, β > 0, α = β, 0 −β aus Übung 11.1 zeigt. Dass die Verhältnisse für Monodromie-Matrizen nicht besser sind, zeigt das Beispiel. x¨ + (cos2 t − 2)x˙ + (2 − cos2 t + sin t cos t)x = 0. Die dazugehörige Matrix für das äquivalente System erster Ordnung ist durch   0 1 A(t) = −2 + cos2 t − sin t cos t 2 − cos2 t gegeben. Die Matrix A(t) ist τ -periodisch, mit der Periode τ = π . Man rechnet leicht nach, dass eine Lösung durch die Funktion x1 (t) = et cos t gegeben ist. Nun ist x˙1 (t) = et (cos t − sin t), also         x1 (π ) π cos π π 1 π x1 (0) =e , = −e = −e x˙1 (π ) x˙1 (0) cos π 1 das heißt, μ1 = −eπ ist ein Floquet-Multiplikator. Den zweiten Multiplikator erhält man aus dem Ansatz μ1 μ2 = det M = e

π 0

sp A(s)ds



= e2π −

0

cos2 sds

= e3π/2 ,

also μ2 = −eπ/2 . Die Monodromie-Matrix M ist daher ähnlich zu 

 −eπ 0 , 0 −eπ/2

und wie wir gerade gesehen haben, gibt es zu dieser Matrix keinen reellen Logarithmus.

11.2 Floquet-Theorie

297

Abb. 11.1 Integrationsweg 1

Es dürfte nun klar geworden sein, dass das Problem mit dem reellen Logarithmus bei den negativen Eigenwerten von M liegt. Besitzt M keine negativen Eigenwerte, so existiert stets zu reellem M ein reeller Logarithmus. Aus Übung 11.2 folgt, dass die Matrix definiert durch  1 (λ − M)−1 log λdλ, log M = 2π i 1 reell ist, wobei 1 eine Jordan-Kurve bezeichnet, die alle Eigenwerte von M rechtssinnig umrundet, sodass (−∞, 0] im äußeren von 1 liegt und 1 symmetrisch zur reellen Achse ist; vgl. Abb. 11.1. Wir haben somit die ersten zwei Aussagen des folgenden Lemmas erhalten. Lemma 11.2.1. 1. Sei M ∈ Cn×n mit det M = 0. Dann gibt es ein L ∈ Cn×n mit M = eL . 2. Sei M ∈ Rn×n mit σ (M) ∩ (−∞, 0] = ∅ und det M > 0. Dann gibt es ein L ∈ Rn×n mit M = eL . 3. Sei M ∈ Rn×n mit det M > 0. Genau dann existiert ein L ∈ Rn×n mit M = eL , wenn es ein B ∈ Rn×n gibt, mit B 2 = M. Insbesondere gibt es zu jedem M ∈ Rn×n mit det M = 0 ein R ∈ Rn×n mit M 2 = eR . Beweis. Es bleibt nur noch die Aussage 3 zu beweisen. Seien M, L ∈ Rn×n mit M = eL . 1 Dann leistet die Matrix B = e 2 L ∈ Rn×n das gewünschte, denn B 2 = eL = M. Sei umgekehrt B ∈ Rn×n mit B 2 = M ∈ Rn×n gegeben, sodass det M > 0 ist. Wir definieren eine Projektion P1 durch  1 P1 = (λ − B)−1 dλ, 2π i

298

11 Periodische Lösungen

Abb. 11.2 Integrationsweg

wobei den in Abb. 11.2 gezeigten Integrationsweg in C bezeichnet und P2 = I − P1 .

ist symmetrisch zur reellen Achse, also sind die Projektionen reell. Mit Hilfe von P1 zerlegen wir den Raum Rn wie folgt. Es gilt Rn = X1 ⊕ X2 mit X1 = R(P1 ) und X2 = R(P2 ) und die Matrix B lässt die Räume Xj invariant, d. h. BX1 ⊂ X1 , BX2 ⊂ X2 . Ferner gilt σ (B|X1 ) ⊂ iR\{0} und σ (B|X2 )∩iR = ∅. Wegen B 2 = M, reduziert diese Zerlegung auch die Matrix M und es gilt σ (M|X1 ) ⊂ (−∞, 0) sowie σ (M|X2 ) ∩ (−∞, 0] = ∅. Nach Aussage 2 existiert für M|X2 ∈ B(X2 ) eine Matrix L2 ∈ Rn×n mit M|X2 = eL2 und ebenso existiert nach 2. für B|X1 ∈ B(X1 ) ein L1 ∈ Rn×n mit B|X1 = eL1 , denn det M|X2 und det B|X1 sind positiv, da die Determinante das Produkt der Eigenwerte ist. Wir setzen L = 2L1 P1 + L2 P2 = 2L1 ⊕ L2 . Dann gilt  2 eL = e2L1 ⊕ eL2 = eL1 ⊕ eL2 = B 2 P1 + MP2 = MP1 + MP2 = M, denn wegen LPj = Pj L, j = 1, 2, zerlegen die Projektionen auch eL .



Wir können nun den Hauptsatz der Floquet-Theorie formulieren. Satz 11.2.2 (Floquet). 1. Sei A ∈ C(R, Cn×n ) τ -periodisch und Y0 (t) sei das Fundamentalsystem von (11.5) mit Y0 (0) = I . Dann existiert ein B ∈ Cn×n und ein τ -periodisches R ∈ C 1 (R, Cn×n ) derart, dass die Darstellung Y0 (t) = R(t)eBt ,

t ∈R

(11.9)

gilt. Die Transformation z(t) = R −1 (t)x(t) führt das System (11.4) in das System z˙ = Bz + c(t),

z(0) = z0

(11.10)

11.2 Floquet-Theorie

299

über, mit z0 = x0 und c(t) = R −1 (t)b(t). Es gilt ferner R˙ = AR − RB,

t ∈ R,

R(0) = I.

(11.11)

Ist A(t) reell und kein Floquet-Multiplikator negativ, so können B und R(t) reell gewählt werden. 2. Sei A ∈ C(R, Rn×n ) τ -periodisch und Y0 (t) das reelle Fundamentalsystem von (11.5) mit Y0 (0) = I . Dann existiert ein B ∈ Rn×n und ein 2τ -periodisches R ∈ C 1 (R, Rn×n ) derart, dass die reelle Darstellung Y0 (t) = R(t)eBt ,

t ∈ R,

(11.12)

gilt. Die Gl. (11.10) und (11.11) gelten auch in diesem Fall. Beweis. 1. Sei B = τ1 log M0 und R(t) = Y0 (t)e−Bt . Dann ist R stetig differenzierbar bezüglich t und es gilt R(t + τ ) = Y0 (t + τ )e−B(t+τ ) = Y0 (t)(M0 e−Bτ )e−Bt = Y0 (t)e−Bt = R(t), das heißt, R ist τ -periodisch. Ferner gilt ˙ = Y˙0 (t)e−Bt − Y0 (t)e−Bt B = A(t)R(t) − R(t)B, R(t)

t ∈ R,

und die Transformation z(t) = R −1 (t)x(t) ergibt die Differentialgleichung  z˙ (t) =

 d −1 R (t) x(t) + R −1 (t)x(t) ˙ dt

−1 ˙ = −R −1 (t)R(t)R (t)x(t) + R −1 (t)(A(t)x(t) + b(t)) = Bz(t) + c(t).

2. Sei nun A(t) reellwertig. Es gilt Y0 (2τ ) = Y0 (τ )M0 = M02 , da Y0 (τ ) = M0 ist. Nach Lemma 11.2.1 existiert ein reeller Logarithmus log M02 . Setzen wir nun B = 2τ1 log M02 ∈ Rn×n , so ist die reelle matrixwertige Funktion R(t) = Y0 (t)e−Bt 2τ -periodisch, denn R(t + 2τ ) = Y0 (t + 2τ )e−Bt e−B2τ = Y0 (t)e−Bt M02 e−B2τ = R(t). Die Transformation z(t) = R −1 (t)x(t) liefert dann (11.10) und R(t) erfüllt die reelle Differentialgleichung (11.11). 

300

11 Periodische Lösungen

Aus der Darstellung M0 = eBτ und dem spektralen Abbildungssatz folgt die Beziehung μ = eλτ für μ ∈ σ (M0 ) und λ ∈ σ (B). Die Eigenwerte von B heißen FloquetExponenten von (11.5). Im Gegensatz zu den Floquet-Multiplikatoren sind diese jedoch nur bis auf ganzzahlige Vielfache von 2π i/τ eindeutig bestimmt. Korollar 11.2.3. Sei A ∈ C(R, Rn×n ) τ -periodisch und M0 sei die Monodromie-Matrix von (11.5). Dann gilt: 1. y = 0 ist genau dann stabil für (11.5), wenn (a) |μ| ≤ 1 für alle μ ∈ σ (M0 ) gilt; (b) |μ| = 1 für μ ∈ σ (M0 ) impliziert, dass μ halbeinfach ist. 2. y = 0 ist genau dann asymptotisch stabil für (11.5), wenn |μ| < 1 für alle μ ∈ σ (M0 ) gilt. Beweis. Wir überführen zunächst das System (11.5) mit Hilfe von Satz 11.2.2 in ein System mit einer reellen konstanten Koeffizientenmatrix B. Da R(t) und R −1 (t) stetig und beschränkt sind, folgen die Behauptungen aus Korollar 5.3.2 und der Eigenschaft  σ (M02 ) = σ (M0 )2 = eσ (B)2τ .

11.3

Lineare periodische Gleichungen

In Anwendungen ist es im Allgemeinen schwierig, wenn nicht sogar unmöglich, die Floquet-Faktorisierung (11.9) zu erhalten. Bereits die Bestimmung der FloquetMultiplikatoren und damit die Bestimmung der Matrizen M0 und B erweist sich als kompliziert. Andererseits ist Satz 11.2.2 von großem theoretischen Interesse, da der Fall einer periodischen Matrix A(t) auf den Fall einer konstanten Matrix zurückgeführt werden kann. Zur Illustration dieser Methode beweisen wir den Satz 11.3.1. Sei A ∈ C(R, Rn×n ) τ -periodisch und μj , j ∈ {1, . . . , r} seien die FloquetMultiplikatoren von (11.5). Dann gelten die folgenden Aussagen. 1. Genau dann besitzt das System (11.5) eine nichttriviale τ -periodische Lösung, wenn μj = 1 für ein j ∈ {1, . . . , r} gilt. 2. Genau dann besitzt das System (11.5) eine nichttriviale mτ -periodische Lösung, wenn μm j = 1 für ein j ∈ {1, . . . , r} gilt. Das heißt, μj ist eine m-te Einheitswurzel. 3. Genau dann besitzt das System (11.5) eine nichttriviale beschränkte Lösung, wenn |μj | = 1 für ein j ∈ {1, . . . , r} gilt. 4. Genau dann besitzt das System (11.4) zu jedem τ -periodischen b ∈ C(R, Rn ) genau eine τ -periodische Lösung, wenn μj = 1 für alle j ∈ {1, . . . , r} gilt.

11.3 Lineare periodische Gleichungen

301

5. Genau dann besitzt das System (11.4) zu jedem beschränkten b ∈ C(R, Rn ) genau eine beschränkte Lösung, wenn |μj | = 1 für alle j ∈ {1, . . . , r} gilt. Beweis. 1. Sei y(t) eine nichttriviale τ -periodische Lösung von (11.5), also y(t + τ ) = y(t) für alle t ∈ R. Ist Y0 (t) das Fundamentalsystem von (11.5) mit Y0 (0) = I , so gilt y(t) = Y0 (t)y(0). Das impliziert aber y(0) = y(τ ) = M0 y(0). Daher ist y(0) ein Eigenvektor von M0 zum Eigenwert μ = 1, denn wegen der Eindeutigkeit der Lösungen von (11.5) gilt y(0) = 0. 2. Sei umgekehrt 1 ∈ σ (M0 ), v = 0 ein Eigenvektor zum Eigenwert μ = 1 und sei y(t) = Y0 (t)v die eindeutig bestimmte Lösung von (11.5) zum Anfangswert v. Es gilt y(t + τ ) = Y0 (t + τ )v = Y0 (t)M0 v = Y0 (t)v = y(t), das heißt, y(t) ist τ -periodisch. Die Aussage 2 beweist man analog. 3. Für den Beweis dieser Aussage machen wir uns Satz 11.2.2 zunutze. Demnach können wir das System (11.5) mittels der Transformation z(t) = R −1 (t)y(t) in das reelle autonome System z˙ = Bz überführen. Ist nun |μ| = 1 für ein μ ∈ σ (M0 ), so ist μ2 ∈ σ (M02 ) und |μ2 | = 1. Wegen σ (M02 ) = e2τ σ (B) existiert also ein λ ∈ σ (B) mit Re λ = 0. Sei v = 0 der zu diesem λ gehörige Eigenvektor. Dann ist z(t) = eλt v = ei Im λt v eine Lösung von z˙ = Bz und es gilt |z(t)| = |v|, also ist z(t) beschränkt. Damit ist aber y(t) = R(t)z(t) eine beschränkte Lösung von (11.5). Sei nun y(t) eine nichttriviale beschränkte Lösung von (11.5). Dann ist z(t) ebenfalls eine beschränkte Lösung von z˙ = Bz. Nach Satz 3.3.4 setzt sich die Lösung z(t) als Linearkombination aus Termen der Form pj (t)eλt , λ ∈ σ (B), zusammen, wobei pj (t) Polynome vom Grad j ≤ m(λ) − 1, j ∈ N0 , mit Koeffizienten in Cn sind. Angenommen Re λ = 0 für alle λ ∈ σ (B). Dann gilt |z(t)| → ∞ für t → ∞ oder t → −∞, ein Widerspruch. Es existiert also ein λ ∈ σ (B) mit Re λ = 0. Wegen σ (M0 )2 = σ (M02 ) = e2τ σ (B) ist die Aussage 3 bewiesen. 4. Sei x(t) die einzige periodische Lösung von (11.4) zu gegebenem τ -periodischen 0 ≡ b ∈ C(R, Rn ). Angenommen μj = 1 für ein μj ∈ σ (M0 ), j ∈ {1, . . . , r}. Dann existiert nach Aussage 1 eine nichttriviale τ -periodische Lösung y(t) von (11.5). Damit ist aber x1 (t) := x(t)+y(t) ebenfalls eine von x(t) verschiedene τ -periodische Lösung von (11.4), ein Widerspruch zur Einzigkeit von x(t). Also gilt μj = 1 für alle μj ∈ σ (M0 ), j ∈ {1, . . . , r}. Um die Hinlänglichkeit zu zeigen, betrachten wir die zu (11.5) äquivalente Differentialgleichung (11.10). Nach Voraussetzung gilt μj = 1 für alle j ∈ {1, . . . , r}, also λj = 2π im/τ, m ∈ Z. Es ist klar, dass wir nur die Existenz einer τ periodischen Lösung zeigen müssen, denn die Eindeutigkeit ist nach 1. klar. Die Lösungen von (11.10) sind gegeben durch  z(t) = eBt z0 + 0

t

eB(t−s) c(s)ds.

302

11 Periodische Lösungen

Um eine τ -periodische Lösung zu erhalten, muss z0 so bestimmt werden, dass z(τ ) = z0 gilt. Das führt auf die Identität  z0 = e



τ

z0 +

eB(τ −s) c(s)ds.

0

Nach Satz 11.2.2 gilt σ (eBτ ) = σ (M0 ), also 1 ∈ / σ (eBτ ). Daher ist die Matrix I − eBτ invertierbar und wir können die obige Identität nach z0 wie folgt auflösen z0 = (I − eBτ )−1



τ

eB(τ −s) c(s)ds.

0

Schließlich erhalten wir für die eindeutige periodische Lösung von (11.10) die Darstellung z(t) = (I − e  = 0

Bτ −1





t

)

e

B(t−s)

c(s)ds +

0 τ

τ

e

B(t+τ −s)

 c(s)ds

t

G0τ (t, s)c(s)ds,

wobei die Greensche Funktion G0τ durch ⎧ ⎨eB(t−s) , G0τ (t, s) = (I − eBτ )−1 ⎩eB(τ +t−s) ,

s ≤ t, s > t,

s, t ∈ [0, τ ],

definiert ist. Für die τ -periodischen Lösungen von (11.4) ergibt sich daher die Darstellung 

τ

x(t) = 0

R(t)G0τ (t, s)R −1 (s)b(s)ds.

Die Funktion G(t, s) := R(t)G0τ (t, s)R −1 (s) heißt Greenscher Kern für die Differentialgleichung (11.4). Damit ist 4. bewiesen. 5. Die Notwendigkeit ist wegen 3. und der Einzigkeit klar. Gilt nun |μj | = 1, so auch Re λj = 0 für alle j ∈ {1, . . . , r}. Es bezeichne Ps die Projektion auf den stabilen Teilraum Xs von (11.10), also das Erzeugnis aller stabilen Eigenwerte λj , längs dem instabilen Teilraum Xu . Ferner sei Pu = I − Ps . Wir setzen ⎧ ⎨eBt P , s G0 (t) = ⎩−eBt Pu ,

t > 0, t < 0,

11.4 Stabilität periodischer Lösungen

303

und  z(t) =

∞ −∞

 G0 (t − s)c(s)ds =



t

−∞



eB(t−s) Ps c(s)ds −

eB(t−s) Pu c(s)ds.

t

Ist die Funktion b = b(t) beschränkt, so auch c = c(t). Folglich gilt mit einem η > 0  |z(t)| ≤ |c|∞



t −∞

|eB(t−s) Ps |ds + |c|∞



≤ |c|∞ M

t −∞

e−η(t−s) ds +







|eB(t−s) Pu |ds

t

 = 2|c|∞ |M/η,

eη(t−s) ds

t

mit einer Konstanten M > 0, also ist z(t) beschränkt. Des Weiteren löst z(t) die Differentialgleichung (11.10), denn da man Differentiation und Integration aufgrund der absoluten Konvergenz der Integrale vertauschen darf, erhält man  z˙ (t) = Ps c(t) +



t −∞

BeB(t−s) Ps c(s)ds + Pu c(t) −



BeB(t−s) Pu c(s)ds

t

= Bz(t) + c(t), wegen Ps + Pu = I . Für die beschränkten Lösungen von (11.4) ergibt sich nun  x(t) =



−∞

G(t, s)b(s)ds,

wobei G(t, s) = R(t)G0 (s)R −1 (s) der Greensche Kern für (11.4) ist. Damit ist der Beweis des Satzes vollständig. 

11.4

Stabilität periodischer Lösungen

Betrachte die Differentialgleichung x˙ = f (t, x),

t ∈ R,

(11.13)

wobei f : R × G → Rn , G ⊂ Rn offen, stetig in t, stetig differenzierbar bezüglich x und τ -periodisch in t sei. Es sei ferner x∗ (t) eine τ -periodische Lösung von (11.13) mit x∗ ([0, τ ]) ⊂ G. Wähle r > 0 so klein, dass Br (x∗ (t)) ⊂ G für alle t ∈ [0, τ ] gilt. Für die verschobene Funktion y(t) = x(t) − x∗ (t) ergibt sich dann y˙ = A(t)y + h(t, y),

t ∈ R.

(11.14)

304

11 Periodische Lösungen

Dabei ist A(t) = ∂x f (t, x∗ (t)) τ -periodisch und h(t, y) = f (t, x∗ (t) + y) − f (t, x∗ (t)) − ∂x f (t, x∗ (t))y,

y ∈ Br (0).

Aus dem Mittelwertsatz erhalten wir für die τ -periodische Funktion h(t, y) die Abschätzung 

1

|h(t, y)| ≤ |y| 0

|∂x f (t, x∗ (t) + θy) − ∂x f (t, x∗ (t))|dθ,

woraus sich wegen der Stetigkeit und τ -Periodizität von ∂x f bezüglich t und der Stetigkeit und τ -Periodizität der fixierten Funktion x∗ (t) die Eigenschaft h(t, y) = o(|y|) für |y| → 0, gleichmäßig in t, ergibt. Aus Satz 11.2.2 und 5.4.1 erhalten wir nun das folgende Resultat. Satz 11.4.1. Sei f : R × G → Rn stetig, stetig differenzierbar bezüglich x, τ -periodisch in t und es sei x∗ (t) eine τ -periodische Lösung von (11.13) mit x∗ ([0, τ ]) ⊂ G. Ferner seien A(t) = ∂x f (t, x∗ (t)), und μj , j ∈ {1, . . . , r} die Floquet-Multiplikatoren der homogenen Gleichung y˙ = A(t)y. Dann gelten die folgenden Aussagen. 1. x∗ ist uniform asymptotisch stabil für (11.13), falls |μj | < 1 für alle j ∈ {1, . . . , r} gilt. 2. x∗ ist instabil für (11.13), falls |μj | > 1 für ein j ∈ {1, . . . , r} gilt. Beweis. Sei R ∈ C(R, Rn×n ) die 2τ -periodische Funktion aus Satz 11.2.2. Mittels der Transformation z(t) = R −1 (t)y(t) ergibt sich die zu (11.14) äquivalente reelle Gleichung z˙ = Bz + g(t, z),

(11.15)

mit der Funktion g(t, z) = R −1 (t)h(t, R(t)z). Es ist sofort ersichtlich, dass ebenfalls g(t, z) = o(|z|) für |z| → 0, gleichmäßig in t,

(11.16)

gilt. Wegen der Gleichmäßigkeit in (11.16) überträgt sich der Beweis von Satz 5.4.1 auf (11.15) und der Rest folgt aus der Identität σ (M0 )2 = σ (M02 ) = e2τ σ (B) .  Die erste Aussage von Satz 11.4.1 ist unbefriedigend für periodische Lösungen autonomer Gleichungen der Form x˙ = f (x),

(11.17)

11.4 Stabilität periodischer Lösungen

305

denn ist x∗ (t) eine τ -periodische, nichtkonstante Lösung von (11.17), so ist μ1 = 1 immer ein Floquet-Multiplikator für A(t) = f  (x∗ (t)). Setzt man nämlich u∗ (t) = f (x∗ (t)), so ist u∗ (t) ≡ 0 und stetig differenzierbar in t. Folglich ergibt (11.17) u˙ ∗ (t) = f  (x∗ (t))

d x∗ (t) = A(t)f (x∗ (t)) = A(t)u∗ (t), dt

sowie u∗ (τ ) = f (x∗ (τ )) = f (x∗ (0)) = u∗ (0), also ist u∗ (t) eine nichttriviale τ periodische Lösung der Differentialgleichung y˙ = A(t)y und Satz 11.3.1 liefert μj = 1 für ein j ∈ {1, . . . , r}. Daher ist der erste Teil von Satz 11.4.1 nicht auf diese Situation anwendbar. Es gilt sogar noch mehr. Eine nichtkonstante τ -periodische Lösung von (11.17) ist niemals asymptotisch stabil. Denn mit x∗ (t) ist x∗ (t + t0 ) für ein beliebiges t0 ∈ R wieder eine τ -periodische Lösung von (11.17). Folglich ist die Funktion ϕ(t) = |x∗ (t + t0 ) − x∗ (t)| ≡ 0 τ -periodisch, also ϕ(t) → 0 für t → ∞. Da aber für t0 → 0 der Wert ϕ(0) hinreichend klein wird, kann x∗ (t) nicht asymptotisch stabil sein. Diese Überlegungen zeigen, dass der bisher verwendete Stabilitätsbegriff hier nicht sinnvoll ist. Daher führt man die folgende Definition ein. Definition 11.4.2. Sei x∗ (t) eine τ -periodische Lösung von (11.17) und γ = x∗ (R) sei ihr Orbit. 1. x∗ heißt orbital stabil, wenn es zu jedem ε > 0 ein δ(ε) > 0 gibt, mit dist(x(t), γ ) ≤ ε für alle t ≥ 0, falls dist(x0 , γ ) ≤ δ. 2. x∗ heißt asymptotisch orbital stabil, falls x∗ orbital stabil und γ ein Attraktor für (11.17) ist. Man beachte, dass orbitale Stabilität bzw. asymptotisch orbitale Stabilität für Equilibria mit den früheren Stabilitätsbegriffen zusammenfällt. Das folgende Ergebnis zeigt, dass der Begriff der orbitalen Stabilität das richtige Konzept für τ -periodische Lösungen autonomer Gleichungen ist. Satz 11.4.3. Sei G ⊂ Rn offen, f ∈ C 1 (G, Rn ) und sei x∗ (t) eine nichtkonstante τ periodische Lösung von (11.17) mit dem Orbit γ . Ferner seien μ1 = 1, μ2 , . . . , μr die Floquet-Multiplikatoren von A(t) = f  (x∗ (t)) mit |μj | < 1 für j ∈ {2, . . . , r} und μ1 = 1 sei einfach. Dann ist x∗ asymptotisch orbital stabil. Es existieren ein δ0 > 0 und eine stetige Funktion a : B¯ δ0 (γ ) → R/Zτ mit der Eigenschaft x0 ∈ B¯ δ0 (γ ) "⇒ |x(t + a(x0 ), x0 ) − x∗ (t)| → 0 exponentiell für t → ∞. a(x0 ) heißt asymptotische Phase von x(t, x0 ).

306

11 Periodische Lösungen

In Worten bedeutet die Aussage des Satzes, dass es zu jedem Anfangswert x0 nahe beim periodischen Orbit eine Phase a(x0 ) gibt, mit der Eigenschaft, dass sich x(t, x0 ) für t → ∞ asymptotisch wie die phasenverschobene periodische Lösung x∗ (t − a(x0 )) verhält. Beweis von Satz 11.4.3. Wir führen den Beweis in mehreren Schritten. (a) Zunächst konstruieren wir eine lokale Mannigfaltigkeit Mloc derart, dass alle Lösungen von (11.17) mit Anfangswert auf Mloc für t → ∞ exponentiell gegen den Orbit γ der nichtkonstanten periodischen Lösung streben. Die Verschiebung u(t) = x(t) − x∗ (t) überführt (11.17) in das System u˙ = A(t)u + g(t, u),

(11.18)

mit der τ -periodischen Koeffizientenmatrix A(t) = f  (x∗ (t)) und g(t, u) = f (x∗ (t) + u) − f (x∗ (t)) − f  (x∗ (t))u. Gemäß Satz 11.2.2 erhalten wir aus der Transformation y(t) = R(t)−1 u(t) das System y˙ = By + h(t, y),

(11.19)

mit h(t, y) := R −1 (t)g(t, R(t)y) und einer konstanten reellen Koeffizientenmatrix B. Dabei ist R(t) eine reelle 2τ -periodische Funktion mit R(0) = I und es gilt M02 = e2Bτ , wobei M0 die zu A(t) gehörige Monodromie-Matrix bezeichnet. Aus den Bemerkungen zu Beginn dieses Abschnittes folgt außerdem h(t, y) = o(|y|) für |y| → 0, gleichmäßig in t. Nach dem spektralen Abbildungssatz besitzt die Matrix B den einfachen Eigenwert λ = 0 und r − 1 Eigenwerte λj , j ∈ {2, . . . , r}, mit negativem Realteil. Ferner gilt die Spektralzerlegung Cn = N(B) ⊕ N(λ2 ) ⊕ · · · ⊕ N (λr ) =: Xc ⊕ Xs . Sei Ps die Projektion auf den Teilraum Xs längs Xc = N (B), das heißt R(Ps ) = Xs , N (Ps ) = Xc , und sei Pc = I − Ps . Nach einer Translation und Rotation des Koordinatensystems können wir ferner annehmen, dass x∗ (0) = 0 und 0 = f (0) ∈ R(Pc ) gilt. Auf Xs und Xc gelten die Abschätzungen |eBt Ps | ≤ Me−ηt und |e−Bt Pc | ≤ M,

11.4 Stabilität periodischer Lösungen

307

für t > 0 mit Konstanten M ≥ 1 und η > 0. Wir wählen ein r > 0 so klein, dass die Abschätzung |h(t, y)| ≤

ω |y| M

(11.20)

für alle |y| ≤ r, t > 0 und für festes ω ∈ (0, η) erfüllt ist. Betrachte die Integralgleichung  y(t) = eBt z +

t





eB(t−s) Ps h(s, y(s))ds −

0

eB(t−s) Pc h(s, y(s))ds,

(11.21)

t

wobei z ∈ Xs ist. Analog zum Beweis von Satz 10.1.1 existieren geeignete Zahlen δ, ρ > 0, sodass die Integralgleichung (11.21) für jedes z ∈ BδXs (0) genau eine Lösung y(t, z) ∈ BρU (0), ρ < r, besitzt, wobei U den Banachraum U = {u ∈ C(R+ ; Rn ) : |u|η = sup |u(t)|eηt/2 < ∞} t≥0

bezeichnet. Da die Lösung für t → ∞ exponentiell fällt, ist y(t, z) in t differenzierbar und y(t, z) ist eine Lösung der Differentialgleichung (11.19) zum Anfangswert  y(0, z) = z −



e−Bs Pc h(s, y(s, z))ds =: z − q(z),

0

z ∈ BδXs (0),

und es gilt q(0) = q  (0) = 0. Die Abbildung BδXs (0)  z → z − q(z) definiert eine lokale C 1 -Mannigfaltigkeit Mloc , welche wegen q  (0) = 0 den Tangentialraum Xs in z = 0 besitzt. Aufgrund von 0 = f (0) ∈ Xc schneidet die periodische Lösung x∗ (t) die lokale Mannigfaltigkeit Mloc transversal. Wegen (11.20), z ∈ Xs und y ∈ U , folgt aus Integration von (11.21) mit dem Satz von Fubini die Abschätzung  |e

ηt/4

y|L1 (R+ ) ≤

 4 4M 4 ηt/4 ηt/4 |z| + ω|e y|L1 (R+ ) + ω|e y|L1 (R+ ) . 3η 3η η

Für ein 0 < ω ≤ 3η/32 erhalten wir somit |eηt/4 y|L1 (R+ ) ≤

8M |z|, 3η

was in Kombination mit (11.21) die Abschätzung |eηt/4 y(t)| ≤ M|z| +

M 3M 16Mω |z| ≤ M|z| + |z| = |z| 3η 2 2

(11.22)

308

11 Periodische Lösungen

für alle t ≥ 0 liefert. Wegen |x(t) − x∗ (t)| ≤ |R(t)||y(t)| und Ps x(0) = Ps y(0) = z erhalten wir |x(t) − x∗ (t)| ≤ C

3M |Ps |e−ηt/4 |x(0)|, 2

(11.23)

für alle t ≥ 0, wobei C := maxt∈[0,2τ ] |R(t)| > 0 ist. (b) Wir zeigen, dass alle Lösungen, welche hinreichend nahe beim Orbit γ starten, die lokale Mannigfaltigkeit Mloc in endlicher Zeit treffen. Sei ein Anfangswert x1 ∈ γ gegeben. Aus dem Beweis von Satz 4.1.2 folgt die Ungleichung |x(t, x0 ) − x∗ (t, x1 )| ≤ cτ |x0 − x1 |, für alle t ∈ [0, 2τ ], falls die Differenz der Anfangswerte |x0 −x1 | hinreichend klein ist. Insbesondere existiert die Lösung x(t, x0 ) in diesem Fall für alle t ∈ [0, 2τ ]. Aufgrund der τ -Periodizität von x∗ (t) existiert zu jedem Anfangswert x1 ∈ γ ein erstes t1 ∈ [0, τ ], sodass x∗ (t1 , x1 ) = 0, also x∗ (t1 , x1 ) ∈ Mloc . Ferner gilt für alle t ∈ [0, 2τ ] die Abschätzung |x(t, x0 )| = |x(t, x0 ) − x∗ (t1 , x1 )| ≤ |x(t, x0 ) − x∗ (t, x1 )| + |x∗ (t, x1 ) − x∗ (t1 , x1 )| ≤ cτ |x0 − x1 | + c∞ |t − t1 |, wobei c∞ durch c∞ = maxs∈[0,τ ] |f (x∗ (s))| definiert ist. Zu gegebenem ε0 > 0 existieren daher Umgebungen U (t1 ) und U (x1 ), sodass |x(t, x0 )| ≤ ε0 für alle (t, x0 ) ∈ U (t1 ) × U (x1 ) gilt. Im Weiteren sei ε0 < δ/|Ps |. Wir definieren eine Abbildung F : U (t1 ) × U (x1 ) → Xc durch F (t, x0 ) = Pc x(t, x0 ) + q(Ps x(t, x0 )). Nach Satz 4.3.2 ist F stetig differenzierbar bezüglich (t, x0 ) ∈ U (t1 ) × U (x1 ). Aus der Eindeutigkeit der Lösungen folgt ferner F (t1 , x1 ) = Pc x∗ (t1 , x1 ) + q(Ps x∗ (t1 , x1 )) = 0 und ∂t F (t1 , x1 ) = Pc f (x∗ (t1 , x1 )) + q  (Ps x∗ (t1 , x1 ))Ps f (x∗ (t1 , x1 )) = Pc f (0) + q  (0)Ps f (0) = f (0) = 0. Wegen dim Xc = 1, existieren nach dem Satz über implizite Funktionen Umgebungen V(x1 ) ⊂ U (x1 ) und V(t1 ) ⊂ U (t1 ) und eine eindeutig bestimmte Funktion ϕ ∈ C 1 (V(x1 ); V(t1 )) mit der Eigenschaft F (ϕ(x0 ), x0 ) = 0, x0 ∈ V(x1 ) und ϕ(x1 ) = t1 . Dies ist aber äquivalent zu x(ϕ(x0 ), x0 ) = Ps x(ϕ(x0 ), x0 ) − q(Ps x(ϕ(x0 ), x0 )), also x(ϕ(x0 ), x0 ) ∈ Mloc ∩ B¯ ε0 (0), x0 ∈ V(x1 ).

11.4 Stabilität periodischer Lösungen

309

(c) Wir zeigen nun, dass die im letzten Schritt gewonnene lokal definierte Funktion ϕ Werte in (0, 2τ ) annimmt. Dazu sei zunächst x1 = 0 ∈ γ . Da x∗ τ -periodisch ist, gilt x∗ (τ, x1 ) = 0, also können wir t1 = τ setzen. Nach Schritt (b) existiert eine Umgebung V0 von 0 und eine stetige Funktion ϕ0 : V0 → R mit ϕ0 (0) = τ und x(ϕ0 (x0 ), x0 ) ∈ Mloc ∩ B¯ ε0 (0), x0 ∈ V0 . Durch Verkleinern von V0 können wir ϕ0 (x0 ) ∈ (0, 2τ ) für alle x0 ∈ V0 annehmen. Sei nun x1 ∈ γ \ V0 =: γ0 . Dann existiert ein hinreichend kleines κ > 0 und ein t1 ∈ (κ, τ − κ), sodass x∗ (t1 , x1 ) = 0. Ferner existieren eine Umgebung V1 von x1 sowie eine stetige Funktion ϕ1 : V1 → R, mit ϕ1 (x1 ) = t1 und x(ϕ1 (x0 ), x0 ) ∈ Mloc ∩ B¯ ε0 (0) für alle x0 ∈ V1 . Durch Verkleinern von V1 können wir weiterhin ϕ1 (x0 ) ∈ (0, τ ) für alle x0 ∈ V1 annehmen. Da die Menge γ0 kompakt ist, existiert eine endliche Überdeckung {Vk }N k=1 von γ0 , wobei die Mengen Vk Umgebungen von Punkten xk ∈ γ0 , k ∈ {1, . . . , N } sind. Zu jedem Vk existiert eine stetige Funktion ϕk : Vk → (0, τ ), mit x(ϕk (x0 ), x0 ) ∈ Mloc ∩ B¯ ε0 (0) für alle x0 ∈ Vk . Des Weiteren bildet die Menge V :=

N ;

Vk

k=0

eine Überdeckung des Orbits γ . (d) In diesem Schritt zeigen wir die orbitale asymptotische Stabilität von x∗ . Sei ε > 0 gegeben und x0 ∈ B¯ δ (γ ) ⊂ V, wobei B¯ δ (γ ) durch B¯ δ (γ ) = {x0 ∈ Rn : dist(x0 , γ ) ≤ δ} definiert ist. Da V eine Überdeckung von γ ist, gilt B¯ δ (γ ) ⊂ V, falls δ > 0 hinreichend klein gewählt wird. Nach Schritt (c) existiert ein k ∈ {0, . . . , N } mit x0 ∈ Vk und x(ϕk (x0 ), x0 ) ∈ Mloc ∩ B¯ ε0 (0). Daraus folgt mit (11.23) die Abschätzung 3M 3M |Ps |e−ηt/4 |x(ϕk (x0 ), x0 )| ≤ C |Ps |e−ηt/4 ε0 , t ≥ 0, 2 2 wobei x(t) ˜ durch x(t) ˜ := x(t + ϕk (x0 ), x0 ) definiert ist. Das impliziert einerseits die Attraktivität von γ und andererseits |x(t) ˜ − x∗ (t)| ≤ C

dist(x(t, x0 ), γ ) ≤ ε,

für alle t ≥ ϕk (x0 ),

falls ε0 > 0 hinreichend klein ist. Für die orbitale Stabilität genügt es daher die Abschätzung dist(x(t, x0 ), γ ) ≤ ε für alle t ∈ [0, 2τ ] zu zeigen, da nach Schritt (c) stets ϕk (x0 ) ∈ (0, 2τ ) für alle x0 ∈ Vk , k = 1, . . . , N gilt. Zu x0 ∈ B¯ δ (γ ) finden wir ein x1 ∈ γ mit |x0 − x1 | ≤ δ. Sei x∗ (t, x1 ) die Lösung von (11.17) mit x∗ (0, x1 ) = x1 . Aus der stetigen Abhängigkeit der Lösung vom Anfangswert erhalten wir wie in (b) die Abschätzung |x(t, x0 ) − x∗ (t, x1 )| ≤ cτ |x0 − x1 | ≤ cτ δ,

310

11 Periodische Lösungen

für alle t ∈ [0, 2τ ], wobei cτ > 0 eine von x0 und x1 unabhängige Konstante ist. Für hinreichend kleines δ > 0 ergibt dies die orbitale Stabilität von x∗ . (e) Für jedes x0 ∈ B¯ δ0 (γ ), 0 < δ0 < δ, existiert nach Schritt (c) ein k ∈ {0, . . . , N } mit x0 ∈ Vk und |x(t + ϕk (x0 ), x0 ) − x∗ (t)| → 0, exponentiell für t → ∞. Nach (c) gilt bereits ϕk (x0 ) ∈ (0, τ ) für x0 ∈ Vk , k = 0 und ϕ0 (x0 ) ∈ (0, 2τ ) für x0 ∈ V0 . Daraus folgt die Existenz einer Funktion a : B¯ δ0 (γ ) → R, sodass |x(t + a(x0 ), x0 ) − x∗ (t)| → 0,

(11.24)

exponentiell für t → ∞ (es gilt sogar R(a) ⊂ (0, 2τ )). Mit s = t + kτ, k ∈ Z, folgt aus der τ -Periodizität von x∗ |x(t + a(x0 ) + kτ, x0 ) − x∗ (t)| = |x(s + a(x0 ), x0 ) − x∗ (s − kτ )| = |x(s + a(x0 ), x0 ) − x∗ (s)| → 0, für s → ∞. In diesem Sinne können wir alle Werte von a(x0 ), welche sich um ganzzahlige Vielfache von τ unterscheiden miteinander identifizieren, das heißt a : B¯ δ0 (γ ) → R/Zτ , wobei R/Zτ den Quotientenraum von R modulo Zτ bezeichnet. Es bleibt noch die Stetigkeit der Funktion a zu zeigen. Angenommen a ist nicht stetig in x0 ∈ B¯ δ0 (γ ). Dann existiert eine Folge xn → x0 für n → ∞, sodass / Zτ . Nun gilt wegen (11.23) a(xn ) → a0 = a(x0 ) ∈ R/Zτ gilt, das heißt a0 − a(x0 ) ∈ |x(t + a(xn ), xn ) − x∗ (t)| ≤ Ce−ηt/4 für alle t ≥ 0, wobei C > 0 eine von n unabhängige Konstante ist, da x∗ nach Schritt (d) orbital asymptotisch stabil ist. Da die Lösung stetig vom Anfangswert abhängt folgt für n → ∞ |x(t + a0 , x0 ) − x∗ (t)| ≤ Ce−ηt/4 ,

t ≥ 0.

Aus (11.24) erhalten wir somit die Abschätzung |x∗ (t − a0 ) − x∗ (t − a(x0 ))| ≤ 2Ce−ηt/4 ,

t ≥ 0,

also |x∗ (−a0 ) − x∗ (−a(x0 ))| = |x∗ (kτ − a0 ) − x∗ (kτ − a(x0 ))| ≤ 2Ce−ηkτ/4 → 0

11.4 Stabilität periodischer Lösungen

311

für k → ∞, ein Widerspruch.  Unter gewissen Voraussetzungen kann man die Stabilitätseigenschaften einer nichtkonstanten periodischen Lösung von (11.17) auch ohne genaue Kenntnis der FloquetMultiplikatoren bestimmen. Korollar 11.4.4. Sei f ∈ C 1 (G; Rn ), n ≥ 2, und x∗ eine nichtkonstante τ -periodische Lösung von (11.17), x∗ ([0, τ ]) ⊂ G. Ferner sei  ' := 0

τ

(div f )(x∗ (t))dt.

Dann gelten die folgenden Aussagen. 1. Ist ' > 0, so ist x∗ instabil. 2. Ist ' < 0 und n = 2, so ist x∗ orbital asymptotisch stabil. Beweis. Wir betrachten die linearisierte Gleichung y˙ = A(t)y mit A(t) = f  (x∗ (t)). Offensichtlich gilt (div f )(x∗ (t)) = sp f  (x∗ (t)), also folgt aus (11.7) r :

κ

μj j = e

τ 0

(div f )(x∗ (t))dt

,

j =1

wobei μj die Floquet-Multiplikatoren von A(t) mit den algebraischen Vielfachheiten κj sind. Im ersten Fall existiert ein j ∈ {1, . . . , r}, mit |μj | > 1. Die Instabilität von x∗ folgt aus Satz 11.4.1. Im Fall n = 2 und ' < 0 gilt μ1 μ2 < 1. Ein Floquet-Multiplikator ist stets gleich Eins, also o.B.d.A. μ1 = 1. Daraus folgt |μ2 | < 1 und Satz 11.4.3 liefert die zweite Aussage.  Beispiel. Sei G = R2 und betrachte das System x˙ = y + x(1 − x 2 − y 2 ), y˙ = −x + y(1 − x 2 − y 2 ), welches die 2π -periodische Lösung [x∗ (t), y∗ (t)]T = Abschn. 8.4. Es gilt div f (x, y) = 2 − 4(x 2 + y 2 ), also 

2π 0

[sin t, cos t]T besitzt, vgl.

(div f )(x∗ (t), y∗ (t))dt = −4π < 0.

312

11 Periodische Lösungen

Nach Korollar 11.4.4 ist [x∗ , y∗ ]T orbital asymptotisch stabil. Insbesondere besitzt jede Lösung, die in einer hinreichend kleinen Umgebung des Orbits γ von [x∗ , y∗ ]T startet eine asymptotische Phase. Man vergleiche dieses Resultat mit Abschn. 8.4.

11.5

Parameterabhängigkeit periodischer Lösungen

Als weitere Anwendung der Floquet-Theorie betrachten wir in diesem Abschnitt die parameterabhängige Gleichung x˙ = f (t, x, λ), in der Nähe einer gegebenen nichtkonstanten τ∗ -periodischen Lösung x∗ (t) von x˙ = f (t, x, λ∗ ), wenn f aus C 1 , und f (·, x, λ) periodisch mit Periode τλ , τ∗ = τλ∗ , ist. Hierbei kann man annehmen, dass τ∗ die minimale Periode von x∗ ist; allerdings muss τ∗ nicht unbedingt die minimale Periode von f (·, x, λ∗ ) sein, z. B. im wichtigen autonomen Fall f (·, x, λ) = g(x, λ). Sei x∗ ein Equilibrium von x˙ = g(x, λ∗ ), gelte also g(x∗ , λ∗ ) = 0. Ist g ∈ C 1 und gilt det ∂x g(x∗ , λ∗ ) = 0, also λ1 , . . . , λr = 0 für alle Eigenwerte von ∂x g(x∗ , λ∗ ) dann impliziert der Satz über implizite Funktionen, dass es ein δ > 0 und eine C 1 -Funktion x : (λ∗ − δ, λ∗ + δ) → Rn gibt mit x(λ∗ ) = x∗ , und g(x(λ), λ) = 0 für alle |λ − λ∗ | < δ. In einer Umgebung U von (x∗ , λ∗ ) gibt es keine weiteren Equilibria. Gilt ein ähnliches Resultat auch nahe einer periodischen Lösung? Um diese Frage zu beantworten, ist es zweckmässig die Perioden auf 2π zu transformieren, welches man durch die Transformation t → τλ t/2π , f (t, x, λ) → f (τλ t/2π, x, λ) erreichen kann. Setzt man nun ω(λ) = 2π/τλ sowie ω∗ = ω(λ∗ ) so wird die Gleichung x˙ = f (t, x, λ) zu ω(λ)x˙ = f (t, x, λ),

t ∈ R.

(11.25)

Gesucht sind nun 2π -periodische Lösungen xλ von (11.25) nahe bei x∗ wenn λ in einer Umgebung von λ∗ ist. Beachte, dass ω(λ) mit f aus C 1 ist, sofern f nichtautonom ist. Wir formulieren das erste Resultat für (11.25). Satz 11.5.1. Seien f : R × Rn × R → Rn und ω : R → (0, ∞) aus C 1 , f sei 2π periodisch in t, und ω(λ∗ ) = ω∗ . Gegeben sei eine periodische Lösung x∗ : R → Rn von ω∗ x˙ = f (t, x, λ∗ ). Bezeichnet A∗ (t) = ∂x f (t, x∗ (t), λ∗ ), also ω∗ y˙ = A∗ (t)y die Linearisierung von (11.25) für λ = λ∗ in x∗ , so sei keiner ihrer Floquet-Multiplikatoren μ∗1 , . . . , μ∗r gleich Eins. Dann gibt es ein offenes Intervall J  λ∗ , ein r > 0, und eine C 1 -Funktion x : R×J → n R , x(·, λ∗ ) = x∗ , sodass x(·, λ) die einzige 2π -periodische Lösung von (11.25) ist, die

11.5 Parameterabhängigkeit periodischer Lösungen

313

supt∈R |x(t, λ) − x∗ (t)| < r erfüllt. Kein Floquet-Multiplikator μj (λ) der linearisierten Probleme ω(λ)y˙ = Aλ (t)y, Aλ (t) = ∂x f (t, x(t, λ), λ), ist gleich Eins. Gilt |μ∗j | < 1 für alle j , dann auch |μk (λ)| < 1 für alle k, in diesem Fall sind die periodischen Lösungen x(·, λ) asymptotisch stabil für (11.25). Beweis. Der Beweis beruht auf dem Satz über implizite Funktionen und dem Resultat über lineare periodische Gleichungen, Satz 11.3.1. Dazu definieren wir die Banachräume Xj , j = 0, 1, j

Xj := Cper (R; Rn ) := {x ∈ C j (R; Rn ) : x(t + 2π ) = x(t), t ∈ R}, mit den Normen &x&0 := sup |x(t)|,

&x&1 := sup |x(t)| + sup |x(t)|. ˙

t∈R

t∈R

t∈R

und die Abbildung F : X1 × R → X0 mittels F (x, λ)(t) = ω(λ)x(t) ˙ − f (t, x(t), λ),

t ∈ R.

F ist wohldefiniert, aus C 1 und es gilt F (x∗ , λ∗ ) = 0; allgemeiner sind die 2π periodischen Lösungen von (11.25) genau die Lösungen von F (x, λ) = 0. Für die Linearisierung L := ∂x F (x∗ , λ∗ ) erhalten wir Lu(t) = ω∗ u(t) ˙ − ∂x f (t, x∗ (t), λ∗ )u(t) = ω∗ u(t) ˙ − A∗ (t)u(t),

t ∈ R.

Da nach Voraussetzung alle Floquet-Multiplikatoren μ∗j = 1 sind, zeigt Satz 11.3.1, dass L : X1 → X0 ein Isomorphismus ist. Die erste Behauptung folgt nun mit dem Satz über implizite Funktionen, die weiteren aus der stetigen Abhängigkeit der Eigenwerte einer Matrix von ihren Koeffizienten, und aus Satz 11.4.1.  Dieser Satz ist nicht auf den autonomen Fall anwendbar, da dann wenigstens ein Floquet-Multiplikator Eins ist; wie schon im Beweis des Stabilitätssatzes im vorhergehenden Abschnitt ist der autonome Fall schwieriger. Es sei also f (t, x, λ) = g(x, λ); wir transformieren wieder auf Periode 2π und erhalten das Problem ωx˙ = g(x, λ),

t ∈ R.

(11.26)

In diesem Fall ist die gesuchte Periode τ also auch ω = 2π/τ nicht a priori bekannt, sie muss mitbestimmt werden. Dieser zusätzliche Freiheitsgrad kompensiert eine Dimension, also den algebraisch einfachen Floquet-Multiplikator Eins. Das Resultat für den autonomen Fall lautet wie folgt.

314

11 Periodische Lösungen

Satz 11.5.2. Sei g : Rn × R → Rn aus C 1 . Gegeben seien ω∗ > 0 und eine 2π -periodische Lösung x∗ : R → Rn von ω∗ x˙ = g(x, λ∗ ). Bezeichnet A∗ (t) = ∂x g(x∗ (t), λ∗ ), also ω∗ y˙ = A∗ (t)y die Linearisierung von (11.26) für λ = λ∗ in x∗ , so sei μ0 = 1 algebraisch einfacher Floquet-Multiplikator. Dann gibt es ein offenes Intervall J  λ∗ , ein r > 0, und C 1 -Funktionen ω : J → R, x : R × J → Rn , mit ω(λ∗ ) = ω∗ , x(·, λ∗ ) = x∗ , sodass x(·, λ) eine 2π -periodische Lösung von (11.26) ist, die supt∈R |x(t, λ) − x∗ (t)| < r erfüllt. x(·, λ) ist eindeutig bis auf Translationen. μ0 = 1 ist algebraisch einfacher Floquet-Multiplikator der linearisierten Probleme ω(λ)y˙ = Aλ (t)y, Aλ (t) = ∂x g(x(t, λ), λ). Gilt |μ∗j | < 1 für alle j = 0, dann auch |μk (λ)| < 1 für alle k = 0, in diesem Fall sind die periodischen Lösungen x(·, λ) asymptotisch orbital stabil für (11.26). Beweis. Neben den bereits genannten Problemen, die im autonomen Fall auftreten, sei daran erinnert, dass mit x∗ (·) auch alle Translationen x∗ (· + σ ) 2π -periodische Lösungen von ω∗ x˙ = g(x, λ∗ ) sind. Um dieser Nichteindeutigkeit aus dem Weg zu gehen, führen wir eine Nebenbedingung ein, die auf der Identität (x∗ |x˙∗ ) :=

1 2π



2π 0

(x∗ (t)|x˙∗ (t))dt =

1 4π





d |x∗ (t)|22 dt = 0 dt

0

beruht. Dabei ist (u|v) :=

1 2π





(u(t)|v(t))dt 0

ein für unsere Zwecke geeignetes Innenprodukt auf Xj . Wir definieren die Abbildung G : X1 × R × R → X0 × R durch G(x, ω, λ) = (ωx˙ − g(x, λ), (x|x˙∗ )). Diese Funktion ist aus C 1 und erfüllt G(x∗ , ω∗ , λ∗ ) = 0. Die Linearisierung L von G bzgl. (x, ω) in (x∗ , ω∗ , λ∗ ) ist dann durch L(y, α) = (ω∗ y˙ − A∗ (t)y + α x˙∗ , (y|x˙∗ )),

y ∈ X1 , α ∈ R,

gegeben. Um die Bijektivität von L zu zeigen, seien b ∈ X0 , β ∈ R gegeben. Die Gleichung L(y, α) = (b, β) ist äquivalent zu ω∗ y˙ = A∗ (t)y − α x˙∗ + b(t),

y(0) = y(2π ),

(y|x˙∗ ) = β.

11.5 Parameterabhängigkeit periodischer Lösungen

315

Es bezeichne Y∗ (t) das Hauptfundamentalsystem zu ω∗ z˙ = A∗ (t)z, also ist M∗ := Y∗ (2π ) die zugehörige Monodromiematrix. Dann ist x˙∗ (t) = Y∗ (t)v mit v = x˙∗ (0) = 0. Integration der Gleichung für y ergibt mittels Variation der Konstanten und y0 = y(0) y(t) = Y∗ (t)y0 −

tα 1 Y∗ (t)v + Y∗ (t) ω∗ ω∗

 0

t

Y∗ (s)−1 b(s)ds,

also für t = 2π (I − M∗ )y0 +

1 2π α v = M∗ ω∗ ω∗



2π 0

Y∗ (s)−1 b(s)ds.

(11.27)

Nun ist nach Voraussetzung μ0 = 1 einfacher Eigenwert von M∗ , also R(I −M∗ )⊕N (I − M∗ ) = Rn , und da N(I −M∗ ) = span {v} gilt, gibt es genau ein α ∈ R und mindestens ein y0 ∈ Rn , sodass (11.27) erfüllt ist. y0 ist nicht eindeutig und kann durch y0 + γ v ersetzt werden. Dies erlaubt uns auch die Gleichung (y|x˙∗ ) = β eindeutig zu lösen, denn β = (y + γ x˙∗ |x˙∗ ) = (y|x˙∗ ) + γ (x˙∗ |x˙∗ ) lässt sich eindeutig nach γ auflösen. Die Bijektivität von L ist damit bewiesen. Der Satz über implizite Funktionen ist somit auf G im Punkt (x∗ , ω∗ , λ∗ ) anwendbar, und die erste Behauptung damit bewiesen. Sei nun u(t) eine weitere 2π -periodische Lösung von (11.26). Setze ϕ(s) = (u(· + s)|x∗ ) = (u|x∗ (· − s)); dann gilt ϕ(0) = ϕ(2π ), also gibt es nach dem Satz von Rolle ein ξ ∈ R mit 0 = ϕ(ξ ˙ ) = −(u|x˙∗ (· − ξ )) = −(u(· + ξ )|x˙∗ ), d. h. die verschobene Funktion u(· + ξ ) erfüllt die Nebenbedingung. Dies zeigt, dass die gefundenen 2π -periodischen Lösungen bis auf Translationen eindeutig sind. Die verbleibenden Behauptungen folgen wiederum aus der Stetigkeit der Eigenwerte und aus dem Stabilitätssatz 11.4.3.  Beispiel. In der Elektro-Physiologie spielt das FitzHugh-Nagumo Modell mit externer Anregung eine wichtig Rolle. In diesem Beispiel betrachten wir das periodisch angeregte FitzHugh-Nagumo Modell x˙ = g(x) − y + φ(t), y˙ = σ x − γ y + ψ(t),

(11.28)

316

11 Periodische Lösungen

wobei σ, γ > 0 wie zuvor positive Konstanten sind, und g ∈ C(R; R) lokal Lipschitz, normiert durch g(0) = 0, sowie g(x)x ≤ −δx 2

für

|x| ≥ r0 ,

mit Konstanten r0 , δ > 0 erfüllt. Die externe Anregung wird durch die τ -periodischen Funktionen φ, ψ ∈ C(R; R) beschrieben, mit τ > 0. Wir suchen τ -periodische Lösungen des Systems (11.28). Dazu betrachten wir wie in Abschn. 8.4 die Menge D = {(x, y) ∈ R2 : V (x, y) ≤ α}, mit V (x, y) = x 2 /2 + y 2 /(2σ ) und zeigen mit Hilfe von Satz 7.2.1, dass D positiv invariant ist, sofern α > 0 hinreichend groß gewählt wird. Sei (x, y) ∈ V −1 (α), also x 2 /2 + y 2 /(2σ ) = α. Es bezeichne f (t, x, y) die rechte Seite von (11.28). Dann gilt für |x| ≥ r0 (∇V (x, y)|f (t, x, y)) = g(x)x − (γ /σ )y 2 + φ(t)x + ψ(t)y ≤ −δx 2 − (γ /σ )y 2 + |φ|∞ |x| + |ψ|∞ |y| ≤ − min{δ, γ }(x 2 + y 2 /σ ) + max{|φ|∞ , |ψ|∞ }(|x| + |y|) √ √ √ ≤ −2 min{δ, γ }α + 2(1 + σ ) max{|φ|∞ , |ψ|∞ } α, also (∇V (x, y), f (t, x, y)) ≤ 0, für alle t ∈ R und (x, y) ∈ V −1 (α) mit |x| ≥ r0 , falls α > 0 hinreichend groß ist. Andererseits erhält man für alle t ∈ R und (x, y) ∈ V −1 (α) mit |x| ≤ r0 die Abschätzung √ √ (∇V (x, y)|f (t, x, y)) ≤ max {g(x)x + γ x 2 } + |φ|∞ r0 + |ψ|∞ | 2σ α − 2γ α ≤ 0, |x|≤r0

falls α > 0 hinreichend groß ist. Insgesamt gilt also (∇V (x, y)|f (t, x, y)) ≤ 0 alle t ∈ R und alle (x, y) ∈ V −1 (α) = ∂D. Nach Satz 7.2.1 ist D daher positiv invariant und alle in D startenden Lösungen existieren global nach rechts, da D ⊂ R2 kompakt ist. Sei z = (x, y) und es bezeichne z(t, z0 ) die Lösung von (11.28) zum Anfangswert z0 = (x0 , y0 ). Für die durch T : z0 → z(τ, z0 ) definierte Poincaré-Abbildung gilt T : D → D, denn D ist positiv invariant und T ist stetig aufgrund der stetigen Abhängigkeit der Lösung vom Anfangswert (Satz 4.1.2). Da D ⊂ R2 konvex ist, besitzt T nach dem Fixpunktsatz von Brouwer (Satz 4.2.3) mindestens einen Fixpunkt z0 ∈ D, d. h. es gilt z(τ, z0 ) = z0 . Die τ -periodische Fortsetzung z˜ von z auf R ist dann eine τ -periodische Lösung von (11.28).

Übungen

317

Übungen 11.1 Zeigen Sie, dass die Matrix   −α 0 M= , 0 −β

α, β > 0, α = β,

keinen reellen Logarithmus besitzt, das heißt, es existiert kein L ∈ Rn×n mit M = eL . 11.2 Sei M ∈ Rn×n mit det M > 0 und σ (M) ∩ (−∞, 0] = ∅. Ferner sei eine JordanKurve, welche alle Eigenwerte von M umrundet, sodass (−∞, 0] im äußeren von liegt und symmetrisch zur reellen Achse ist; vgl. Abb. 11.1. Zeigen Sie, dass die Matrix  1 (λ − M)−1 log λdλ, log M = 2π i reell ist. 11.3 Gegeben sei das System x˙ = A(t)x, mit 

 − sin(2t) cos(2t) − 1 A(t) = , cos(2t) + 1 sin(2t) und der speziellen Lösung [x1 (t), x2 (t)]T = [e−t (cos t + sin t), e−t (sin t − cos t)]T . Berechnen Sie die Floquet-Multiplikatoren von A(t). Ist die triviale Lösung x∗ = 0 stabil oder instabil? 11.4 Betrachten Sie das System x˙ = A(t)x, mit 

 −1 + 32 cos2 t 1 − 32 sin t cos t A(t) = , −1 − 32 sin t cos t −1 + 32 sin2 t t

t

und der speziellen Lösung [x1 (t), x2 (t)]T = [e 2 cos t, −e 2 sin t]T . Zeigen Sie, dass die Eigenwerte von A(t) unabhängig von t sind und berechnen Sie sowohl die Eigenwerte, als auch die Floquet-Multiplikatoren von A(t). Kann man aus der Lage der Eigenwerte von A(t) Rückschlüsse auf die Stabilität der trivialen Lösung x∗ = 0 ziehen? 11.5 Beweisen Sie die Aussage 5(b) aus Satz 11.1.1.

12

Verzweigungstheorie

Sei G ⊂ Rn offen, ⊂ R ein offenes Intervall und f ∈ C 1 (G × ; Rn ). In diesem Kapitel betrachten wir die Differentialgleichung x˙ = f (x, λ),

(12.1)

die einen zeitunabhängigen Parameter λ ∈ enthält.

12.1

Umkehrpunkte

Die Menge der Equilibria von (12.1) zu einem gegebenen λ ∈ wird mit Eλ bezeichnet, dies ist der λ- Schnitt der Menge E = {(x, λ) ∈ G × : f (x, λ) = 0},

Eλ = {x ∈ G : f (x, λ) = 0}.

Sei (x∗ , λ∗ ) ∈ E. Wir nennen (x∗ , λ∗ ) regulär falls die Jacobi-Matrix ∂x f (x∗ , λ∗ ) invertierbar ist, wenn also det ∂x f (x∗ , λ∗ ) = 0 ist; andernfalls heißt (x∗ , λ∗ ) singulär. Ist (x∗ , λ∗ ) regulär, dann gibt es nach dem Satz über implizite Funktionen eine Kugel Bδ (λ∗ ) und eine C 1 -Abbildung x : Bδ (λ∗ ) → G, sodass x(λ∗ ) = x∗ und f (x(λ), λ) = 0 für alle λ ∈ Bδ (λ∗ ) gilt. In einer Umgebung Br (x∗ ) × Bδ (λ∗ ) ⊂ G × sind dies die einzigen Lösungen der Gleichung f (x, λ) = 0. Die Menge {(x(λ), λ) : λ ∈ Bδ (λ∗ )} nennt man einen Lösungszweig der Gleichung f (x, λ) = 0 (genauer: ein Stück eines Lösungszweiges). Die Funktion x(λ) ist Lösung einer Differentialgleichung, nämlich von ∂x f (x(λ), λ)x  (λ) + ∂λ f (x(λ), λ) = 0, © Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_12

319

320

12 Verzweigungstheorie

mit Anfangswert x(λ∗ ) = x∗ . Daher kann man nach dem Fortsetzungssatz den Lösungszweig auf ein maximales Intervall fortsetzen. Allerdings kommt hier zu den üblichen Obstruktionen, nämlich |x(λ)| → ∞ oder dist(x(λ), ∂G) → 0, eine weitere hinzu, nämlich die Jacobi-Matrix ∂x f (x(λ), λ) kann singulär werden: Die Lösung kann sich verzweigen. Haben alle Eigenwerte von ∂x f (x∗ , λ∗ ) negative Realteile, so ist x∗ asymptotisch stabil für (12.1) mit λ = λ∗ . Da die Eigenwerte einer Matrix stetig von ihren Koeffizienten abhängen, ist x(λ) ebenfalls asymptotisch stabil für λ in der Nähe von λ∗ , und bleibt es bis mindestens ein Eigenwert die imaginäre Achse überquert. Generisch gibt es zwei Fälle die von Interesse sind: 1. Ein einfacher reeller Eigenwert geht durch Null; hier wird die Jacobi-Matrix singulär. 2. Ein Paar einfacher komplex-konjugierter Eigenwerte überquert simultan die imaginäre Achse. Diese zwei Fälle wollen wir in diesem Kapitel im Detail diskutieren. Sei (x∗ , λ∗ ) ∈ E singulär, also A∗ := ∂x f (x∗ , λ∗ ) nicht invertierbar. Dann ist A∗ nicht surjektiv. Der einfachste Fall ist nun der, dass noch span{R(A∗ ), b∗ } = Rn gilt, wobei wir b∗ := ∂λ f (x∗ , λ∗ ) gesetzt haben. Solch einen Punkt (x∗ , λ∗ ) nennt man Umkehrpunkt für die Gleichung f (x, λ) = 0. Das folgende Beispiel illustriert die Situation. Beispiel. Betrachte die eindimensionale Gleichung x˙ = x(λ − (x − 1)2 ). Ein √ Equilibrium ist x √ = 0, das triviale. Ist λ > 0 so finden wir zwei weitere nämlich x = 1± √λ. Davon ist 1− λ instabil falls λ ∈ (0, 1) (ein Sattelpunkt in einer Dimension) und 1 + λ stabil für alle λ > 0 (ein stabiler Knoten in einer Dimension). Der Punkt (1, 0) ist ein Umkehrpunkt: Es gilt ∂x f (1, 0) = 0 und ∂λ f (1, 0) = 1. Das Verzweigungsdiagramm ist in Abb. 12.1 dargestellt. Wir wollen zeigen, dass dieses einfache eindimensionale Beispiel schon den allgemeinen Fall beinhaltet. Dazu sei (x∗ , λ∗ ) ein Umkehrpunkt. Dann ist der Rang von A∗ , also die Dimension von R(A∗ ) gleich n − 1, und N(A∗ ) ist eindimensional. Wir zerlegen nun Rn = N (A∗ ) ⊕ Y , d. h. Y ist ein n − 1-dimensionaler, zu N(A∗ ) komplementärer Unterraum. Man beachte, dass A∗ Y = R(A∗ ) ist. Wir zerlegen demgemäß x = su0 + y, wobei u0 ∈ N (A∗ ), u0 = 0 fixiert ist, s ∈ R und y ∈ Y . Um die Lösungsmenge von f (x, λ) = 0 in der Nähe von (x∗ , λ∗ ) zu beschreiben, betrachten wir nun die Funktion g(s, y, μ) := f (su0 + y + x∗ , μ + λ∗ ), (s, y, μ) ∈ (−a, a) × {Br (0) ∩ Y } × (−b, b),

12.1 Umkehrpunkte Abb. 12.1 SattelKnoten-Verzweigung

321 x 2.0 1.5 1.0 0.5

0.2

0.4

0.6

0.8

λ

0.5

wobei a, b, r > 0 klein genug gewählt sind. Mit f ist auch g in C 1 . Wir wollen die Gleichung g(s, y, μ) = 0 nach (y, μ) auflösen. Dazu verwenden wir den Satz über implizite Funktionen im Punkt (0, 0, 0). Die Ableitung von g nach (y, μ) in diesem Punkt ist   v = ∂x f (x∗ , λ∗ )v + ∂λ f (x∗ , λ∗ )σ = A∗ v + b∗ σ. ∂(y,μ) g(0) σ Da span{R(A∗ ), b∗ } = Rn ist, ist ∂(y,μ) g(0) surjektiv, also aus Dimensionsgründen invertierbar. Daher liefert der Satz über implizite Funktionen eine C 1 -Funktion s → (y(s), μ(s)), s ∈ (−δ, δ), mit y(0) = μ(0) = 0 und die einzigen Lösungen von f (x, λ) = 0 in einer Umgebung von (x∗ , λ∗ ) sind (su0 + y(s) + x∗ , μ(s) + λ∗ ), |s| < δ. Weiter folgt aus f (su0 + y(s) + x∗ , μ(s) + λ∗ ) = 0 die Relation 0 = ∂x f (su0 + y(s) + x∗ , μ(s) + λ∗ )(u0 + y  (s)) + ∂λ f (su0 + y(s) + x∗ , μ(s) + λ∗ )μ (s), also mit A(s) = ∂x f (su0 + y(s) + x∗ , μ(s) + λ∗ ) und b(s) = ∂λ f (su0 + y(s) + x∗ , μ(s) + λ∗ ), A(s)(u0 + y  (s)) + μ (s)b(s) = 0,

s ∈ (−δ, δ).

(12.2)

Speziell in s = 0 ergibt sich mit u0 ∈ N(A∗ ) A∗ y  (0) + μ (0)b∗ = 0, folglich ist μ (0) = 0 wegen b∗ ∈ R(A∗ ), und dann auch y  (0) = 0, da A∗ auf Y injektiv ist. Daher liegt λ(s) = μ(s) + λ∗ für kleine s typischerweise auf einer Seite von λ∗ , was den Namen Umkehrpunkt erläutert. Wir fassen zusammen.

322

12 Verzweigungstheorie

Satz 12.1.1. Sei f ∈ C 1 (G × ; Rn ), (x∗ , λ∗ ) ∈ E, und sei A∗ := ∂x f (x∗ , λ∗ ) nicht invertierbar. Es gelte: 1. N (A∗ ) = span{u0 } ist eindimensional, und 2. b∗ := ∂λ f (x∗ , λ∗ ) ∈ R(A∗ ). Dann sind alle Lösungen der Gleichung f (x, λ) = 0 in einer Umgebung von (x∗ , λ∗ ) durch die Menge {(x(s) := su0 + y(s) + x∗ , λ(s) := μ(s) + λ∗ ) : |s| < δ} gegeben, wobei y : (−δ, δ) → R(A∗ ) und μ : (−δ, δ) → R aus C 1 eindeutig bestimmt sind, und y(0) = y  (0) = 0, μ(0) = μ (0) = 0 erfüllen. σ∗ = 0 ist Eigenwert von A∗ mit Eigenvektor u0 = 0. Es sei u∗0 = 0 ein Eigenvektor der adjungierten AT∗ zum Eigenwert 0, mit (u0 |u∗0 ) = 1. Letzteres ist eine zusätzliche Annahme, die bedeutet, dass σ∗ = 0 halbeinfach, also algebraisch einfacher Eigenwert von A∗ ist. Wir zeigen, dass es dann eine Eigenwertkurve s → (σ (s), u(s), u∗ (s)) gibt mit σ (0) = 0, u(0) = u0 , u∗ (0) = u∗0 , und A(s)u(s) = σ (s)u(s), AT (s)u∗ (s) = σ (s)u∗ (s), und (u(s)|u∗ (s)) = 1. Da wir dieses Ergebnis häufiger benötigen werden, formulieren wir es allgemein als Lemma 12.1.2. Sei A ∈ C m ((−a, a); Rn×n ), a > 0, m ≥ 0, und sei A∗ := A(0). Es gelte N (A∗ ) = span{u0 }, N(AT∗ ) = span{u∗0 } und (u0 |u∗0 ) = 1. Dann gibt es ein δ > 0 und Funktionen u, u∗ ∈ C m ((−δ, δ); Rn ), σ ∈ C m ((−δ, δ); R), mit u(0) = u0 , u∗ (0) = u∗0 , σ (0) = 0, sodass A(s)u(s) = σ (s)u(s),

AT (s)u∗ (s) = σ (s)u∗ (s),

(u(s)|u∗ (s)) = 1,

für alle s ∈ (−δ, δ) gilt. Beweis. Definiere g : Rn × R × (−a, a) → Rn × R mittels  g(u, σ, s) =

 A(s)u − σ u . (u|u∗0 ) − 1

Dann ist g ∈ C m , g(u0 , 0, 0) = 0 und  L := ∂(u,σ ) g(u0 , 0, 0) =

 A∗ −u0 . u∗0 T 0

12.1 Umkehrpunkte

323

Wir zeigen, dass L injektiv, also bijektiv ist. Dazu sei L[v, ρ]T = 0, also A∗ v = ρu0 und (v|u∗0 ) = 0. Es folgt ρ = ρ(u0 |u∗0 ) = (A∗ v|u∗0 ) = (v|AT∗ u∗0 ) = 0, folglich A∗ v = 0, d. h. v = αu0 mit einem α ∈ R. Dies impliziert schließlich auch α = α(u0 |u∗0 ) = (v|u∗0 ) = 0. Der Satz über implizite Funktion liefert nun C m -Funktionen u(s), σ (s) mit u(0) = u0 , σ (0) = 0 und A(s)u(s) = σ (s)u(s), (u(s)|u∗0 ) = 1 auf einem Intervall (−δ1 , δ1 ). Um u∗ (s) zu finden, betrachten wir die Funktion h : Rn × (−δ1 , δ1 ) → Rn definiert durch h(v, s) = AT (s)v − σ (s)v + ((u(s)|v) − 1)u∗0 . Es ist h(u∗0 , 0) = AT∗ u∗0 − ((u0 |u∗0 ) − 1)u∗0 = 0, und L := ∂v h(u∗0 , 0) = AT∗ + u∗0 ⊗ u0 ist injektiv, also bijektiv. Denn Lv = 0 impliziert AT∗ v + (u0 |v)u∗0 = 0, also nach Skalarmultiplikation mit u0 folgt (u0 |v) = 0, sowie AT∗ v = 0, d. h. v = βu∗0 , β ∈ R, und dann auch v = 0. Der Satz über implizite Funktion liefert uns eine Funktion u∗ (s) der Klasse C m auf einem evtl. kleineren Intervall (−δ, δ) mit 0 = AT (s)u∗ (s) − σ (s)u∗ (s) + ((u(s)|u∗ (s)) − 1)u∗0 ,

s ∈ (−δ, δ),

u∗ (0) = u∗0 .

Skalarmultiplikation mit u(s) ergibt dann (u(s)|u∗ (s)) = 1, da (u(s)|u∗0 ) = 1 ist, folglich  auch AT (s)u∗ (s) = σ (s)u∗ (s). In der Situation des Umkehrpunktes gibt die Relation A(s)u(s) = σ (s)u(s) nach Multiplikation mit u∗ (s) die Beziehung σ (s) = (A(s)u(s)|u∗ (s)). Andererseits führt (12.2) nach Multiplikation mit u∗ (s) auf (b(s)|u∗ (s))μ (s) = −(A(s)(u0 + y  (s))|u∗ (s)) = −σ (s)(u0 + y  (s)|u∗ (s)), also μ (s) = −σ (s)l(s),

s ∈ (−δ, δ),

(12.3)

mit der Funktion l(s) := (u0 + y  (s)|u∗ (s))/(b(s)|u∗ (s)), die wegen b∗ ∈ / R(A∗ ) = N (AT∗ )⊥ für kleine |s| wohldefiniert ist, und l(0) = 1/(b∗ |u∗0 ) = 0 erfüllt. Sei jetzt zusätzlich f ∈ C m , m ≥ 2. Differenziert man die Gleichung f (su0 + y(s) + x∗ , μ(s) + λ∗ ) = 0

324

12 Verzweigungstheorie

ein zweites Mal, so erhält man in s = 0 die Beziehung b∗ μ (0) + A∗ y  (0) + ∂x2 f (x∗ , λ∗ )u0 u0 = 0, also nach Skalarmultiplikation mit u∗0 (b∗ |u∗0 )μ (0) = −(∂x2 f (x∗ , λ∗ )u0 u0 |u∗0 ). Man beachte, dass (b∗ |u∗0 ) = 0 ist, sodass diese Beziehung μ (0) eindeutig definiert. Nun differenzieren wir die Eigenwertgleichung nach s und erhalten in s = 0 σ  (0)u0 = A∗ u (0) + A (0)u0 . Nach Skalarmultiplikation mit u∗0 und wegen A(s) = ∂x f (su0 + y(s) + x∗ , μ(s) + λ∗ ) erhalten wir schließlich σ  (0) = (A (0)u0 |u∗0 ) = (∂x2 f (x∗ , λ∗ )u0 u0 |u∗0 ). Daraus folgt die zentrale Relation σ  (0) = −(b∗ |u∗0 )μ (0).

(12.4)

Diese Beziehung zeigt, dass im generischen Fall μ (0) = 0 die Lösungszweige für s > 0 bzw. s < 0 unterschiedliches Stabilitätsverhalten haben: auf dem einen Zweig ist σ (s) < 0 auf dem anderen σ (s) > 0. Sind alle anderen Eigenwerte von A∗ in der offenen linken Halbebene, so ist x(s) := su0 + y(s) + x∗ auf dem einen Zweig ein Sattelpunkt, auf dem anderen ein stabiler Knoten für (12.1). Deshalb werden Verzweigungspunkte dieser Art in Anlehnung an den 2D-Fall in der Literatur auch als Sattel-Knoten Verzweigungen bezeichnet. Satz 12.1.3. Es seien die Voraussetzungen von Satz 12.1.1 erfüllt, zusätzlich seien f ∈ C 2 , und 0 ein halbeinfacher Eigenwert für A∗ . Ferner sei u∗0 ∈ N (AT∗ ) mit (u0 |u∗0 ) = 1, O.B.d.A. gelte (b∗ |u∗0 ) > 0, und es sei σ (A∗ ) \ {0} ⊂ C− , sowie γ := (∂x2 f (x∗ , λ∗ )u0 u0 |u∗0 ) > 0. Dann gelten für (12.1) die folgenden Stabilitätsaussagen:

12.2 Pitchfork-Verzweigung

325

1. Der Zweig {(su0 + y(s), μ(s) + λ∗ ) : −δ < s < 0} besteht aus asymptotisch stabilen Equilibria. 2. Der Zweig {(su0 + y(s), μ(s) + λ∗ ) : 0 < s < δ} besteht aus instabilen Equilibria. Entsprechendes gilt im Fall γ < 0 wobei s durch −s zu ersetzen ist. Für γ < 0 gilt sλ (s) > 0, d. h. beide Zweige sind superkritisch. Im Fall γ > 0 gilt sλ (s) < 0, d. h. beide Zweige sind subkritisch.

12.2

Pitchfork-Verzweigung

In vielen Anwendungen ist die triviale Lösung x(λ) = 0 für alle λ gegeben, d. h. es gilt f (0, λ) = 0 für alle λ ∈ . Typischerweise resultiert diese Eigenschaft aus einer Normierung des Systems, das triviale Equilibrium repräsentiert dessen Normalzustand. In dieser Situation ist ∂λ f (0, λ) = 0, daher kann ein singulärer Punkt (0, λ∗ ) kein Umkehrpunkt sein. Das folgende Beispiel zeigt was hier passiert. Beispiel. Betrachte die Gleichung x˙ = x(λ − x 2 ). Hier haben wir√für alle λ ∈ R das triviale Equilibrium x = 0, und für λ > 0 zusätzlich x = ± λ. Damit sieht das Verzweigungsdiagramm wie eine Heugabel, englisch pitchfork, aus. Für λ = 0 ist x = 0 asymptotisch stabil. Die Linearisierung in x = 0 ist durch A = λ gegeben, also ist x = 0 für λ < 0 ebenfalls asymptotisch stabil und für λ > 0 ist x = 0 instabil; es ist ∂λ ∂x f (0, λ) ≡ 1. Die beiden nichttrivialen Zweige sind superkritisch, beide sind asymptotisch stabil für alle λ > 0. Das entsprechende Verzweigungsdiagramm ist in Abb. 12.2 wiedergegeben.

1.0

x

0.5

0.2 0.5

1.0

Abb. 12.2 Pitchfork-Verzweigung

0.4

0.6

0.8

λ

326

12 Verzweigungstheorie

Sei nun f (0, λ) ≡ 0, und sei (0, λ∗ ) ein singulärer Punkt, also A∗ := ∂x f (0, λ∗ ) nicht invertierbar. Wir interessieren uns für weitere Lösungen der Gleichung f (x, λ) = 0 in der Nähe von (0, λ∗ ). Dazu wählen wir ein Komplement Y zum Kern N (A∗ ), und ein Komplement Z zum Bild von R(A∗ ), es gelten also N (A∗ ) ⊕ Y = Rn und R(A∗ )⊕Z = Rn , und bezeichnen die dazugehörigen Projektionen mit P und Q; es ist also R(P ) = N (A∗ ), N(P ) = Y , und N(Q) = R(A∗ ), R(Q) = Z. Setzt man nun u = P x, y = (I − P )x, so ist die Gleichung f (x, λ) = 0 äquivalent zum System (I − Q)f (u + y, λ) = 0,

Qf (u + y, λ) = 0.

Da A∗ auf Y injektiv ist, ist A∗ : Y → R(A∗ ) ein Isomorphismus. Also kann man die erste dieser Gleichungen nach y auflösen. Dazu setzen wir g(u, y, μ) := (I − Q)f (u + y, μ + λ∗ ),

(u, y, μ) ∈ BrN (A∗ ) (0) × BrY (0) × (−b, b).

Der Bildbereich von g liegt in R(A∗ ); man beachte, dass dim R(A∗ ) = dim Y gilt. Nun ist ∂y g(0, 0, 0) = (I − Q)A∗ = A∗ ein Isomorphismus von Y auf R(A∗ ). Ist also f ∈ C 1 , so gibt es ein δ ∈ (0, min{r, b}), und eine C 1 -Funktion y : BδN (A∗ ) (0) × (−δ, δ) → Y , so dass y(0, 0) = 0 ist, und (I − Q)f (u + y(u, μ), μ + λ∗ ) = 0,

für alle u ∈ BδN (A∗ ) (0), |μ| < δ,

gilt. In einer Umgebung von 0 gibt es keine weiteren Lösungen. Weiter erhalten wir mittels Differentiation bezüglich μ und u (I − Q)∂x f (u + y(u, μ), μ + λ∗ )∂μ y(u, μ) + (I − Q)∂λ f (u + y(u, μ), μ + λ∗ ) = 0, und (I − Q)∂x f (u + y(u, μ), μ + λ∗ )[IN (A∗ ) + ∂u y(u, μ)] = 0, und somit (I − Q)A∗ ∂μ y(0, 0) = 0, also ∂μ y(0, 0) = 0, sowie (I − Q)A∗ ∂u y(0, 0) = 0, also ∂u y(0, 0) = 0, da A∗ auf N(A∗ ) verschwindet. Ferner ist y(0, μ) ≡ 0, da f (0, λ) ≡ 0 angenommen wurde, und y(u, μ) eindeutig ist. Setzt man nun die Funktion y(u, μ) in die zweite Gleichung ein, so erhält man die reduzierte Gleichung h(u, μ) := Qf (u + y(u, μ), μ + λ∗ ) = 0.

(12.5)

12.2 Pitchfork-Verzweigung

327

Diese Gleichung bestimmt die Lösungsmenge in der Nähe von (0, λ∗ ), sie heißt Verzweigungsgleichung des Problems. Man beachte, dass h(0, 0) = 0 aber auch ∂u h(0, 0) = 0 und ∂μ h(0, 0) = 0 gilt. Wegen dim N(A∗ ) < n liegt der Vorteil dieser Reduktion in der Verkleinerung der Dimension des Problems, ohne Lösungen aufzugeben. Eine Lösung von (12.5) ist nach wie vor die triviale (0, μ), da y(0, μ) ≡ 0 ist; durch die Auflösung nach y ist auch diese Lösung nicht verloren gegangen. Im Allgemeinen ist die Verzweigungsgleichung nicht leicht zu analysieren, insbesondere wenn N (A∗ ) mehrdimensional ist. Der einfachste nichttriviale, aber auch der wichtigste, ist der eindimensionale Fall, also dim N (A∗ ) = dim Z = 1. Dazu sei wieder N (A∗ ) = span{u0 }. Die Idee, welche weitere Lösungen liefert, besteht darin, die triviale Lösung “heraus zu dividieren”. Dazu setzen wir . g(s, μ) =

h(su0 , μ)/s für s = 0, ∂u h(0, μ)u0 für s = 0.

Aufgrund von h(0, μ) = 0 ist g wohldefiniert; allerdings geht eine Differenzierbarkeitsstufe verloren, aber man überzeugt sich leicht, dass g in C 1 ist, wenn f zur Klasse C 2 gehört. Die verbleibende Gleichung ist g(s, μ) = 0, und diese wollen wir nach μ auflösen. Wie im vorhergehenden Abschnitt parametrisieren wir nichttriviale Lösungen über den Kern von A∗ . Nun ist g(0, 0) = ∂u h(0, 0)u0 = 0 und ∂μ g(0, 0) = ∂μ ∂u h(0, 0)u0 , sofern h, also f aus C 2 ist. Mit dem Satz über implizite Funktionen lässt sich die Verzweigungsgleichung daher nach μ auflösen sofern ∂μ ∂u h(0, 0)u0 = Q∂λ ∂x f (0, λ∗ )u0 = 0 erfüllt ist. Da N(Q) = R(A∗ ) ist, lässt sich diese Bedingung auch folgendermaßen formulieren: ∂λ ∂x f (0, λ∗ )u0 ∈ R(A∗ ).

(12.6)

Wir fassen das Bewiesene in folgendem Satz zusammen: Satz 12.2.1. Sei f ∈ C 2 (G × ; Rn ) und f (0, λ) = 0 für alle λ ∈ . Sei A∗ := ∂x f (0, λ∗ ) nicht invertierbar, und gelte: 1. N (A∗ ) = span{u0 } ist eindimensional, und 2. ∂λ ∂x f (0, λ∗ )u0 ∈ R(A∗ ). Dann sind alle nichttrivialen Lösungen der Gleichung f (x, λ) = 0 in einer Umgebung von (0, λ∗ ) durch

328

12 Verzweigungstheorie

{(x(s) := su0 + y(s), λ(s) := μ(s) + λ∗ ) : |s| < δ} gegeben, wobei y : (−δ, δ) → Y und μ : (−δ, δ) → R aus C 1 eindeutig bestimmt sind, und y(0) = y  (0) = 0, μ(0) = 0 erfüllen. Aus Gründen, die wir gleich sehen werden, heißt (12.6) Transversalitätsbedingung. Nun kann man auch den Namen Pitchfork für diesen Verzweigungstyp verstehen: die triviale Lösung bildet den Stiel und die mittlere Zinke der Heugabel, die abzweigenden Lösungen bilden die zwei äußeren Zinken. Zur Untersuchung der Stabilität der Equilibria in der Nähe des Verzweigungspunktes, wenden wir Lemma 12.1.2 zweimal an. Dazu setzen wir wie im vorigen Abschnitt wieder voraus, dass 0 halbeinfach für A∗ ist, und wählen ein u∗0 ∈ N (AT∗ ) mit (u0 |u∗0 ) = 1. Man beachte, dass in diesem Fall Rn = N(A∗ ) ⊕ R(A∗ ) gilt. An der trivialen Lösung setzen wir A(μ) = ∂x f (0, μ + λ∗ ) und erhalten eine Eigenwertkurve (u(μ), u∗ (μ), σ (μ)) mit (u(μ)|u∗ (μ)) ≡ 1, σ (0) = 0, u(0) = u0 und u∗ (0) = u∗0 . Aus A(μ)u(μ) = σ (μ)u(μ) folgt mit Differentiation nach μ und Multiplikation mit u∗ (μ) die Relation σ  (μ) = (A (μ)u(μ)|u∗ (μ)),

|μ| < μ0 .

Für μ = 0 ergibt dies σ  (0) = (A (0)u0 |u∗0 ) = (∂λ ∂x f (0, λ∗ )u0 |u∗0 ),

(12.7)

was mit u∗0 ⊥ R(A∗ ) und der Transversalitätsbedingung (12.6) die Bedingung σ  (0) = 0 impliziert. Damit haben wir eine geometrische Interpretation der Transversalitätsbedingung erhalten: in λ = λ∗ überquert ein einfacher reeller Eigenwert von ∂x f (0, λ) bei wachsendem λ die imaginäre Achse mit nichttrivialer Geschwindigkeit. Am nichttrivialen Lösungszweig setzen wir B(s) = ∂x f (su0 + y(s), μ(s) + λ∗ ), und erhalten eine Eigenwertkurve (v(s), v ∗ (s), θ (s)) mit v(0) = u0 , v ∗ (0) = u∗0 und θ (0) = 0. Differenziert man die Gleichung B(s)v(s) = θ (s)v(s) und multipliziert mit v ∗ (s), so folgt θ  (s) = (B  (s)v(s)|v ∗ (s)) = (∂x2 f (su0 + y(s), μ(s) + λ∗ )(u0 + y  (s))v(s)|v ∗ (s)) + (∂λ ∂x f (su0 + y  (s), μ(s) + λ∗ )μ (s)v(s)|v ∗ (s)), also mit s = 0 θ  (0) = (∂x2 f (0, λ∗ )u0 u0 |u∗0 ) + (∂λ ∂x f (0, λ∗ )u0 |u∗0 )μ (0) = (∂x2 f (0, λ∗ )u0 u0 |u∗0 ) + σ  (0)μ (0). Andererseits ergibt zweimalige Differentiation von f (su0 + y(s), μ(s) + λ∗ ) = 0 in s = 0 die Relation

12.2 Pitchfork-Verzweigung

329

∂x2 f (0, λ∗ )u0 u0 + 2μ (0)∂λ ∂x f (0, λ∗ )u0 + A∗ y  (0) = 0.

(12.8)

Multiplikation mit u∗0 ∈ N(AT∗ ) impliziert (∂x2 f (0, λ∗ )u0 u0 |u∗0 ) + 2σ  (0)μ (0) = 0, folglich gilt θ  (0) = −σ  (0)μ (0).

(12.9)

Daraus kann man den folgenden Schluss ziehen: Es seien für μ < 0 alle Eigenwerte von A(μ) in der linken Halbebene, und in λ = λ∗ wird die triviale Lösung durch die Transversalitätsbedingung instabil, also σ  (0) > 0; die Verzweigung sei transkritisch, also μ (0) = 0. Dann besteht der superkritische Zweig aus asymptotisch stabilen Equilibria für (12.1), der subkritische Zweig hingegen aus instabilen. Ist nun μ (0) = 0, was in Anwendungen häufig vorkommt, so ist (12.9) nicht aussagekräftig genug, wir benötigen ein feineres Argument. Dazu definieren wir eine Funktion k(s) mittels . k(s) =

∂λ f (su0 + y(s), μ(s) + λ∗ )/s für s = 0 für s = 0. ∂λ ∂x f (0, λ∗ )u0

Die Funktion k(s) ist stetig, und es gilt nun mit B(s)(u0 + y  (s)) + ∂λ f (su0 + y(s), μ(s) + λ∗ )μ (s) = 0 nach Multiplikation mit v ∗ (s) für s = 0 (k(s)|v ∗ (s))sμ (s) = −(B(s)(u0 + y  (s))|v ∗ (s)) = −(u0 + y  (s)|B T (s)v ∗ (s)) = −θ (s)(u0 + y  (s)|v ∗ (s)). Da (u0 + y  (s)|v ∗ (s)) → 1 für s → 0 gilt, ist somit ϕ(s) := (k(s)|v ∗ (s))/(u0 + y  (s)|v ∗ (s)) für hinreichend kleines |s| wohldefiniert, und es folgt die zentrale Beziehung θ (s) = −sμ (s)ϕ(s),

|s| < s0 ,

(12.10)

330

12 Verzweigungstheorie

wobei ϕ(s) stetig und ϕ(0) = σ  (0) > 0 ist. Damit gilt die Stabilitätsaussage, die wir für den transkritischen Fall getroffen haben, auch im Fall μ (0) = 0. Es ergibt sich so folgendes Bild für die Stabilität der abzweigenden Lösungen. Satz 12.2.2. Es seien die Voraussetzungen von Satz 12.2.1 erfüllt und zusätzlich sei 0 ein halbeinfacher Eigenwert von A∗ . Ferner sei u∗0 ∈ N (AT∗ ) mit (u0 |u∗0 ) = 1, und es sei σ (A∗ ) \ {0} ⊂ C− , sowie (∂λ ∂x f (0, λ∗ )u0 |u∗0 ) > 0. Dann gelten für (12.1) die folgenden Stabilitätsaussagen für |s| < s0 : 1. Superkritische Zweige, d. h. sλ (s) > 0, bestehen aus asymptotisch stabilen Equilibria. 2. Subkritische Zweige, d. h. sλ (s) < 0 bestehen aus instabilen Equilibria. Um zu sehen, ob ein Zweig sub- oder superkritisch ist, differenzieren wir die Gleichung f (x(s), λ(s)) = 0 zweimal nach s, wobei x(s) = su0 + y(s) und λ(s) = μ(s) + λ∗ ist. Nach Multiplikation mit v ∗ (s) erhält man 0 = (∂x2 f (x(s), λ(s))x  (s)x  (s)|v ∗ (s)) + 2(∂λ ∂x f (x(s), λ(s))x  (s)|v ∗ (s))λ (s) + (B(s)x  (s)|v ∗ (s)) + (∂λ2 f (x(s), λ(s))λ (s)2 |v ∗ (s)) + (∂λ f (x(s), λ(s))λ (s)|v ∗ (s)), also in s = 0 (∂x2 f (0, λ∗ )u0 u0 |u∗0 ) + 2(∂λ ∂x f (0, λ∗ )u0 |u∗0 )λ (0) = 0. Wegen (∂λ ∂x f (0, λ∗ )u0 |u∗0 ) > 0 ist der abzweigende Zweig genau dann transkritisch, wenn (∂x2 f (0, λ∗ )u0 u0 |u∗0 ) = 0 ist. Gilt nun andererseits (∂x2 f (0, λ∗ )u0 u0 |u∗0 ) = 0, also ∂x2 f (0, λ∗ )u0 u0 ∈ N(AT∗ )⊥ = R(A∗ ), so existiert wegen Rn = N(A∗ ) ⊕ R(A∗ ) ein eindeutiges w0 ∈ R(A∗ ), als Lösung der Gleichung A∗ w0 + ∂x2 f (0, λ∗ )u0 u0 = 0. Aus (12.8) folgt somit w0 = y  (0) ∈ R(A∗ ). Nochmalige Ableitung der Gleichung f (x(s), λ(s)) = 0 nach s und Multiplikation mit u∗0 (s) ergibt dann – sofern f aus C 3 ist – in s = 0 3λ (0)(∂λ ∂x f (0, λ∗ )u0 |u∗0 ) = −(∂x3 f (0, λ∗ )u0 u0 u0 |u∗0 ) − 3(∂x2 f (0, λ∗ )u0 w0 |u∗0 ). (12.11)

12.3 Hopf-Verzweigung

331

Aus dieser Beziehung lässt sich nun im generischen Fall ablesen, ob die Verzweigung suboder superkritisch ist.

12.3

Hopf-Verzweigung

In diesem Abschnitt betrachten wir (12.1) in der Situation f (0, λ) ≡ 0, wobei diesmal ein Paar einfacher, komplex konjugierter Eigenwerte σ± (λ) für λ = λ∗ die imaginäre Achse überquert, es gilt also σ± (λ∗ ) = ±iω0 , mit einem ω0 > 0. Die linearisierte Gleichung x˙ = A∗ x, mit A∗ = ∂x f (0, λ∗ ), besitzt dann die periodischen Lösungen eiω0 t ϕ und e−iω0 t ϕ¯ mit Periode τ0 = 2π/ω0 . Daher erwartet man, dass in dieser Situation periodische Lösungen von der Trivialen abzweigen. Diese Art der Verzweigung wird Hopf-Verzweigung genannt. Beispiel. Der Brusselator von Prigogine und Nicolis (vgl. Abschn. 9.3 und Abb. 12.3) besitzt im positiven Quadranten R2+ genau ein Equilibrium nämlich (a, b/a). Die Linearisierung des Modells in diesem Punkt ergibt die Matrix  A=

 b − 1 a2 , −b −a 2

also ist sp A = b − (1 + a 2 ) und det A = a 2 > 0. Daher sind die Eigenwerte für sp A = 0, also für b = 1 + a 2 rein imaginär und natürlich algebraisch einfach. Fasst man b als Verzweigungsparameter auf, so findet für b = 1 + a 2 eine Hopf-Verzweigung statt, wie wir später sehen werden.

v

v 3.0

3.0

2.5

2.5

2.0

2.0

1.5

1.5

1.0

1.0

0.5

0.5 0.5

1.0

1.5

2.0

2.5

3.0

u

0.5

Abb. 12.3 Brusselator mit a = 1, b = 1, 99 bzw. b = 2, 01

1.0

1.5

2.0

2.5

3.0

u

332

12 Verzweigungstheorie

Satz 12.3.1. Sei f ∈ C 2 (G × ; Rn ) mit f (0, λ) ≡ 0 gegeben, und setze A∗ = ∂x f (0, λ∗ ) und L∗ = ∂λ ∂x f (0, λ∗ ). Ferner seien die folgenden Bedingungen für ein ω0 > 0 erfüllt: 1. iω0 ist algebraisch einfacher Eigenwert von A∗ , A∗ ϕ = iω0 ϕ, AT∗ ϕ ∗ = −iω0 ϕ ∗ , und es gelte (ϕ|ϕ ∗ ) = 1. 2. Es gilt Re(L∗ ϕ|ϕ ∗ ) = 0. / {−1, 1}, sind Eigenwerte von A∗ . 3. Keine Vielfachen ikω0 mit k ∈ Z, k ∈ Dann gibt es ein δ > 0 und C 1 -Funktionen τ : [0, δ) → (0, ∞), λ : [0, δ) → , x : R × [0, δ) → Rn , derart dass x(·; s) eine τ (s)-periodische Lösung von (12.1) für λ = λ(s) ist. Es gelten τ (0) = 2π/ω0 , λ(0) = λ∗ , x(·, 0) ≡ 0. In einer Umgebung Br (0) × (λ∗ − a, λ∗ + a) von (0, λ∗ ) gibt es bis auf Phasenverschiebungen x(· + α; s) keine weiteren nichttrivialen periodischen Lösungen mit Periode bei τ0 = 2π/ω0 . Der Beweis dieses Satzes ist konzeptionell und technisch deutlich schwieriger als die der Verzweigungssätze in den vorhergehenden Abschnitten, da hier nicht Equilibria, also Vektoren im Rn , sondern periodische Funktionen gesucht sind. Das Problem wird dadurch unendlichdimensional! Bedingung 2. nennt man auch hier Transversalitätsbedingung, wir werden später sehen warum das gerechtfertigt ist. Bedingung 3. rührt daher, dass mit ±iω0 auch Eigenwerte kiω0 τ0 -periodische Lösungen der linearisierten Gleichung x˙ = A∗ x liefern, was hier für k∈ / {−1, 1} ausgeschlossen werden soll. Da (12.1) bezüglich t translationsinvariant ist, sind mit x(t; s) auch x(t + α; s) periodische Lösungen, die aber dasselbe Orbit haben wie x(t; s). In diesem Satz sind die periodischen Orbits eindeutig, die periodischen Lösungen sind nur bis auf Translationen, also Phasenverschiebungen eindeutig bestimmt. Beweis. (i) Zunächst beachte man, dass mit iω0 auch −iω0 Eigenwert von A∗ ist, mit Eigenvektor ϕ¯ und adjungiertem Eigenvektor ϕ¯ ∗ . Es ist iω0 (ϕ|ϕ¯ ∗ ) = (A∗ ϕ|ϕ¯ ∗ ) = (ϕ|AT∗ ϕ¯ ∗ ) = (ϕ|iω0 ϕ¯ ∗ ) = −iω0 (ϕ|ϕ¯ ∗ ), also (ϕ|ϕ¯ ∗ ) = 0; ebenso gilt auch (ϕ|ϕ ¯ ∗ ) = (ϕ|ϕ¯ ∗ ) = 0. Da die Periode der gesuchten periodischen Lösungen von vornherein nicht bekannt ist, ist es zweckmäßig, auf Periode 2π zu normieren. Daher betrachten wir anstelle von (12.1) die normierte Gleichung ωx˙ = f (x, λ).

(12.12)

Die Periode τ ist dann gegeben durch τ = 2π/ω; gesucht ist nun auch noch ω.

12.3 Hopf-Verzweigung

333

(ii) Es bezeichne X0 := Cper (R; Cn ) den Raum aller Cn -wertigen, stetigen, 1 (R; Cn ) den Raum der stetig 2π -periodischen Funktionen, und X1 := Cper differenzierbaren Funktionen aus X0 . Versehen mit den Maximumsnormen |x|X0 = ˙ ∞ sind dies Banachräume. Wir untersuchen als erstes |x|∞ bzw. |x|X1 = |x|∞ + |x| die Gleichung ω0 x˙ = A∗ x + b(t),

t ∈ R,

(12.13)

bei gegebenem b ∈ X0 im Raum X1 . Diese Gleichung hat einen zweidimensionalen ¯ = e−it ϕ¯ aufgespannt wird. Wir bezeichnen Kern N , der durch ψ(t) = eit ϕ und ψ(t) den Raum der Funktionen b ∈ X0 , sodass (12.13) eine Lösung in X1 besitzt, mit R. Die Lösung von (12.13) mit Anfangswert x(0) = x0 ist mit der Formel der Variation der Konstanten durch 

t

x(t) = eA∗ t/ω0 x0 +

eA∗ (t−r)/ω0 b(r)/ω0 dr,

t ∈ R,

0

gegeben. Diese Lösung ist genau dann 2π -periodisch, wenn  (I − e

2π A∗ /ω0



)x0 =

eA∗ (2π −r)/ω0 b(r)/ω0 dr

0

¯ sind, die homogene Gl. (12.13) gilt. Da eA∗ t/ω0 ϕ = ψ(t) und eA∗ t/ω0 ϕ¯ = ψ(t) aufgrund von Annahmen 1. und 3. keine weiteren unabhängigen 2π -periodischen Lösungen besitzt, ist der Kern von I − e2π A∗ /ω0 durch N(I − e2π A∗ /ω0 ) = span{ϕ, ϕ} ¯ gegeben, und der Orthogonalraum des Bildes von I − e2π A∗ /ω0 ist R(I − e2π A∗ /ω0 )⊥ = N(I − e2π A∗ /ω0 ) = span{ϕ ∗ , ϕ¯ ∗ }. T

Damit besitzt (12.13) genau dann eine Lösung in X1 wenn 



eA∗ (2π −r)/ω0 b(r)dr|ϕ ∗



0





=

eA∗ (2π −r)/ω0 b(r)dr|ϕ¯ ∗

 =0

0

T erfüllt ist. Wir setzen nun ψ ∗ (t) = eit ϕ ∗ = e−A∗ t/ω0 ϕ ∗ und ψ¯ ∗ (t) = e−it ϕ¯ ∗ = T e−A∗ t/ω0 ϕ¯ ∗ . Dann sind die Lösbarkeitsbedingungen wegen

 0



  eA∗ (2π −r)/ω0 b(r)dr|ϕ ∗ = 0



(b(r)|eA∗ (2π −r)/ω0 ϕ ∗ )dr= T

 0



(b(r)|ψ ∗ (r))dr

334

12 Verzweigungstheorie

und der analogen Identität mit ϕ¯ ∗ äquivalent zu 



(b(r)|ψ ∗ (r))dr =

0





(b(r)|ψ¯ ∗ (r))dr = 0.

0

Gilt nun b ∈ R, d. h. b erfüllt die Lösbarkeitsbedingungen, dann existiert eine Lösung d − A∗ : X1 → X0 den von (12.13). Damit hat der beschränkte lineare Operator ω0 dt Kern N und das Bild R; man beachte, dass R abgeschlossen ist. (iii) Zur Abkürzung führen wir das Skalarprodukt (u|v) :=

1 2π





(u(t)|v(t))dt,

u, v ∈ X0 ,

0

ein, und definieren P : X0 → X0 mittels ¯ P u := (u|ψ ∗ )ψ + (u|ψ¯ ∗ )ψ,

u ∈ X0 .

Offensichtlich ist P : X0 → X0 eine stetige Projektion in X0 mit Bild R(P ) = N . Andererseits gilt b ∈ R genau dann, wenn (b|ψ ∗ ) = (b|ψ¯ ∗ ) = 0 ist, d. h. es gilt N (P ) = R. Damit haben wir die Zerlegung X0 = N(P ) ⊕ R(P ) = R ⊕ N , und mit X0 ist auch R ⊂ X0 ein Banachraum, da R abgeschlossen ist. Da N ⊂ X1 gilt, ist P auch eine Projektion in X1 und es gelten R(P |X1 ) = N , N (P |X1 ) = R1 , d − A∗ auf sowie X1 = N ⊕ R1 . Daher ist die Einschränkung S0 des Operators ω0 dt R1 := R ∩ X1 ein Isomorphismus von R1 auf R. Man beachte, dass P u = P u¯ gilt, also ist mit u auch P u reell. Ebenso ist die Lösung S0−1 b reell, wenn b ∈ R reell ist. (iv) Von nun an sei o.B.d.A. λ∗ = 0. Wir zerlegen die Funktion f wie folgt. f (x, λ) = f (0, λ) + ∂x f (0, λ)x + r˜ (x, λ) = A∗ x + λL∗ x + r(x, λ), wobei r wieder aus C 2 ist, und r(0, 0) = ∂x r(0, 0) = ∂λ r(0, 0) = ∂λ ∂x r(0, 0) = 0 erfüllt. Dann ist (12.12) äquivalent zu ωx˙ − A∗ x − λL∗ x = r(λ, x). Wir wählen nun den Ansatz ¯ + sy, x = s(ψ + ψ)

(y|ψ ∗ ) = (y|ψ¯ ∗ ) = 0.

12.3 Hopf-Verzweigung

335

Dabei ist mit y auch x reell, denn es ist ψ + ψ¯ = 2Re ψ. In die letzte Gleichung eingesetzt ergibt dieser Ansatz nach Division durch s > 0 i(ω − ω0 )ψ − i(ω − ω0 )ψ¯ + ωy˙ − A∗ y − λL∗ (ψ + ψ¯ + y) = r0 (s, λ, y), mit . r0 (s, λ, y) :=

¯ + sy, λ)/s, s = 0, r(s(ψ + ψ) ∂x r(0, λ)(ψ + ψ¯ + y), s = 0.

Man beachte, dass r0 eine Differenzierbarkeitsstufe weniger besitzt als r, aber immer noch aus C 1 ist, und es gilt r0 (0, 0, 0) = ∂y r0 (0, 0, 0) = ∂λ r0 (0, 0, 0) = 0. Nun ist (L∗ ψ|ψ ∗ ) = (L∗ ϕ|ϕ ∗ ) =: γ ,

(L∗ ψ|ψ¯ ∗ ) = γ¯ ,

¯ ∗ ) = 0, (ψ|ψ¯ ∗ ) = (ψ|ψ

und nach partieller Integration auch (y|ψ ˙ ∗ ) = (y| ˙ ψ¯ ∗ ) = 0, sowie (A∗ y|ψ ∗ ) = ∗ ∗ (A∗ y|ψ¯ ) = 0. Nach Anwendung von ψ und ψ¯ ∗ und I − P erhält man daher das äquivalente System i(ω − ω0 ) − λγ = (r0 (s, λ, y)|ψ ∗ ) + λ(L∗ y|ψ ∗ ) −i(ω − ω0 ) − λγ¯ = (r0 (s, λ, y)|ψ¯ ∗ ) + λ(L∗ y|ψ¯ ∗ )

(12.14)

S0 y + (ω − ω0 )y˙ = λ(I − P )L∗ (ψ + ψ¯ + y) + (I − P )r0 (s, λ, y). Hierbei ist die 2. Gleichung die komplex-konjugierte der 1., also redundant. Die letzte Gleichung, also S0 y + (ω − ω0 )y˙ = λ(I − P )L∗ (ψ + ψ¯ + y) + (I − P )r0 (s, λ, y),

(12.15)

lässt sich mit Hilfe des Satzes über implizite Funktionen im reellen Banachraum R1 nach y auflösen, denn ihre Ableitung nach y im Punkt (s, ω, λ, y) = (0, ω0 , 0, 0) ist S0 und nach Beweisschritt (iii) ist S0 : R1 → R ein Isomorphismus. Wir erhalten so eine C 1 -Funktion y : (−δ, δ) × (ω0 − δ, ω0 + δ) × (−δ, δ) → R1 mit y(0, ω0 , 0) = 0 sowie ∂ω y(0, ω0 , 0) = 0. Setzt man y(s, ω, λ) in die erste Gleichung aus (12.14) ein, so erhält man die Verzweigungsgleichung: i(ω − ω0 ) − λγ = g(s, ω, λ), wobei g(s, ω, λ) = (r0 (s, λ, y(s, ω, λ))|ψ ∗ ) + λ(L∗ y(s, ω, λ)|ψ ∗ )

(12.16)

336

12 Verzweigungstheorie

ist. Aufspalten in Real- und Imaginärteil ergibt das zweidimensionale reelle System −λRe γ = Re g(s, ω, λ),

(12.17)

(ω − ω0 ) − λIm γ = Im g(s, ω, λ),

(12.18)

Dieses System kann man nun mit Hilfe des Satzes über implizite Funktionen nach ω und λ auflösen. Denn dessen Ableitung nach ω und λ im Punkt (0, ω0 , 0) ist die Matrix   0 −Re γ , C := 1 −Im γ deren Determinate det C = Re γ ist, also nach Voraussetzung 2. det C = 0. Damit erhalten wir Funktionen ω, λ : (−s0 , s0 ) → R aus C 1 mit ω(0) = ω0 , λ(0) = 0 = λ∗ , und es gibt keine weiteren Lösungen in einer Umgebung von (ω0 , λ∗ ). Der Satz ist damit bewiesen.  Um die Richtung der Verzweigung zu bestimmen, muss man zur Kenntnis nehmen, dass λ (0) = ω (0) = 0 ist; vgl. Abschn. 12.5. Daher differenzieren wir die Gleichung −λ(s)Re γ = Re g(s, ω(s), λ(s)) zweimal nach s und werten sie in s = 0 aus. Zunächst ergibt der Hauptsatz der Differential- und Integralrechnung die Darstellung  1 g(s, ω, λ) = ( (∂x r(σ s(ψ + ψ¯ + y), λ)(ψ + ψ¯ + y)|ψ ∗ )dσ ) + λ(L∗ y|ψ ∗ ). 0

Nach Einsetzen der Funktionen λ(s), ω(s), y = y(s, ω(s), λ(s)) ergibt eine einfache, aber längere Rechnung für s = 0 die Identität ∗ ¯ −3λ (0)Re γ = Re[(∂x3 f (0, λ∗ )ϕϕ ϕ|ϕ ¯ ∗ ) + 3(∂x2 f (0, λ∗ )y  (0)(ψ + ψ)|ψ )

¯  (0)|ψ ∗ )]. + 3(∂x2 f (0, λ∗ )(ψ + ψ)y

(12.19)

Dabei beachte man, dass y  (0) als Lösung des aus (12.15) resultierenden Problems S0 y  (0) =

1 2 ¯ ¯ ∂ f (0, λ∗ )(ψ + ψ)(ψ + ψ) 2 x

eindeutig bestimmt ist. Die Beziehung (12.19) ermöglicht die Bestimmung der Verzweigungsrichtung. Natürlich müssen wir hierbei f ∈ C 3 voraussetzen, damit diese Argumentation erlaubt ist.

12.4 Periodische Lösungen Hamiltonscher Systeme

12.4

337

Periodische Lösungen Hamiltonscher Systeme

Als Anwendung der Hopf-Verzweigung zeigen wir ein klassisches Resultat über periodische Lösungen Hamiltonscher Systeme, das auf Ljapunov zurückgeht. Dazu betrachten wir das Hamilton-System q˙ = ∂p H (q, p),

p˙ = −∂q H (q, p),

(12.20)

mit einer Hamilton-Funktion H ∈ C 3 (R2n ; R). Es ist bequem, dieses System in der Gleichung x˙ = J ∇H (x) zusammenzufassen, wobei x = (q, p) und  J =

 0 I −I 0

sind. Die Matrix J heißt Symplektik und hat die Eigenschaften J T = J −1 = −J , (J x|x) = 0 für reelle x und (J z|z) ∈ iR für komplexe z. Wir betrachten das HamiltonSystem in der Nähe eines Equilibriums x∗ = (q∗ , p∗ ), also eines kritischen Punktes von H . Es gilt das folgende Resultat: Satz 12.4.1. Sei U ⊂ R2n offen, H ∈ C 3 (U ; R), und x∗ ∈ U ein kritischer Punkt von H . Es sei iω ein algebraisch einfacher Eigenwert von A∗ := J ∇ 2 H (x∗ ), ω > 0, und kein Eigenwert μ = ±iω von A∗ sei auf der imaginären Achse. Dann besitzt das Hamilton -System x˙ = J ∇H (x) in einer Umgebung Br (x∗ ) ⊂ U von x∗ eine eindeutige einparametrige Schar periodischer Lösungen. Beweis. Die Idee besteht darin, Satz 12.3.1 auf die Gleichung x˙ = f (x, λ) im Punkt (x∗ , 0) anzuwenden, wobei f (x, λ) = J ∇H (x) + λ∇H (x) ist. Offenbar ist ∂x f (x∗ , 0) = A∗ und ∂x ∂λ f (x∗ , 0) = ∇ 2 H (x∗ ) =: L∗ . O.B.d.A. kann man x∗ = 0 annehmen. Die Annahmen 1. und 3. von Satz 12.3.1 sind nach Voraussetzung erfüllt, wir verifizieren nun 2. Es seien ϕ und ϕ ∗ wie in Satz 12.3.1 definiert. Dann gelten J ∇ 2 H (0)ϕ = iωϕ und ∇ 2 H (0)J T ϕ ∗ = (J ∇ 2 H (0))T ϕ ∗ = −iωϕ ∗ , folglich J ∇ 2 H (0)J T ϕ ∗ = −iωJ ϕ ∗ = iωJ T ϕ ∗ , und somit J T ϕ ∗ = αϕ, da iω einfach ist. Ferner ist α = 0 da sonst ϕ ∗ = 0 wäre, im Widerspruch zu (ϕ|ϕ ∗ ) = 1. Nun folgt (L∗ ϕ|ϕ ∗ ) = (∇ 2 H (0)ϕ|ϕ ∗ ) = (J ∇ 2 H (0)ϕ|J ϕ ∗ ) = iω(ϕ| − J T ϕ ∗ ) = −iωα|ϕ| ¯ 22 .

338

12 Verzweigungstheorie

Danach wäre die Annahme 2. in Satz 12.3.1 erfüllt, falls Im α = 0 ist. Es gilt 1 = (ϕ|ϕ ∗ ) = (J ϕ|J ϕ ∗ ) = −(J ϕ|αϕ) = −α(J ¯ ϕ|ϕ). Da der Term (J ϕ|ϕ) rein imaginär ist, gilt α ∈ iR \ {0}. Nach Satz 12.3.1 findet also eine Hopf-Verzweigung statt, und wir finden eine eindeutige Schar periodischer Orbits γ (s), Perioden τ (s), und Parameter λ(s), wobei s ∈ (0, δ) ist. Der Clou des Beweises ist nun der, dass λ(s) = 0 für alle s gilt, d. h. die periodischen Orbits gehören zu Lösungen des Hamilton Systems. In der Tat ist nach Voraussetzung J ∇ 2 H (0) nichtsingulär, also auch ∇ 2 H (0). Dies impliziert, dass x∗ = 0 ein isolierter kritischer Punkt von H ist, also ∇H (x) = 0 in einer punktierten Umgebung Br (0) \ {0}. Weiter gilt H˙ (x) = (J ∇H (x)|∇H (x)) + λ|∇H (x)|22 = λ|∇H (x)|22 , also ist die Funktion −λH (x) für λ = 0 eine strikte Ljapunov-Funktion für x˙ = f (x, λ). Damit hat diese Gleichung für λ = 0 keine nichtkonstanten periodischen Lösungen. Daher muss λ(s) = 0 für alle s ∈ (0, δ) gelten. 

12.5

Stabilität bei Hopf-Verzweigung

(i) Es seien die Voraussetzungen von Satz 12.3.1 erfüllt. Da iω algebraisch einfacher Eigenwert von A∗ ist, gibt es nach einer einfachen Modifikation von Lemma 12.1.2 eine C 1 -Eigenwertkurve (σ (λ), φ(λ), φ ∗ (λ)), λ ∈ (λ∗ − η, λ∗ + η), sodass σ (λ∗ ) = iω0 , φ(λ∗ ) = ϕ, φ ∗ (λ∗ ) = ϕ ∗ , (φ(λ)|φ ∗ (λ)) = 1, und A(λ)φ(λ) = σ (λ)φ(λ),

AT (λ)φ ∗ (λ) = σ¯ (λ)φ ∗ (λ),

λ ∈ (λ∗ − η, λ∗ + η),

gelten. Differentiation nach λ und Multiplikation mit φ ∗ (λ) ergibt (A (λ)φ(λ)|φ ∗ (λ)) = σ  (λ), also für λ = λ∗ Re σ  (λ∗ ) = Re (L∗ ϕ|ϕ ∗ ), da A (λ) = ∂λ ∂x f (0, λ), also A (λ∗ ) = L∗ ist. Daher ist Bedingung 2. aus Satz 12.3.1 äquivalent zu Re σ  (λ∗ ) = 0, d. h. der Eigenwert σ (λ) überquert die imaginäre Achse für λ = λ∗ mit nichttrivialer Geschwindigkeit. Dies rechtfertigt die Bezeichnung Transversalitätsbedingung auch im Fall der Hopf-Verzweigung.

12.5 Stabilität bei Hopf-Verzweigung

339

Sind alle Eigenwerte von A∗ mit Ausnahme von ±iω0 in der offenen linken Halbebene, und gilt Re σ  (λ∗ ) > 0, so ist das triviale Equilibrium von (12.1) für λ∗ − η < λ < λ∗ asymptotisch stabil, für λ∗ < λ < λ∗ + η instabil, verliert also in λ = λ∗ seine Stabilität. Wir nehmen im Folgenden Re σ  (λ∗ ) > 0 an. ¯ ¯ + π )), (ii) Ersetzt man s durch −s so ergibt sich −s(ψ(t) + ψ(t)) = s(ψ(t + π ) + ψ(t d. h. eine Phasenverschiebung um π . Mit der Transformation τy(t) = −y(t +π ) sieht man nun die Symmetrie r0 (−s, λ, τy) = τ r0 (s, λ, y), und daher gilt aufgrund der Eindeutigkeit der Lösungen von (12.15) die Symmetrie y(−s, λ, ω) = τy(s, λ, ω). Da außerdem g(−s, ω, λ) = g(s, ω, λ) ist, folgt ω(−s) = ω(s) und λ(−s) = λ(s), und die periodischen Lösungen x(·; s) = s(ψ + ψ¯ + y(s)) sind für negative s lediglich die um π phasenverschobenen für |s|. Daher genügt es tatsächlich nur den Zweig für s > 0 zu betrachten, denn der Zweig für s < 0 gibt keine weiteren Lösungen. Insbesondere sind λ (0) = ω (0) = 0. Dies impliziert, dass die periodische Lösung sehr schnell abzweigt. Denn ihre Amplitude ist proportional zu s. Hingegen ist für kleine s die Änderung des Parameters λ(s) ebenso wie der Frequenz ω(s) und daher auch der Periode τ (s) = 2π/ω(s) proportional zu s 2 . Diese Größen ändern sich also verglichen mit der Amplitude nur langsam in der Nähe des Verzweigungspunktes. (iii) Um die Stabilität der abzweigenden Lösungen zu untersuchen, verwenden wir die Floquet-Theorie aus Abschn. 11.2. Da die Gl. (12.1) autonom ist, ist ein FloquetMultiplikator stets gleich eins, und er ist algebraisch zweifach aber halbeinfach für s = 0. Daher ist der zweite Floquet-Multiplikator μ(s) reell, und seine Lage entscheidet über die Stabilität der abzweigenden periodischen Lösungen, denn wegen σ (A∗ ) \ {±iω0 } ⊂ C− befinden sich alle anderen Floquet-Multiplikatoren für s = 0 strikt innerhalb des Einheitskreises, also auch für kleine positive s. Daher müssen wir μ(s) studieren; man beachte, dass auch μ (0) = 0 aufgrund der Symmetrie μ(−s) = μ(s) gilt. Wir betrachten daher das Problem ω(s)u(t) ˙ = B(t; s)u(t),

t ∈ [0, 2π ],

u(2π ) = μ(s)u(0),

(12.21)

¯ + y(t; s)) gesetzt wurde. wobei B(t; s) = ∂x f (x(t; s), λ(s)) und x(t; s) = s(ψ(t) + ψ(t) Für s = 0 ergibt sich das Problem ω0 u(t) ˙ = A∗ u(t),

t ∈ [0, 2π ],

u(2π ) = μ0 u(0),

welches μ0 = 1 als halbeinfachen doppelten Floquet-Multiplikator hat, und die Eigenvektoren lauten ϕ und ϕ. ¯

340

12 Verzweigungstheorie

Sei X(t; s) das Hauptfundamentalsystem von (12.21), und M(s) = X(2π ; s) die zugehörige Monodromiematrix. Ist μ(s) = 1, dann sind die Kerne N (M(s)−I ) und N (M(s)− μ(s)) eindimensional, denn die Eigenwerte 1 und μ(s) von M(s) sind algebraisch einfach. Wir fixieren dann u0 (s) ∈ N(M(s) − I ), u∗0 (s) ∈ N (M T (s) − I ) mit (u0 (s)|u∗0 (s)) = 1, und v0 (s) ∈ N (M(s) − μ(s)), v0∗ (s) ∈ N(M T (s) − μ(s)) mit (v0 (s)|v0∗ (s)) = 1; man beachte dass μ(s) = 1 schon (u0 (s)|v0∗ (s)) = (v0 (s)|u∗0 (s)) = 0 nach sich zieht. Da M(s) reell ist, können alle diese Vektoren reell gewählt werden, und o.B.d.A. können wir |v0∗ (s)|2 = 1 annehmen. Als nächstes setzen wir u(t; s) = X(t; s)u0 (s), v(t; s) = X(t; s)v0 (s) sowie u∗ (t; s) = X−T (t; s)u∗0 (s), v ∗ (t; s) = X−T (t; s)v0∗ (s); dann gilt (u(s)|u∗ (s)) = (v(s)|v ∗ (s)) = 1 und (u(s)|v ∗ (s)) = (v(s)|u∗ (s)) = 0. Differenziert man ωx˙ = f (x, λ) nach t so folgt ω(s)x(t; ¨ s) = ∂x f (x(t; s), λ(s))x(t; ˙ s) = B(t; s)x(t; ˙ s), ¯ folglich kann man o.B.d.A. u(t; s) = x(t; ˙ s)/s = i(ψ − ψ)(t) + y(t; ˙ s) setzen. Mit s → 0 ¯ folgt dann u(·; s) → i(ψ − ψ), also auch u0 (s) → i(ϕ − ϕ). ¯ Differenziert man die Gleichung nach s so erhält man (der  bedeutet die Ableitung nach s) ω(s)x˙  (t; s) = ∂x f (x(t; s), λ(s))x  (t; s) + ∂λ f (x(t; s), λ(s))λ (s) − ω (s)x(t; ˙ s). ¯ ¯ Andererseits gilt x  (t; s) = ψ(t) + ψ(t) + y(t; s) + sy  (t; s) → ψ(t) + ψ(t) für s → 0. ∗ Wir multiplizieren die letzte Gleichung mit u (s) und erhalten nach partieller Integration die Beziehung sω (s) = λ (s)(∂λ f (x(·; s), λ(s))|u∗ (·; s)). Des Weiteren gilt wegen v ∗ (2π ; s) = X−T (2π ; s)v0∗ (s) = M −T (s)v0∗ (s) =

1 ∗ v (s), μ(s) 0

die Relation   1 − 1 ω(s)(x  (0; s)|v0∗ (s)) = ω(s)(x  (0; s)|v ∗ (2π ; s) − v ∗ (0; s)). μ(s) Damit ergibt der Hauptsatz der Differential- und Integralrechnung 









ω(s)(x (0; s)|v (2π ; s) − v (0; s)) = ω(s) 0

denn x  (0; s) = x  (2π ; s). Ferner gilt

d  (x (t; s)|v ∗ (t; s))dt, dt

12.5 Stabilität bei Hopf-Verzweigung

 ω(s)

341



d  (x (t; s)|v ∗ (t; s))dt dt 0  2π = ω(s) [(x˙  (t; s)|v ∗ (t; s)) + (x  (t; s)|v˙ ∗ (t; s))]dt 0





=

[(B(t; s)x  (t; s) + ∂λ f (x(t; s), λ(s))λ (s) − ω (s)x(t; ˙ s)|v ∗ (t; s))

0

− (x  (t; s)|B T (t; s)v ∗ (t; s))]dt = 2π (∂λ f (x(·; s), λ(s))λ (s) − ω (s)x(·; ˙ s)|v ∗ (·; s)) = 2π (∂λ f (x(·; s), λ(s))λ (s)|v ∗ (·; s)), denn ω(s)v˙ ∗ (t; s) = −B T (t; s)v ∗ (t; s) und (x(·; ˙ s)|v ∗ (·; s)) = s(u(·; s)|v ∗ (·; s)) = 0. Insgesamt erhalten wir so die Beziehung (1 − μ(s))ω(s)(x  (0; s)|v0∗ (s)) = 2π λ (s)μ(s)(∂λ f (x(·; s), λ(s))|v ∗ (·; s)). Sei nun sk → 0 eine Folge mit μ(sk ) = 1. Da die Folge (v0∗ (sk )) beschränkt ist, gibt es eine Teilfolge die gegen ein v0∗ ∈ N(M(0)T − I ) konvergiert; v0∗ ist reell, hat Norm ¯ 0∗ ) = 0 gilt, Eins, und ist von der Form v0∗ = aϕ ∗ + bϕ¯ ∗ . Da nun außerdem (i(ϕ − ϕ)|v ∗ ∗ ∗ folgt a = b ∈ R. Wegen |v0 |2 = 1 sind ±a(ϕ + ϕ¯ ) die einzigen Häufungspunkte von (v0∗ (sk )). Wir erhalten somit (x  (0; s)|v0∗ (s)) → (ϕ + ϕ| ¯ ± a(ϕ ∗ + ϕ¯ ∗ )) = ±2a = 0. Als nächstes berechnen wir lim

s→0

∂λ f (x(t; s), λ(s)) s ¯ = ∂x ∂λ f (0, λ∗ )x  (t, 0) + ∂λ2 f (0, λ∗ )λ (0) = L∗ (ψ(t) + ψ(t)),

und erhalten damit < = 1 ¯ ± a(ψ ∗ + ψ¯ ∗ )) = ±2aRe(L∗ ϕ|ϕ ∗ ). lim ∂λ f (x(·; s), λ(s))|v ∗ (·; s) = (L∗ (ψ + ψ)| s→0 s Dies ergibt schließlich die wichtige Identität > 1 − μ(s) = sλ (s)μ(s)h(s),

h(s) = 2π

1 ∗ s ∂λ f (x(·; s), λ(s))|v (·; s) ω(s)(x  (0; s)|v0∗ (s))

? ,

(12.22)

342

12 Verzweigungstheorie

wobei h(s) → 2π Re(L∗ ϕ|ϕ ∗ )/ω0 für s → 0 gilt. Ist nun Re(L∗ ϕ|ϕ ∗ ) = Re σ  (0) > 0, so zeigt Identität (12.22), dass λ (s) > 0 einen Floquet-Multiplikator μ(s) < 1 nach sich zieht, also impliziert Satz 11.4.3 die orbitale asymptotische Stabilität des abzweigenden Orbits. Im Fall λ (s) < 0 hingegen ergibt sich analog die Instabilität des abzweigenden Orbits. Dies ist der Inhalt des folgenden Resultats. Satz 12.5.1. Es seien die Voraussetzungen von Satz 12.3.1 erfüllt. Es sei A∗ ϕ = iω0 ϕ, AT∗ ϕ ∗ = −iω0 ϕ ∗ , mit (ϕ|ϕ ∗ ) = 1 und Re(∂λ ∂x f (0, λ∗ )ϕ|ϕ ∗ ) > 0. Ferner gelte σ (A∗ ) \ {±iω0 } ⊂ C− . Dann gelten für die abzweigenden periodischen Orbits von (12.1) die folgenden Stabilitätsaussagen für 0 < s < s0 : 1. Superkritische Zweige, d. h. λ (s) > 0, bestehen aus orbital asymptotisch stabilen periodischen Lösungen. 2. Subkritische Zweige, d. h. λ (s) < 0 bestehen aus instabilen periodischen Lösungen. Zum Abschluss dieses Abschnitts kommen wir auf den Brusselator zurück. Beispiel. Der Brusselator. Offensichtlich ist σ  (b∗ ) = 1/2, also überqueren 2 konjugiert komplexe Eigenwerte in b = b∗ = 1 + a 2 die imaginäre Achse mit positiver Geschwindigkeit. Wir interessieren uns für die Stabilität des abzweigenden Orbits. Da es nach Beispiel 2 in Abschn. 9.3 im Bereich b ≤ 1 + a 2 keine echten periodischen Orbits gibt, muss b(s) > 1 + a 2 für s > 0 sein. Die Eigenwerte von A∗ sind ±ia, daher ist die Periode τ∗ = 2π/a. Da f im Falle des Brusselators polynomial, also analytisch ist, hat auch die Funktion b(s) diese Eigenschaft. Daher gibt es ein kleinstes m ∈ N mit b(m) (0) = 0, und es ist b(s) = 1 + a 2 + b(m) (0)s m /m! + O(s m+1 ). Da b symmetrisch ist, muss m gerade sein, und es ist b(m) (0) > 0, da der Zweig periodischer Lösungen im Bereich b > 1 + a 2 liegt. Damit ist der abzweigende Zweig superkritisch, besteht also nach Satz 12.5.1 aus orbital asymptotisch stabilen periodischen Lösungen.

12.6

Chemische Reaktionstechnik

Als Anwendung betrachten wir in diesem Abschnitt einen idealen Rührkessel, in dem eine nichtisotherme Reaktion 1. Ordnung abläuft. Zur Modellierung sei c(t) die Konzentration der abreagierenden Substanz, θ (t) die absolute Temperatur, cf die Konzentration im Zustrom, θ f dessen Temperatur, sowie V das Volumen, V˙ der Volumenstrom durch den Reaktor, r(c, θ ) die Reaktionsgeschwindigkeit, und q(θ ) eine externe Kühlung des Reaktors. Dann erfüllen (c, θ ) unter der Annahme konstanter Wärmekapazität κ > 0 und vernachlässigbarer Volumenveränderung sowie idealer Durchmischung das System

12.6 Chemische Reaktionstechnik

343

V c˙ = V˙ (cf − c) − V r(c, θ ), κV θ˙ = κ V˙ (θ f − θ ) +

c(0) = c0 ≥ 0,

H κV r(c, θ ) − κV q(θ ),

θ (0) = θ0 ≥ 0.

Dabei bedeutet H die Reaktionsenthalpie, welche angibt, wieviel Wärmeenergie pro Mol durch die Reaktion frei, bzw. verbraucht wird. Die Reaktion heißt exotherm wenn H > 0, endotherm wenn H < 0, und isotherm wenn H = 0 ist. Die Reaktionsrate r(c, θ ) ist typischerweise vom Arrhenius-Typ: r(c, θ ) = k0 ce−E/Rθ ,

c, θ > 0,

wobei k0 > 0 die maximale Reaktionsgeschwindigkeit angibt. E > 0 heißt Aktivierungsenergie, und R > 0 ist die Avogadro-Konstante. Die Kühlungsfunktion q(θ ) ist wachsend, ein typisches Beispiel ist die Newtonsche Kühlung q(θ ) = K(θ − θK ),

θ > 0,

wobei K ≥ 0 die Kühlintensität und θK > 0 die Temperatur der Kühlung bedeuten. Naheliegenderweise dividiert man die Gleichung für c durch V , die für θ durch κV , und erhält so das System 1 f (c − c) − r(c, θ ), c(0) = c0 ≥ 0, τ 1 θ˙ = (θ f − θ ) + H r(c, θ ) − q(θ ), θ (0) = θ0 ≥ 0, τ c˙ =

wobei die Zahl τ = V /V˙ Verweilzeit des Reaktors genannt wird; τ gibt die mittlere Zeit an, die ein Partikel im Reaktor verweilt. Wir skalieren die Variablen nun wie folgt. u(t) := c(τ t)/cf ,

v(t) = (θ (τ t) − θ f )/( H cf ),

und erhalten das skalierte System u˙ = 1 − u − duψ(v),

u(0) = u0 ≥ 0,

v˙ = −v + duψ(v) − g(v),

v(0) = v0 .

Dabei sind d = k0 τ > 0 die Damköhler-Zahl, und mit β = vK = (θK − θ f )/ H cf ist ⎧ ⎨e−γ /(1+βv) , 1 + βv > 0, ψ(v) = ⎩0, 1 + βv ≤ 0,

(12.23)

H cf /θ f , γ = E/Rθ f > 0,

g(v) = τ K(v − vK ).

344

12 Verzweigungstheorie

Dieses skalierte Problem soll in diesem Abschnitt untersucht werden. Wegen 0 ≤ ψ(v) < 1 gilt v˙ ≥ 0, falls v ≤ τ KvK /(1 + τ K), sowie u˙ ≥ 0, falls u ≤ 0. Daher ist die Menge K := R+ × [τ KvK /(1 + τ K), ∞) positiv invariant. Ferner gilt u˙ ≤ 0, falls u ≥ 1 und v˙ ≤ 0, falls v ≥ (d + τ KvK )/(1 + τ K). Demnach existieren die Lösungen in K global nach rechts, und der Bereich D := [0, 1] × [(τ KvK )/(1 + τ K), (d + τ KvK )/(1 + τ K)] ist positiv invariant und ein globaler Attraktor in K. Die Dynamik des Systems (12.23) spielt sich folglich in D ab, und nach Satz 7.3.5 gibt es mindestens ein Equilibrium in D. Wir unterscheiden im Weiteren 3 Fälle. (i) Der endotherme Fall. Dieser Fall ist durch β < 0 charakterisiert. Hier gilt ψ  (v) =

βγ ψ(v) ≤ 0, (1 + βv)2

v > 0,

also ist ψ nichtnegativ und fallend. Das System (12.23) ist quasimonoton, wir können daher Satz 7.6.2 anwenden. Eine Unterlösung lautet [0, (τ KvK )/(1+τ K)]T und eine Oberlösung ist gegeben durch [1, (d+τ KvK )/(1+τ K)]T . Die Equilibria des Systems ergeben sich aus den Gleichungen u = 1 − v − g(v),

v + g(v) = dψ(v). 1 − v − g(v)

(12.24)

Die linke Seite der Gleichung für v ist streng wachsend da g(v) wachsend ist, die rechte Seite hingegen fallend. Daher ist das Equilibrium eindeutig bestimmt, folglich nach Satz 7.6.2 global asymptotisch stabil in D und damit auch in K. Hierbei können die Funktionen g und ψ beliebig sein, wichtig sind nur ψ(v) ≥ 0 fallend und g wachsend. (ii) Der exotherme adiabatische Fall. Nun gilt β > 0. Adiabatisch bedeutet keine externe Kühlung, also g(v) ≡ 0. Hier ist nun ψ(v) streng wachsend, also ist a priori die Eindeutigkeit der Equilibria nicht gesichert, diese hängt von den Parametern d, β, γ > 0 ab. Es bezeichne f (u, v, d) die rechte Seite von (12.23); wir sehen d als den Verzweigungsparameter an, da d im Wesentlichen die Verweilzeit ist, die man einfach kontrollieren kann. Die Ableitung von f nach x = [u, v]T ist  A=

 −1 − dψ(v) −duψ  (v) . dψ(v) −1 + duψ  (v)

Die Determinante von A ergibt sich zu

12.6 Chemische Reaktionstechnik

345

det A = 1 + dψ(v) − duψ  (v), und für die Spur erhalten wir sp A = −2 − dψ(v) + duψ  (v) = −1 − det A. Daher sind die Eigenwerte von A durch λ1 = −1, λ2 = −det A gegeben. Im adiabatischen Fall gibt es somit keine Hopf-Verzweigung, und die Stabilität eines Equilibriums wird durch det A bestimmt; det A > 0 bedeutet asymptotische Stabilität, und det A < 0 Instabilität, ein Sattelpunkt. Nach dem Satz von Poincaré-Bendixson konvergiert damit jede in K startende Lösung gegen ein Equilibrium. Die Gleichung det A = 0 ergibt die möglichen Verzweigungspunkte. Dann ist λ = 0 algebraisch einfacher Eigenwert von A, und ein Eigenvektor ist durch w = [−1, 1]T gegeben. Ein dualer Eigenvektor lautet w ∗ = [dψ(v), 1 + dψ(v)]T . Andererseits ergibt die Ableitung von f nach d  b := ∂d f (u, v, d) =

 −uψ(v) , uψ(v)

/ N (AT )⊥ = R(A). Daher sind mögliche also gilt (b|w ∗ ) = uψ(v) = 0, d. h. b ∈ Verzweigungspunkte nur Umkehrpunkte, Pitchforks treten nicht auf. Wir untersuchen nun det A genauer an Equilibria. Es gelte also 0 = det A = 1 + dψ(v) − duψ  (v),

u = 1 − v,

v = dψ(v). 1−v

Elimination von u mit der zweiten Beziehung und Einsetzen der dritten in die erste ergibt mit ψ  (v) = ψ(v)βγ /(1 + βv)2 1+

βγ v v − = 0, 1−v (1 + βv)2

also die quadratische Gleichung β(β + γ )v 2 + β(2 − γ )v + 1 = 0. Diese Gleichung besitzt 2 reelle Lösungen, wenn γ > 4(1 + 1/β) ist und keine für γ < 4(1 + 1/β). Im zweiten Fall gibt es keine Umkehrpunkte, im ersten sind sie durch v1,2 =

γ −2±



γ (γ − 4(1 + 1/β)) 2(β + γ )

346

12 Verzweigungstheorie

Abb. 12.4 Equilibriazweige des adiabatischen exothermen idealen Rührkessels mit γ = 12, β = 1

v 1.0 0.8 0.6 0.4 0.2 0.0

0

2000

4000

6000

8000

d

gegeben. Mit diesen Werten für die skalierte Temperatur, die im Equilibrium gleich dem Umsatz 1 − u ist, erhält man die entsprechenden kritischen Werte für den Verzweigungsparameter d, nämlich d1,2 = v1,2 /(1 − v1,2 )ψ(v1,2 ). Schließlich gilt in einem Equilibrium    v d 1  − dψ(v) . − dψ (v) = (1 − v) det A = (1 − v) dv 1 − v (1 − v)2 

v Besitzt die Gleichung 1−v − dψ(v) = 0 nun 3 Lösungen, so ist folglich die mittlere instabil, die untere und die obere asymptotisch stabil, und falls es nur eine Lösung gibt, so ist sie asymptotisch stabil (Abb. 12.4). Die physikalische Interpretation im interessanteren Fall γ > 4(1 + 1/β) ist nun folgendermaßen. Bei kleiner Verweilzeit findet kaum Umsatz statt, aber dieser steigt mit wachsendem τ , d. h. mit d. Erreicht d den größeren kritischen Wert d1 , so endet der Zweig auf dem sich das Equilibrium befindet, daher springt die Lösung auf den darüber liegenden stabilen Zweig, man sagt die Reaktion zündet. Erhöht man die Verweilzeit weiter passiert nichts Wesentliches mehr, der Umsatz erhöht sich nur weiter. Nun spielen wir das umgekehrte Szenario durch. Wir starten mit sehr großer Verweilzeit und erniedrigen diese. Dann wandert das Equilibrium auf dem oberen Zweig nach links, bis der Parameterwert d2 , also der kleinere kritische Wert, erreicht wird. Verkleinert man d weiter, so springt die Lösung auf den unteren stabilen Zweig, die Reaktion erlischt. Dieses Phänomen wird als Hysterese bezeichnet, es ist eine der Thomschen Elementarkatastrophen: die Falte. (iii) Der exotherme nichtadiabatische Fall. Im nichtadiabatischen Fall g(v) = 0 erhalten wir für die Ableitung von f nach x = [u, v]T

12.6 Chemische Reaktionstechnik

 A=

347

−1 − dψ(v) −duψ  (v) dψ(v) −1 + duψ  (v) − τ K

 .

Die Determinante von A ergibt sich zu det A = 1 + dψ(v) − duψ  (v) + τ K(1 + dψ(v)), und für die Spur erhalten wir sp A = −2 − dψ(v) + duψ  (v) − τ K = −1 + τ Kdψ(v) − det A. Da auch hier im Fall det A = 0 der Vektor u∗ = [dψ(v), 1 + dψ(v)]T dualer Eigenvektor ist, folgt mit b = ∂d f (u, v) = [−uψ(v), uψ(v)]T wie in (ii) (b|u∗ ) = uψ(v) = 0, also b ∈ R(A). Daher gibt es auch im nichtadiabatischen Fall keine Pitchfork. Ferner ist 0 offensichtlich geometrisch einfach, u = [−(1 + τ K), 1]T ist ein Eigenvektor von A, und (u|u∗ ) = 1 − Kdψ(v), also ist 0 algebraisch einfach, es sei denn dψ(v) = 1/(τ K). Umkehrpunkte existieren hier für γ > 4[1 +

K 1+K + 2KvK + β vK (1 + KvK )], β 1+K

daher ist der qualitative Verlauf der Equilibriumszweige wie im adiabatischen Fall. Weiter gilt nun det A = (1 − v − g(v))[ = (1 − v − g(v))

1+K − dψ  (v)] (1 − v − g(v))2

v + g(v) d [ − dψ(v)], dv 1 − v − g(v)

daher ist das mittlere Equilibrium wieder instabil, ein Sattelpunkt. Am oberen und am unteren Zweig gilt wie zuvor det A > 0, woraus man aber hier noch nicht Stabilität schließen kann, da an diesen Zweigen Hopf-Verzweigung auftreten kann. Diese Art Verzweigung tritt auf wenn sp A = 0 und det A > 0 ist, was äquivalent zu 1 βγ 1+K 2+K + = < 2 v + g(v) 1 − v − g(v) (v + g(v))(1 − v − g(v)) (1 + βv) ist. Die Ungleichung impliziert, dass nur Lösungen der Gleichung mit 1 > v+g(v) > 1/(1 + K) in Frage kommen. Die linke Seite der Gleichung hängt nur von den Parametern K und vK ab, die Rechte nur von γ und β. Wählt man nun γ hinreichend groß, so sieht man, dass es Punkte gibt an denen Hopf-Verzweigung auftritt.

348

12 Verzweigungstheorie

12.7

Verzweigung und Symmetrien

In den Sätzen 12.1.1 und 12.2.1 über Umkehrpunkte und Pitchfork-Verzweigungen war die Voraussetzung dim N(A∗ ) = 1 wesentlich. Das ist zwar generisch der Fall, allerdings gibt es Situationen, in denen N(A∗ ) zwangsläufig mehrdimensional ist, nämlich wenn die Gleichung f (x, λ) = 0 Symmetrien besitzt. In diesem Abschnitt, der das Kapitel über Verzweigungstheorie abschließt, wollen wir uns mit einer solchen Situation befassen. (i) Dazu sei f : Rn × R → Rn zweimal stetig differenzierbar mit f (0, λ) = 0 für alle λ ∈ R. Die Symmetrien werden mittels einer Gruppe G beschrieben, die kovariant auf die Gleichung wirkt. Das bedeutet genauer Folgendes: Sei τ : G → (B(Rn ), ·) ein Gruppen-Homomorphismus g → τg , eine sog. Darstellung der Gruppe G in der multiplikativen Gruppe der invertierbaren, reellen n×n Matrizen. Kovarianz bedeutet τg f (x, λ) = f (τg x, λ),

x ∈ Rn , λ ∈ R, g ∈ G.

(12.25)

Als Beispiel sei die Funktion f (x, λ) = xφ(|x|2 , λ) genannt, die kovariant bzgl. der Gruppe O(n) der reellen orthogonalen n × n Matrizen ist. Differenziert man (12.25) nach λ, so sieht man, dass auch die partiellen Ableitungen von f nach λ kovariant sind. Differenziert man nach x, so erhält man τg ∂x f (x, λ) = ∂x f (τg x, λ)τg ,

x ∈ Rn , λ ∈ R, g ∈ G.

Insbesondere gilt für x = 0 τg A(λ) = A(λ)τg ,

g ∈ G,

A(λ) := ∂x f (0, λ),

also mit A∗ := A(λ∗ ) auch τg A∗ = A∗ τg . Ist nun A∗ nicht invertierbar, also N (A∗ ) = {0}, dann folgt τg N(A∗ ) ⊂ N(A∗ ) für alle g ∈ G, und sogar τg N (A∗ ) = N (A∗ ), für alle g ∈ G, da τg −1 = (τg )−1 , wobei g −1 ∈ G das inverse Element zu g ∈ G bezeichnet. Dies zeigt, dass mit einem Vektor v ∈ N (A∗ ) auch alle τg v zu N (A∗ ) gehören, was typischerweise m = dim N(A∗ ) > 1 impliziert. (ii) Sei nun 0 halbeinfacher Eigenwert von A∗ , gelte also N(A∗ ) ⊕ R(A∗ ) = Rn , und sei P die Projektion auf N(A∗ ) längs R(A∗ ), die dieser Zerlegung zugeordnet ist. Wir führen jetzt wie in Abschn. 12.2 eine Ljapunov-Schmidt-Reduktion durch. Dazu sei u = P x, v = (I − P )x; dann ist die Gleichung f (x, λ) = 0 äquivalent zu (I − P )f (u + v, λ) = 0,

Pf (u + v, λ) = 0.

12.7 Verzweigung und Symmetrien

349

Die Erste, also die Hilfsgleichung lässt sich nun mit Hilfe des Satzes über implizite Funktionen um (0, λ∗ ) nach v auflösen, da (I − P )A∗ : R(A∗ ) → R(A∗ ) invertierbar ist. Daher erhält man ein r > 0 und eine C 2 -Funktion v : Br (0) × Br (λ∗ ) → R(A∗ ) mit (I − P )f (u + v(u, λ), λ) = 0,

u ∈ Br (0), λ ∈ Br (λ0 ),

(12.26)

sowie v(0, λ∗ ) = 0. Eindeutigkeit der Auflösung ergibt mit f (0, λ) = 0 auch v(0, λ) = 0, für alle λ ∈ Br (λ∗ ). Ferner erhält man durch Ableitung nach u und λ ∂u v(0, λ) = ∂λ v(0, λ) = 0,

λ ∈ Br (λ∗ ).

Einsetzen von v(u, λ) in die verbleibende Gleichung ergibt nun h(u, λ) := Pf (u + v(u, λ), λ) = 0,

(12.27)

die Verzweigungsgleichung des Problems. Dies ist eine nichtlineare Gleichung in N (A∗ ), also m-dimensional, wenn dim N(A∗ ) = m ist. Da die Operatoren τg mit A∗ kommutieren, sind sie auch mit der Projektion P vertauschbar, es gilt also τg P = P τg , für alle g ∈ G. Daher sind die reduzierten Gleichungen kovariant bzgl. G, und insbesondere gilt 0 = τg (I − P )f (u + v(u, λ), λ) = (I − P )f (τg u + τg v(u, λ), λ),

g ∈ G.

Eindeutigkeit der Lösung v(u, λ) impliziert daher τg v(u, λ) = v(τg u, λ),

u ∈ Br (0), λ ∈ Br (λ∗ ), g ∈ G.

Daraus folgt die Kovarianz der Verzweigungsgleichung, denn es ist τg h(u, λ) = τg Pf (u + v(u, λ), λ) = Pf (τg u + τg v(u, λ), λ) = Pf (τg u + v(τg u, λ), λ) = h(τg u, λ); also gilt τg h(u, λ) = h(τg u, λ),

u ∈ Br (0), λ ∈ Br (λ∗ ), g ∈ G.

(12.28)

(iii) Unter Ausnutzung der Symmetrien lässt sich nun die m-dimensionale Verzeigungsgleichung auf ein eindimensionales Problem reduzieren. Dazu nimmt man an, dass

350

12 Verzweigungstheorie

die Einschränkung der Gruppe τ G auf N(A∗ ) die orthogonale Gruppe auf N (A∗ ) enthält, also τ G|N (A∗ ) ⊃ O(N (A∗ )) =: G∗ .

(12.29)

Fixiere e0 ∈ N(A∗ ) mit |e0 |2 = 1 und sei e0∗ ∈ N (AT∗ ) so, dass (e0 |e0∗ ) = 1 ist. Hier geht die Halbeinfachheit des Eigenwerts 0 von A∗ ein. Da G∗ alle Drehungen in N (A∗ ) enthält, gibt es zu u ∈ N(A∗ ) ein gu ∈ G mit u = sτgu e0 , also s = |u|2 , da |τg e0 |2 = |e0 |2 = 1 für jede Rotationsmatrix τg . Es folgt h(u, λ) = h(sτgu e0 , λ) = τgu h(se0 , λ), und daher gilt h(u, λ) = 0



h(se0 , λ) = 0.

Ist also (s, λ) ∈ Br (0) × Br (λ∗ ) eine Lösung von h(se0 , λ) = 0, dann sind (sτg e0 , λ) Lösungen von h(u, λ) = 0, für jedes g ∈ G. Wegen N (A∗ ) = span{e0 }⊕(span{e0 })⊥ lässt sich die Funktion h(se0 , λ) zerlegen in h(se0 , λ) = φ(s, λ)e0 + h1 (s, λ),

φ(s, λ) = (h(se0 , λ)|e0 ), (h1 (s, λ)|e0 ) = 0.

Wähle nun g ∈ G so, dass R = τg |N (A∗ ) die Reflektion Re0 = e0 ,

Rh1 = −h1

ist. Dann folgt aus der Kovarianz (12.25) φ(s, λ)e0 + h1 (s, λ) = h(se0 , λ) = h(Rse0 , λ) = Rh(se0 , λ) = φ(s, λ)e0 + Rh1 (s, λ) = φ(s, λ)e0 − h1 (s, λ), also h1 (s, λ) = 0 für alle s ∈ Br (0), λ ∈ Br (λ∗ ). Daher gilt h(se0 , λ) = φ(s, λ)e0 , also nach Multiplikation mit e0∗ insbesondere auch φ(s, λ) = (h(se0 , λ)|e0∗ ). Des Weiteren gilt h(se0 , λ) = 0



φ(s, λ) = 0.

12.7 Verzweigung und Symmetrien

351

Auf diese Weise haben wir das m-dimensionale Problem h(u, λ) = 0 auf die eindimensionale Gleichung φ(s, λ) = 0 in der Nähe von (0, λ∗ ) reduziert. (iv) Es ist φ(0, λ) = 0, |λ − λ∗ | < r, und ∂s φ(0, λ∗ ) = 0. Um alle nichtrivialen Lösungen in einer Umgebung von (0, λ∗ ) zu finden, verfahren wir wie bei der PitchforkVerzweigung in Abschn. 12.2. Dazu sei . ϕ(s, λ) =

φ(s, λ)/s, s = 0, ∂s φ(0, λ), s = 0.

(12.30)

Um die Gleichung ϕ(s, λ) = 0 nach λ auflösen zu können, benötigen wir die Bedingung ∂λ ϕ(0, λ∗ ) = ∂λ ∂s φ(0, λ∗ ) = 0. Nun ist ∂λ ϕ(0, λ∗ ) = (∂λ ∂u h(0, λ∗ )e0 |e0∗ ) = (P0 ∂λ ∂x f (0, λ∗ )e0 |e0∗ ) = (∂λ ∂x f (0, λ∗ )e0 |e0∗ ), also fordern wir die Transversalitätsbedingung (∂λ ∂x f (0, λ∗ )e0 |e0∗ ) = 0.

(12.31)

Dann liefert der Satz über implizite Funktionen ein δ > 0 und eine Funktion λ : (−δ, δ) → Br (λ∗ ) mit λ(0) = λ∗ und φ(s, λ(s)) = sϕ(s, λ(s)) = 0,

s ∈ (−δ, δ).

Da h aufgrund der Symmetrien ungerade in u ist, hat auch φ diese Eigenschaft bzgl. s. Daher ist ϕ gerade in s, was 0 = ϕ(−s, λ(−s)) = ϕ(s, λ(−s)),

s ∈ [0, δ),

impliziert, also gilt wegen Eindeutigkeit λ(−s) = λ(s), insbesondere also λ (0) = 0. Die Lösungen für s < 0 sind somit irrelevant, sie geben aufgrund der Symmetrien keine weiteren Lösungen. Setzt man schließlich x(s) = se0 + v(se0 , λ(s)) so sind alle nichttrivialen Lösungen von f (x, λ) = 0 in einer Umgebung von (0, λ∗ ) durch die Menge M := {(τg x(s), λ(s)) : g ∈ G, s ∈ (0, δ)} gegeben. Wir fassen zusammen.

(12.32)

352

12 Verzweigungstheorie

Satz 12.7.1. Sei f : Rn × R → Rn aus C 2 mit f (0, λ) = 0, λ ∈ R, kovariant bzgl. der Gruppe G. Sei A∗ = ∂x f (0, λ∗ ) nicht invertierbar, 0 halbeinfacher Eigenwert für A∗ , und die auf N(A∗ ) eingeschränkte Gruppe G∗ = τ G|N (A∗ ) enthalte die Gruppe O(N (A∗ )) der orthogonalen Transformationen auf N (A∗ ). Es gelte die Transversalitätsbedingung (12.31). Dann gibt es eine C 1 -Abbildung (x, λ) : [0, δ) → Rn+1 mit x(0) = 0, λ(0) = λ∗ und f (x(s), λ(s)) = 0 für alle s ∈ [0, δ). Alle nichtrivialen Lösungen der Gleichung f (x, λ) = 0 in einer Umgebung von (0, λ∗ ) sind durch die in (12.32) definierte Menge M gegeben. (v) Wir wollen noch eine Stabilitätsanalyse der verzweigenden Equilibria skizzieren. Dazu benötigen wir die folgende Proposition. Proposition 12.7.2. Sei B(s) = ∂x f (x(s), λ(s)), s ∈ [0, δ). Dann gibt es eine C 1 Funktion (e, e∗ , σ ) : [0, δ) → Rn × Rn × R mit B(s)e(s) = σ (s)e(s),

B T (s)e∗ (s) = σ (s)e∗ (s),

(e(s)|e∗ (s)) = 1,

0 ≤ s < δ,

sowie e(0) = e0 , e∗ (0) = e0∗ , und σ (0) = 0. Beweis. Sei dim N(A∗ ) = m. Die orthogonale Gruppe O(N (A∗ )) besitzt genau m(m − 1)/2 unabhängige schiefadjungierte Generatoren Lj und für jedes θ ∈ R sind die Matrizen Rj (θ ) := eθLj orthogonal mit det Rj (θ ) = 1. Für e0 ∈ N (A∗ ) existieren m − 1 Generatoren Ljk , jk ∈ {1, . . . , m(m − 1)/2}, k ∈ {1, . . . , m − 1}, so dass die Vektoren e0 , Lj1 e0 , . . . , Ljm−1 e0 linear unabhängig sind. Die Kovarianz (12.25) impliziert 0 = Rj (θ )f (x(s), λ(s)) = f (Rj (θ )x(s), λ(s)),

s ∈ [0, δ), θ ∈ R.

Differentiation nach θ und Auswertung in θ = 0 ergibt dann die Relationen 0 = ∂x f (x(s), λ(s))Lj x(s) = B(s)Lj x(s),

s ∈ [0, δ),

also gilt insbesondere Lj x(s) ∈ N(B(s)) für alle s ∈ [0, δ). Sei ek (s) := Ljk x(s)/s für k = 1, . . . , m − 1. Dann gilt ek (s) → Ljk e0 für s → 0+ und außerdem N(A∗ ) = span{e0 , Lj1 e0 , . . . , Ljm−1 e0 }. Daher sind die Vektoren 1 x(s), e1 (s), . . . , em−1 (s) s

12.7 Verzweigung und Symmetrien

353

für alle s ∈ [0, δ) mit einem hinreichend kleinen δ > 0 aus Stetigkeitsgründen linear unabhängig, also ist span{e1 (s), . . . , em−1 (s)} ein m − 1-dimensionaler Teilraum von N (B(s)). Man beachte, dass ek ∈ C 1 ([0, δ)) gilt, falls man ek (0) = Ljk e0 setzt. Daher gibt es ein duales System von Vektoren ek∗ ∈ C 1 ([0, δ)) mit ek∗ ∈ N (B T (s)) und (ek (s)|e!∗ (s)) = δk! . Wir definieren als nächstes die Projektionen Pj (s), j ∈ {1, 2, 3}, wie folgt. P1 (s) =

1 2π i

 |z|=R

(z − B(s))−1 dz,

P2 (s) =

m−1 

ei (s) ⊗ ei∗ (s),

i=1

sowie P3 (s) = P1 (s)−P2 (s). Mit P1 und P2 ist auch P3 aus C 1 , und das Bild von P3 (s) ist eindimensional, für alle s ∈ [0, δ), P3 (0) = e0 ⊗e0∗ . Die Funktion z → det(z−B(s))/zm−1 besitzt genau eine einfache Nullstelle z = σ (s), die reell ist, σ ist aus C 1 und es gilt σ (0) = 0. Setze nun e(s) = P3 (s)e0 , e∗ (s) = P3T (s)e0∗ /(P3 (s)e0 |e0∗ ); diese Funktionen erfüllen die Behauptung der Proposition für s ∈ [0, δ) und einem hinreichend kleinen δ > 0.  (vi) Satz 12.7.1 zeigt, dass die Menge der nichttrivialen Equilibria für die DGL x˙ = f (x, λ(s)) in einer Umgebung von x = 0 durch E(s) \ {0} = τ Gx(s) gegeben ist. Ferner ist E(s) eine C 1 -Mannigfaltigkeit, falls die Darstellung τ : G → B(Rn ) diese Eigenschaft hat. Der Tangentialraum von E(s) an x(s) ist dann genau der Kern der Linearisierung B(s) := ∂x f (x(s), λ(s)) und wie für A∗ ist 0 ein halbeinfacher Eigenwert von B(s). Daher ist das verallgemeinerte Prinzip der linearisierten Stabilität aus Kap. 10 anwendbar, sofern das restliche Spektrum von A∗ in C− liegt, und wir den verbleibenden nichttrivialen Eigenwert σ (s) von B(s) studiert haben. Differenziert man die Gleichung f (x(s), λ(s)) = 0 nach s, so ergibt sich ∂x f (x(s), λ(s))x  (s) + ∂λ f (x(s), λ(s))λ (s) = 0,

0 ≤ s < δ.

Diese Relation impliziert mit der Definition . k(s) =

∂λ f (x(s), λ(s))/s, s > 0, ∂λ ∂x f (0, λ∗ )e0 , s = 0,

und mit Proposition 12.7.2 die Beziehung (k(s)|e∗ (s))sλ (s) = −(B(s)x  (s)|e∗ (s)) = −(x  (s)|B ∗ (s)e∗ (s)) = −σ (s)(x  (s)|e∗ (s)), also

354

12 Verzweigungstheorie

σ (s) = −sλ (s)ψ(s),

ψ(s) :=

(k(s)|e∗ (s)) . (x  (s)|e∗ (s))

(12.33)

Man beachte (k(0)|e∗ (0)) = (∂λ ∂x f (0, λ∗ )e0 |e0∗ ) und (x  (0)|e∗ (0)) = (e0 |e0∗ ) = 1, also ist ψ(s) für kleine s ≥ 0 wohldefiniert mit ψ(0) = (∂λ ∂x f (0, λ∗ )e0 |e0∗ ). Ist (∂λ ∂x f (0, λ∗ )e0 |e0∗ ) > 0, so folgt σ (s) < 0 falls λ (s) > 0 ist; dies ist der superkritische Fall, der somit zu Stabilität führt. Umgekehrt ergibt der subkritische Fall λ (s) < 0 Instabilität. Die hergeleiteten Aussagen für x(s) gelten ebenfalls für jedes Equilibrium τg x(s) auf der Mannigfaltigkeit der Equilibria. Dies folgt direkt aus der Kovarianz, denn zum Beispiel führt die Eigenwertgleichung B(s)e(s) = σ (s)e(s) mittels Kovarianz auf σ (s)τg e(s) = τg B(s)e(s) = τg ∂x f (x(s), λ(s)) = ∂x f (τg x(s), λ(s))τg e(s). Das Resultat über das Stabilitätsverhalten der abzweigenden Equilibria lautet daher wie folgt. Korollar 12.7.3. Seien die Voraussetzungen von Satz 12.7.1 erfüllt, sei μ (λ∗ ) = (∂λ ∂x f (0, λ∗ )e0 |e0∗ ) > 0, und gelte σ (A∗ ) \ {0} ⊂ C− . Dann sind die abzweigenden Equilibria τg x(s) von x˙ = f (x, λ(s)), 0 < s < δ, g ∈ G, 1. normal stabil im superkritischen Fall, also wenn λ (s) > 0 ist; 2. normal hyperbolisch im subkritischen Fall λ (s) < 0. Um die Richtung der Verzweigung zu bestimmen, kann man wie in Abschn. 12.2 vorgehen. Da λ (0) = 0 ist, differenziert man die Gleichung f (x(s), λ(s)) = 0 dreimal nach s und setzt s = 0. Dies ergibt 3λ (0)μ (λ∗ ) = −(∂x3 f (0, λ∗ )e0 e0 e0 |e0∗ ) − 3(∂x2 f (0, λ∗ )e0 x  (0)|e0∗ ) = 0. Aus dieser Relation lässt sich die Richtung der Verzweigung im generischen Fall λ (0) = 0 für kleine s > 0 ablesen. Zur Illustration betrachten wir abschließend ein Beispiel. Gegeben sei folgendes System für (x, y) ∈ Rm × Rk mit r = |x|2 .

x˙ = xφ(r, y, λ), y˙ = g(r 2 , y, λ),

(12.34)

Übungen

355

wobei φ : R+ × Rk × R → R und g : R+ × Rk × R → Rk aus C 2 sind, mit g(0, 0, λ) = 0 für λ ∈ R, sowie φ(0, 0, λ∗ ) = 0,

∂λ φ(0, 0, λ∗ ) = 0,

det ∂y g(0, 0, λ) = 0,

erfüllen. Die Symmetriegruppe G ist hier G = O(m) ⊗ I . Es ist leicht die Voraussetzungen von Satz 12.7.1 zu verifizieren, oder direkt mit der Äquivalenz zu φ(r, y, λ) = 0, g(r 2 , y, λ) = 0 erst g nach y und dann φ nach λ aufzulösen, um die Mannigfaltigkeit der Equilibria M nahe (0, 0, λ∗ ) zu erhalten. Dieses Beispiel kann man als Normalform der in diesem Abschnitt behandelten Probleme ansehen. In konkreten Anwendungen, in denen ein mehrdimensionaler Kern auftritt, besteht die Hauptaufgabe darin, die unterliegenden Symmetrien des Problems zu finden, um Satz 12.7.1 und das Korollar 12.7.3 anwenden zu können. Das Problem auf die Normalform (12.34) im Beispiel zu bringen, ist aufwändiger und kann sehr mühsam werden.

Übungen 12.1 Sei f aus C 2 und x(λ) ein C 1 -Lösungszweig von Equilibria von (12.1), stabil für λ < λ∗ . Es sei 0 algebraisch einfacher Eigenwert von A∗ := ∂x f (x(λ∗ ), λ∗ ). Wie lautet in dieser Situation die Transversalitätsbedingung für Pitchfork-Verzweigung? 12.2 Sei g : R2 → R aus C 2 , g(0) = g  (0) = 0, g  (0) = 0. Untersuchen Sie die Lösungsmenge von g(x, λ) = 0 in einer Umgebung von 0. 12.3 Untersuchen Sie Verzweigung der trivialen Lösung der van-der-Pol-Gleichung (vgl. Abschn. 9.4) x¨ + μ(x 2 − 1)x˙ + x = 0, wobei μ der Verzweigungsparameter sei. 12.4 Untersuchen Sie das Verzweigungsverhalten der FitzHugh-Nagumo Gleichung (vgl. Übung 4.6) in Abhängigkeit vom Parameter γ . Gibt es Umkehrpunkte, Pitchforks oder Hopf-Verzweigung? 12.5 Betrachten Sie das Holling-Modell aus Übung 7.10 mit λ = 0. Sei zusätzlich s0 > 0 striktes globales Minimum der Funktion s → s/f (s) in (0, ∞), mit (s/f (s)) > 0, und sei μ0 = f (s0 ). Zeigen Sie, dass für μ = μ0 eine Hopf-Verzweigung am Koexistenz-Equilibrium stattfindet, und untersuchen Sie die Stabilität der abzweigenden periodischen Lösungen. Betrachten Sie die Funktion f (s) = (γ s/(1 + γ s))2 als konkretes Beispiel (γ > 0). 12.6 Sei H (q, p) = p2 /2m + φ(q) die Hamilton Funktion eines Teilchens im Potentialfeld. Für welche kritischen Punkte q∗ von φ ist Satz 12.4.1 anwendbar? Betrachten Sie insbesondere den Fall n = 1. 12.7 Verifizieren Sie die Gl. (12.11) und (12.19).

Differentialgleichungen auf Mannigfaltigkeiten

13

Sei  ⊂ Rn eine m-dimensionale Mannigfaltigkeit, m < n, T  ihr Tangentialbündel, und f :  → T  ein tangentiales lokal Lipschitz Vektorfeld, also f (p) ∈ Tp  für alle p ∈ . In diesem Abschnitt betrachten wir das Problem x˙ = f (x),

t ≥ 0,

x(0) = x0 ∈ .

(13.1)

Diese Situation tritt häufig auf. So definiert jedes erste Integral eine intrinsische invariante Mannigfaltigkeit einer Differentialgleichung, und auch die stabilen und instabilen Mannigfaltigkeiten in Sattelpunkten sind invariant. Weitere Quellen für Differentialgleichungen auf Mannigfaltigkeiten sind Zwangsbedingungen, die in natürlicher Weise in der Physik auftreten, oder aus Problemen mit stark unterschiedlichen Zeitskalen herrühren.

13.1

Mannigfaltigkeiten im Rn

1. Wir betrachten eine m-dimensionale C 1 -Mannigfaltigkeit  im Rn , also eine m-dimensionale Fläche im Rn . Damit meinen wir eine abgeschlossene Menge mit der Eigenschaft, dass es zu jedem Punkt p ∈  eine Kugel Br (p) ⊂ Rn , und eine injektive C 1 -Abbildung φ : Br (p) → Rn gibt mit φ(p) = 0, det φ  (p) = 0, und φ( ∩ Br (p)) = φ(Br (p)) ∩ Rm × {0}. Durch evtl. Verkleinerung von r kann man det φ  (x) = 0 für alle x ∈ Br (p) annehmen, d. h. φ : Br (p) → φ(Br (p)) ist ein Diffeomorphismus. Genauer sollte man sagen, dass  eine m-dimensionale Untermannigfaltigkeit des Rn ist. Kann man die Abbildungen φ ∈ C r , r ∈ N ∪ {∞, ω}, wählen, so heißt  m-dimensionale C r -Mannigfaltigkeit im Rn . Schränkt man ein solches φ auf Uϕ := Br (p) ∩  ⊂  ein, so ist ϕ := φ|Uφ : Uϕ → Vϕ := φ(Uϕ ) ⊂ Rm eine Karte für  in p ∈ , Uϕ heißt zugehöriges Kartengebiet. Dabei © Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_13

357

358

13 Differentialgleichungen auf Mannigfaltigkeiten

haben wir Rm ×{0} mit Rm identifiziert. O.B.d.A. kann man nun ϕ(p) = 0 annehmen. Die Inverse ϕ −1 : Vϕ → Rn vermittelt dann eine bijektive C r -Abbildung von Vϕ auf Uϕ , die die Bedingung Rang[ϕ −1 ] (y) = m für alle y ∈ Vϕ erfüllt. Eine solche Abbildung heißt C r -Parametrisierung von  in p ∈ . Ist ψ : Bs (0) →  eine weitere Parametrisierung mit Uϕ ∩ ψ(Bs (0)) = ∅, so heißt κ := ϕ ◦ ψ Kartenwechselfunktion. Dies ist ein Homeomorphismus einer offenen Teilmenge V ⊂ Bs (0) ⊂ Rm auf eine offene Teilmenge W ⊂ Rm , κ und κ −1 sind stetig differenzierbar und κ  : Rm → Rm ist ein Isomorphismus. Es ist nun ψ = ϕ −1 ◦ κ also ψ  = [φ −1 ] ◦ κκ  . Diese Identität zeigt insbesondere R(ψ  (y)) = [φ −1 ] (κ(y))Rm = R([ϕ −1 ] (κ(y)).

(13.2)

2. Ist ψ eine Parametrisierung, so definiert sie im Punkt p die Tangentialvektoren τi = τi (p) =

∂ ψ(0) = ∂i ψ(0), ∂yi

i = 1, . . . , m.

(13.3)

Diese Vektoren τi bilden eine Basis des Tangentialraums Tp  von  in p. Der Tangentialraum Tp  ist also durch Tp  = R(ψ  (0)) ⊂ Rn gegeben, und ist daher unabhängig von der gewählten Parametrisierung, wie (13.2) zeigt. Im Folgenden verwenden wir die Einsteinsche Summenkonvention, die besagt, dass über gleiche obere und untere Indizes zu summieren ist; δji bezeichnen die Einträge der Einheitsmatrix I . Ein Vektor a ∈ Tp  kann als Linearkombination der Basisvektoren τj dargestellt werden, also als a = a i τi . Die Koeffizienten a i heißen kontravariante Komponenten von a. Andererseits ist der Vektor a auch durch seine kovarianten Komponenten ai , definiert durch ai = (a|τi ), eindeutig bestimmt; dies bedeutet, dass die kovarianten Komponenten von a die Koeffizienten von a in der dualen Basis {τ i } zur Basis {τj } sind, die durch die Relationen (τ i |τj ) = δji definiert ist. Die Abbildung ψ  (y) : Rm → Tp  ist ein Isomorphismus von Rm auf den Tangentialraum von  in ψ(y). Um ihre Inverse zu bestimmen, multipliziert man die Gleichung v = ψ  (y)w mit ψ  (y)T . Da ψ  (y)T ψ  (y) invertierbar ist, erhält man damit w = [ψ  (y)T ψ  (y)]−1 ψ  (y)T v. In Koordinaten geschrieben bedeutet dies wi = g ij vj = v i , d. h. die Komponenten von w sind die kontravarianten Komponenten des dazugehörigen Tangentenvektors v = v i τi . 3. Die 1. Fundamentalmatrix G = [gij ] in p ∈  ist definiert durch gij = gij (p) = (τi |τj ) = [ψ  (0)T ψ  (0)]ij ,

i, j = 1, . . . , m.

Diese Matrix ist symmetrisch und positiv definit, also invertierbar, denn es gilt

(13.4)

13.1 Mannigfaltigkeiten im Rn

359

(Gξ |ξ ) = gij ξ i ξ j = (ξ i τi |ξ j τj ) = |ξ i τi |2 > 0,

für alle ξ ∈ Rm , ξ = 0.

Wir setzen G−1 = [g ij ], also gilt gik g kj = δi und g il glj = δji . Die Determinante g := det G is positiv. Sei a ein Tangentenvektor; dann impliziert a = a i τi j

ak = (a|τk ) = a i (τi |τk ) = a i gik , und

a i = g ik ak .

Also erlaubt die 1. Fundamentalmatrix G den Übergang von kontra- zu kovarianten Komponenten eines Tangentenvektors, und umgekehrt. Sind a, b zwei Tangentenvektoren, dann induziert (a|b) = a i bj (τi |τj ) = gij a i bj = aj bj = a i bi = g ij ai bj =: (a|b) in kanonischer Weise ein Innenprodukt auf Tp , die natürliche Riemann-Metrik. Mittels der Identität (g ik τk |τj ) = g ik gkj = δji ergibt sich die duale Basis als τ i = g ik τk . Wir setzen G = g ij τi ⊗ τj und erhalten damit G = g ij τi ⊗ τj = gij τ i ⊗ τ j = τi ⊗ τ i = τ j ⊗ τj . Sei schließlich u = uk τk + z, (τj |z) = 0, j = 1, . . . , m, ein beliebiger Vektor in Rn . Dann ist Gu = g ij τi (τj |u) = g ij τi uk gj k = uk τk , d. h. G ist die orthogonale Projektion P im Rn auf den Tangentialraum Tp  in p ∈ . Dies zeigt insbesondere, dass der Tensor G unabhängig von der gewählten Parametrisierung ist. Diese drei Eigenschaften erklären die Bedeutung der 1. Fundamentalmatrix gij . 4. Häufig werden Mannigfaltigkeiten mittels einer Gleichung der Form g(x) = 0, also  = g −1 (0), definiert, wobei g : Rn → Rn−m aus C 1 ist, und nicht ausgeartet, d. h. g  (x) hat Rang n − m für alle x ∈ Rn mit g(x) = 0. Dann erhält man eine Parametrisierung in x0 mit Hilfe des Satzes über implizite Funktionen. Dazu wählt man eine Basis τ1 , . . . , τm von N (g  (x0 )), und ergänzt diese z. B. mittels der Spalten ν1 , . . . , νn−m von g  (x0 )T zu einer Basis von Rn . Beachte, dass g  (x0 )g  (x0 )T invertierbar ist. Dann definiert man eine Funktion h : Rk × Rn−m → Rn−m mittels h(y, z) = g(x0 + y i τi + zj νj ). Diese Funktion h ist aus C 1 , es ist h(0, 0) = g(x0 ) = 0 und

360

13 Differentialgleichungen auf Mannigfaltigkeiten

∂z h(0, 0) = g  (x0 )[ν1 , . . . , νn−m ] = g  (x0 )g  (x0 )T ist invertierbar. Daher gibt es nach dem Satz über implizite Funktionen eine Kugel Br (0) und eine C 1 -Funktion ϕ : Br (0) → Rn−m mit ϕ(0) = 0 und h(y, ϕ(y)) = 0, also g(x0 + y i τi + ϕ j (y)νj ) = 0. Die gesuchte Parametrisierung von  ist dann durch die Funktion φ(y) = x0 + y i τi + ϕ j (y)νj gegeben, und es ist klar, dass φ  (y) Rang m hat. Insbesondere ist Tx0  = N(g  (x0 )), und die Spalten ν1 , . . . , νn−m von g  (x0 )T bilden ein Normalensystem für Tx0 , sind also linear unabhängig und orthogonal zu Tx0 . Sei nun umgekehrt eine Parametrisierung φ für  gegeben. Wir wollen  lokal um x0 = φ(0) als Nullstellenmenge g(x) = 0 darstellen. Dazu seien τ1 , . . . , τm die von φ in y = 0 erzeugten Tangentenvektoren. Wir ergänzen diese durch orthonormale Vektoren ν1 , . . . , νn−m mit (τi |νj ) = 0 zu einer Basis von Rn , und definieren die Funktion F : Br (0) × Rn−m ⊂ Rm × Rn−m → Rn durch F (y, z) = φ(y) − x0 + zj νj . Dann ist F aus C 1 , F (0, 0) = 0, und F  (0, 0) = [φ  (0), ν1 , . . . , νn−m ] = [τ1 , . . . , τm , ν1 , . . . , νn−m ] ist invertierbar, nach Konstruktion. Nach dem Satz von der inversen Abbildung gibt es daher eine Kugel Bρ (0) ⊂ Rn und G = (g1 , g2 ) : Bρ (0) → Rm × Rn−m aus C 1 mit G(0) = 0 und G ◦ F (y, z) = (y, z), F ◦ G(x) = x. Es folgt y = g1 (F (y, 0)) = g1 (φ(y) − x0 ) und 0 = g2 (F (y, 0)) = g2 (φ(y) − x0 ) für alle |y| < δ. Daher ist die Funktion g(x) = g2 (x − x0 ) die gesuchte. 5. Eine Funktion ρ :  → R heißt differenzierbar in x ∈  wenn die zusammengesetzte Funktion ρ ◦ φ für eine Parametrisierung φ mit φ(0) = x – und damit für alle Parametrisierungen um x – differenzierbar ist. Der Flächengradient von ρ in x wird dann definiert durch ∇ ρ(x) = ∂i (ρ ◦ φ)(0)τ i (0) = g ij ∂i (ρ ◦ φ)(0)τj (0). Man beachte, dass diese Definition unabhängig von der Wahl der Parametrisierung φ ist. Ebenso definiert man für ein Vektorfeld f :  → Rn ∇ f (x) = τ i (0) ⊗ ∂i (f ◦ φ)(0) = g ij (0)τj (0) ⊗ ∂i (f ◦ φ)(0), und f  (x) = [∇ f (x)]T = ∂i (f ◦ φ)(0) ⊗ τ i (0) = g ij (0)∂i (f ◦ φ)(0) ⊗ τj (0). Auch diese Definition ist unabhängig von der Wahl der Parametrisierung φ. Ist nun f = f k τk ein Tangentenvektorfeld und  in C 2 , so ist

13.2 Wohlgestelltheit

361

∂i f = ∂i f k τk + f k ∂i τk , also insbesondere ∂i f = (∂i f k )τk wenn f (x) = 0 gilt; dann ist f  (x) : Tx  → Tx . Die Flächendivergenz eines Vektorfeldes f :  → Rn wird durch div f (x) := sp∇ f (x) definiert, also durch div f (x) := (sp∇ f )(x) = (τ i (0)|(∂i f ◦ φ)(0)) = g ij (τj (0)|(∂i f ◦ φ)(0)). Der Divergenzsatz gilt auch auf C 1 -Mannigfaltigkeiten, allerdings nur für tangentiale Vektorfelder. Bemerkung. In der Differentialgeometrie wird die Flächendivergenz für tangentiale Vektorfelder in lokalen Koordinaten wie folgt definiert: div f =



√ √ √ g −1 ∂i ( gf i ) = g −1 ∂i (g ij gfj ),

wobei wie zuvor g = detgij bedeutet. Diese Darstellung ergibt sofort den Divergenzsatz auf Mannigfaltigkeiten, ist aber eben nur für tangentiale Vektorfelder anwendbar. Eine kleine Rechnung zeigt, dass diese Definition mit der oben angegebenen für tangentiale Vektorfelder übereinstimmt. Der Vorteil unserer Definition ist der, dass sie für beliebige Vektorfelder angewandt werden kann. So ist z. B. für eine Hyperfläche −div ν /(n − 1) die mittlere Krümmung von . Allerdings beruht unsere Definition darauf, dass  eine Untermannigfaltigkeit des Rn ist.

13.2

Wohlgestelltheit

Wir betrachten nun das Anfangswertproblem (13.1), wobei  eine C 1 Mannigfaltigkeit und f :  → Rn lokal Lipschitz ist und f (p) ∈ Tp  für jedes p ∈  erfüllt, d. h. f ist ein Tangentenvektorfeld für . Wir zeigen, dass sowohl f als auch −f der Subtangentialbedingung (S) genügen. Dazu sei x ∈  fixiert und z ∈ Tx  sei ein Tangentenvektor. Definiere mittels einer Parametrisierung φ mit φ(0) = x p(t) = φ(t[φ  (0)T φ  (0)]−1 φ  (0)T z),

t ∈ [−t0 , t0 ].

Dann ist p (0) = φ  (0)[φ  (0)T φ  (0)]−1 φ  (0)T z = z, da z ∈ Tx  gilt, folglich

362

13 Differentialgleichungen auf Mannigfaltigkeiten

dist(x + tz, ) ≤ |x + tz − p(t)|2 = |x + tz − (x + tz + o(|t|))|2 ≤ o(|t|), also ist (S) für f und −f erfüllt. Damit ist Satz 7.1.4 bzw. die daran anschließende Bemerkung 7.1.5 anwendbar, und wir erhalten Lösungen in , die eindeutig sind und auf einem maximalen Intervall existieren. Wir formulieren dieses Resultat als Satz 13.2.1. Sei  ⊂ Rn eine C 1 -Mannigfaltigkeit der Dimension m < n, und sei f :  → Rn lokal Lipschitz mit f (p) ∈ Tp , für alle p ∈ . Dann besitzt das Anfangswertproblem (13.1) genau eine Lösung x(t) in . Die Lösung existiert auf einem maximalen Existenzintervall 0 ∈ (t− (x0 ), t+ (x0 )), und es gilt limt→t+ |x(t)| = ∞, falls t+ = t+ (x0 ) < ∞ ist; analoges gilt für t− (x0 ). Insbesondere existieren die Lösungen global wenn  kompakt ist. Daher erzeugt (13.1) einen lokalen Fluss auf , und sogar einen globalen Fluss wenn  kompakt ist. Es ist aufschlussreich, das Problem in lokalen Koordinaten zu schreiben. Dazu wählen wir eine Parametrisierung φ mit φ(y0 ) = x0 , und setzen y(t) = φ −1 (x(t)), t ∈ (a, b)  0, wobei das Intervall (a, b) so klein gewählt wird, dass die Lösung für t ∈ (a, b) in Uφ bleibt. Dann ist x(t) = φ(y(t)), also gilt φ  (y(t))y(t) ˙ = x(t) ˙ = f (x(t)) = f (φ(y(t)),

t ∈ (a, b),

y(0) = y0 := φ −1 (x0 ).

Multipliziert man die Gleichung mit φ  (y(t))T und invertiert φ  (y(t))T φ  (y(t)), so erhält man die explizite Darstellung y(t) ˙ = [φ  (y(t))T φ  (y(t))]−1 φ  (y(t))T f (φ(y(t)),

t ∈ (a, b),

y(0) = y0 .

(13.5)

Man beachte hier, dass die rechte Seite von (13.5) nur noch stetig ist, da die Mannigfaltigkeit  nach Voraussetzung lediglich in der Klasse C 1 liegt. Damit ist (13.5) mit dem Satz von Peano zwar immer noch lösbar, aber die Eindeutigkeit der Lösungen ist nicht mehr offensichtlich. Unsere Methode, die Subtangentialbedingung zu verwenden, vermeidet dieses Problem. Eine weitere Darstellung von (13.1) in lokalen Koordinaten folgt mit f (x)=f r (x)τr (x). Es ist nach Abschn. 13.1 ij [φ  (y(t))T φ  (y(t))]−1 ij = g (y(t))

und

[φ  (y(t))T τi ]l = gli (y(t)),

folglich [[φ  (y(t))T φ  (y(t))]−1 φ  (y(t))T f (φ(y(t))]i = g il glr f r = f i (φ(y(t)), woraus man das Problem in kontravarianten Komponenten als

13.3 Linearisierung

363

y˙ i (t) = f i ◦ φ(y(t)),

i = 1, . . . , m, t ∈ (a, b),

y i (0) = y0i ,

(13.6)

erhält. Der Vorteil der Darstellung in lokalen Koordinaten ist natürlich die kleinere Dimension m für (13.5) gegenüber n für (13.1), allerdings hat man dann gelegentlich die Parametrisierung zu wechseln. Ljapunov-Funktionen für Differentialgleichungen auf Mannigfaltigkeiten werden ebenso definiert wie auf offenen Mengen: Eine Funktion V ∈ C(, R) heißt LjapunovFunktion für (13.1), wenn V fallend längs der Lösungen von (13.1) ist; sie heißt strikt wenn sie längs nichtkonstanten Lösungen streng fällt. Ist V aus C 1 so ist V genau dann eine Ljapunov-Funktion für (13.1), wenn (∇ V (x)|f (x)) ≤ 0,

für alle x ∈ ,

gilt. Damit gelten das Invarianzprinzip von La Salle und der Konvergenzsatz für gradientenartige Systeme auch auf Mannigfaltigkeiten.

13.3

Linearisierung

Besonders nützlich sind lokale Darstellungen von (13.1) wie (13.6) zur Stabilitätsanalysis von Equilibria. Dazu sei x∗ ein Equilibrium von (13.1), gelte also f (x∗ ) = 0 und sei f ∈ C 1 und  ∈ C 2 . Wähle eine Parametrisierung φ mit φ(0) = x∗ . In einer Umgebung von x∗ ist (13.1) äquivalent zum m-dimensionalen System y˙ i = f i ◦φ(y), das Equilibrium x∗ entspricht y∗ = 0. Daher ist das zugehörige linearisierte System durch z˙ = Bz,

mit bji = ∂j (f i ◦ φ)(0),

gegeben. Das Prinzip der linearisierten Stabilität Satz 5.4.1 lässt sich nun auf dieses m-dimensionale System anwenden: Haben alle Eigenwerte von B negative Realteile, so ist y∗ = 0 asymptotisch stabil für (13.6), und hat mindestens ein Eigenwert von B positiven Realteil, so ist y∗ = 0 instabil für (13.6). Mittels der Transformation x(t) = φ(y(t)) übertragen sich diese Resultate auf (13.1). Wir formulieren dieses Ergebnis als Satz 13.3.1. Sei  aus C 2 , f :  → T  aus C 1 , und sei f (x∗ ) = 0. Setze A := f  (x∗ ) ∈ B(Tx∗ ). Dann gelten die folgenden Aussagen: 1. Gilt Re λ < 0 für alle Eigenwerte von A in Tx∗ , so ist x∗ asymptotisch stabil für (13.1) in . 2. Gilt Re λ > 0 für einen Eigenwert von A in Tx∗ , so ist x∗ instabil für (13.1) in .

364

13 Differentialgleichungen auf Mannigfaltigkeiten

Auf diese Art und Weise lassen sich auch die Sätze über die Sattelpunkteigenschaft, das verallgemeinerte Prinzip der linearisierten Stabilität, und die Resultate über die SattelKnoten Verzweigung, die Pitchfork- und die Hopf-Verzweigung auf Mannigfaltigkeiten übertragen. Wir überlassen die Formulierung der entsprechenden Sätze dem Leser. Beispiel. Mathematische Genetik. Wir betrachten nochmals das Fisher-Wright-Haldane Modell aus Kap. 8. (F W H )

p˙ = P Mp − W (p)p =: f (p),

mit W (p) = (p|Mp), wobei M ∈ Rn×n symmetrisch ist. Die biologisch relevante Mannigfaltigkeit ist die Hyperebene  = {p ∈ Rn : (p|e) = 1}, sie ist invariant für dieses System. Sei p∗ ∈  ein Equilibrium, es gelte also f (p∗ ) = 0, und es sei p∗i > 0 für alle i, ein sogenannter Polymorphismus. Dann ist mik p∗k = mkl p∗k p∗l für alle i. Für die Ableitung A := f  (p∗ ) erhält man aij = ∂j fi (p∗ ) = δij [mik p∗k − (Mp∗ |p∗ )] + p∗i [mij − 2mj k p∗k ] = p∗i [mij − 2mj k p∗k ] = p∗i [mij − 2W (p∗ )]. j

Nun ist aij p∗ = −W (p∗ )p∗i , also ist p∗ stets ein Eigenvektor zum Eigenwert −W (p∗ ), ein dualer Eigenvektor ist e. W (p) kann jedes Vorzeichen haben. Es ist aber (p∗ |e) = 1, also p∗ ∈ Tp∗ . Die relevanten Eigenwerte λ sind hier nur die mit Eigenvektoren v, die (v|e) = 0 erfüllen. Daher folgt aus Satz 13.3.1, dass p∗ asymptotisch stabil für (FWH) in  ist, falls alle Eigenwerte von A mit Eigenvektor senkrecht zu e negative Realteile haben, und instabil falls es einen Eigenvektor senkrecht auf e zu einem Eigenwert mit positivem Realteil gibt. Als generelle Regel sind Resultate über Differentialgleichungen im Rn , die lokaler Natur sind, also an Equilibria, auch auf Mannigfaltigkeiten gültig. Andererseits sind globale Resultate nicht ohne weiteres übertragbar. Satz 7.3.5 über Existenz periodischer Lösungen bzw. von Equilibria ist auf allgemeinen kompakten Mannigfaltigkeiten falsch, wie auch der Satz von Poincaré-Bendixson für zweidimensionale Mannigfaltigkeiten nicht gilt. Der irrationale Fluss auf dem Torus (9.3) aus Abschn. 9.2 belegt dies. Für globale Resultate spielt die Topologie der Mannigfaltigkeit eine wichtige Rolle.

13.4

Zwangsbedingungen

1. Es sei f : Rn → Rn stetig gegeben, und die Mannigfaltigkeit  = g −1 (0) wobei g : Rn → Rn−m aus C 1 sei, derart dass der Rang von g  (x) gleich n − m für jedes x ∈  ist. Die Differentialgleichung x˙ = f (x) wird dann  in der Regel nicht invariant

13.4 Zwangsbedingungen

365

lassen, die Bedingung g(x) = 0 ist eine Zwangsbedingung. Wie muss das Vektorfeld f modifiziert werden, sodass die Zwangsbedingung erfüllt ist? Offenbar muss f (x) in x ∈  auf Tx  projiziert werden. Die einfachste und natürlichste Art ist die orthogonale Projektion des Vektorfelds auf das Tangentialbündel von . Diese lässt sich mittels g  leicht bestimmen. Dazu sei x ∈  fixiert, und a ∈ Rn beliebig. Wir suchen dann ein v ∈ Rn−m , sodass der Vektor a − [g  (x)]T v ∈ Tx  = N (g  (x)) ist. Wendet man g  (x) auf diese Gleichung an, so erhält man 0 = g  (x)(a − [g  (x)]T v) = g  (x)a − g  (x)[g  (x)]T v. Da g  (x) Rang n − m hat, ist [g  (x)g  (x)T ] : Rn−m → Rn−m invertierbar, also v = (g  (x)[g  (x)]T )−1 g  (x)a, und damit die orthogonale Projektion P (x) auf Tx  durch P (x) = I − [g  (x)]T (g  (x)[g  (x)]T )−1 g  (x),

x ∈ ,

(13.7)

gegeben. Das modifizierte Vektorfeld f˜(x) = P (x)f (x) hat nun die Eigenschaft, ein Tangentenvektorfeld an  zu sein. Die zweite Möglichkeit der Darstellung von f˜(x) verwendet den Tensor G = g ij τi ⊗τj , der unabhängig von der Wahl der Koordinaten ist. Damit erhält man f˜(x) = P (x)f (x) = g ij τi (f (x)|τj ) = g ij τi fj (x) = f i (x)τi ,

x ∈ .

Diese Darstellung ergibt auf sehr einfache Weise die lokalen Gleichungen x˙ i = f i (x), verbirgt aber die Projektion auf , und verwendet lokale Koordinaten. Beispiel 1. (i) Sei  = Sn−1 die Einheitssphäre im Rn , also g(x) = (|x|22 −1)/2, und k = n−1. Hier haben wir g  (x) = x T , also P (x) = I − x ⊗ x. Die zugehörige Differentialgleichung lautet dann x˙ = f (x) − (f (x)|x)x, die offenbar die Menge |x|22 = 1 invariant lässt. (ii) Polardarstellung. Sei f : Rn \ {0} → Rn lokal Lipschitz. Setze r = |x|2 und z = x/r, also |z|2 = 1. Die Differentialgleichung x˙ = f (x) kann als Gleichung auf der Mannigfaltigkeit  = (0, ∞) × Sn−1 aufgefasst werden. Es ist nämlich mit g(r, z) = f (rz)/r,

366

13 Differentialgleichungen auf Mannigfaltigkeiten

r˙ =

(x|x) ˙ = (f (x)|z) = (f (rz)|z) = r(g(r, z)|z), r

und z˙ =

x r˙ f (x) x˙ − = − z(g(r, z)|z) = g(r, z) − z(g(r, z)|z). r rr r

Damit ist x˙ = f (x) äquivalent zu r˙ = r(g(r, z)|z),

z˙ = g(r, z) − z(g(r, z)|z)

auf . Ist nun g unabhängig von r, so entkoppelt die Gleichung für z von der für r, und r kann nach Kenntnis von z durch Integration bestimmt werden. Dies ist der Fall wenn f positiv homogen ist (vgl. Abschn. 7.4). Der zweite Extremfall ist g(r, z) = φ(r)z; dann ist z˙ ≡ 0 und wir haben das eindimensionale Problem r˙ = rφ(r) für r. 2. Als nächstes betrachten wir ein System 2. Ordnung mit Zwangsbedingungen, also x¨ = f (x, x), ˙

t ∈ R,

x(0) = x0 , x(0) ˙ = x1 ,

g(x) = 0,

(13.8) (13.9)

wobei f : Rn × Rn → Rn lokal Lipschitz, g : Rn → Rn−m aus C 2 sind, und g  (x) habe Rang n − m für alle x ∈ g −1 (0). Hier gehen wir folgendermaßen vor. Das Vektorfeld f wird modifiziert zu f˜ = f − [g  ]T a, wobei a ∈ Rn−m so zu bestimmen ist, dass die Zwangsbedingung erfüllt ist. Dazu sei x(t) eine Lösung des Problems mit f˜, die g(x(t)) = 0 für alle t erfüllt. Zweimalige Differentiation dieser Gleichung ergibt ˙ = 0, g  (x(t))x(t)

g  (x(t))x(t) ˙ x(t) ˙ + g  (x(t))x(t) ¨ = 0,

also −g  (x(t))x(t) ˙ x(t) ˙ = g  (x(t))x(t) ¨ = g  f˜ = g  (x(t))(f (x(t), x(t)) ˙ − [g  (x(t))]T a), folglich a = (g  (x(t))[g  (x(t))]T )−1 (g  (x(t))f (x(t), x(t)) ˙ + g  (x(t))x(t) ˙ x(t)). ˙ Damit erhalten wir für das modifizierte Vektorfeld f˜(x, y) = f (x, y) − [g  (x)]T (g  (x)[g  (x)]T )−1 [g  (x)f (x, y) + g  (x)yy].

13.4 Zwangsbedingungen

367

Beispiel 2. Das dreidimensionale Pendel. Wir betrachten nochmals das Pendel der Länge l mit Aufhängung in 0. Die Schwerkraft wirke in negativer x3 -Richtung mit Konstante γ , die Pendelmasse sei m = 1. Es sei x(t) die Position des Pendels, y(t) = x(t) ˙ dessen 2 2 Geschwindigkeit. Dies ergibt die Zwangsbedingung g(x) = (|x|2 − l )/2 = 0, und das Vektorfeld f ist f (x) = −γ e3 . Es ist g  (x) = x T , also g  (x)[g  (x)]T = |x|22 = l 2 , sowie g  (x) = I . Dies führt zur folgenden Gleichung für das dreidimensionale Pendel auf : x¨ = −γ e3 − x(|x| ˙ 22 − γ x3 )/ l 2 ,

x(0) = x0 , x(0) ˙ = x1 .

(13.10)

Man sieht sofort, dass wie zu erwarten die Energie E = 12 |x| ˙ 22 + γ x3 eine Erhaltungsgröße ist, da (x|x) ˙ = 0 gilt, und dass für einen Vektor v = 0 mit (x0 |v) = (x1 |v) = (e3 |v) = 0 auch (x(t)|v) = 0 für alle t ∈ R gilt, d. h. die Schwingung bleibt eben wenn sie eben beginnt. Der zweite Term auf der rechten Seite von (13.10), also die Zwangskraft heißt Zentrifugalkraft. 3. Eine weitere Quelle für Zwangsbedingungen liefern singuläre Grenzwerte von Differentialgleichungen. Um dies zu erläutern, betrachten wir eine Anwendung aus der chemischen Reaktionstechnik, die an Abschn. 8.7 anknüpft. Dazu sei ein chemisches Reaktionssystem in einem Rührkessel gegeben, in dem sowohl Konvektion und langsame Reaktionen stattfinden, aber auch sehr schnelle Gleichgewichtsreaktionen wie z. B. ionische Reaktionen ablaufen. Ein Modell dafür ist das System x˙ = f (x) + kN r(x),

(13.11)

wobei x ∈ int Rn+ den Vektor der Konzentrationen bedeutet. Die Konvektionsterme und die langsamen Reaktionen seien im Vektor f (x) zusammengefasst und N r(x) bedeutet die m schnellen Reaktionen, die wir in der in Abschn. 8.7 angegebenen Form annehmen, und k ist ein Maß für deren Geschwindigkeit. Daher würde man gern zum Grenzfall k → ∞ übergehen. Dann würden die schnellen Reaktionen instantan, also wäre deren Gleichgewicht stets eingestellt, d. h. die Gleichung N r(x) = 0 tritt hier natürlicherweise als Zwangsbedingung auf. Der Einfachheit halber nehmen wir nun an, dass die schnellen Reaktionen linear unabhängig sind, d. h. N ist injektiv. Dann vereinfacht sich die Zwangsbedingung zu r(x) = 0. Wie sehen hier die natürlichen Gleichungen auf der Mannigfaltigkeit  = r −1 (0) aus? Wir suchen dazu wie zuvor ein möglichst einfaches Vektorfeld f˜ das tangential zu  ist, allerdings ist die orthogonale Projektion hier nicht geeignet. Da die schnellen Reaktionen nur im Bild von N aktiv sind, ist der Ansatz f˜ = f − N a natürlich. Ist nun x eine Lösung von x˙ = f˜(x), die in  liegt, so erhalten wir wie in 1. 0=

d r(x) = r  (x)x˙ = r  (x)f˜(x) = r  (x)f (x) − r  (x)N a, dt

368

13 Differentialgleichungen auf Mannigfaltigkeiten

also a = (r  (x)N )−1 r  (x)f (x), woraus sich das modifizierte Vektorfeld f˜ = f − N(r  (x)N )−1 r  (x)f (x) =: P (x)f (x) ergibt. Dabei ist zu beachten, dass r  (x)N : Rm → Rm tatsächlich für alle x ∈  ∩ int Rn+ invertierbar ist. Um dies zu sehen, erinnern wir an die Form von r(x); dabei seien κj = kj+ /k konstant. Es gilt für x ∈  +



rj (x) = κj (−x νj + Kj x νj ), also ∂i rj (x) = −

νij+ xi

+

κj x νj +

νij− xi



κj Kj x νj = −

+ νij κj x νj . xi

+

+

Setzt man nun X = diag{x1 , . . . , xn } und D = diag{κ1 x ν1 , . . . , κm x νm }, so folgt r  (x) = −DN T X−1 ,

r  (x)N = −DN T X−1 N.

Damit ist aufgrund der Injektivität von N klar, dass r  (x)N invertierbar ist, und für die Projektion P (x) erhalten wir die alternative Darstellung P (x) = I − N(N T X−1 N )−1 N T X−1 . Man kann unter realistischen Annahmen über f zeigen, dass f˜ tatsächlich das Vektorfeld ist, das beim Grenzübergang k → ∞ aus (13.11) entsteht.

13.5

Geodätische

1. Sei  ⊂ Rn eine zusammenhängende m-dimensionale C 2 -Mannigfaltigkeit. Von besonderem Interesse sind die in  zwei Punkte a, b ∈  verbindenden Kurven minimaler Länge, die Geodätischen. In diesem Abschnitt leiten wir die Differentialgleichung für die Geodätischen her, und untersuchen ihre Eigenschaften. Da jedes Teilstück einer Geodätischen ebenfalls eine Geodätische ist, nehmen wir zunächst an, dass die Geodätische in einer Karte Uφ liegt, die zur Parametrisierung φ von  gehört. Es seien also a = φ(α) und b = φ(β), und x(t) = φ(y(t)) eine C 1 -Kurve γ (x) in Uφ , die a und b verbindet. Ihre Länge ist  l(γ (x)) = 0

T

 |x(t)| ˙ 2 dt = 0

T

 |y˙ k (t)τk (t)|2 dt = 0

T

1

gkl (y(t))y˙ k (t)y˙ l (t)dt.

13.5 Geodätische

369

Sei x(t) = φ(y(t)) die Parametrisierung einer Geodätischen der Klasse C 2 von a nach b. O.B.d.A. kann man annehmen, dass t die Bogenlänge ist, also dass |x(t)| ˙ 2 = 1 für alle t ∈ [0, T ] ist. Variiert man nun x(t) gemäß u(t; s) := φ(y(t) + sz(t)), so hat die Funktion s → l(γ (u(·; s))) für jedes z ∈ C 1 ([0, T ], Rm ) mit z(0) = z(T ) = 0 in s = 0 ein Minimum, daher gilt dl(γ (u(·; 0))/ds = 0. Differentiation des Integranden |u(t; ˙ s)|2 nach s ergibt d d |u(t; ˙ s)|2 = (2|u(t; ˙ s)|2 )−1 [gkl (y + sz)(y˙ k + s z˙ k )(y˙ l + s z˙ l )] ds ds = (2|u(t; ˙ s)|2 )−1 [∂j gkl zj (y˙ k + s z˙ k )(y˙ l + s z˙ l ) + 2gkl y˙ k z˙ l + 2sgkl z˙ k z˙ l ], also für s = 0, d 1 |u(t; ˙ 0)|2 = ∂j gkl zj y˙ k y˙ l + gkl y˙ k z˙ l , ds 2 da |x(t)| ˙ 2 = 1 ist. Dies ergibt die Beziehung d 0= l(γ (u(·; 0))) = ds

 0

T



 1 j k l k l ∂j gkl (y(t))z (t)y˙ (t)y˙ (t) + gkl (y(t))y˙ (t)˙z (t) dt, 2

also nach partieller Integration des zweiten Summanden mit z(0) = z(T ) = 0,  0=

T

0

1 zj (t)[ ∂j gkl (y(t))y˙ k (t)y˙ l (t) − ∂l gkj (y(t))y˙ k (t)y˙ l (t) − gkj (y(t))y¨ k ]dt. 2

Setzt man nun

kl|j =

1 [∂k gj l + ∂l gj k − ∂j gkl ], 2

rkl = g rj kl|j ,

so folgt mit einer Umbenennung in der Summation, ∂l gkj ξ k ξ l = ∂k glj ξ k ξ j , die Relation  0=

T

zj (t)[ kl|j (y(t))y˙ k (t)y˙ l (t) + gkj (y(t))y¨ k ]dt.

0

Da die Testfunktionen in L2 (0, T ) dicht liegen, und die zj beliebig aus C 1 mit Randwerten 0 gewählt werden können, folgt

370

13 Differentialgleichungen auf Mannigfaltigkeiten

kl|j (y(t))y˙ k (t)y˙ l (t) + gkj (y(t))y¨ k = 0

für alle t ∈ [0, T ], j = 1, . . . , m,

oder nach Multiplikation mit g j r und Summation über j y¨ r + rkl (y)y˙ k y˙ l = 0,

t ∈ [0, T ], r = 1, . . . , m.

(13.12)

2. Dies sind die Differentialgleichungen der Geodätischen bzgl. ihrer Bogenlänge in lokalen Koordinaten. Die Koeffizienten rkl heißen Christoffel-Symbole und spielen in der Differentialgeometrie eine wichtige Rolle. Eine andere Darstellung der ChristoffelSymbole erhält man so: Setze τkj := ∂k τj = ∂k ∂j φ = τj k ; dann folgt 2 kl|j = ∂k gj l + ∂l gj k − ∂j gkl = ∂k (τj |τl ) + ∂l (τj |τk ) − ∂j (τk |τl ) = (τj k |τl ) + (τj |τkl ) + (τj l |τk ) + (τj |τkl ) − (τkj |τl ) − (τk |τlj ) = 2(τkl |τj ), also gelten die Beziehungen

kl|j = (τkl |τj ),

rkl = g rj kl|j .

Diese bedeuten, dass die Christoffel-Symbole rkl die kontravarianten Komponenten der Projektion der Vektoren τkl auf den Tangentialraum von  sind und entsprechend kl|j die kovarianten. ¨ 2 ihre Ist x(t) eine C 2 -Kurve auf , parametrisiert über die Bogenlänge, so ist |x(t)| Krümmung. Mit x(t) = φ(y(t)) folgt x˙ = τk y˙ k ,

x¨ = τk y¨ k + τkl y˙ k y˙ l .

Die Projektion von x¨ auf den Tangentialraum ist damit P x¨ = τr y¨ r + P τkl y˙ k y˙ l = τr (y¨ r + rkl y˙ k y˙ l ), |P x(t)| ¨ 2 wird geodätische Krümmung genannt. Diese ist somit für eine Geodätische gleich Null, die Geodätischen sind die Kurven auf  verschwindender geodätischer Krümmung. Um zu einer koordinatenfreien Form der Gleichung für die Geodätischen zu kommen, beachte man die Relationen ˙ l |x), ˙ τr rkl y˙ k y˙ l = P τkl (τ k |x)(τ

13.5 Geodätische

371

somit erhalten wir x¨ = (I − P )τkl (τ k |x)(τ ˙ l |x). ˙ Als nächstes gilt ∇ P = ∇ τl ⊗ τ l = τ k ⊗ ∂k (τl ⊗ τ l ) = τ k ⊗ [τkl ⊗ τ l + τi ⊗ ∂k τ i ], sowie 0 = ∂k (τl |τ i ) = (τkl |τ i ) + (τl |∂k τ i ), also P ∂k τ i = (∂k τ i |τl )τ l = −(τkl |τ i )τ l , was auf ∇ P = τ k ⊗ (τkl − P τkl ) ⊗ τ l führt. Die invariante Darstellung der Gleichung für die Geodätischen in Bogenlänge lautet damit x¨ = (x|[∇ ˙  P (x)]x). ˙

(13.13)

Man beachte, dass x(t) ¨ senkrecht auf Tx(t)  steht, also gilt (x(t)| ¨ x(t)) ˙ = 0. Folglich ˙ = 1, daher beschreibt (13.13) Geodätische in Bogenlänge. ist |x| ˙ 2 ≡ 1 für |x(0)| 2 Dass (13.13) tatsächlich Lösungen x(t) hat, die in  bleiben, wenn die Anfangswerte ˙ = x1 ∈ Tx0  sind, sieht man folgendermaßen. x(0) = x0 ∈  und x(0) d [P (x)x˙ − x] ˙ = (x|∇ ˙  P (x)x) ˙ + P (x)x¨ − x¨ = P (x)x¨ = 0. dt Schreibt man (13.13) als System x˙ = v,

v˙ = (v|[∇ P (x)]v),

(13.14)

so wird deutlich, dass mit |v|2 ≡ 1 auch Beschränktheit von x(t) auf endlichen Zeitintervallen folgt, d. h. die Lösungen existieren global. Man beachte auch die Invarianz der Gleichung unter Zeitumkehr, daher genügt es sie für positive t zu betrachten. Ist die Mannigfaltigkeit aus C 2 , dann ist ∇ P (x) lediglich stetig, daher ist zwar globale

372

13 Differentialgleichungen auf Mannigfaltigkeiten

Existenz für das Anfangswertproblem mit dem Satz von Peano gesichert, aber Eindeutigkeit der Lösungen bleibt unklar. Aber natürlich sind die Lösungen eindeutig, wenn  zur Klasse C 3 gehört, was in der Differentialgeometrie ohnehin meist gefordert wird. In diesem Fall erzeugt (13.13) also einen globalen Fluss auf , den wir den geodätischen Fluss nennen. Wir fassen zusammen Satz 13.5.1. Sei  ⊂ Rn eine zusammenhängende m-dimensionale Mannigfaltigkeit der Klasse C 3 . Dann besitzt (13.13) zu jedem Anfangswert x0 ∈ , x1 ∈ Tx0 , |x1 |2 = 1 genau eine globale Lösung in . Daher erzeugt (13.13) einen globalen Fluss auf , den geodätischen Fluss. Ferner gilt |x| ˙ 2 ≡ 1, d. h. x ist die Parameterdarstellung der Geodätischen γ (x) in der Bogenlänge. Betrachten wir ein einfaches Beispiel. Der geodätische Fluss auf der Sphäre. Sei  = Sn−1 = ∂B1 (0) ⊂ Rn . Dann ist (P u|v) = (u|v) − (x|u)(v|x), also ∇x (P u|v) = −u(v|x) − (u|x)v, ν(x) = x, somit (ν|(∇x P u|v)) = −2(x|u)(x|v), und schließlich ∇ (P u|v) = −(v|x)u − (u|x)v + 2x(u|x)(v|x). Dies ergibt mit u = x˙ und (x|x) ˙ =0 (x|∇ ˙  (P x|v)) ˙ = −(v|x)|x| ˙ 22 = −(v|x), folglich ist x¨ = −x die Gleichung der Geodätischen auf der Sphäre. 3. Sei  als Nullstellenmenge  = g −1 (0) gegeben, wobei g : Rn → Rn−m aus der Klasse C 2 sei, und g  (x) habe vollen Rang für jedes x ∈ . Dann gilt in einem Punkt x∈ g  (x)τk = 0,

g  (x)τk τl + g  (x)τkl = 0,

k, l = 1, . . . , m.

Da in diesem Fall P = I − [g  ]T (g  [g  ]T )−1 g  ist, folgt τkl − P τkl = −[g  ]T (g  [g  ]T )−1 g  τk τl . Daher bekommt (13.13) in diesem Fall die folgende Form

13.6 Das Zweikörperproblem

373

x¨ = −[g  (x)]T (g  (x)[g  (x)]T )−1 (g  (x)x˙ x). ˙ Dies ist genau die Gleichung für ein Problem 2. Ordnung mit der Zwangsbedingung g(x) = 0, wenn das Vektorfeld f (x, x) ˙ = 0 ist; vgl. Abschn. 13.4. Daher kann man eine Geodätische als Bahn eines Teilchens mit Geschwindigkeit Eins auf  in Abwesenheit von Kräften interpretieren. Nochmals bezugnehmend auf Abschnitt 13.4 ist somit f˜(x, y) = P f (x, y) + (y|∇ P y). Also wird die durch  vorgegebene Zwangsbewegung eines Teilchens im Kraftfeld f durch die Differentialgleichung x¨ = P (x)f (x, x) ˙ + (x|∇ ˙  P (x)x) ˙

(13.15)

beschrieben. Das effektive Kraftfeld ist die Summe aus dem auf T  projizierten Kraftfeld f und der Zwangskraft aus der Gleichung für die Geodätischen. Ist f (x, x) ˙ = −∇ψ(x), so folgt auch hier Energieerhaltung d 1 [ |x(t)| ˙ 22 + ψ(x(t))] = 0, dt 2 da x(t) ˙ ∈ Tx(t)  ist und der geodätische Term auf Tx(t)  senkrecht steht. Die Zwangsbedingung verbraucht also keine Energie, sofern sie nicht Reibung erzeugt. Ist allgemeiner f (x, x) ˙ = −∇ψ(x) − g(x), ˙ so erhält man entsprechend d 1 ˙ ˙ 22 + ψ(x(t))] = −(g(x)| ˙ x), ˙ E(t) := [ |x(t)| dt 2 also ist die Energie auch hier eine Ljapunov-Funktion wenn (g(u)|u) ≥ 0 für alle u ∈ Rn gilt, und eine strikte, falls (g(u)|u) > 0 für alle u = 0 gilt. Daher lassen sich die Resultate für x¨ + g(x) ˙ + ∇ψ(x) = 0 im Rn auf das entsprechende Problem (13.15) mit Zwangsbedingungen übertragen.

13.6

Das Zweikörperproblem

Zum Abschluss dieses Buchs kehren wir an den Ausgangspunkt, nämlich zu Newton zurück. In diesem Abschnitt kommt es nicht so sehr auf Theorie an, sondern auf eine geschickte Parametrisierung, die die Erhaltungssätze, also die invarianten Mannigfaltigkeiten des Problems ausnutzt. Wir denken, dass die Analysis des Zweikörperproblems zur Allgemeinbildung jedes Mathematikers gehört.

374

13 Differentialgleichungen auf Mannigfaltigkeiten

Es sei xj die Position des Körpers Kj , dessen Masse sei mj , j = 1, 2. Newtons Ansatz beruht auf der Annahme, dass die Körper sich anziehen, die wirkende Kraft ist proportional zum inversen Quadrat ihres Abstands. Dies führt auf die Gleichungen x1 − x2 , |x1 − x2 |2 x1 − x2 , m2 x¨2 = −φ  (|x1 − x2 |2 ) |x1 − x2 |2 m1 x¨1 = φ  (|x1 − x2 |2 )

x1 (0) = x10 , x˙1 (0) = x11 , x2 (0) = x20 , x˙2 (0) = x21 .

Hierbei ist φ : R+ → R+ aus C 2 , im Newtonschen Fall φ(r) = γ m1 m2 /r, wobei γ > 0 die Gravitationskonstante bezeichnet. 1. Reduktion auf ein Zentralfeldproblem. Die Hauptvariable in diesem System ist x = x1 − x2 . Nur diese tritt in den Kräften auf, daher ist es naheliegend, eine Gleichung für x herzuleiten. Dazu beachte man, dass m1 x¨1 + m2 x¨2 = 0 ist, also ist die Bewegung des Schwerpunktes xS definiert durch xS =

m1 x1 + m2 x2 m1 + m2

linear. Genauer gilt xS (t) = xS0 + xS1 t,

xS0 =

m1 x10 + m2 x20 m1 x11 + m2 x21 , xS1 = ; m1 + m2 m1 + m2

physikalisch ist dies die Erhaltung des Gesamtimpulses. Nun ist x1 = x + x2 = x +

m1 + m2 m2 x2 m1 + m2 m1 =x+ xS − x1 , m2 m1 + m2 m2 m2

folglich x1 = xS +

m2 x; m1 + m2

x2 = xS −

m1 x. m1 + m2

ebenso erhält man

Diese Gleichungen zeigen, dass es genügt, die Variable x zu betrachten. Wegen x¨S = 0 folgt aus diesen Identitäten m1 m 2 x x¨ = m1 x¨1 = φ  (|x|2 ) , m1 + m2 |x|2

13.6 Das Zweikörperproblem

375

also ist das Problem auf das Zentralfeldproblem mx¨ = φ  (|x|2 )

x , |x|2

x(0) = x0 , x(0) ˙ = x1 ,

(13.16)

reduziert, wobei m := m1 m2 /(m1 + m2 ) die sog. reduzierte Masse bezeichnet. 2. Das Problem (13.16) besitzt zwei Erhaltungssätze, nämlich Energie und Drehimpuls. Diese erhält man wie folgt. Multipliziere (13.16) skalar mit x; ˙ dies ergibt d m 2 x [ |x| ˙ 2 − φ(|x|2 )] = (mx¨ − φ  (|x|2 ) |x) ˙ = 0, dt 2 |x|2 also ist die Energie E konstant: m 2 |x| ˙ − φ(|x|2 ) ≡ E. 2 2 Als nächstes bildet man das Kreuzprodukt von (13.16) mit x; das führt auf 0 = φ  (|x|2 )

x×x d = mx¨ × x = m (x˙ × x), |x|2 dt

also ist x˙ × x ≡ a konstant. Dies bedeutet, dass sowohl x als auch x˙ für alle Zeiten orthogonal zu a sind. Ist a = 0, dann sind x und x˙ sogar linear abhängig, also ebenfalls orthogonal zu einem Vektor a = 0. Daher läuft die Bewegung in der Ebene (x|a) = 0 ab. 3. Aus diesem Grund ist es naheliegend, das Koordinatensystem für die Parametrisierung so zu wählen, dass a = e3 ist; man erhält dann x3 ≡ 0. In der (x1 , x2 )-Ebene führt man zweckmäßigerweise Polarkoordinaten x1 = r cos θ , x2 = r sin θ ein. Dann folgt x˙1 = r˙ cos θ − r θ˙ sin θ,

x˙2 = r˙ sin θ + r θ˙ cos θ,

also insbesondere |x| ˙ 22 = r˙ 2 + r 2 θ˙ 2 ,

E=

m 2 [˙r + r 2 θ˙ 2 ] − φ(r). 2

Weiter gilt r˙ = x˙1 cos θ + x˙2 sin θ,

r θ˙ = −x˙1 sin θ + x˙2 cos θ,

folglich r¨ = x¨1 cos θ + x¨2 sin θ + (−x˙1 sin θ + x˙2 cos θ )θ˙ = φ  (r)/m + r θ˙ 2 ,

376

13 Differentialgleichungen auf Mannigfaltigkeiten

und r θ¨ + r˙ θ˙ = −x¨1 sin θ + x¨2 cos θ − (x˙1 cos θ + x˙2 sin θ )θ˙ = −˙r θ˙ , also r θ¨ + 2˙r θ˙ = 0. Die letzte Gleichung ergibt nach Multiplikation mit r d 2 r θ˙ = 0, dt

also

r 2 θ˙ ≡ h,

(13.17)

das 2. Keplersche Gesetz, welches physikalisch die Erhaltung des Drehimpulses beschreibt. Setzt man diese Gleichung in die Gleichung für r ein, so erhält man die von θ entkoppelte Gleichung für r: r¨ =

1  h2 φ (r) + 3 . m r

(13.18)

Gl. (13.17) eingesetzt in die Energie führt schließlich auf m 2 h2 [˙r + 2 ] − φ(r) = E. 2 r

(13.19)

4. Auf diese Weise konnte das ursprünglich 12-dimensionale System unter Ausnutzung der vorhandenen Symmetrien und invarianten Mannigfaltigkeiten, sowie durch geschickte Parametrisierung auf eine einzige Differentialgleichung 1. Ordnung, nämlich auf die für r zurückgeführt werden. Hat man r bestimmt, so folgt θ durch Integration der Gleichung θ˙ = h/r 2 . Das Potential φ(r) tritt nur noch in der Gleichung für r auf. Um die Bahnkurven zu bestimmen, beachte man, dass im generischen Fall h > 0 die Funktion θ (t) strikt monoton, also invertierbar ist. Daher suchen wir r als Funktion von θ anstelle als Funktion von t. Nun gilt mit u = h/r und der Kettenregel r˙ = r  θ˙ = r 

h = −u , r2

also ergibt (13.19) u + u2 = 2

2φ(h/u) 2E + . m m

Verwendet man nun das Newtonsche Gesetz φ(r) = γ m1 m2 /r so erhält man

13.6 Das Zweikörperproblem

377

u + u2 = 2

2Mγ u 2E + , m h

mit M := m1 + m2 oder nach Differentiation u + u = γ M/ h. Die Lösung dieses Problems ist durch u(θ ) = γ M/ h + a cos(θ + θ0 ) mit einem a ≥ 0 und θ0 ∈ (−π, π ] gegeben, also r = r(θ ) =

p , 1 + ε cos θ

wobei wir o.B.d.A. θ0 = 0 angenommen haben. Dabei sind p = h2 /(γ M) > 0 und ε = ah/(γ M) > 0 gesetzt. Dies ist die Gleichung eines Kegelschnitts um den Brennpunkt (0, 0) in Polarkoordinaten: Für ε = 0 ist es ein Kreis, für ε ∈ (0, 1) eine Ellipse, für ε = 1 eine Parabel, und für ε > 1 eine Hyperbel. Daraus folgt das 1. Keplersche Gesetz. Der Zusammenhang zwischen der Energie E und dem Exzentrizitätsparameter ε ergibt sich aus der Beziehung γ 2M 2 2E 2 + = u + (u − γ M/ h)2 = a 2 , m h2 also ε = ah/(γ M) =

1

1 + 2Eh2 /(γ 2 M 2 m).

Die möglichen Energieniveaus sind durch die minimale Energie E0 = −γ 2 M 2 m/(2h2 ) nach unten beschränkt. In diesem Fall wird eine Kreisbahn realisiert, mit Radius h2 /(γ M) = −γ Mm/(2E0 ). 5. Der dreidimensionale harmonische Oszillator. Hier ist φ(r) = 2c r 2 . Dies führt auf die Gleichung u + u2 = 2

ch2 2E + , m mu2

die mit der Substitution v = u2 die Beziehung v  + 4v 2 = 2

ergibt, also nach Differentiation

4ch2 8E v+ m m

(13.20)

378

13 Differentialgleichungen auf Mannigfaltigkeiten

v  + 4v =

4E . m

Die Lösung dieses Problems ist mit einem κ ≥ 0 und θ ∈ (−π, π ] v(θ ) =

E (1 + κ cos(2(θ + θ0 ))), m

also 2 r(θ ) =

1 mh2 , √ E 1 + κ cos(2θ )

wobei wir wie zuvor o.B.d.A. θ0 = 0 angenommen haben. Hier sind die Bahnkurven Kreise für κ = 0, Ellipsen für 0 < κ < 1, Parabeln im Fall κ = 1, und Hyperbeln für κ > 1, der Mittelpunkt ist jeweils (0, 0). Dabei ist κ wegen (13.20) durch 2 κ=

1+

cmh2 E2

gegeben. Folglich sind die Bahnkurven im Fall c = 0 Parabeln, für c > 0 Hyperbeln, und für c < 0 Ellipsen, d. h. alle Lösungen sind periodisch falls c < 0, und unbeschränkt für c ≥ 0. Für c ≥ √ 0 sind alle Energieniveaus möglich, andernfalls jedoch ist die minimale 0 Energie E0 = −mch2 (c < 0), und diese realisiert eine Kreisbahn mit Radius r0 = 4 −mh2 /c. 6. Stabilität von Kreisbahnen. Sei zur Abkürzung g(u) = u + φ  (h/u)h/(mu2 ) gesetzt. Equilibria der Gleichung u + g(u) = 0 entsprechen dann Kreisbahnen, die mit konstanter Geschwindigkeit θ˙ = h/r∗2 = u2∗ / h durchlaufen werden. Wie steht es mit ihrer Stabilität? Schreibt man diese Gleichung als System u = v,

v  = −g(u),

so besitzt dieses die Ljapunov-Funktion V0 (u, v) = 12 v 2 + G(u), wobei G(u) eine Stammfunktion zu g(u) ist. Equilibria des Systems sind genau die Punkte (u∗ , 0) mit g(u∗ ) = 0, und dies sind genau die kritischen Punkte von V0 . Die zweite Ableitung von V0 in (u∗ , 0) ist genau dann positiv definit, wenn g  (u∗ ) > 0 gilt. In diesem Fall ist (u∗ , 0) ein isoliertes Equilibrium und ein striktes Minimum für V0 . Daher ist Satz 5.5.4 anwendbar, der zeigt dass (u∗ , 0) stabil ist.  Ist andererseits 0 g (u∗ ) < 0, so hat die Linearisierung des Systems die zwei reellen Eigenwerte ± −g  (u∗ ). Daher ist (u∗ , 0) nach dem Prinzip der linearisierten Stabilität instabil.

Übungen

379

Um die Bedeutung der Bedingungen g(u∗ ) = 0, g  (u∗ ) > 0 zu klären, berechnet man g  (u∗ ) = 1 − 2

h  h2  h2  φ (h/u∗ ) − φ (h/u∗ ) = 3 − φ (h/u∗ ). 3 4 mu∗ mu∗ mu4∗

Also ist g  (u∗ ) > 0 genau dann, wenn φ  (h/u∗ )
0, ergibt dies die Bedingung aμ(μ + 2) < 0, die im Fall des Newton Potentials φ(r) = γ m1 m2 /r für γ > 0 erfüllt ist. Für den harmonischen Oszillator φ(r) = cr 2 /2 gilt sie im Falle c < 0; man beachte dass hier nur für c < 0 Kreisbahnen existieren.

Übungen 13.1 Sei  = T der Torus im R3 , definiert durch 1 g(x) = g(x1 , x2 , x3 ) = [( x12 + x22 − 2)2 + x32 − 1]/2 = 0. ˜ Berechnen Sie die Projektion 1 P und zeigen Sie, dass projizierte Vektorfeld f = P f für f = [−x2 , x1 , α/( x12 + x22 − 2)]T die Gl. (9.3) in Abschn. 9.2 ergibt. 13.2 Zeigen Sie, dass sich der irrationale Fluss auf dem Torus (9.3) in den kanonischen Toruskoordinaten (φ, θ ) als das triviale System φ˙ = 1,

θ˙ = α

schreiben lässt. 13.3 Das überdämpfte Pendel. Betrachte die Gleichung θ˙ = μ − sin(θ ) auf der Sphäre S1 im R2 , wobei μ > 0 ist. Zeigen Sie, dass für μ = 1 eine Sattel-Knoten Verzweigung auftritt. 13.4 Parametrisieren Sie die Gleichung für das dreidimensionale Pendel mittels Polarkoordinaten. Interpretieren Sie das dabei auftretende Problem. 13.5 Leiten Sie die invariante Form der Gleichung für die Geodätischen auf dem Torus im R3 her.

Weitere Anwendungen

14

Dieses letzte Kapitel befasst sich mit zwei Themenkreisen, die sowohl analytisch als auch in Anwendungen von Interesse sind. Im ersten Bereich geht es um das FitzHugh-Nagumo System, welches in der Elektrophysiologie und Kardiologie von großer Bedeutung ist. Im homogenen Fall zeigen wir die Existenz einer subkritischen Hopf-Verzweigung, die also einen Zweig instabiler periodischer Lösungen erzeugt. Im Gegensatz zu diesem Verhalten zeigen wir im heterogenen Fall, dass eine superkritische Hopf Verzweigung auftritt, die zu Zweigen stabiler Wellenzüge für das FitzHugh-Nagumo System mit Diffusion führt. Der zweite Themenbereich betrifft Subdifferentialgleichungen, genauer SubdifferentialInklusionen, die nicht expansive Halbflüsse ergeben, wie sie in vielen Anwendungen unter anderem in den Wirtschaftswissenschaften und der Spieltheorie auftreten. Da die rechte Seite der Differential-Inklusionen nicht glatt ist, sind die Lösungen zwar nicht klassisch, also nicht stetig differenzierbar, wohl aber sind sie eindeutig und lokal Lipschitz. Ferner konvergieren sie für t → ∞ im koerziven, strikt konvexen Fall gegen das eindeutige globale Minimum der zugrunde liegenden konvexen Funktion. Mit anderen Worten bedeutet dies, dass das Verfahren des steilsten Abstiegs für jeden Startwert gegen das Minimum konvergiert.

14.1

Das FitzHugh-Nagumo System

Das FitzHugh-Nagumo System lautet wie folgt: x˙ = g(x) − y, y˙ = σ x − γ y.

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8_14

(14.1)

381

382

14 Weitere Anwendungen

Dabei sind g(x) = −x(x − a)(x − b) mit 0 < a < b und σ, γ > 0. Dieses System wurde von FitzHugh vorgeschlagen, um das komplexe Hodgkin-Huxley Modell zur Beschreibung der Erregungsleitung in Nervenbahnen zu vereinfachen, unter Erhaltung seiner qualitativen Eigenschaften. Ein elektrisches Ersatzschaltbild für (14.1) wurde von Nagumo angegeben. Es besteht aus einem zu einem Kondensator der Kapazität C parallel geschalteten nichtlinearen Widerstand mit der Strom-Spannungs Charakteristik i = g(u), in Serie mit einer Spule der Induktiviät L und einem Ohmschen Widerstand R, sowie einer Stromquelle (Abb. 14.1). Die Kirchhoffschen Regeln, das Ohmsche Gesetz, sowie die Strom-Spannungsrelationen am Kondensator und der Spule führen dann auf das FitzHughNagumo System (14.1). Wir hatten bereits in den Kap. 8 & 11 gesehen, dass (14.1) einen globalen Fluss auf R2 induziert, und dass die Ellipse D = {(x, y) ∈ R2 : V (x, y) := x 2 /2 + y 2 /2σ ≤ α} positiv invariant und ein globaler Attraktor für (14.1) ist, sofern α > 0 hinreichend groß gewählt wird. In diesem Abschnitt wollen wir dieses System genauer analysieren. (i) Equilibria e0 := (0, 0) ist das triviale Equilibrium für alle Werte der Parameter. Weitere Equilibria sind e± := (x± , y± ) mit y± = δx± , mit δ = σ/γ , wobei x± = 0 Lösungen der Gleichung p(x) := δx − g(x) = x(δ + (x − a)(x − b)) = 0, sind (vgl. Abb. 14.2). Daher gilt x± =

a + b 10 ± (b − a)2 − 4δ, 2 2

und x− = x+ , falls δ < δ0 := (b − a)2 /4 ist. Sei f (x, y) die rechte Seite von (14.1). Dann ist Abb. 14.1 Ersatzschaltbild zu (14.1)

14.1 Das FitzHugh-Nagumo System

383

Abb. 14.2 Schaltkurven zu (14.1)

 A(x) := f  (x, y) =

g  (x) −1 σ −γ

 ,

also Spur A(x) = −γ + g  (x) = −q  (x),

q(x) := γ x − g(x),

und det A(x) = −γ g  (x) + σ = γp (x). Daher ergibt das Prinzip der linearisierten Stabilität, dass e0 für alle Parameterwerte asymptotisch stabil ist, denn 0 < q  (0) und 0 < p (0). Wegen p (x− ) < 0 ist e− ein Sattelpunkt, und e+ ist wegen p (x+ ) > 0 ein Knoten oder eine Spirale. e+ ist instabil, falls Spur A(x+ ) = −q  (x+ ) > 0 gilt, also wenn γ < g  (x+ ) < δ gilt. Wie man nach einer kurzen Rechnung sieht, ist diese Bedingung äquivalent zu 0 < δ < δ0 = (b − a)2 /4,

0 0 < γ < δ − 2(δ0 − δ) − (a + b) δ0 − δ.

(14.2)

(ii) Verzweigungen (a) Eine Sattel-Knoten-Verzweigung findet für δ = δ0 statt. Denn dann ist x± = (a + b)/2 und p (x± ) = 0, also ist die Matrix f  (x± , δ0 x± ) = A(x± ) singulär, Kern und Bild sind eindimensional und es gilt R(A) = span{[1, γ ]T }. Mit γ als Verzweigungsparameter ist ∂γ f (x± , δ0 x± ) = [0, −δ0 x± ]T , also ist die Transversalitätsbedingung für eine Sattel-Knoten-Verzweigung erfüllt.

384

14 Weitere Anwendungen

(b) Eine Hopf-Verzweigung tritt am Equilibrium e+ auf, wenn Spur A(x+ ) = −q  (x+ ) = 0 ist, also wenn γ∗ := g  (x+ ) = γ (γ∗ < δ) gilt. Mit γ als Verzweigungsparameter und bei fixierten Werten für a, b, δ (dann ist auch e+ fixiert), ergibt sich d 1 d 1 d 1 Re λ(e+ , γ ) = Spur A(x+ ) = (−γ + g  (x+ )) = − , dγ 2 dγ 2 dγ 2 daher ist die Transversalitätsbedingung für eine Hopf-Verzweigung, aufgrund von Abschn. 12.5 (i), erfüllt. Diese Verzweigung ist subkritisch, wie wir jetzt beweisen wollen. Dazu zeigen wir mit dem Negativkriterium von Bendixson 9.3.1, dass es für γ ≤ γ∗ eine Kugel BR (e+ ) gibt, so dass das FitzHugh-Nagumo System für solche γ keine echten periodischen Lösungen in der Kugel hat. Man beachte dabei, dass die komplexen Eigenwerte die imaginäre Achse mit negativer Geschwindigkeit überqueren, daher drehen sich die Relationszeichen in Satz 12.5.1 um. Eine einfache Rechnung ergibt div(eκ(x−y/γ ) f (x, y)) = −eκ(x−y/γ ) (q  (x) + κp(x)) =: −eκ(x−y/γ ) r(x). Mit r∗ (x) = (γ∗ − g  (x)) + κp(x) erhält man r(x) = γ − γ∗ + r∗ (x) ≤ r∗ (x),

falls γ ≤ γ∗ .

Durch geeignete Wahl von κ > 0 zeigen wir nun r∗ (x) < 0 in BR (x+ )\{x+ }, R > 0 hinreichend klein. Es ist r∗ (x+ ) = 0 nach Definition von γ∗ = g  (x+ ) > 0 und mit p(x+ ) = 0. Wähle κ so, dass r∗ (x+ ) = 0 ist, also κ = −q  (x+ )/p (x+ ) = g  (x+ )/(δ − γ∗ ). Nun ergeben die Definitionen von γ∗ und x+ 2 δ − γ∗ = 2x+ − (a + b)x+ = 2(a + b)2 (u2 − u/2),

wobei u := x+ /(a + b). Folglich ist (δ − γ∗ )r∗ (x+ ) = −g  (x+ )(δ − γ∗ ) − g  (x+ )2     1 2 u 2 1 2 u − − u− = 36(a + b) 3 2 3 denn

< 0,

14.1 Das FitzHugh-Nagumo System



1 u− 3

2

385

    3 2 1 1  2 u 2 2 1 1 2 9 u − = u − u+ = u− − + − 3 2 3 2 9 3 8 6 64

ist strikt positiv für alle u ∈ R. Folglich existiert ein hinreichend kleines R > 0, so dass r∗ (x) < 0 für x ∈ BR (x+ )\{x+ }. Das Negativkriterium von Bendixson zeigt nun, dass es keine echten periodischen Lösungen in BR (e+ ) für γ ≤ γ∗ geben kann. Daher können die abzweigenden Lösungen nicht zu Parameterwerten γ ≤ γ∗ gehören, mit anderen Worten die Hopf-Verzweigung ist subkritisch. (iii) Nichtexistenz periodischer Lösungen Es gibt drei Parameterbereiche, in denen das FitzHugh-Nagumo-System (14.1) keine nichttrivialen periodischen Lösungen besitzt. Der erste ist durch δ, γ > δ0 := (b − a)2 /4 definiert. Dann gilt nämlich p(x)q(x) > 0 für alle x ∈ R, also ist (x, y) = (γ x − y)2 /2 + σ x 2 /2 − G(x) eine strikte Ljapunov-Funktion (vgl. das Beispiel zum FitzHugh-Nagumo-System in Abschn. 8.4). Der zweite Bereich ist γ > γ0 := ((b − a)2 + ab)/3 = maxx∈R g  (x) > δ0 , denn dann ist q  (x) > 0 für alle x ∈ R, also div f (x, y) = −q  (x) < 0 auf R2 . Das Negativkriterium von Bendixson 9.3.1 zeigt, dass es in diesem Parameterbereich keine nichttrivialen periodischen Lösungen geben kann. Der dritte Bereich ist uns schon bekannt, nämlich δ = γ ; dann ist nämlich p = q, also pq = p2 , und dann ist ohne weitere Annahmen über g die Funktion (x, y) eine strikte Ljapunov-Funktion, da die Nullstellenmenge von p diskret ist. (iv) Zusammenfassung Wir haben das folgende Resultat über das qualitative Verhalten des FitzHughNagumo Systems bewiesen. Satz 14.1.1. Seien g(x) = −x(x − a)(x − b), und 0 < a < b, δ, γ > 0, σ := γ δ Konstanten, sei p(x) = δx − g(x), q(x) = γ x − g(x), sowie δ0 := (b − a)2 /4 und γ0 := ((b − a)2 + ab)/3 > δ0 . Dann gelten für (14.1) die folgenden Aussagen: (i) Das triviale Equilibrium e∗ = 0 ist für alle Parameterwerte asymptotisch stabil. Für δ > δ0 gibt es keine weiteren Equilibria. (ii) Für 0 < δ < δ0 gibt es genau zwei weitere Equilibiria e± = [x± , δx± ]T , wobei x± die nichttrivialen Nullstellen von p(x) bezeichnen. e− ist ein Sattelpunkt, und e+ ein Knoten oder eine Spirale. e+ ist instabil, falls q  (x∗ ) < 0 gilt, also (wegen p (x+ ) > 0) falls γ < g  (x+ ) < δ ist.

386

14 Weitere Anwendungen

(iii) Für γ = γ∗ := g  (x+ ) findet bzgl. γ eine subkritische Hopf-Verzweigung statt, also gibt es eine Schar instabiler periodischer Orbits für γ > γ∗ nahe bei γ∗ . (iv) Ist γ = δ oder γ > γ0 oder δ, γ > δ0 so gibt es keine nichttrivialen periodischen Lösungen.

14.2

Wellenzüge für das FitzHugh-Nagumo System mit Diffusion

In diesem Abschnitt betrachten wir das FitzHugh-Nagumo System mit Diffusion, also ∂s u(s, ξ ) = D

ξ u(s, ξ ) + f (u(s, ξ )),

ξ ∈ RN , s ∈ R,

(14.3)

wobei D ∈ R2×2 die Diffusionsmatrix bezeichnet und f steht für die rechte Seite von (14.1). Gesucht sind ebene Wellen, also Lösungen der Form u(s, ξ ) = v((k|ξ ) − cs),

ξ ∈ Rn , s ∈ R,

(14.4)

wobei der konstante Wellenvektor k ∈ RN , |k|2 = 1, die Ausbreitungsrichtung der Welle, und c > 0 deren (konstante) Geschwindigkeit beschreiben. Setzt man die Form (14.4) der Welle in (14.3) ein, so erhält man das System gewöhnlicher Differentialgleichungen D v(t) ¨ + cv(t) ˙ + f (v(t)) = 0,

t ∈ R.

(14.5)

Hier ist v = [x, y]T , f (v) = [g(x) − y, σ x − γ y]T die FitzHugh-Nagumo Nichtlinearität; σ, γ > 0 sind Konstanten und wie im voherigen Aschnitt ist g(x) = −x(x − a)(x − b) mit den Nullstellen 0 < a < b. D = diag[d, 0] ∈ R2×2 ist die konstante Diffusionsmatrix mit d > 0. Damit diffundiert die Variable x (das Potential) während hingegen y (die GatingVariable) keine eigene Diffusion besitzt. Explizit lautet das resultierende System wie folgt. d x¨ + cx˙ + g(x) − y = 0,

t ∈ R,

cy˙ + σ x − γ y = 0,

t ∈ R.

(14.6)

Durch Elimination von y lässt sich dieses Problem als skalare Gleichung dritter Ordnung formulieren: ... d x + (c − γ d/c)x¨ − q  (x)x˙ + (γ /c)p(x) = 0,

t ∈ R,

(14.7)

14.2 Wellenzüge für das FitzHugh-Nagumo System mit Diffusion

387

wobei q(x) = γ x − g(x) und p(x) = δx − g(x) sind, mit δ := σ/γ . Alternativ lautet eine ˙ Formulierung als System erster Ordnung für w = [x, y, z]T mit z = x + d x/c w˙ = F (w),

t ∈ R,

(14.8)

wobei F (w) = [(c/d)(z − x), (γ /c)(y − δx), (1/c)(y − g(x))]T ist. 1. Equilibria. Die Equilibria von (14.7) sind durch die Nullstellen von p(x) bestimmt, also für δ ∈ (0, δ0 ) mit δ0 := (a − b)2 /4, durch x∗ ∈ {0, x− , x+ } wie im vorherigen Abschnitt, während die Equilibria von (14.8) durch w∗ = [x∗ , δx∗ , x∗ ]T gegeben sind. Man beachte, dass die Equilibria in beiden Formulierungen nur durch p(x) bestimmt sind, also nur von δ, a, b > 0 abhängen. Dies sind die stationären Parameter des Problems, die verbleibenden γ , c, d > 0 sind dynamische Parameter. Das Stabilitätsverhalten der Equilibria wird mit dem Prinzip der linearisierten Stabilität untersucht. Es ist mit der Linearisierung A(w) = F  (w) übereinstimmend das charakteristische Polynom für (14.7) bzw. für (14.8) durch R(λ) := det(λ − A(w∗ )) = λ3 + (c/d − γ /c)λ2 − (q  (x∗ )/d)λ + (γp (x∗ )/(cd) =: λ3 + aλ2 + bλ + c gegeben. Weiter ist λ = 0 genau dann ein Eigenwert von A(w∗ ), wenn p (x∗ ) = 0. Wegen p (0) > 0 ist dies für x∗ = 0 niemals erfüllt und im Fall δ ∈ (0, δ0 ) ist λ = 0 ebenfalls kein Eigenwert der Linearisierung in w∗ ∈ {w− , w+ }. Schauen wir uns noch rein imaginäre Eigenwerte an: λ = ±iρ = 0, ρ ∈ R\{0}, sind genau dann Nullstellen von R(λ) = 0, wenn −iρ 3 − (c/d − γ /c)ρ 2 − iρq  (x∗ )/d + γp (x∗ )/(cd) = 0 gilt. Nimmt man Real- und Imaginärteil der letzten Gleichung, so erhält man die Bedingungen γ p (x∗ ) = −q  (x∗ )/d. (14.9) ρ2 = 2 c − γd Dies ist möglich, sofern q  (x∗ ) < 0,

und

c = c∗ , mit c∗2 = γ d

δ−γ > 0, −q  (x∗ )

(14.10)

denn p (x∗ ) − q  (x∗ ) = δ − γ . Da q  (0) > 0 ist, besitzt die Linearisierung in w∗ = 0 keine Eigenwerte auf der imaginären Achse. Zum Equilibrium x∗ = x− gehören die Eigenwerte ±iρ∗ , wenn δ0 > δ > γ ist, denn dann folgt q  (x− ) < p (x− ) < 0. Für x∗ = x+ ergeben sich die Bedingungen

388

14 Weitere Anwendungen

q  (x+ ) < 0,

δ0 > δ > γ .

Nach dem Routh-Hurwitz-Kriterium (Satz 5.4.3) haben alle Eigenwerte der Linearisierung in w∗ , d. h. alle Nullstellen von R(λ) = λ3 + aλ2 + bλ + c genau dann negative Realteile, wenn a > 0, c > 0, ab > c gelten. Dies ergibt die Stabilitätsbedingungen c2 > γ d, p (x∗ ) > 0 und − q  (x∗ )(c2 − γ d) > γ dp (x∗ )

(14.11)

und daher die folgenden Stabilitätsaussagen. (i) x∗ = 0: Es ist g  (0) < 0, also p (0) > 0 und q  (0) > 0. Daher widersprechen sich die erste und die letzte Bedingung in (14.11), also existiert mindestens ein Eigenwert mit positivem Realteil, denn kein Eigenwert der Linearisierung in w∗ = 0 liegt auf der imaginären Achse. Folglich ist x∗ = 0 für alle Parameterwerte instabil. (ii) x∗ = x− : Es ist p (x− ) < 0, daher ist die zweite Bedingung in (14.11) verletzt. Falls die Linearisierung in w∗ = w− zwei rein imaginäre Eigenwerte ±iρ− = 0 besitzt, so existiert ein dritter Eigenwert λ0 ∈ R. Demnach gilt 2 2 2 R(λ) = (λ − λ0 )(λ2 + ρ− ) = λ3 − λ0 λ2 + ρ− λ − λ0 ρ− , 2 = γp  (x )/(cd). Wegen p  (x ) < 0 gilt also durch Koeffizientenvergleich λ0 ρ− − − daher λ0 > 0, also ist das Equilibrium w− für δ ∈ (0, δ0 ) stets instabil. (iii) x∗ = x+ : Es ist p (x+ ) > 0, also ist die 2. Bedingung in (14.11) stets erfüllt. Daher ist x∗ = x+ genau dann asymptotisch stabil, falls

c2 > γ d

und

(c2 /γ d)q  (x+ ) < γ − δ

gilt, oder äquivalent dazu c2 > γ d

und

p (x+ ) < (δ − γ )(1 − γ d/c2 ),

denn p (x) − q  (x) = δ − γ . Insbesondere sind δ > γ und q  (x∗ ) < 0 notwendig für Stabilität von x∗ = x+ .

14.2 Wellenzüge für das FitzHugh-Nagumo System mit Diffusion

389

2. Verzweigungen. (a) λ = 0 ist genau dann Eigenwert von A(w∗ ) bzw. Nullstelle von R(λ), wenn c = 0 ist, also wenn p(x∗ ) = 0 = p (x∗ ) ist, also wenn x∗ = x+ = x− = (a+b)/2 gilt, d. h. δ = δ0 := (b−a)2 /2. In diesem Fall ist der Kern von A(w∗ ) eindimensional und wird von [1, δ, 1]T aufgespannt. Da dieser Vektor für γ = δ nicht im Bild von A(w∗ ) liegt, ist 0 für γ = δ ein algebraisch einfacher Eigenwert. Des Weiteren ist ∂δ F (w∗ ) = [0, −γ x∗ /c, 0]T ∈ R(A(w∗ )). Daher ist dieser Punkt ein Umkehrpunkt, es findet nach Satz 12.1.1 mit δ als Verzweigungsparamter in δ = δ0 eine Sattel-Knoten-Verzweigung statt. (b) Wir betrachten die Equilibria x∗ = x± bzw. w∗ = w± . Nach (14.9) und (14.10) existieren für  c = c∗ =

γ d(δ − γ ) −q  (x+ )

1/2

 und mit

ρ∗ =

−q  (x+ ) d

1/2 (14.12)

zwei rein imaginäre Eigenwerte λ = ±iρ∗ der Linearisierung in w± , falls γ < δ < δ0 und q  (x+ ) < 0. Dies lässt vermuten, dass mit c als Verzweigungsparameter in c = c∗ eine Hopf-Verzweigung von w∗ = w± stattfindet, welche für (14.7) bzw. für (14.8) auf Wellenzüge (wave trains) für das FitzHugh-Nagumo System mit Diffusion führt. Deren Frequenz ρ∗ > 0 und Ausbreitungsgeschwindigkeit c∗ > 0 sind durch (14.12) gegeben. Man beachte die Dispersions-Relation c∗ ρ∗ = √ γ (δ − γ ). (c) Transversalität. Um eine Hopf-Verzweigung in w∗ = w± zu zeigen, bleibt die Transversalitätsbedingung zu verifizieren. Dazu wählen wir als Verzweigungsparameter die Ausbreitungsgeschwindigkeit c in c = c∗ , und haben die Bedingung d Re λ(c) = 0 dc in c = c∗ zu zeigen, wobei λ(c∗ ) = iρ∗ ist. Die Gleichung für die Eigenwertkurve λ(c) ist R(λ(c), c) := λ(c)3 + (c/d − γ /c)λ(c)2 − (q  (x∗ )/d)λ(c) + γp (x∗ )/(cd) = 0. Es ist dann 0= also

d d R(λ(c), c) = ∂λ R(λ(c), c) λ(c) + ∂c R(λ(c), c), dc dc

390

14 Weitere Anwendungen

 d ∂c R(iρ∗ , c∗ ) ∂c R(iρ∗ , c∗ )∂λ R(iρ∗ , c∗ )  = −Re . Re λ(c) = −Re c=c∗ dc ∂λ R(iρ∗ , c∗ ) |∂λ R(iρ∗ , c∗ )|2 Mit ∂λ R = 3λ2 +2(c/d −γ /c)λ−q  (x∗ )/d,

∂c R = (1/d +γ /c2 )λ2 −γp (x∗ )/(c2 d),

und (14.12) erhält man Re ∂λ R(iρ∗ , c∗ ) = 3q  (x∗ )/d − q  (x∗ )/d = 2q  (x∗ )/d, und ∂c R(iρ∗ , c∗ ) = −(1/d + γ /c∗2 )ρ∗2 − (γ /c∗2 d)p (x∗ ) = q  (x∗ )(1/d 2 + γ d/(c∗2 d 2 )) − (γ d/(c∗2 d 2 ))p (x∗ ), insbesondere ist ∂c R(iρ∗ , c∗ ) also reell. Dies führt mit der abkürzenden Schreibweise R∗ := R(iρ∗ , c∗ ) und mit (14.12) auf Re (∂c R∗ ∂λ R∗ ) = ∂c R∗ Re ∂λ R∗ =

 2q  (x∗ )   2 2  q (x )(1 + γ d/c ) − (γ d/c )p (x ) ∗ ∗ ∗ ∗ d3

=

4q  (x∗ )2 2q  (x∗ )  2 (q (x ) − (γ d/c )(δ − γ )) = , ∗ ∗ d3 d3

also gilt schlussendlich  d 4q  (x∗ )2  Re λ(c) =− 3 < 0. c=c∗ dc d |∂λ R(iρ∗ , c∗ )|2 Daher überqueren zwei komplex konjugierte Eigenwerte die imaginäre Achse für c = c∗ mit nichttrivialer Geschwindigkeit. 3. Stabilität der abzweigenden Wellenzüge In diesem Abschnitt untersuchen wir die Stabilität der von den nichttrivialen Equilibria w∗ = w± = [x± , δx± , x± ]T , p(x± ) = 0, abzweigenden periodischen Lösungen. (a) Sei x∗ = x− . Dann ist SpurA(w− ) = div F (w− ) = −c∗ /d + γ /c∗ =

c∗ d



 γd − 1 > 0, c∗2

denn wegen p (x− ) < 0 und (14.9) ist c∗2 < γ d. Mit Korollar 11.4.4 sieht man, dass diese Wellenzüge für (14.8) instabil sind. Daher können stabile Wellenzüge höchstens durch Abzweigung von w∗ = w+ entstehen. Gemäß Satz 12.5.1 sind bei einer

14.2 Wellenzüge für das FitzHugh-Nagumo System mit Diffusion

391

Hopf-Verzweigung superkritische Zweige asymptotisch orbital stabil, daher gilt es zu zeigen, dass die von w+ abzweigenden periodischen Lösungen superkritisch sind. Dazu verwenden wir hier (12.19), aus dieser Formel lässt sich die Richtung der Verzweigung bestimmen. Dafür benötigen wir einige Vorbereitungen. (b) Die Eigenvektoren zum Eigenwert iρ∗ von A∗ = A(w+ ) bzw. −iρ∗ von AT∗ haben √ wegen der Dispersions-Relation ρ∗ c∗ = γ (δ − γ ) die Form ϕ = [1, γ + iρ∗ c∗ , 1 + iρ∗ d/c∗ ]T ,

ϕ ∗ = ϕ3∗ [−iρ∗ d/c∗ ,

1 (−γ + iρ∗ c∗ ), 1]T . γδ

Die Normalisierung (ϕ|ϕ ∗ ) = 1 führt auf 1 = ϕ¯3∗ (1 − γ /δ + 2iρ∗ d/c∗ + (δ − γ )/δ − 2iρ∗ c∗ /δ) = ϕ¯3∗ 2α,

α = 1 − γ /δ + iρ∗ c∗ (d/c∗2 − 1/δ),

also ϕ¯3∗ = 1/(2α). (c) Es gilt mit p∗(k) := p(k) (x+ ) die Ungleichung (p∗ )2 − p∗ > 0. Denn mit x+ = (a + b + r)/2, r = [(b − a)2 − 4δ]1/2 sind p∗ = 6x+ − 2(a + b) = (6/2 − 2)(a + b) + 3r = (a + b) + 3r, p∗ = g(x+ )/x+ − g  (x+ ) = 2x+ (x+ − (a + b)/2) = (a + b + r)r/2, folglich (p∗ )2 − p∗ = (a + b + 3r)2 − (a + b + r)r/2 ≥ (a + b + r)(3r − r/2) > 0. (d) Sei ψ(t) := eiρ∗ t ϕ. Gemäß (12.19) ist das Problem 

 d 1 p  ¯ ¯ = ∗ e3 (e2iρ∗ t + 2 + e−2iρ∗ t ) + ψ) − A∗ w = F  (w+ )(ψ + ψ)(ψ dt 2 2c∗

im Raum der τ∗ -periodischen Funktionen zu lösen, wobei τ∗ := 2π/ρ∗ . Mit w =  ikρ∗ t führt dieser Ansatz auf lineare Probleme für die Koeffizienten k=2,0,−2 wk e wk : (ikρ∗ − A∗ )wk =

p∗ e3 bk , 2c∗

b2 = b−2 = 1, b0 = 2.

Elementare lineare Algebra ergibt für wk = [xk , yk , zk ]T die Relationen zk = (1 + ikρ∗ d/c∗ )xk ,

yk =

δγ xk , γ − ikρ∗ c∗

392

14 Weitere Anwendungen

sowie xk = −

p∗ γ − ikρ∗ c∗ bk · , 2c∗ dR(ikρ∗ )

mit dem charakteristischen Polynom R in ikρ∗ . Insbesondere gilt x0 = −p∗ /p∗ . Wegen R(iρ∗ ) = 0 ist R(2iρ∗ ) =

3 (−γp∗ + 2iρ∗ c∗ q∗ ) c∗ d

und mit N := γ (p∗ )2 + 4(δ − γ )(q∗ )2 folgt x2 =

p∗ (γp∗ + 4(δ − γ )q∗ − 2(δ − γ )iρ∗ c∗ ). 6N

(e) Nach diesen Vorbereitungen verwenden wir die Identität (12.19), also ∗ ¯ − 3c (0)Re λ (c∗ ) = Re(F  (w∗ )ϕϕ ϕ|ϕ ¯ ∗ ) + 6Re(F  (w∗ )w(ψ + ψ)|ψ ), (14.13) τ mit dem Innnenprodukt (u|v) = τ1∗ 0 ∗ (u(t)|v(t))dt und der Lösung w aus (d). Hier ist s → λ(s) die Eigenwertkurve und s → c(s) die Parameterkurve. Man beachte auch, dass wegen der Struktur von F hier die Symmetrie

¯ = F  (w∗ )(ψ + ψ)w ¯ F  (w∗ )w(ψ + ψ) gilt. Nun ist zum Einen a1 := Re(F  (w∗ )ϕϕ ϕ|ϕ ¯ ∗) = =

6 6 Re (e3 |ϕ ∗ ) = Re ϕ¯3∗ c∗ c∗

6 3 3(1 − γ /δ) Re (1/(2α)) = Re α¯ = , c∗ c∗ |α|2 c∗ |α|2

und zum Anderen ∗ ¯ 6Re (F  (w∗ )w(ψ + ψ)|ψ )

6p∗ Re = c∗ τ∗ =



τ∗ 0

ϕ¯3∗ (1 + e−2iρ∗ t )(x0 + x2 e2iρ∗ t + x−2 e−2iρ∗ t )dt

3p∗ 3p∗ Re(x0 /α + x2 /α) = (x0 Re α¯ + Re(αx ¯ 2 )) c∗ c∗ |α|2

=−

3p∗ 3(p∗ )2 (1 − γ /δ) + Re(αx ¯ 2 ) =: a2 + a3 . 2  c∗ |α| p∗ c∗ |α|2

14.2 Wellenzüge für das FitzHugh-Nagumo System mit Diffusion

393

Daher folgt mit (c) und wegen p∗ = p (x+ ) > 0 a1 + a2 = −

3(1 − γ /δ) ((p∗ )2 − p∗ ) < 0, c∗ |α|2 p∗

denn 0 < γ < δ. Allgemein bestimmt sich die Verzweigungsrichtung für gegebene Parameter nun aus dem Vorzeichen des Terms a1 + a2 + a3 . (f) Wir zeigen noch, dass die Hopf-Verzweigung in w∗ = w+ im Fall γ

3δ − 2γ ≤ g  (x+ ) 2δ − γ

(14.14)

stets superkritisch ist. Es gilt a3 =

3p∗ (p∗ )2 Re( αx ¯ ) = a˜ 3 , 2 c∗ |α|2 2c∗ |α|2 N

wobei a˜ 3 := (1 − γ /δ)(γp∗ + 4(δ − γ )q∗ ) − 2(δ − γ )ρ∗2 c∗2 (d/c∗2 − 1/δ). Mit 0 < p∗ = δ − γ + q∗ erhält man die Darstellung γ δ−γ (2δ − γ )q∗ , a˜ 3 = 3 (δ − γ )2 + 3 δ δ (δ−γ ) also gilt a˜ 3 ≤ 0, falls q∗ ≤ − γ2δ−γ . Wegen q∗ = γ − g  (x+ ) ist dies äquivalent zu (14.14). Insgesamt erhält man also c (0) < 0 aus (14.13), da Reλ (c∗ ) < 0 ist. Daher ist die Hopf-Verzweigung in w∗ = w+ superkritisch, falls (14.14) erfüllt ist. Man beachte dabei, dass sich die Relationszeichen in Satz 12.5.1 umkehren, da Reλ (c∗ ) < 0 ist. 4. Zusammenfassung Wir haben das folgende Resultat bezüglich des FitzHugh-Nagumo Systems mit Diffusion gezeigt.

Satz 14.2.1. Seien g(x) = −x(x − a)(x − b), p(x) = δx − g(x)und q(x) = γ x − g(x) mit Konstanten 0 < a < b und δ, γ , d, c > 0. Dann gelten für (14.8) bzw. für (14.7) die folgenden Aussagen: (i) Das triviale Equilibrium w∗ = 0 ist für alle Parameterwerte instabil. Für δ > δ0 := (b − a)2 /4 gibt es keine weiteren Equilibria. (ii) Für 0 < δ < δ0 gibt es genau zwei weitere nichttriviale Equilibria w∗ = w± = [x± , δx± , x± ]T , mit 0 < x− < x+ , wobei x± die nichttrivialen Nullstellen von p(x)

394

14 Weitere Anwendungen

bezeichnen. w− bzw. x− sind instabil für (14.8) bzw. (14.7) und w+ bzw. x+ sind genau dann asymptotisch stabil für (14.8) bzw. (14.7), wenn c2 > γ d

und

p (x+ ) < (δ − γ )(1 − γ d/c2 )

gilt. (iii) In w∗ = w± = [x± , δx± , x± ]T besitzt die Linearisierung A∗ := F  (w∗ ) die imaginären Eigenwerte * +1/2 ±iρ∗ = ±i −q  (x∗ )/d , sofern 0 < γ < δ < δ0 und q  (x± ) < 0 ist. (iv) Im Fall 0 < γ < δ < δ0 und q  (x± ) < 0, findet bezüglich des Verzweigungsparameters c für  c = c∗ =

γ d(δ − γ ) −q  (x+ )

1/2 =

1 (γ (δ − γ ))1/2 ρ∗

in w± eine Hopf-Verzweigung statt, welche eine Schar von Wellenzügen für das FitzHugh-Nagumo System mit Diffusion erzeugt. (v) Diese Wellenzüge sind instabil für (14.8) bzw. (14.7) falls w∗ = w− , und unter der Bedingung (14.14) sind sie asymptotisch orbital stabil für (14.8) bzw. (14.7) im Fall w ∗ = w+ . Die Frage, ob – und in welchem Sinne die Wellenzüge stabil oder instabil für das System nichtlinearer partieller Differentialgleichungen (14.3) sind, kann im Rahmen dieser Monographie nicht beantwortet werden.

14.3

Konvexe Funktionen

In diesem Abschnitt werden konvexe unterhalb stetige Funktionen eingeführt und diskutiert. Es sei im Folgenden (−∞, ∞] := (−∞, ∞) ∪ {∞}.

14.3.1 Konvexe Funktionen Zunächst einige Definitionen. Definition 14.3.1. Sei φ : Rn → (−∞, ∞]. 1. φ heißt

14.3 Konvexe Funktionen

395

(a) konvex, falls gilt φ(tx + (1 − t)x) ¯ ≤ tφ(x) + (1 − t)φ(x), ¯

x, x¯ ∈ Rn , t ∈ [0, 1];

(b) strikt konvex, falls gilt φ(tx + (1 − t)x) ¯ < tφ(x) + (1 − t)φ(x), ¯

x, x¯ ∈ Rn , x = x, ¯ t ∈ (0, 1);

2. D(φ) = {x ∈ Rn : φ(x) < ∞} heißt (effektiver) Definitionsbereich von φ; 3. epi(φ) := {(x, t) ∈ Rn × R : x ∈ D(φ), t ≥ φ(x)} heißt Epigraph von φ; 4. φ heißt unterhalbstetig, (kurz lsc, von lower semi-continuous), falls gilt ∀ (xk ) ⊂ Rn , xk → x0



φ(x0 ) ≤ limk→∞ φ(xk ).

Der nicht übermäßig schwierige Beweis der folgenden Proposition ist dem Leser als Übungsaufgabe überlassen. Proposition 14.3.2. Sei φ : Rn → (−∞, ∞] und D(φ) = ∅. Dann gelten: (i) φ ist konvex ⇔ epi(φ) ⊂ Rn+1 ist konvex; (ii) φ ist lsc ⇔ epi(φ) ⊂ Rn+1 ist abgeschlossen. Aus dem Grundkurs Analysis ist wohlbekannt, dass eine Funktion φ : Rn → R aus C 1 genau dann konvex ist, wenn ∇φ monoton ist, also wenn (∇φ(x) − ∇φ(x)|x ¯ − x) ¯ ≥ 0,

für alle x, x¯ ∈ Rn ,

(14.15)

gilt, und für φ ∈ C 2 ist dies äquivalent zu der Eigenschaft, dass ∇ 2 φ(x) positiv semidefinit, für alle x ∈ Rn ist. Hier sind wir hauptsächlich an nichtglatten Funktionen φ interessiert, die zudem unendlich werden können. Ein prominentes Beispiel ist die Indikator-Funktion iD (x) einer Menge D ⊂ Rn , die durch . iD (x) =

0, x ∈ D, ∞, x ∈ D,

definiert ist. iD ist genau dann konvex, wenn D konvex ist, und iD ist genau dann lsc, wenn D abgeschlossen ist. Ein weiteres Beispiel ist das Support-Funktional sD (x) := sup{(x|z) : z ∈ D},

x ∈ Rn ,

einer Menge D ⊂ Rn . Ist D abgeschlossen und konvex, dann ist sD konvex und lsc. Grundlegend ist das folgende Resultat über globale Minima.

396

14 Weitere Anwendungen

Satz 14.3.3. Sei φ : Rn → (−∞, ∞] lsc, es gelte D(φ) = ∅ und sei φ koerziv, d. h. lim|x|→∞ φ(x) = ∞. Dann besitzt φ mindestens ein globales Minimum xm ∈ Rn , d. h. φ(xm ) ≤ φ(x) für alle x ∈ Rn . Beweis. Sei α = infRn φ(x); es ist −∞ ≤ α ≤ φ(x0 ) < ∞ für x0 ∈ D(φ) = ∅. Wähle eine minimierende Folge (xk ) ⊂ D(φ), also φ(xk ) → α für k → ∞. Da φ nach Voraussetzung koerziv ist, ist die Folge (xk ) beschränkt, also existiert nach dem Satz von Bolzano-Weierstraß eine konvergente Teilfolge (xkl ). Definiere nun xm := liml→∞ xkl . Da φ lsc ist, folgt α ≤ φ(xm ) ≤ liml→∞ φ(xkl ) = α, also α = φ(xm ) ∈ (−∞, ∞), d. h. xm ∈ D(φ) ist ein globales Minimum von φ.



Es sind einige Bemerkungen bezüglich Minima konvexer Funktionen angebracht. Bemerkungen 14.3.4. Sei φ : Rn → (−∞, ∞] konvex und D(φ) = ∅. 1. Jedes lokale Minimum von φ ist ein globales Minimum. 2. Die Menge M(φ) aller (globalen) Minima von φ ist konvex. M(φ) ist abgeschlossen, wenn φ lsc ist, und beschränkt, wenn φ koerziv ist. 3. Ist φ strikt konvex, so besitzt φ höchstens ein Minimum. Beweis. 1. Sei φ(xm ) ≤ φ(x) für alle x ∈ Br (xm ) und ein r > 0. Für fixiertes x ∈ Rn ist dann tx + (1 − t)xm = t (x − xm ) + xm ∈ Br (xm ) falls t|x − xm | < r ist und es folgt aus der Konvexität von φ φ(xm ) ≤ φ(t (x − xm ) + xm ) ≤ tφ(x) + (1 − t)φ(xm ), also φ(xm ) ≤ φ(x). 2. & 3. Sind x1 , x2 ∈ M(φ) Minima von φ, also φ(xi ) = α := inf φ(x), dann ist α ≤ φ(tx1 + (1 − t)x2 ) ≤ tφ(x1 ) + (1 − t)φ(x2 ) = α. Daher ist M(φ) konvex, sofern φ konvex ist. Ferner ist M(φ) einpunktig, falls φ strikt konvex ist. Schliesslich gilt für (xk ) ⊂ M(φ), xk → x0 , α ≤ φ(x0 ) ≤ limk→∞ φ(xk ) = α, sofern φ lsc ist, d. h. M(φ) ist abgeschlossen.



14.3 Konvexe Funktionen

397

14.3.2 Subdifferentiale Ein wichtiges konzept für konvexe Funktionen ist das Subdifferential. Definition 14.3.5. Sei φ : Rn → (−∞, ∞] konvex. 1. Ein y0 ∈ Rn heißt Subgradient von φ in x0 ∈ Rn , falls die SubdifferentialUngleichung (SDU) φ(x) ≥ φ(x0 ) + (y0 |x − x0 ),

für alle x ∈ Rn ,

(14.16)

erfüllt ist. 2. Die Menge ∂φ(x0 ) aller Subgradienten von φ in x0 heißt Subdifferential von φ in x0 . Wir bezeichnen mit D(∂φ) := {x ∈ Rn : ∂φ(x) = ∅} den Definitionsbereich von ∂φ. Ist φ(x0 ) = ∞ und D(φ) = ∅, so impliziert die obige Definition, dass ∂φ(x0 ) = ∅ ist. Für konvexes, nichtleeres D ⊂ Rn , ist das Subdifferential der Indikator-Funktion durch ∂φ(x) = {0} für x ∈ int D, ∂φ(x) = ∅ für x ∈ D, und ∂φ(x) = {y0 ∈ Rn : (y0 |x0 ) = sD (y0 )} für x ∈ ∂D gegeben. Einige elementare Eigenschaften des Subdifferentials sind enthalten in Proposition 14.3.6. Sei φ konvex und D(φ) = ∅. Dann gelten: 1. ∂(αφ)(x0 ) = α∂φ(x0 ), für alle α > 0, x0 ∈ D(∂φ). 2. xm ∈ D(φ) ist genau dann ein Minimum von φ, wenn 0 ∈ ∂φ(xm ) gilt. 3. ∂φ ist monoton, also (y − y|x ¯ − x) ¯ ≥ 0,

für alle x, x¯ ∈ D(∂φ), y ∈ ∂φ(x), y¯ ∈ ∂φ(x). ¯

(14.17)

4. Ist φ strikt konvex, so gilt für x0 ∈ D(∂φ) die strikte Subdifferential-Ungleichung φ(x) > φ(x0 ) + (y0 |x − x0 ),

für alle x ∈ Rn , x = x0 , y0 ∈ ∂φ(x0 ),

(14.18)

und ∂φ ist strikt monoton, also (y − y|x ¯ − x) ¯ > 0,

für alle x, x¯ ∈ D(∂φ), x = x, ¯ y ∈ ∂φ(x), y¯ ∈ ∂φ(x). ¯ (14.19)

Beweis. 1. & 2. folgen direkt aus der Definition des Subgradienten. Die Monotonie erhält man durch Addition der Subdifferential-Ungleichungen φ(x) ≥ φ(x) ¯ + (y|x ¯ − x) ¯ und φ(x) ¯ ≥ φ(x)+(y|x−x), ¯ also gilt Aussage 3 (man beachte, dass φ(x) < ∞ und φ(x) ¯ φ(tx + (1 − t)x0 ) ≥ φ(x0 ) + (y0 |tx + (1 − t)x0 − x0 ), also nach Division durch t > 0 die strikte Subdifferential-Ungleichung. Die strikte Monotonie von ∂φ folgt dann wie vorher aus der strikten SubdifferentialUngleichung.  Satz 14.3.7. Sei φ : Rn → (−∞, ∞] konvex und D(φ) = ∅. Dann gelten: 1. D(∂φ) = ∅; insbesondere ist φ von unten durch eine affin lineare Funktion beschränkt; 2. int D(φ) ⊂ D(∂φ) ⊂ D(φ). Beweis. 1. Sei x0 ∈ D(φ), t0 < φ(x0 ); dann ist u0 := (x0 , t0 ) ∈ epi(φ) und aus Lemma 7.3.1 folgt (u0 − P u0 |v − P u0 ) ≤ 0 für alle v ∈ epi(φ), denn epi(φ) ist konvex. Hier ist P die metrische Projektion auf epi(φ) in Rn+1 , also gilt P u0 = (x1 , t1 ) = (x1 , φ(x1 )) mit x1 ∈ D(φ). Für v = (x, t) ∈ epi(φ) folgt dann (t0 − t1 )(t − t1 ) + (x0 − x1 |x − x1 ) ≤ 0. Setzt man x = x1 , so ergibt sich (t0 − t1 )(t − t1 ) ≤ 0 für alle t ≥ t1 = φ(x1 ), also ist t0 ≤ t1 . Wäre nun t0 = t1 so ergibt die Wahl x = x0 , t = φ(x0 ) die Ungleichung |x0 − x1 |2 ≤ 0, also x1 = x0 , folglich den Widerspruch 0 = t0 − t1 = t0 − φ(x0 ) < 0. Daher ist t0 < t1 . Division durch t0 − t1 führt daher mit t = φ(x) und y1 = − (x0 − x1 )/(t0 − t1 ) auf φ(x) ≥ φ(x1 ) + (y1 |x − x1 ),

x ∈ Rn ,

also ist y1 ∈ ∂φ(x1 ), insbesondere D(∂φ) = ∅. 2. Ist x1 ∈ D(∂φ), y1 ∈ ∂φ(x1 ), und x0 ∈ D(φ), so folgt aus der SubdifferentialUngleichung φ(x1 ) ≤ φ(x0 ) − (y1 |x0 − x1 ) < ∞, also x1 ∈ D(φ). 3. Sei x0 ∈ int D(φ), also Br (x0 ) ⊂ D(φ), für ein r > 0. Da epi(φ) konvex ist, können wir eine äußere Normale ν = 0 in Rn+1 an u0 = (x0 , φ(x0 )) ∈ epi(φ) wählen. Dann ist mit ν = (ν0 , ν1 ) ∈ Rn × R und für alle v = (x, t) ∈ epi(φ) 0 ≥ (ν|v − u0 ) = (x − x0 |ν0 ) + (t − φ(x0 ))ν1 .

14.3 Konvexe Funktionen

399

Angenommen ν1 ≥ 0. Für t > max{φ(x), φ(x0 )} folgt dann (x − x0 |ν0 ) ≤ 0 für jedes x ∈ Br (x0 ). Dies impliziert aber ν0 = 0, und dann mit t > φ(x0 ) auch ν1 = 0, ein Widerspruch zu ν = 0. Daher ist ν1 < 0, und nach Division durch ν1 mit t = φ(x) folglich 0 ≤ φ(x) − φ(x0 ) + ν11 (ν0 |x − x0 ), d. h. ν11 ν0 ∈ ∂φ(x0 ), also x0 ∈ D(∂φ).  Sei φ : Rn → (−∞, ∞] konvex, x0 ∈ D(φ) und h ∈ Rn . Dann folgt  φ(x0 ) = φ

x0 − th x0 + th + 2 2

 ≤

1 (φ(x0 − th) + φ(x0 + th)), 2

für jedes t > 0, also t φ− (x0 ; h) :=

φ(x0 + th) − φ(x0 ) φ(x0 ) − φ(x0 − th) t ≤ =: φ+ (x0 ; h). t t

(14.20)

Andererseits ist für 0 < s < t φ(x0 + sh) = φ((s/t)(x0 + th) + (1 − (s/t))x0 ) ≤ (s/t)φ(x0 + th) + (1 − (s/t))φ(x0 ), also folglich s t φ+ (x0 ; h) ≤ φ+ (x0 ; h),

(14.21)

t (x ; h) ist wachsend. Daher existiert φ  (x ; h) := d. h. die Funktion t → φ+ 0 + 0 t (x ; h). Ferner gilt φ t (x ; h) = −φ t (x ; −h), somit ist t → φ t (x ; h) limt→0+ φ+ 0 − 0 + 0 − 0 t  (x ; h) := lim fallend, und der Grenzwert φ− 0 t→0+ φ− (x0 ; h) existiert ebenfalls. Dabei  (x ; ·) heißen rechts- bzw. sind die Grenzwerte ±∞ zugelassen. Die Funktionale φ± 0 links-seitige Ableitungen von φ in x0 in Richtung h. Ist nun y0 ∈ ∂φ(x0 ) und x = x0 + th, t > 0, h ∈ Rn , so ergibt die SubdifferentialUngleichung t  (y0 |h) ≤ (φ(x0 + th) − φ(x0 ))/t = φ+ (x0 ; h) → φ+ (x0 ; h),  (x ; h). Man sieht leicht, dass φ  (x ; ·) positiv und für x = x0 − th analog (y0 |h) ≥ φ− 0 + 0  (x ; h) = φ  (x ; h) ∈ R für jedes homogen und subadditiv ist, und sogar linear falls φ− 0 0 + h ∈ Rn ist. In diesem Fall ist ∂φ(x0 ) = {∇φ(x0 )}, wobei ∇φ(x0 ) die Gateaux-Ableitung von φ in x0 ist. Wir fassen zusammen.

Proposition 14.3.8. Sei φ : Rn → (−∞, ∞] konvex und x0 ∈ D(φ). Dann existieren für jedes h ∈ Rn die rechts- und links-seitigen Ableitungen

400

14 Weitere Anwendungen

 φ+ (x0 ; h) := lim

t→0+

φ(x0 + th) − φ(x0 ) t

und φ(x0 ) − φ(x0 − th) t→0+ t

 (x0 ; h) := lim φ−

 (x ; ·) ist positiv homogen und subadditiv, von φ in x0 in Richtung h. Das Funktional φ+ 0 und es gilt    φ− (x0 ; h) = −φ+ (x0 ; −h) ≤ φ+ (x0 ; h).

Für x0 ∈ D(∂φ) und y0 ∈ ∂φ(x0 ) gilt   φ− (x0 ; h) ≤ (y0 |h) ≤ φ+ (x0 ; h),

h ∈ Rn .

 (x ; h) = φ  (x ; h) ∈ R für alle h ∈ Rn , so ist φ in x Gateaux-differenzierbar und Ist φ− 0 0 + 0 ∂φ(x0 ) = {∇φ(x0 )} einelementig.

Ein weiteres interessantes Resultat ist Proposition 14.3.9. Sei φ : Rn → (−∞, ∞] konvex, lsc und D(φ) = ∅. Ist int D(φ) = ∅, so ist φ auf int D(φ) lokalbeschränkt und lokal Lipschitz. Beweis. (i) Sei x0 ∈ int D(φ) und Br (x0 ) ⊂ D(φ) eine Kugel bzgl. der l∞ -Norm. Diese ist die konvexe Hülle ihrer Extremalpunkte x0 ± rei , also gibt es zu x ∈ B¯ r (x0 ) Zahlen   ti± ≥ 0, i = 1, . . . , n, mit ni=1 ti± = 1 und x = ni=1 ti± (x0 ± rei ). Konvexität ergibt φ(x) = φ

 n  i=1

ti± (x0 ± rei ) ≤

n 

ti± φ(x0 ± rei ) ≤ max {φ(x0 ± rei )} < ∞.

i=1

i=1,...,n

Andererseits ist φ nach Vorraussetzung lsc, also gibt es ein r  > 0 derart, dass φ(x) ≥ φ(x0 ) − 1,

|x − x0 | ≤ r  .

Daher gibt es zu x0 ∈ int D(φ) Zahlen r0 > 0 und M so, dass |φ(x)| ≤ M für alle x ∈ Br0 (x0 ) gilt.

14.3 Konvexe Funktionen

401

(ii) Mit (14.20) und (14.21) folgt für t ≥ 1 φ(x) − φ(x − h) ≤ φ(x + h) − φ(x) ≤ (φ(x + th) − φ(x))/t, und alle Funktionswerte von φ sind hier endlich, sofern x, x ± h, x + th ∈ Br0 (x0 ) gilt. Sei |x − x0 | ≤ r0 /3, |h| ≤ r0 /3 und setze t = 2r0 /3|h|. Dann folgt |φ(x + h) − φ(x)| ≤ (max{φ(x + th), φ(x − th)} − φ(x))/t ≤ 2M/t = (3M/r0 )|h|, wobei M = sup{|φ(x)| : |x − x0 | ≤ r0 } < ∞ nach (i) sei, denn es ist t = 2r0 /3|h| ≥ 2r0 /r0 = 2. Daher ist φ Lipschitz auf B¯ r0 (x0 ).  3. Yosida-Approximation (a) Sei φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅. Dann ist für jedes λ > 0 und x ∈ Rn die Funktion y → ψλx (y) :=

1 |x − y|2 + φ(y), 2λ

y ∈ Rn ,

strikt konvex, lsc, und auch koerziv, da φ nach Satz 14.3.7 von unten durch eine affin-lineare Funktion beschränkt ist. Daher besitzt ψλx nach Satz 14.3.3 ein eindeutig bestimmtes Minimum Rλ x, d. h. die Funktion φλ (x) := minn ψλx (y) = y∈R

1 |x − Rλ x|2 + φ(Rλ x), 2λ

x ∈ Rn , λ > 0,

ist wohldefiniert, φλ : Rn → R ist konvex, lsc, und es gilt φλ (x) ≤ φ(x) für alle x ∈ Rn . φλ heisst Yosida-Approximation von φ. Man beachte, dass Rλ x ∈ D(φ), für alle x ∈ Rn , λ > 0 gilt. Wir setzen Aλ x := (x − Rλ x)/λ, und erhalten φλ (x) =

λ |Aλ x|2 + φ(Rλ x), 2

x ∈ Rn , λ > 0.

Da Rλ x das eindeutig bestimmte Minimum von ψλx ist, ergibt Proposition 14.3.6 0 ∈ ∂ψλx (Rλ x) = −Aλ x + ∂φ(Rλ x), denn die Abbildung y → |y|2 ist Fréchet-differenzierbar.

402

14 Weitere Anwendungen

Es folgt Aλ x ∈ ∂φ(Rλ x), also Rλ x ∈ D(∂φ) für alle x ∈ Rn . Mit der Monotonie von ∂φ aus Proposition 14.3.6 erhält man (x − x|R ¯ λ x − Rλ x) ¯ = |Rλ x − Rλ x| ¯ 2 + λ(Aλ x − Aλ x|R ¯ λ x − Rλ x) ¯ ≥ |Rλ x − Rλ x| ¯ 2, für alle x, x¯ ∈ Rn , woraus folgt, dass Rλ : Rn → D(∂φ) nichtexpansiv in Rn ist, also global Lipschitz mit Lipschitz-Konstante 1. Dies impliziert wiederum, dass Aλ global Lipschitz ist mit Lipschitz-Konstante 2/λ, für jedes λ > 0. Aus diesen Überlegungen folgt die wichtige Eigenschaft, dass ∂φ maximal monoton ist, d. h. ∂φ ist monoton und die Maximalität (y − y0 |x − x0 ) ≥ 0,

x ∈ D(∂φ), y ∈ ∂φ(x)



y0 ∈ ∂φ(x0 )

(14.22)

ist erfüllt. Um dies zu sehen, setzt man x = xλ = Rλ (x0 + λy0 ), und y = yλ = Aλ (x0 + λy0 ), λ > 0. Dann ist xλ + λyλ = x0 + λy0 , und die Voraussetzung in der Maximalität ergibt 0 ≤ (yλ − y0 |xλ − x0 ), also 0 = (xλ − x0 + λ(yλ − y0 )|xλ − x0 ) = |xλ − x0 |2 + λ(yλ − y0 |xλ − x0 ) ≥ |xλ − x0 |2 , also x0 = xλ und y0 = yλ , daher x0 ∈ D(∂φ) und y0 ∈ ∂φ(x0 ). (b) Als nächstes zeigen wir, dass φλ in jedem x ∈ Rn Fréchet-differenzierbar ist, mit ∇φλ (x) = Aλ x. Dazu berechnet man mit der Subdifferentialungleichung φλ (x + h) − φλ (x) − (Aλ x|h) λ (|Aλ (x + h)|2 − |Aλ x|2 ) − (Aλ x|h) + φ(Rλ (x + h)) − φ(Rλ x) 2 λ = |Aλ (x + h) − Aλ x|2 + φ(Rλ (x + h)) − φ(Rλ x) − (Aλ x|Rλ (x + h) − Rλ x)) 2 λ ≥ |Aλ (x + h) − Aλ x|2 ≥ 0, 2

=

denn Aλ x ∈ ∂φ(Rλ x) für alle x ∈ Rn , λ > 0. Also ist Aλ x ∈ ∂φλ (x), für alle x ∈ Rn , λ > 0 und es gilt mit x¯ = x + h φλ (x) ¯ − φλ (x) − (Aλ x|x¯ − x) ≥

λ |Aλ x¯ − Aλ x|2 . 2

Als nächstes vertauscht man in (14.23) x und x, ¯ was die Ungleichung φλ (x) − φλ (x) ¯ − (Aλ x|x ¯ − x) ¯ ≥

λ ¯2 |Aλ (x) − Aλ x| 2

(14.23)

14.3 Konvexe Funktionen

403

ergibt, also 0 ≤ rλ (x, x¯ − x) := φλ (x) ¯ − φλ (x) − (Aλ x|x¯ − x) λ x¯ − x )) ≤ − (|Aλ x¯ − Aλ x| ¯ 2 − 2(Aλ x¯ − Aλ x| 2 λ   λ x¯ − x 2 1 = − Aλ x¯ − Aλ x¯ − + |x¯ − x|2  2 λ 2λ =−

1 1 |Rλ x¯ − Rλ x|2 + |x¯ − x|2 , 2λ 2λ

woraus schliesslich |rλ (x, h)| ≤

1 |h|2 , 2λ

für alle

x ∈ Rn , h ∈ Rn , λ > 0,

folgt. Daher ist φλ in jedem x ∈ Rn Frechét-differenzierbar und ∇φλ (x) = Aλ x = (x − Rλ x)/λ,

∂φλ (x) = {Aλ x},

x ∈ Rn , λ > 0.

(14.24)

Da x → Aλ x global Lipschitz ist, gilt sogar φλ ∈ C 1 (Rn ; R). (c) Schließlich bestimmen wir für fixiertes x ∈ Rn die Grenzwerte von Rλ x und Aλ x falls λ → 0+. Zunächst ist für y ∈ D(φ) |x − Rλ x|2 + 2λφ(Rλ x) ≤ 2λφ(y) + |x − y|2 < ∞,

x ∈ Rn , 0 < λ ≤ 1,

denn Rλ x ist das eindeutige Minimum von ψλx . Andererseits ist D(∂φ) = ∅ nach Proposition 14.3.7, also mit einem fixierten y2 ∈ ∂φ(x2 ) φ(Rλ x) ≥ φ(x2 ) + (y2 |Rλ x − x) + (y2 |x − x2 ). Kombiniert man die beiden letzten Abschätzungen und verwendet Youngs Ungleichung mit ε, so sieht man, dass {Rλ x}λ∈(0,1] beschränkt ist. Nach dem Satz von BolzanoWeierstraß existiert eine Folge λk → 0+ so dass Rλk x → z in Rn gilt. Dann erhält man im Grenzwert |x − z|2 ≤ |x − y|2 ,

y ∈ D(φ)

was z = PD x nach sich zieht, wobei PD die metrische Projektion auf die abgeschlossene und konvexe Menge D := D(φ) bedeutet (man verwende die Tatsache, dass der Abschluss einer konvexen Menge konvex ist). Daher gilt Rλ x → PD x für λ → 0+ und jedes x ∈ Rn . Es ist Aλ x ∈ ∂φ(Rλ x), und φλ (x) ≤ φ(x), also gilt nach der Subdifferentialungleichung

404

14 Weitere Anwendungen

φ(x) ≥ φ(Rλ x) + λ|Aλ x|2 . Ist nun y ∈ ∂φ(x), also x ∈ D(∂φ), so folgt 0 ≥ φ(Rλ x) − φ(x) + λ|Aλ x|2 ≥ (y|Rλ x − x) + λ|Aλ x|2 = λ(|Aλ x|2 − (y|Aλ x)), also |Aλ x| ≤ |y| für alle y ∈ ∂φ(x). Nach Lemma 7.3.1 existiert genau ein yx0 ∈ ∂φ(x) mit minimaler Norm, denn ∂φ(x) ist abgeschlossen und konvex (wovon man sich schnell überzeugt). Dies ergibt |Aλ x| ≤ |yx0 |, insbesondere ist {Aλ x}λ>0 für x ∈ D(∂φ) beschränkt. Nach dem Satz von Bolzano-Weierstraß gibt es daher eine Folge λk → 0+ derart, dass Aλk x → y für k → ∞ und es gilt |y| ≤ |yx0 |. Aus der Monotonie von ∂φ, also (Aλ x − y0 |Rλ x − x0 ) ≥ 0,

y0 ∈ ∂φ(x0 ), Aλ x ∈ ∂φ(Rλ x)

(siehe Proposition 14.3.6), folgt (y − y0 |x − x0 ) ≥ 0,

y0 ∈ ∂φ(x0 ),

denn x ∈ D(∂φ) ⊂ D(φ) nach Satz 14.3.7, also PD x = x mit D = D(φ). Aus der maximalen Monotonie von ∂φ folgt daher y ∈ ∂φ(x), also gilt Aλ x → yx0 für λ → 0+, und jedes x ∈ D(∂φ). Wir fassen das Bewiesene zusammen. Satz 14.3.10. Sei φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅. Sei PD die metrische Projektion auf D := D(φ) und für x ∈ D(∂φ) sei yx0 das Element minimaler Norm in ∂φ(x). Dann gelten: 1. Rλ : Rn → D(∂φ) ist nichtexpansiv, und x → Aλ x = (x − Rλ x)/λ ∈ ∂φ(Rλ x) ist Lipschitz mit Lipschitz-Konstante 2/λ, λ > 0. 2. φλ ∈ C 1 (Rn ; R), ∇φλ (x) = Aλ x, x ∈ Rn . 3. Rλ → PD und Aλ x → yx0 , x ∈ D(∂φ), für λ → 0+; folglich ist D(∂φ) dicht in D.

14.4

Subdifferentialgleichungen

In diesem Abschnitt betrachten wir Differentialgleichungen mit Subdifferentialen.

14.4 Subdifferentialgleichungen

405

14.4.1 Differential-Inklusionen Sei φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅ und sei D := D(φ). Wir betrachten die Subdifferentialgleichung x˙ + ∂φ(x)  0, t > 0,

x(0) = ξ ∈ D.

(14.25)

Genauer sollte man von einer Differential-Inklusion sprechen, da ∂φ im Alggemeinen mengenwertig ist. (a) Wir wollen zeigen, dass dieses Problem einen nichtexpansiven Halbfluss x(t; ξ ) auf D erzeugt. Dazu verwenden wir die Yosida-Approximation φλ aus dem vorhergehenden Abschnitt, also betrachten wir zunächst das Problem x˙ + ∇φλ (x) = 0, t > 0,

x(0) = ξ ∈ Rn ,

(14.26)

wobei λ > 0 ist. Da ∇φλ (x) = Aλ x global Lipschitz ist, erzeugt (14.26) für jedes λ > 0 einen globalen Halbfluss xλ : R+ × Rn → Rn , der nichtexpansiv ist, d. h. |xλ (t; ξ ) − xλ (t; ξ¯ )| ≤ |ξ − ξ¯ |,

ξ, ξ¯ ∈ Rn , t > 0.

(14.27)

Diese Eigenschaft folgt aus der Konvexität von φλ , denn dann ist ∇φλ = Aλ monoton, also impliziert (14.15) d |xλ (t; ξ ) − xλ (t, ξ¯ )|2 = −2(Aλ xλ (t; ξ ) − Aλ xλ (t, ξ¯ )|xλ (t; ξ ) − xλ (t, ξ¯ )) ≤ 0, dt für alle t ≥ 0 und ξ, ξ¯ ∈ Rn . Wir zeigen nun, dass xλ (t; ξ ) für λ → 0+ gegen einen Halbfluss x(t; ξ ) konvergiert. Dazu ersetzt man ξ¯ in (14.27) durch ξ¯ = xλ (h; ξ ), h > 0, was auf |xλ (t + h; ξ ) − xλ (t, ξ )| ≤ |xλ (h; ξ ) − ξ | führt. Divison durch h > 0 und h → 0+ ergibt die Abschätzungen |Aλ xλ (t; ξ )| = |x˙λ (t; ξ )| ≤ |x˙λ (0; ξ )| = |Aλ ξ | ≤ |yξ0 | < ∞,

t ≥ 0, ξ ∈ D(∂φ),

wobei yξ0 ∈ ∂φ(ξ ) das Element minimaler Norm bezeichnet. Daraus folgt für 0 < μ ≤ λ ≤ 1 mit xλ (t) = xλ (t; ξ ), xμ (t) = xμ (t; ξ ),

406

14 Weitere Anwendungen

d |xλ (t) − xμ (t)|2 = −2(Aλ xλ (t) − Aμ xμ (t)|xλ (t) − xμ (t)) dt = −2(Aλ xλ − Aμ xμ |Rλ xλ − Rμ xμ ) − 2(Aλ xλ − Aμ xμ |λAλ xλ − μAμ xμ ) ≤ 2(|Aλ xλ (t)| + |Aμ xμ (t)|)(λ|Aλ xλ (t)| + μ|Aμ xμ (t)|) ≤ 4(λ + μ)|yξ0 |2 , wobei wir auch die Monotonie von ∂φ aus Proposition 14.3.6 verwendet haben, denn Aλ x ∈ ∂φ(Rλ x). Somit gilt 0 |xλ (t) − xμ (t)| ≤ 2 (λ + μ)t|yξ0 |,

t ≥ 0, ξ ∈ D(∂φ),

und damit ist die Familie {xλ (t)}0 0, wähle zunächst k so groß, dass |ξ − ξk | ≤ ε/3. Fixiere solche in k ∈ N und wähle dann λ, μ > 0 so klein, dass |xλ (t; ξk ) − xμ (t; ξk )| ≤ ε/3 für t aus einem gegebenem kompakten Intervall gilt. Dann ist |xλ (t; ξ ) − xμ (t; ξ )| ≤ ε. Dieses Argument zeigt, dass auch {xλ (t; ξ )}0 0, also xλ (t; ξ ) − Rλ xλ (t; ξ ) = λAλ xλ (t; ξ ) → 0,

λ → 0+,

woraus x(t; ξ ) = PD x(t; ξ ) ∈ D folgt, sogar für alle ξ ∈ D. Um dies zu sehen, schreibe man

14.4 Subdifferentialgleichungen

407

Rλ xλ (t; ξ ) − PD x(t; ξ ) = Rλ xλ (t; ξ ) − Rλ x(t; ξ ) + Rλ x(t; ξ ) − PD x(t; ξ ) für t, λ > 0, ξ ∈ D(∂φ) und benutze die Eigenschaft, dass Rλ global Lipschitz ist. Da die metrische Projektion PD nach Lemma 7.3.1 nichtexpansiv ist, ergibt sich die Gleichung x(t, ξ ) = PD x(t, ξ ) für alle t > 0, ξ ∈ D. Dies zeigt, dass x : R+ × D → D ein globaler nichtexpansiver Halbfluss auf D ist. (b) In diesem Schritt bringen wir den Halbfluss x : R+ × D → D mit der DifferentialInklusion (14.25) in Verbindung. Zunächst gilt x(t; ξ ) ∈ D(∂φ) für alle t ≥ 0, sofern ξ ∈ D(∂φ), denn es ist (Aλ xλ (t; ξ ) − y0 |Rλ xλ (t; ξ ) − x0 ) ≥ 0, für alle λ > 0, t ≥ 0, wegen Aλ x ∈ ∂φ(Rλ x) für alle x ∈ Rn und der Monotonie von ∂φ. Da für ξ ∈ D(∂φ) die Familie {Aλ xλ (t; ξ )}λ>0 beschränkt ist, existiert eine konvergente Folge Aλk xλk (t; ξ ) → y(t; ξ ) für λk → 0+, k → ∞, und fixiertes t ≥ 0, ξ ∈ D(∂φ). Wegen Rλk xλk (t; ξ ) → PD x(t; ξ ) = x(t; ξ ) für k → ∞ gilt schließlich (y(t; ξ ) − y0 |x(t; ξ ) − x0 ) ≥ 0, und die maximale Monotonie von ∂φ impliziert x(t; ξ ) ∈ D(∂φ). Sei nun x0 ∈ D(∂φ), y0 ∈ ∂φ(x0 ) und xλ := Rλ (x0 + λy0 ), yλ = Aλ (x0 + λy0 ). Dann gilt mit der gleichen Argumentation wie oben (yλ − y0 |xλ − x0 ) ≥ 0, für alle λ > 0 und das gleiche Argument, welches zu (14.22) führte, ergibt dann x0 = xλ und y0 = yλ für alle λ > 0, also insbesondere y0 = Aλ (x0 + λy0 ). Für xλ (t) := xλ (t; ξ ), ξ ∈ D, gilt 1 d |xλ (t) − (x0 + λy0 )|2 = −(Aλ xλ (t)|xλ (t) − (x0 + λy0 )) 2 dt = −(Aλ xλ (t) − Aλ (x0 + λy0 )|xλ (t) − (x0 + λy0 )) − (y0 |xλ (t) − (x0 + λy0 )) ≤ −(y0 |xλ (t) − (x0 + λy0 )), wegen der Monotonie von ∇φλ = Aλ , also nach Integration für 0 ≤ s ≤ t 1 1 |xλ (t) − (x0 + λy0 )|2 ≤ |xλ (s) − (x0 + λy0 )|2 − 2 2

 s

t

(y0 |xλ (τ ) − (x0 + λy0 ))dτ.

408

14 Weitere Anwendungen

Mit λ → 0+ erhalten wir die Ungleichung 1 1 |x(t; ξ ) − x0 |2 ≤ |x(s; ξ ) − x0 |2 − 2 2



t

(y0 |x(τ ; ξ ) − x0 )dτ,

(14.29)

s

für alle ξ ∈ D, 0 ≤ s ≤ t, und y0 ∈ ∂φ(x0 ) wegen der gleichmäßigen Konvergenz von xλ (t; ξ ) → x(t; ξ ) bezüglich t auf kompakten Intervallen. Ersetzt man t durch t + h und s durch t, dividiert durch h, so folgt mit h → 0+ 

  d+  x(t; ξ )x(t; ξ ) − x0 ≤ −(y0 |x(t; ξ ) − x0 ), dt

also  +   d  − x(t; ξ ) − y0 x(t; ξ ) − x0 ≥ 0, dt

y0 ∈ ∂φ(x0 ),

sofern die rechts-seitige Ableitung d + x(t; ξ )/dt existiert. Nun ist t → x(t; ξ ) global Lipschitz auf (0, ∞), falls ξ ∈ D(∂φ). Also ist diese Abbildung mit dem Differentiationssatz von Lebesgue (in der Literatur auch Satz von Rademacher genannt) fast überall (f.ü.) differenzierbar in (0, ∞), sofern ξ ∈ D(∂φ). Die maximale Monotonie von ∂φ ergibt dann −x(t; ˙ ξ ) ∈ ∂φ(x(t; ξ )) für fast alle t > 0 und daher gilt 0 ∈ x(t; ˙ ξ ) + ∂φ(x(t; ξ )),

f.ü. in (0, ∞),

x(0, ξ ) = ξ ∈ D(∂φ).

(14.30)

In diesem Sinne erfüllt der Halbfluss x(t; ξ ) die Subdifferential-Inklusion (14.25). Wir haben das folgende Resultat bewiesen. Satz 14.4.1. Sei φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅ und sei D := D(φ). Dann erzeugt (14.25) einen nicht expansiven Halbfluss x : R+ × D → D. Es gilt x(t; ξ ) = lim xλ (t; ξ ), λ→0+

t ≥ 0, ξ ∈ D,

wobei xλ : R+ × Rn → Rn den von (14.26) erzeugten nichtexpansiven Halbfluss bezeichnet. Für ξ ∈ D(∂φ) und t ≥ 0 gilt x(t; ξ ) ∈ D(∂φ); t → x(t; ξ ) ist global Lipschitz, fast überall differenzierbar in (0, ∞), und 0 ∈ x(t; ˙ ξ ) + ∂φ(x(t; ξ ))

für fast alle t ≥ 0.

Es gilt die Integral-Ungleichung (14.29) für alle 0 ≤ s ≤ t, ξ ∈ D, und y0 ∈ ∂φ(x0 ).

14.4 Subdifferentialgleichungen

409

14.4.2 Differential-Variationsungleichungen In Anwendungen trifft man häufig auf differentielle Variationsungleichungen, wie (u(t) ˙ − f (u(t))|v − u(t)) ≥ 0, u(t) ∈ D,

t > 0, v ∈ D,

(14.31)

u(0) = u0 ∈ D,

wobei D ⊂ Rn abgeschlosssen und konvex, und f : Rn → Rn stetig und ω-dissipativ, d. h. für ein ω ∈ R gilt (f (u) − f (u)|u ¯ − u) ¯ ≤ ω|u − u| ¯ 2,

für alle

u, u¯ ∈ D.

Beispielsweise ist jede globale Lipschitz-Funktion mit Konstante L ω-dissipativ mit ω = L. Ist ω = 0, so nennt man f kurz dissipativ. Ist D = K ein abgeschlossener konvexer Kegel, also zum Beispiel D = Rn+ , und K ∗ der zu K duale Kegel, so ist (14.31) äquivalent zum DifferentialKomplementaritätsproblem u(t) ˙ − f (u(t)) ∈ K ∗ , u(t) ≥K 0,

t ≥ 0,

(14.32)

(u(t) ˙ − f (u(t))|u(t)) = 0, u(0) = u0 ≥K 0,

wobei ≥K die vom Kegel K erzeugte Ordnung bezeichnet. Denn ist u eine Lösung von (14.32), so folgt (u(t) ˙ − f (u(t))|v − u(t)) = (u(t) ˙ − f (u(t))|v) ≥ 0, für alle v ∈ D. Löst u andererseits die differentielle Variationsungleichung, und ist w ∈ K, dann ist v = u + w ∈ D = K, folglich (u(t) ˙ − f (u(t))|w) = (u(t) ˙ − f (u(t))|v − u(t)) ≥ 0,

v ∈ K,

also u(t) ˙ − f (u(t)) ∈ K ∗ . Mit v = 0 ∈ K bzw. v = 2u(t) ∈ K erhält man (u(t) ˙ − f (u(t))|u(t)) = 0, also löst u(t) das problem (14.32). Das Problem (14.31) kann man mittels der Indikator-Funktion iD (x) äquivalent formulieren als u(t) ˙ + ∂iD (u(t))  f (u(t)), t > 0,

u(0) = u0 ∈ D,

(14.33)

denn f (u(t)) − u(t) ˙ ∈ ∂iD (u(t)) gilt genau dann, wenn (f (u(t)) − u(t)|x ˙ − u(t)) ≤ 0, für alle x ∈ D.

410

14 Weitere Anwendungen

Allgemeiner betrachten wir in diesem Abschnitt das Problem u(t) ˙ + ∂φ(u(t))  f (u(t)), t > 0,

u(0) = u0 ∈ D.

(14.34)

Dabei sind φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅, D := D(φ), und f : Rn → Rn stetig sowie ω-dissipativ. Wir wollen ein zum Fall f = 0 analoges Resultat für (14.34) zeigen. Dazu geht man ähnlich vor wie im Fall f = 0, indem man das approximierende Problem u(t) ˙ + ∇φλ (u(t)) = f (u(t)), t > 0,

u(0) = u0 ∈ Rn ,

(14.35)

betrachtet. Dieses Problem erzeugt einen globalen Halbfluss uλ : R+ × Rn → Rn . Es gilt 1 d |uλ (t; ξ ) − uλ (t; ξ¯ )|2 ≤ ω|uλ (t; ξ ) − uλ (t; ξ¯ )|2 , 2 dt also |uλ (t; ξ ) − uλ (t; ξ¯ )| ≤ eωt |ξ − ξ¯ |,

t > 0, ξ, ξ¯ ∈ Rn .

Wie im vorherigen Abschnitt folgt ferner für ξ ∈ D(∂φ), |f (uλ (t)) − Aλ uλ (t; ξ )| = |u˙ λ (t; ξ )| ≤ eωt |u˙ λ (0; ξ )| = eωt (|f (ξ )| + |yξ0 |), Für alle T ∈ (0, ∞), s, t ∈ [0, T ], λ > 0 und ξ ∈ D(∂φ) gilt daher |uλ (t; ξ ) − uλ (s; ξ )| ≤ (|f (ξ )| + |yξ0 |)e|ω|T |t − s|, also ist t → uλ (t; ξ ) lokal Lipschitz auf [0, ∞), gleichmäßig bezüglich λ > 0. Insbesondere folgt aus der Stetigkeit von f |f (uλ (t; ξ ))| ≤ sup sup |f (uλ (t; ξ ))| =: C(ξ, T ) < ∞, λ>0 t∈[0,T ]

und daher |Aλ uλ (t; ξ )| ≤ C(ξ, T ) + e|ω|T (|f (ξ )| + |yξ0 |) =: M(ξ, T ) < ∞ für alle t ∈ [0, T ], λ > 0. Wie in Abschnitt 1. a) folgt nun d |uλ (t) − uμ (t)|2 ≤ 4(λ + μ)M(ξ, T )2 + 2(f (uλ (t)) − f (uμ (t))|uλ (t) − uμ (t)) dt ≤ 4(λ + μ)M(ξ, T )2 + 2ω|uλ (t) − uμ (t)|2 ,

14.4 Subdifferentialgleichungen

411

für alle λ, μ > 0 und t ∈ [0, T ], wobei uj (t) := uj (t; ξ ), j ∈ {λ, μ}. Daraus erhalten wir die Abschätzung 1 |uλ (t; ξ ) − uμ (t; ξ )|2 ≤ 4(λ + μ)M(ξ, T )2 (e2ωt − 1) ω für alle λ, μ > 0 und t ∈ [0, T ], also existieren die Grenzwerte u(t; ξ ) := lim uλ (t; ξ ) λ→0+

und die Konvergenz ist gleichmäßig bezüglich t auf kompakten Intervallen [0, T ]. Für jedes ξ ∈ D(∂φ) ist die Abbildung t → u(t; ξ ) auf dem Intervall [0, T ] Lipschitz, also ist sie auf (0, ∞) lokal Lipschitz, da T > 0 beliebig war. Da nach Satz 14.3.10 D(∂φ) in D = D(φ) dicht ist, lässt sich die gleichmäßige Konvergenz wie in Abschnitt 1 auf alle ξ ∈ D ausdehnen. Die Integral-Ungleichung (14.29) hat man zu ersetzen durch 1 1 |u(t; ξ ) − x0 |2 ≤ |u(s; ξ ) − x0 |2 + 2 2



t

(f (u(τ ; ξ )) − y0 |u(τ ; ξ ) − x0 )dτ,

(14.36)

s

für alle ξ ∈ D, 0 ≤ s ≤ t, und y0 ∈ ∂φ(x0 ). Daher gilt der folgende Satz 14.4.2. Sei φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅ und D := D(φ). Ferner sei f : Rn → Rn stetig und ω-dissipativ. Dann erzeugt (14.34) einen Halbfluss u : [0, ∞) × D → D, ξ → e−ωt u(t; ξ ) ist Lipschitz mit Konstante 1 und es gilt u(t; ξ ) = lim uλ (t; ξ ), λ→0+

t ≥ 0, ξ ∈ D,

wobei uλ : R+ × Rn → Rn den von (14.35) erzeugten Halbfluss bezeichnet und ξ → e−ωt uλ (t; ξ ) ist Lipschitz mit Konstante 1 Für ξ ∈ D(∂φ) gilt u(R+ ; ξ ) ⊂ D(∂φ), t → u(t; ξ ) ist lokal Lipschitz und fast überall differenzierbar in (0, ∞). Es gilt f (u(t; ξ )) ∈ u(t; ˙ ξ ) + ∂φ(u(t; ξ ))

für fast alle t ≥ 0,

und die Integral-Ungleichung (14.36) für alle 0 ≤ s ≤ t, ξ ∈ D, und y0 ∈ ∂φ(x0 ). Ein genaueres Resultat über Regularität der Lösungen enthält

412

14 Weitere Anwendungen

Korollar 14.4.3. Es seien die Voraussetzungen von Satz 14.4.2 erfüllt. Dann sind für t0 ≥ 0 äquivalent: 1. u(t0 ) ∈ D(∂φ); 2. u ist rechts-differenzierbar in t0 ; 3. limh→0+ |u(t0 + h) − u(t0 )|/ h < ∞. Ist dies der Fall, dann ist d +u (t0 ) = f (u(t0 )) − P∂φ(u(t0 )) f (u(t0 )), dt

(14.37)

wobei PC die metrische Projektion auf die abgeschlossene konvexe Menge C ⊂ Rn bezeichnet. Beweis. 2. ⇒ 3. ist trivial. 3. ⇒ 1.: Sei hk → 0+ so, dass v := lim(u(t0 +hk )−u(t0 ))/ hk ∈ Rn existiert. Die IntegralUngleichung (14.36) für u(t) ergibt für x0 ∈ D(∂φ), y0 ∈ ∂φ(x0 ) und mit ξ := u(t0 ) (u(t0 + hk ) − u(t0 )|u(t0 ) − x0 ) = (u(t0 + hk ) − x0 |u(t0 ) − x0 ) − |u(t0 ) − x0 |2 1 1 |u(t0 + hk ) − x0 |2 + |u(t0 ) − x0 |2 − |u(t0 ) − x0 |2 2 2  hk ≤ (f (u(t0 + τ ) − y0 |u(t0 + τ ) − x0 )dτ, ≤

0

also nach Division durch hk und mit k → ∞ 0 ≤ (f (ξ ) − v − y0 |ξ − x0 ),

y0 ∈ ∂φ(x0 ),

Da ∂φ maximal monoton ist, gilt u(t0 ) = ξ ∈ D(∂φ) und f (ξ ) − v ∈ ∂φ(ξ ). 1. ⇒ 2.: Wir behaupten zunächst, dass aus der Integralgleichung (14.36) die Abschätzung  t |u(t; ξ ) − x0 | ≤ |u(s, ξ ) − x0 | + |f (u(τ ; ξ )) − y0 |dτ s

für alle 0 ≤ s ≤ t, ξ ∈ D und y0 ∈ ∂φ(x0 ) folgt. Dazu sei ε > 0, s ∈ [0, t] fixiert und ϕ(t) := |u(t; ξ ) − x0 |,

ψε (t) :=

1 (ϕ(s) + ε)2 + 2



t

|f (u(τ ; ξ )) − y0 |ϕ(τ )dτ.

s

Dann ist die Abbildung t → ψε (t) differenzierbar mit ψ˙ ε (t) = |f (u(t; ξ )) − y0 |ϕ(t).

14.4 Subdifferentialgleichungen

413

Weiter gilt (14.36) ϕ(t)2 ≤ 2ψε (t) für alle t ≥ 0, also √ nach der Integralungleichung √ ψ˙ (t) ≤ 2|f (u(t; ξ )) − y0 | ψε (t). Wegen ψε (t) ≥ ε2 /2 > 0 ist die Abbildung t → √ε ψε (t) differenzierbar und es gilt d0 ψ˙ ε (t) 1 ψε (t) = √ ≤ √ |f (u(t; ξ )) − y0 |. dt 2 ψε (t) 2 Integration von s bis t und die Integralungleichung (14.36) liefern ϕ(t) ≤

 t √ 0 2 ψε (t) ≤ ϕ(s) + ε + |f (u(τ ; ξ )) − y0 |dτ, s

und mit ε → 0+ folgt die behauptete Abschätzung. Sei x0 = u(t0 ) = ξ ∈ D(∂φ) und y0 ∈ ∂φ(x0 ) beliebig. Dann gilt wie eben gesehen die Abschätzung 1 |u(t0 + h) − u(t0 )| ≤ h h



h

|f (u(t0 + τ )) − y0 |dτ,

0

also mit h → 0+ und da f stetig ist limh→0+

|u(t0 + h) − u(t0 )| ≤ |f (ξ ) − y0 |, h

y0 ∈ ∂φ(ξ ),

und mittels Minimierung über y0 limh→0+

|u(t0 + h) − u(t0 )| ≤ inf |f (ξ ) − y0 | = dist(f (ξ ), ∂φ(ξ )) y0 ∈∂φ(ξ ) h = |f (ξ ) − PC f (ξ )|,

mit C = ∂φ(ξ ). Sei hk → 0+ so, dass v := limk→∞ (u(t0 + hk ) − u(t0 ))/ hk ∈ Rn existiert. Dann gilt (wie im Schritt 3. ⇒ 1.)f (ξ ) − v ∈ ∂φ(ξ ) und ferner |v| ≤ inf |f (ξ ) − y0 | = |f (ξ ) − PC f (ξ )|, y0 ∈C

also ist v = f (ξ )−PC f (ξ ) eindeutig bestimmt und unabhängig von der Folge (hk ). Daher  ist u rechtsseitig differenzierbar in t0 und es gilt (14.37). Zum Abschluss zeigen wir

414

14 Weitere Anwendungen

Korollar 14.4.4. Es seien die Voraussetzungen von Satz 14.4.2 erfüllt. Dann gilt u((0, ∞) × D) ⊂ D(∂φ). Die Lösungen regularisieren somit instantan. Beweis. Fixiere ein v ∈ D(∂φ) und setze φ˜ λ (u) = φλ (u) − φλ (v) − (Aλ v|u − v),

u ∈ Rn ;

dann ist φ˜ λ ≥ 0, ∇ φ˜ λ (u) = ∇φλ (u) − Aλ v, φ˜ λ (v) = ∇ φ˜ λ (v) = 0, und u˙ λ + ∇ φ˜ λ (uλ ) = f (uλ ) − Aλ v,

uλ (0) = ξ.

Multiplikation mit t u˙ λ und Integration von 0 bis T ergibt  T  T  T  T d d 2 ˜ t|u˙ λ | dt + t φλ (uλ )dt = t (f (uλ )|u˙ λ )dt − t (Aλ v|uλ − v)dt, dt dt 0 0 0 0 also nach partieller Integration und mit der Youngschen Ungleichung 1 2



T

t|u˙ λ |2 dt + T φ˜ λ (uλ (T )) ≤



0

T

(φ˜ λ (uλ ) + (Aλ v|uλ − v))dt

0

− T (Aλ v|uλ (T ) − v) +

1 2



T

(14.38)

t|f (uλ )|2 dt.

0

Andererseits ist {∇φ(uλ )} = ∂φλ (uλ ) nach Satz 14.3.10, also ˜ λ )|v − uλ ) 0 = φ˜ λ (v) ≥ φ˜ λ (uλ ) + (∇ φ(u = φ˜ λ (uλ ) + (Aλ v|uλ − v) − (u˙ λ |v − uλ ) + (f (uλ )|v − uλ ). Integration von 0 bis T liefert 

T

(φ˜ λ (uλ ) + (Aλ v|uλ − v))dt ≤ −

0

1 2



T

0

d |uλ − v|2 dt + dt



T

(f (uλ )|uλ − v)dt.

0

und zusammen mit (14.38) ergibt dies wegen φ˜ λ (uλ ) ≥ 0 1 2

 0

T

t|u˙ λ |2 dt ≤ −T (Aλ v|uλ (T ) − v) + 

T

1 2



T

t|f (uλ )|2 dt

0

1 1 + (f (uλ )|uλ − v)dt + |ξ − v|2 − |uλ (T ) − v|2 (14.39) 2 2 0  T  1 T2 1 T |Aλ v|2 . t|f (uλ )|2 dt + (f (uλ )|uλ − v)dt + |ξ − v|2 + ≤ 2 0 2 2 0

14.4 Subdifferentialgleichungen

415

Nun ist die Abbildung t → e−ωt |u˙ λ (t)| fallend, also 1 2



T

t|u˙ λ |2 dt ≥ e−2ωT |u˙ λ (T )|2



0

T

t/2dt = (T 2 /4)e−2ωT |u˙ λ (T )|2 .

0

Da T > 0 beliebig war, ist t → uλ (t) auf Intervallen der Form [δ, 1/δ], δ ∈ (0, 1), Lipschitz, gleichmäßig in λ. Folglich ist für λ → 0+ auch t → u(t) auf jedem solchen Intervall Lipschitz. Daher impliziert Korollar 14.4.3 u(t) ∈ D(∂φ) für alle t > 0. 

14.4.3 Asymptotisches Verhalten In diesem Abschnitt betrachten wir das asymptotische Verhalten der Lösungen von (14.34). Satz 14.4.5. Sei φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅, D := D(φ), und sei f : Rn → Rn stetig, sowie (−ω)-dissipativ, für ein ω > 0. Dann besitzt (14.34) genau ein Equilibrium u∞ ∈ D(∂φ), also f (u∞ ) ∈ ∂φ(u∞ ). Ferner ist u∞ ∈ D global exponentiell stabil in D, genauer gilt |u(t; u0 ) − u∞ | ≤ e−ωt |u0 − u∞ |,

t > 0, u0 ∈ D.

Beweis. Der Halbfluss für (14.34) erfüllt |u(t; ξ ) − u(t; ξ¯ )| ≤ e−ωt |ξ − ξ¯ |,

t > 0, ξ, ξ¯ ∈ D.

(14.40)

Daher ist die Poincaré-Abbildung T : D → D definiert durch T ξ = u(τ ; ξ ) für jede Periode τ > 0 eine strikte Kontraktion, da ω > 0. Der Fixpunktsatz von Banach ergibt einen eindeutigen Fixpunkt ξτ ∈ D, also ist u(t; ξτ ) die eindeutige τ -periodische Lösung von (14.34) in D. Setze nun τk = 2−k , k ∈ N, vk = ξτk und uk (t) = u(t; vk ). Dann sind uk (t) 2−m periodische Lösungen von (14.34), für alle k ≥ m ∈ N. Wegen 2k · 2−k = 1 ist |vk | = |uk (1)| ≤ |uk (1) − u1 (1)| + |u1 (1)| ≤ e−ω |vk − v1 | + |u1 (1)|, folglich ist {vk }k∈N beschränkt, also besitzt sie nach dem Satz von Bolzano-Weierstraß eine konvergente Teilfolge vkl → v∞ ∈ D. Die stetige Abhängigkeit vom Anfangswert impliziert, dass die Lösung u∞ (t) := u(t; v∞ ) 2−m -periodisch, für alle m ∈ N ist, also ist u∞ konstant. Aus der Integral-Ungleichung (14.36) folgt 0 ≤ (f (u∞ ) − y0 |u∞ − x0 ),

x0 ∈ D(∂φ), y0 ∈ ∂φ(x0 ),

416

14 Weitere Anwendungen

also u∞ ∈ D(∂φ) und f (u∞ ) ∈ ∂φ(u∞ ) wegen der maximalen Monotonie von ∂φ, d. h. u∞ ist ein Equilibrium von (14.34). Sei v ∈ D(∂φ)´ein weiteres Equilibrium, also f (v) ∈ ∂φ(v). Da f (−ω)-dissipativ ist, gilt 0 ≤ (f (u∞ ) − f (v)|u∞ − v) ≤ −ω|u∞ − v|2 also u∞ = v und damit ist das Equilibrium eindeutig bestimmt. Die globale exponentielle  Stabilität von u∞ in D folgt aus (14.40) mit ξ = u0 und ξ¯ = u∞ . Sei nun f nur dissipativ. Dann besitzt (14.34) mit f −ε id anstelle von f genau ein Equilibrium uε∞ ∈ D(∂φ), es ist f (uε∞ ) − εuε∞ ∈ ∂φ(uε∞ ). Es gelte die Koerzivitätsbedingung lim [φ(x) − (f (x)|x − x0 )] = ∞,

|x|→∞

für ein x0 ∈ D(φ).

(14.41)

Die Subdifferential-Ungleichung impliziert φ(x0 ) ≥ φ(uε∞ ) + (f (uε∞ ) − εuε∞ |x0 − uε∞ ), folglich φ(uε∞ ) − (f (uε∞ )|uε∞ − x0 ) ≤ φ(x0 ) − ε|uε∞ |2 + ε(x0 |uε∞ ) ≤ φ(x0 ) + ε|x0 |2 /2 < ∞. Bedingung (14.41) zeigt, dass {uε∞ }0 0,

x = x, ¯ y ∈ ∂φ(x), y¯ ∈ ∂φ(x), ¯

(14.42)

erfüllt ist. Denn sind x = u∞ = x¯ = u¯ ∞ zwei Equilibria, so ergeben y = f (u∞ ), y¯ = f (u¯ ∞ ) einen Widerspruch.

14.4 Subdifferentialgleichungen

417

Der von (14.34) erzeugte Halbfluss auf D ist nicht expansiv, da f dissipativ ist, also gilt insbesondere |u(t; u0 ) − u∞ | = |u(t; u0 ) − u(t; u∞ )| ≤ |u0 − u∞ |,

t > 0, u0 ∈ D,

(14.43)

d. h. u∞ ist stabil in D. Wir zeigen noch, dass u(t; ξ ) → u∞ für t → ∞ und jedes ξ ∈ D gilt. Wähle in der Integralungleichung (14.36) x0 = u∞ und y0 = f (u∞ ) ∈ ∂φ(u∞ ). Dann folgt aus der Dissipativität von f , dass die Abbildung t → ϕ(t) := |u(t; ξ ) − u∞ |2 monoton fallend ist, also existiert der Grenzwert limt→∞ ϕ(t) =: ϕ∞ ≥ 0. Aus (14.43) folgt ferner, dass {u(t; ξ )}t≥0 beschränkt ist für jedes ξ ∈ D, also ist die Limesmenge ω+ (u) ⊂ D nichtleer und für alle v ∈ ω+ (u) gilt |v − u∞ |2 = ϕ∞ . Sei v0 ∈ ω+ (u) und betrachte die Lösung v(t) := u(t; v0 ). Da ω+ (u) positiv invariant ist (wegen der Halbflusseigenschaft), gilt v(t) ∈ ω+ (u) für alle t ≥ 0, insbesondere ist die Funktion t → ψ(t) := |v(t) − u∞ |2 konstant mit ψ(t) ≡ ϕ∞ für alle t ≥ 0. Korollar 14.4.4 impliziert v(t) ∈ D(∂φ) für alle t > 0, also insbesondere v1 := v(1) ∈ ω+ (u) ∩ D(∂φ). Aus Korollar 14.4.3 folgt dann + f (v1 ) − ddtv (1) = P∂φ(v1 ) f (v1 ) ∈ ∂φ(v1 ). Wäre nun ϕ∞ > 0, also v1 = u∞ , so ergibt die strikte Monotonie von ∂φ − f mit + x := v1 ∈ D(∂φ), y := f (v1 ) − ddtv (1) ∈ ∂φ(v1 ) x¯ = u∞ und y¯ = f (u∞ ) die Ungleichung    d +v 1 d +ψ  0 < f (v1 ) − (1) − f (v1 ) − (f (u∞ ) − f (u∞ ))v1 − u∞ = − (1) = 0, dt 2 dt ein Widerspruch. Es folgt ϕ∞ = 0, also ω+ (u) = {u∞ }, und daher konvergiert jede Lösung gegen das Equilibrium u∞ . Zusammenfassend haben wir den Satz 14.4.6. Sei φ : Rn → (−∞, ∞] konvex, lsc, mit D(φ) = ∅, D := D(φ), und sei f : Rn → Rn stetig, sowie dissipativ. Es gelte die Bedingung (14.41), und sei ∂φ − f strikt monoton. Dann besitzt (14.34) genau ein Equilibrium u∞ ∈ D(∂φ) mit f (u∞ ) ∈ ∂φ(u∞ ). Ferner ist u∞ ∈ D global asymptotisch stabil in D. Abschließend sei bemerkt, dass sich im Fall f = 0 die Koerzivitätsbedingung (14.41) auf die bedingung ‘φ ist koerziv’ reduziert, und die strikte Monotonie von ∂φ − f = ∂φ gilt, falls φ strikt konvex ist. In diesem Fall ist u∞ ∈ D(∂φ) das eindeutige globale Minimum von φ, und dieses ist global asymptotisch stabil in D. Damit konvergiert u(t; ξ ) für jeden Startwert ξ ∈ D gegen das eindeutige globale Minimum u∞ von φ, dies ist bekannt als das Verfahren des steilsten Abstiegs.

Epilog

In diesem Nachwort sollen einige Kommentare zur Literatur und Anregungen für weitergehende Studien der Theorie dynamischer Systeme zusammengestellt werden, sie sind entsprechend der Kapitel geordnet. Da es sich bei diesem Werk um ein Lehrbuch zum Bachelor-Studium handelt, sind die meisten Resultate, Beispiele und Anwendungen Standard in der Literatur. Es werden daher nur Ergebnisse und Anwendungen kommentiert, die bisher noch nicht in einschlägigen Büchern berücksichtigt wurden. Die Hinweise zum weitergehenden Studium können zur Planung eines sich an den Kurs anschließenden Seminars verwendet werden. Kap. 5: Das Virenmodell geht auf Nowak und May [55] zurück. Dort wird es das Basismodell der Virendynamik genannt. Dieses Buch ist empfehlenswert, wenn man sich in der Modellierung von Viren weitergehend informieren möchte. Die Analysis des Modells ist dem Buch von Prüss, Schnaubelt und Zacher [58] entnommen, in dem man auch Ergebnisse über Modelle findet, die verschiedene Immunantworten berücksichtigen. Das Basismodell ist äquivalent zu einem SEI S-Epidemiemodell (vgl. Übung 5.11), und einem Modell für die Dynamik von Prionen; dies wurde in der Arbeit von Prüss, PujoMenjouet, Webb und Zacher [56] erkannt. In [58] wird auch das Prionenmodell diskutiert. Kap. 6: Das Paarbildungsmodell ist eine Erweiterung eines von Hadeler, Waldstätter und Wörz-Busekros [36] vorgeschlagenen Modells, das die bis dahin gewonnenen Erkenntnisse über die Eigenschaften der Paarbildungsfunktion axiomatisiert. Diese Arbeit enthält auch das Resultat über homogene Systeme (vgl. Abschn. 7.4). Die Analysis des erweiterten Modells ist in Prüss, Schnaubelt und Zacher [58] enthalten. Wesentlich realistischere Modelle berücksichtigen in der Modellierung die Alterstruktur der Population; vgl. u. a. Hoppenstedt [42], Prüss und Schappacher [57] und Zacher [67]. Differential- und Integralungleichungen sind ein klassisches Thema. Wir verweisen auf die Bücher von Lakshmikantham und Leela [48] und Walter [66] für weitere Studien in dieser Richtung. Kap. 7: Der Satz von Perron und Frobenius über positive Matrizen und seine Verallgemeinerungen für positive Operatoren in geordneten Banachräumen haben in Anwendungen große Bedeutung erlangt. Weitere Resultate über positive Matrizen findet man in der

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8

419

420

Epilog

Monographie von Gantmacher [33], und über positive Operatoren in Deimling [27] und Schäfer [61]. In der Situation von Satz 7.6.2 gibt es im Fall x ∞ = x ∞ eine Vielzahl weiterer Resultate. So bilden z. B. die Equilibria in [x ∞ , x ∞ ] eine vollständig geordnete Menge. Sind x ∞ , x ∞ stabil, so gibt es ein drittes Equilibrium in [x ∞ , x ∞ ]. Gibt es kein weiteres Equilibrium zwischen diesen, dann existiert ein heteroklines Orbit, das x ∞ mit x ∞ verbindet. Diese Resultate findet man in der Arbeit von Hirsch und Smith [41]. Für Verallgemeinerungen auf parabolische partielle Differentialgleichungen sei das Buch von Hess [40] empfohlen. Das SI S-Mehrklassenmodell für Epidemien wurde erstmals von Lajmanovich und Yorke [47] analysiert. Der hier angegebene Beweis der globalen Stabilität des epidemischen Equilibriums ist aus Prüss, Schaubelt und Zacher [58] entnommen, und ist einfacher als der ursprüngliche. Die Monographie von Diekman und Heesterbeek [28] gibt einen guten Überblick zur Modellierung und Analysis von Epidemien. Kap. 8: Die moderne mathematische Populationsgenetik wurde durch die bahnbrechenden Arbeiten von Fisher, Haldane und Wright in den ersten Jahrzehnten des letzten Jahrhunderts begründet und ist heute ein wichtiger Beleg für die Theorie Darwins. Es sei das an dieser Stelle das Buch von Fisher [32] hervorgehoben, in dem auch das nach ihm benannte Fundamentaltheorem erstmalig formuliert wurde. Das hier behandelte Modell berücksichtigt lediglich Selektion. In diesem Fall kann man zeigen, dass jede in D startende Lösung tatsächlich gegen ein Equilibrium konvergiert, selbst wenn E nicht diskret ist. Dieses Resultat geht auf Losert und Akin [52] zurück, und ist im Buch von Prüss, Schnaubelt und Zacher [58] bewiesen. Man erhält wesentlich komplexere Modelle, wenn auch Mutation und Rekombination als weitere Prozesse in der Modellierung hinzugenommen werden. Einen guten Überblick über mathematische Genetik gibt die Monographie von Bürger [22]. Die Analysis chemischer Reaktionssysteme geht bis ins vorletzte Jahrhundert zurück. Damals stand die Gleichgewichtstheorie im Vordergrund, die zur Formulierung des Massenwirkungsgesetzes führte. Heute ist mehr die Dynamik Mittelpunkt des Interesses, insbesondere seit den Arbeiten von Belousov und Zhabotinski über die Existenz periodischen Verhaltens in solchen Systemen. Das Hauptresultat Satz 8.7.1 über chemische Reaktionssysteme geht zurück auf Horn, Feinberg und Jackson [43]; vgl. auch Feinberg [31]. Für weitergehende Studien über die Theorie chemischer Reaktionssysteme empfehlen wir das Buch von Erdi und Toth [30]. Lojasiewicz befasste sich in seiner Arbeit mit Gradientensystemen, deren Equilibriumsmengen nichtdiskret sind. Sein herausragender Beitrag ist der Beweis der heute nach ihm benannten Ungleichung für reell analytische Funktionen. Dieser Beweis verwendet tiefliegende Ergebnisse aus der mehrdimensionalen komplexen Analysis, und kann hier nicht reproduziert werden. Es sei deshalb auf seine Arbeiten [50,51] verwiesen. Die Anwendung auf das gedämpfte Teilchen im Potentialfeld ist eine Variante eines Resultats von Haraux und Jendoubi [37]. Die Methode von Lojasiewicz lässt sich auf unendlichdimensionale Probleme, also auf Evolutionsgleichungen, übertragen und ist gegenwärtig ein wichtiger

Epilog

421

Forschungsgegenstand. Diesbezüglich seien vor allem die Arbeit von Chill [23] und die Monographie von Huang [44] empfohlen. Die Theorie der Attraktoren ist vor allem im unendlichdimensionalen Fall aktueller Forschungsgegenstand. Hierzu verweisen wir für den endlichdimensionalen Fall auf das klassische Buch von Bhatia und Szegö [3] und allgemein auf die Monographie von Sell und You [63]. Die Themen seltsame Attraktoren und Chaos konnten wir in diesem Buch nicht berücksichtigen. Wir verweisen diesbezüglich auf die einschlägige Literatur, z. B. auf Devaney [8]. Kap. 9: Das Modell für biochemische Oszillationen ist eine Verallgemeinerung der Modelle von Selkov [62] und Goldbeter und Lefever [34], die auf Keener and Sneyd [46] zurückgeht. Die Analysis des Modells ist dem Buch Prüss, Schnaubelt und Zacher [58] entnommen. Für weitergehende Studien der mathematischen Physiologie sei dem Leser die Monographie von Keener und Sneyd [46] wärmstens empfohlen. Die in Abschn. 9.6 entwickelte Indextheorie besitzt eine weitreichende Verallgemeinerung für beliebige Dimensionen, nämlich den Abbildungsgrad von Brouwer. Mit dessen Hilfe lässt sich der Fixpunktsatz von Brouwer, der in den Abschn. 4.2 und in 7.3 verwendet wurde, einfach beweisen. Für den analytischen Zugang zum Abbildungsgrad sei auf die Bücher von Amann [1] und Deimling [27] verwiesen. Kap. 10: Das erweiterte Prinzip der linearisierten Stabilität war für den Fall dim E = 1 schon Ljapunov bekannt. Der Fall beliebiger Dimensionen von E geht auf Malkin [53] zurück, der auch die entsprechende Normalform angab. Aulbach [19] zeigte den Satz über normal hyperbolische Equilibria in einer etwas anderen Form. Die hier angegebenen Beweise sind Adaptionen aus der Arbeit von Prüß, Simonett und Zacher [60], in der der Fall quasilinearer parabolischer partieller Differentialgleichungen behandelt wird. Diffusionswellen sind ein wichtiges Thema in der Theorie der ReaktionsDiffusionsgleichungen, und sind daher in der Literatur ausgiebig diskutiert. Wir verweisen für weitere Studien dazu auf Volpert [65]. Das Hartman-Grobman Theorem wurde unabhängig von Grobman [35] und Hartman [38] bewiesen, und ist ein mittlerweile klassisch zu nennender Struktursatz für hyperbolische Equilibria. Der hier gegebene elementare Beweis ist aus Hein & Prüss [39] entnommen. Da dieser keine Kompaktheitsargumente verwendet, bleibt er im Unendlichdimensionalen richtig, wenn die Linearisierung eine C0 -Gruppe erzeugt. Für weitere Resultate in diesem Themenkreis sei auf die Mongraphien Chicone [5], Hale [10] und Hartman [11] verwiesen. Die hier verwendete Konstruktion der stabilen und instabilen Faserungen in der Nähe eines normal hyperbolischen Equilibriums, die auf den asymptotischen Normalformen und dem Satz über implizite Funktionen beruht, ist der Arbeit Prüss, Simonett & Wilke [59] entnommen. Dieser Beweis ist einfacher als die bekannten aus der Theorie dynamischer Systeme, und allgemeiner, da f aus C 1 hinreichend ist. Basierend auf dem Prinzip der maximalen Regularität bleibt er auch für quasilineare parabolische Systeme partieller Differentialgleichungen gültig.

422

Epilog

Ein weiteres Thema, dass zu diesem Kapitel erwähnt werden muss, sind Zentrumsmannigfaltigkeiten Mc . Diese resultieren aus dem Spektrum der Linearisierung auf der imaginären Achse, sind also nicht trivial, wenn das Equilibrium nicht hyperbolisch ist. Leider sind Zentrumsmannigfaltigkeiten im Gegensatz zur stabilen oder der instabilen Mannigfaltigkeit nicht eindeutig bestimmt. Ist hingegen x∗ normal stabil oder normal hyperbolisch, dann ist Mc = E in einer Umgebung von x∗ , also auch eindeutig. Wir gehen in diesem Buch nicht näher auf die Theorie der Zentrumsmannigfaltigkeiten ein, und verweisen diesbezüglich z. B. auf Abraham und Robbin [18], Chicone [5] und Jost [15]. Kap. 11: Analog zu hyperbolischen Equilibria einer Gleichung x˙ = f (x) definiert man hyperbolische periodische Orbits als solche, die keine Floquet-Multiplikatoren auf dem Einheitskreis haben, außer dem algebraisch einfachen Multiplikator Eins. Man kann dann wie an Sattelpunkten stabile und instabile Mannigfaltigkeiten längs des periodischen Orbits konstruieren. Wir verweisen diesbezüglich auf Cronin [7] und [26]. Abschn. 11.5 ist der Ausgangspunkt für die Theorie der Verzweigung von periodischen Orbits. Hier gibt es eine Reihe von Szenarien: überquert ein algebraisch einfacher FloquetMultiplikator μ(λ) mit positiver Geschwindigkeit den Einheitskreis durch 1, so zweigen periodische Lösungen der gleichen Periode ab, dies ist die Pitchfork an periodischen Lösungen. Geht μ(λ) durch −1, so zweigen periodische Lösungen der doppelten Periode ab, das ist die sogenannte subharmonische Verzweigung. Geht μ(λ) durch einen Punkt e2π iθ , θ = 1/2 rational, so führt das zum Abzweigen quasiperiodischer Lösungen, und ist θ irrational, so erhält man als neue Zweige sogenannte invariante Tori um die gegebene periodische Lösung. Für ein weiteres Studium dieser schwierigen Thematik verweisen wir auf das Buch von Iooss [45]. Kap. 12: Die Anwendung der Hopf-Verzweigung auf Hamiltonsche Systeme ist dem Buch von Amann [1] entnommen, allerdings ist der hier angegebene Beweis etwas einfacher als der in [1]. In der chemischen Reaktionstechnik haben neben der eigentlichen chemischen Kinetik weitere Prozesse wie Konvektion und Diffusion Bedeutung. Das in Abschn. 12.6 behandelte Modell ist das Einfachste im Universum der chemischen Reaktionstechnik. Die hier präsentierte Verzweigungsanalysis beruht auf der Arbeit von Uppal, Ray und Poore [64], in der auch das komplette Verzweigungsdiagramm angegeben ist. Für eine interessante, mathematisch fundierte Einführung in die Theorie der Reaktionstechnik verweisen wir auf das hervorragende Buch von Levenspiel [49]. Hier konnten nur die grundlegenden Resultate der Verzweigungstheorie formuliert und bewiesen werden. Diese Theorie ist vor allem für unendlichdimensionale Systeme aktueller Forschungsgegenstand. Wir verweisen zum weiteren Studium dieser Thematik auf die Monographie von Chow und Hale [24]. Kap. 13: Obwohl in der Physik omnipräsent, sind Zwangsbedingungen in Standardlehrbüchern über gewöhnliche Differentialgleichungen ein eher stiefmütterlich behandeltes Thema. Der entsprechende Abschnitt soll zeigen, wie solche Bedingungen auf natürliche Weise zu Differentialgleichungen auf Mannigfaltigkeiten führen, und es soll deutlich gemacht werden, dass dies nicht eindeutig geht.

Epilog

423

Der nichttriviale Grenzübergang k → ∞ zur instantanen Reaktion in Abschn. 13.4.3. ist in der Arbeit von Bothe [20] explizit ausgeführt. Erst dieser Grenzübergang rechtfertigt hier die entsprechende Wahl der Projektion auf die Mannigfaltigkeit r(x) = 0. Die Theorie der Geodätischen auf Riemannschen Mannigfaltigkeiten ist ein zentrales Thema in der Differentialgeometrie. Dazu gibt es viele tiefliegende Resultate, die den Rahmen dieses Buchs bei weitem überschreiten. Daher seien interessierte Leser auf die einschlägige Literatur zur Differentialgeometrie wie z. B. do Carmo [29] verwiesen. Kap. 14: Zur mathematischen Modellierung in der Elektrophysiologie und Kardiologie sei auf Colli Francesco, Pavarino & Scacchi [25] verwiesen. In dieser Monographie wird das FitzHugh-Nagumo Modell hergeleitet und ausführlich diskutiert, sowie diverse Verfeinerungen, insbesondere auch das berühmte Hodgkin-Huxley Modell. Die Aussagen in Abschn. 14.3 lassen sich auf konvexe unterhalbstetige Funktionale in Hilberträumen verallgemeinern, wobei dann Aλ x nur schwach gegen yx0 für λ → 0+ gilt. Sie bilden den Ausgangspunkt für die Theorie maximal monotoner Operatoren in Hilberträumen. Die Standardreferenz dafür ist die Monographie von H. Brezis [21], die dem Leser zum weitergehenden Studium wärmstens empfohlen sei. Bis auf kleine Modifikationen bleiben alle Aussagen in Abschn. 14.4 in Hilberträumen richtig.

Literatur

Lehrbücher und Monographien 1. H. Amann, Gewöhnliche Differentialgleichungen, de Gruyter Lehrbuch. [de Gruyter Textbook] (Walter de Gruyter & Co., Berlin, 1983) 2. V.I. Arnold, Ordinary Differential Equations (The MIT Press, Cambridge/London, 1973) Translated from the Russian and edited by Richard A. Silverman 3. N.P. Bhatia, G.P. Szegö, Stability Theory of Dynamical Systems, Die Grundlehren der mathematischen Wissenschaften, Band 161 (Springer, New York, 1970) 4. M. Braun, Differential Equations and Their Applications: An Introduction to Applied Mathematics, 4th edn. Texts in Applied Mathematics, vol. 11 (Springer, New York, 1993) 5. C. Chicone, Ordinary Differential Equations with Applications, 2nd edn. Texts in Applied Mathematics, vol. 34 (Springer, New York, 2006) 6. A. Coddington, N. Levinson, Theory of Ordinary Differential Equations (McGraw-Hill Book Company, Inc., New York/Toronto/London, 1955) 7. J. Cronin, Differential Equations: Introduction and Qualitative Theory. Monographs and Textbooks in Pure and Applied Mathematics, vol. 54 (Marcel Dekker Inc., New York, 1980) 8. R.L. Devaney, An Introduction to Chaotic Dynamical Systems, 2nd edn. Addison-Wesley Studies in Nonlinearity (Addison-Wesley Publishing Company Advanced Book Program, Redwood City, 1989) 9. W. Hahn, Stability of Motion, Translated from the German manuscript by Arne P. Baartz. Die Grundlehren der mathematischen Wissenschaften, Band 138 (Springer, New York, 1967) 10. J.K. Hale, Ordinary Differential Equations. Pure and Applied Mathematics, vol. XXI (WileyInterscience [John Wiley & Sons], New York, 1969), 11. P. Hartman, Ordinary Differential Equations (Wiley, New York, 1964) 12. M. Hirsch, S. Smale, Differential Equations, Dynamical Systems, and Linear Algebra. Pure and Applied Mathematics, vol. 60 (Academic Press [A subsidiary of Harcourt Brace Jovanovich, Publishers], New York/London, 1974) 13. M.W. Hirsch, S. Smale, R.L. Devaney, Differential Equations, Dynamical Systems, and An Introduction to Chaos, 2nd edn. Pure and Applied Mathematics (Amsterdam), vol. 60 (Elsevier/Academic Press, Amsterdam, 2004) 14. D.W. Jordan, P. Smith, Nonlinear Ordinary Differential Equations: An Introduction for Scientists and Engineers, 4th edn. (Oxford University Press, Oxford, 2007) 15. J. Jost, Dynamical Systems: Examples of Complex Behaviour. Universitext (Springer, Berlin, 2005)

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8

425

426

Literatur

16. E. Kamke, Differentialgleichungen (B.G. Teubner, Stuttgart, 1977) Lösungsmethoden und Lösungen. I: Gewöhnliche Differentialgleichungen, Neunte Auflage, Mit einem Vorwort von Detlef Kamke 17. W. Walter, Gewöhnliche Differentialgleichungen, 5th edn. Springer-Lehrbuch. [Springer Textbook] (Springer, Berlin, 1993) Eine Einführung. [An introduction]

Originalliteratur 18. R. Abraham, J. Robbin, Transversal Mappings and Flows. An appendix by Al Kelley (W.A. Benjamin, Inc., New York/Amsterdam, 1967) 19. B. Aulbach, Continuous and Discrete Dynamics Near Manifolds of Equilibria. Lecture Notes in Mathematics, vol. 1058 (Springer, Berlin, 1984) 20. D. Bothe, Instantaneous limits of reversible chemical reactions in presence of macroscopic convection J. Differ. Equ. 193(1), 27–48 (2003) 21. H. Brézis, Opérateurs maximaux monotones et semi-groupes de contractions dans les espaces de Hilbert (North-Holland Publishing Co., Amsterdam/London; American Elsevier Publishing Co., Inc., New York, 1973) North-Holland Mathematics Studies, No. 5. Notas de Matemática (50) 22. R. Bürger, The Mathematical Theory of Selection, Recombination, and Mutation. Wiley Series in Mathematical and Computational Biology (Wiley, Chichester, 2000) 23. R. Chill, On the Lojasiewicz-Simon gradient inequality. J. Funct. Anal. 201(2), 572–601 (2003) 24. S.N. Chow, J.K. Hale, Methods of Bifurcation Theory, Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Science], vol. 251 (Springer, New York, 1982) 25. P. Colli Franzone, L. Pavarino, S. Scacchi, Mathematical Cardiac Electrophysiology. MS&A. Modeling, Simulation and Applications, vol. 13 (Springer, Cham, 2014) 26. J. Cronin, Branching of Periodic Solutions of Nonautonomous Systems. Nonlinear analysis (collection of papers in honor of Erich H. Rothe) (Academic, New York, 1978), pp. 69–81 27. K. Deimling, Nonlinear Functional Analysis (Springer, Berlin, 1985) 28. O. Diekmann, J.A.P. Heesterbeek, Mathematical Epidemiology of Infectious Diseases: Model Building, Analysis and Interpretation. Wiley Series in Mathematical and Computational Biology (Wiley, Chichester, 2000) 29. M.P. do Carmo, Riemannian Geometry. Mathematics: Theory & Applications (Birkhäuser Boston Inc., Boston, 1992), Translated from the second Portuguese edition by Francis Flaherty 30. P. Érdi, J. Tóth, Mathematical Models of Chemical Reactions, Nonlinear Science: Theory and Applications (Princeton University Press, Princeton, 1989), Theory and applications of deterministic and stochastic models 31. M. Feinberg, The existence and uniqueness of steady states for a class of chemical reaction networks. Arch. Rational Mech. Anal. 132(4), 311–370 (1995) 32. R.A. Fisher, The Genetical Theory of Natural Selection, variorum edn. (Oxford University Press, Oxford, 1999), Revised reprint of the 1930 original, Edited, with a foreword and notes, by J.H. Bennett 33. F.R. Gantmacher, Matrizentheorie (Springer, Berlin, 1986), With an appendix by V.B. Lidskij, With a preface by D.P. Želobenko, Translated from the second Russian edition by Helmut Boseck, Dietmar Soyka and Klaus Stengert 34. A. Goldbeter, R. Lefever, Dissipative structures for an allosteric model; application to glycolytic oscillations Biophysical J. 12 1302–1315 (1972)

Literatur

427

35. D.M. Grobman, Homeomorphism of systems of differential equations. Dokl. Akad. Nauk SSSR 128, 880–881 (1959) 36. K.P. Hadeler, R. Waldstätter, A. Wörz-Busekros, Models for pair formation in bisexual populations. J. Math. Biol. 26(6), 635–649 (1988) 37. A. Haraux, M.A. Jendoubi, Convergence of solutions of second-order gradient-like systems with analytic nonlinearities. J. Differ. Equ. 144(2), 313–320 (1998) 38. P. Hartman, A lemma in the theory of structural stability of differential equations. Proc. Am. Math. Soc. 11, 610–620 (1960) 39. M.-L. Hein, J. Prüss, The Hartman-Grobman theorem for semilinear hyperbolic evolution equations. J. Differ. Equ. 261(8), 4709–4727 (2016) 40. P. Hess, Periodic-Parabolic Boundary Value Problems and Positivity. Pitman Research Notes in Mathematics Series, vol. 247 (Longman Scientific & Technical, Harlow, 1991) 41. M.W. Hirsch, H. Smith, Monotone dynamical systems, in Handbook of Differential Equations: Ordinary Differential Equations, vol. II (Elsevier B.V., Amsterdam, 2005), pp. 239–357 42. F. Hoppensteadt, Mathematical Theories of Populations: Demographics, Genetics and Epidemics (Society for Industrial and Applied Mathematics, Philadelphia, 1975), Regional Conference Series in Applied Mathematics 43. F. Horn, R. Jackson, General mass action kinetics. Arch. Rational Mech. Anal. 47, 81–116 (1972) 44. S.-Z. Huang, Gradient Inequalities. Mathematical Surveys and Monographs, vol. 126 (American Mathematical Society, Providence, 2006), With applications to asymptotic behavior and stability of gradient-like systems 45. G. Iooss, Bifurcation of Maps and Applications. North-Holland Mathematics Studies, vol. 36 (North-Holland Publishing Co., Amsterdam, 1979) 46. J. Keener, J. Sneyd, Mathematical Physiology. Interdisciplinary Applied Mathematics, vol. 8 (Springer, New York, 1998) 47. A. Lajmanovich, J.A. Yorke, A deterministic model for gonorrhea in a nonhomogeneous population. Math. Biosci. 28(3/4), 221–236 (1976) 48. V. Lakshmikantham, S. Leela, Differential and Integral Inequalities: Theory and Applications. Vol. I: Ordinary Differential Equations (Academic, New York, 1969), Mathematics in Science and Engineering, vol. 55-I 49. O. Levenspiel, Chemical Reaction Engineering, 3. Auflage (Wiley, Hoboken, 1998) 50. S. Łojasiewicz, Une propriété topologique des sous-ensembles analytiques réels, Les Équations aux Dérivées Partielles (Paris, 1962), Éditions du Centre National de la Recherche Scientifique, Paris, 1963, pp. 87–89 51. S. Łojasiewicz, Sur les trajectoires du gradient d’une fonction analytique, Geometry seminars, 1982–1983 (Bologna, 1982/1983), Univ. Stud. Bologna, Bologna, 1984, pp. 115–117 52. V. Losert, E. Akin, Dynamics of games and genes: discrete versus continuous time. J. Math. Biol. 17(2), 241–251 (1983) 53. J.G. Malkin, Theorie der Stabilität einer Bewegung, In deutscher Sprache herausgegeben von W. Hahn und R. Reissig, R. Oldenbourg, Munich, 1959 54. J.D. Murray, Mathematical Biology. I: An Introduction, 3rd edn. Interdisciplinary Applied Mathematics, vol. 17 (Springer, New York, 2002) 55. M.A. Nowak, R.M. May, Virus Dynamics: Mathematical Principles of Immunology and Virology (Oxford University Press, Oxford, 2000) 56. J. Prüss, L. Pujo-Menjouet, G.F. Webb, R. Zacher, Analysis of a Model for the Dynamics of Prions. Discrete Contin. Dyn. Syst. Ser. B 6(1), 225–235 (2006) (electronic) 57. J. Prüss, W. Schappacher, Persistent age-distributions for a pair-formation model. J. Math. Biol. 33(1), 17–33 (1994)

428

Literatur

58. J. Prüss, R. Schnaubelt, R. Zacher, Mathematische Modelle in der Biologie (Birkhäuser-Verlag, Basel, 2008) 59. J. Prüss, G. Simonett, M. Wilke, Invariant foliations near normally hyperbolic equilibria for quasilinear parabolic problems. Adv. Nonlinear Stud. 13(1), 231–243 (2013) 60. J. Prüss, G. Simonett, R. Zacher, On convergence of solutions to equilibria for quasilinear parabolic problems. J. Differ. Equ. 246(10), 3902–3931 (2009) 61. H.H. Schaefer, Banach Lattices and Positive Operators (Springer, New York, 1974), Die Grundlehren der mathematischen Wissenschaften, Band 215 62. E.E. Selkov, Self-oscillations in glycolysis. Eur. J. Biochem. 4, 79–86 (1968) 63. G.R. Sell, Y. You, Dynamics of Evolutionary Equations. Applied Mathematical Sciences, vol. 143 (Springer, New York, 2002) 64. A. Uppal, W.H. Ray, A.B. Poore, On the dynamic behaviour of continuous tank reactors. Chem. Engin. Sci. 29, 967–985 (1974) 65. A.I. Volpert, V.A. Volpert, V.A. Volpert, Traveling wave solutions of parabolic systems, Translations of Mathematical Monographs, vol. 140 (American Mathematical Society, Providence, 1994), Translated from the Russian manuscript by James F. Heyda 66. W. Walter, Differential and Integral Inequalities, Translated from the German by Lisa Rosenblatt and Lawrence Shampine. Ergebnisse der Mathematik und ihrer Grenzgebiete, Band 55 (Springer, New York, 1970) 67. R. Zacher, Persistent solutions for age-dependent pair-formation models. J. Math. Biol. 42(6), 507–531 (2001)

Stichwortverzeichnis

A Abbildung Perioden- 86 Poincaré 86 Abhängigkeit, stetige 79, 141 Ableitung Dini 144 orbitale 184 Anfangswertproblem 5, 12 Anziehungsbereich 196 Attraktor 196 globaler 196

B Bahn 22, 94 Bendixson Negativkriterium von 235 Bernoulli-Balken 74 blow-up 13, 39 Brusselator 48, 134, 231, 233, 235, 331

D d’Alembert-Reduktion Gleichungen 1. Ordnung 55 Gleichungen n-ter Ordnung 67 Differential -Inklusion 405 -Komplementaritätsproblem 409 -Variationsungleichung 409 Differentialgleichung autonome 18 explizite 3

implizite 3 mit getrennten Variablen 16 partielle 4 Differentialgleichungssystem 10 linear homogenes 51 linear inhomogenes 54 Differentialungleichung 41, 82, 144, 170

E Eigenvektor 59 Eigenwert 59 algebraische Vielfachheit 61 einfach 61 geometrische Vielfachheit 61 halbeinfach 61 Eigenwertproblem, nichtlineares 166 Eindeutigkeitssatz 34 Endemiemodell SIR- 134 Epidemiemodell 9, 25, 48 SIRS- 48 SIS-Mehrklassen 420 Equilibrium 22 normal hyperbolisches 273 normal stabiles 273 Sub- 174 Super- 174 Erhaltungssatz 22 Existenzsatz von Peano 139 Existenzsatz von Picard–Lindelöf 35 Exponential-Ansatz 58 Exponentiallösungen 166

© Springer Nature Switzerland AG 2019 J. W. Prüss, M. Wilke, Gewöhnliche Differentialgleichungen und dynamische Systeme, Grundstudium Mathematik, https://doi.org/10.1007/978-3-030-12362-8

429

430 F Fixpunktsatz von Banach 35 von Brouwer 86 Flächendivergenz 361 Flächengradient 360 FloquetExponent 300 Multiplikator 295 Floquet-Theorie 294, 339 Fluss 93 Formel der Variation der Konstanten 21 Fortsetzungssatz 39, 141 Freiheitsgrad 5 Funktion konvex 394 Ljapunov 121, 183 negativ definit 192 nichtexpansiv 161 Osgood- 151 positiv definit 191 positiv homogen 165 quasimonoton 170, 173 quasipositiv 83 strikte Ljapunov- 121 Funktionalkalkül 291

G Gleichung Bernoulli- 28 Duffing- 248 Field-Noyes- 96 Fisher- 257 Fisher-Wright-Haldane- 200 FitzHugh-Nagumo- 96, 134, 181, 355, 381, 386 Goldbeter–Lefever-Modell 242 Lienard 236 lineare, n-ter Ordnung 66 Ljapunov- 186 Riccati- 28 Sel’kov-Modell 242 van-der-Pol- 240, 248 Volterra–Lotka- 9, 22, 37, 47, 82, 83, 94, 116, 122, 127, 129 Gradient 4

Stichwortverzeichnis Gradientensystem 122 Grenzzyklus 230

H Hamilton-System 186 Homogenität, positive 150 Hundekurve 48

I Index 245 isolierter Equilibria 243 Riesz- 61 Infektionskontaktrate 129, 177 Integral, erstes 22 Integralungleichung 40 Integrationskonstante 5 invariant 153 negativ 153 positiv 153 schwach 195 Isokline 15

J Jordan-Kurve 292 zulässige 292

K Kegel 171 dualer 171 echter 171 Koeffizient, stöchiometrischer 204 Konvergenzsatz von Lojasiewicz 212 Konvexität 161

L Lösung asymptotisch stabil 100, 189 attraktiv 100, 189 einer Differentialgleichung 4 instabil 100, 188 maximal 38 nichtfortsetzbar 140 periodisch 24, 85, 291

Stichwortverzeichnis stabil 100, 188 stationär 22, 24 uniform asymptotisch stabil 189 uniform attraktiv 189 uniform stabil 189 Laplace-Operator 256 Lemma von Gronwall 40 von Zorn 140 Limesmenge 194 Differentialgleichung, lineare 1. Ordnung 19, 51 n-ter Ordnung konstante Koeffizienten 72 periodische 300 Linienelement 15 Lipschitz global 31 lokal 31 Logistik 5

M Mannigfaltigkeit 357 instabile 253 stabile 253 Matrix -Exponentialfunktion 57 Fundamental- 52 Hauptfundamental- 52 irreduzibel 168 Lösungs- 52 Logarithmus einer 295 Monodromie- 295 quasipositiv 167 Maximallösung 144 Morse-Index 252

N Niveaumenge 22 Normale, äußere 154 Normalform 269, 275

O Orbit 22, 94 heteroklin 231, 258 homoklin 231

431 Oregonator 96 Oszillator van-der-Pol- 355

P Paarbildungsfunktion 150 positiv homogen 150 Pendel 8, 26, 37, 44, 93, 101, 116, 122, 127, 128 gefedertes Doppel- 75 Phase, asymptotische 305 Phasenebene 22 Positivität von Lösungen 83 Positivitätsbedingung 83 Projektion XVII metrische 161 Pulswellen 257

R Randwertproblem 13 Reaktion Belousov-Zhabotinski- 96 Elementar- 205 Gleichgewichts- 10 reversible 10 Zerfalls- 4 Reaktionsenthalpie 343 Reaktions-Diffusionsgleichungen Ebene Wellen für 256 Richtungsfeld 14 Routh-Hurwitz-Kriterium 120

S Sattelpunkt 251 Satz über implizite Funktionen 253 Umlaufsatz von Hopf 245 von Perron-Frobenius 168 von Cetaev-Krasovskij 203 von Floquet 298 von La Salle 196 von Peano 139 von Picard–Lindelöf 35 von Poincaré-Bendixson 230 Schwingungsgleichung 6 Simplex Standard- 167

432 Skalierung 23 Spektral-Zerlegung 62 Spektralabbildungssatz 294 Spektralschranke 111 Spektrum 111 Stöchiometrie 204 stabil asymptotisch orbital 305 orbital 305 strukturell 109 Stabilität periodischer Lösungen 303 Prinzip der linearisierten 111 Subdifferential 397 -Gleichungen 404 -Ungleichung 397 Subtangentialbedingung 154 Superpositionsprinzip 21 System dynamisches 93 Fundamental- 52 gradientenartig 201 Hauptfundamental- 52

T Teilraum, stöchiometrischer 205 Trajektorie 22, 94 Transversale 225, 226 Transversalitätsbedingung 328

Stichwortverzeichnis U Umkehrpunkt 320, 321 Ungleichung von Lojasiewicz 211 V van der Pol-Oszillator 238 Variation der Konstanten Gleichungen 1. Ordnung 19 Gleichungen n-ter Ordnung 66 Verzweigung Hopf- 331 Pitchfork 328 Sattel-Knoten 324 transkritische 329 Verzweigungsgleichung 327, 335 Virenmodell 131 W Wachstumsrate 4 Welle ebene 256 fortschreitende 257 stationäre 257 Wellenfront 257 Wellenzug 257 Wronski-Determinante 53 Y Yosida-Approximation 401