Numerische Mathematik kompakt [5 ed.]
 9783662641095, 9783662641101

Table of contents :
Vorwort
Inhaltsverzeichnis
1 Polynominterpolation
1.1 Allgemeine Vorbetrachtungen
1.2 Landausche Symbole
1.2.1 Einführung
1.2.2 Anwendung landauscher Symbole
1.2.3 Rechnen mit landauschen Symbolen
1.3 Existenz und Eindeutigkeit bei der Polynominterpolation
1.3.1 Die lagrangesche Interpolationsformel
1.3.2 Eine erste Vorgehensweise zur Berechnung des interpolierenden
Polynoms
1.4 Neville-Schema
1.5 Die newtonsche Interpolationsformel, dividierte
Differenzen
1.6 Fehlerdarstellungen zur Polynominterpolation
1.7 Tschebyscheff-Polynome
Weitere Themen und Literaturhinweise
Übungsaufgaben
2 Splinefunktionen
2.1 Einführende Bemerkungen
2.2 Interpolierende lineare Splinefunktionen
2.2.1 Die Berechnung interpolierender linearer Splinefunktionen
2.3 Minimaleigenschaften kubischer Splinefunktionen
2.4 Die Berechnung interpolierender kubischer Splinefunktionen
2.4.1 Vorüberlegungen
2.4.2 Natürliche Randbedingungen
2.4.3 Vollständige Randbedingungen
2.4.4 Periodische Randbedingungen
2.4.5 Existenz und Eindeutigkeit der betrachteten interpolierenden kubischen
Splines
2.5 Fehlerabschätzungen für interpolierende kubische
Splines
Weitere Themen und Literaturhinweise
Übungsaufgaben
3 Diskrete Fouriertransformation und Anwendungen
3.1 Diskrete Fouriertransformation
3.2 Anwendungen der diskreten Fouriertransformation
3.2.1 Fourierreihen
3.2.2 Zusammenhang zwischen komplexen Fourierkoeffizienten und der
diskreten Fouriertransformation
3.2.3 Trigonometrische Interpolation, Teil 1
3.2.4 Trigonometrische Interpolation, Teil 2
3.2.5 Trigonometrische Interpolation, Teil 3
3.2.6 Interpolierende reelle trigonometrische Polynome
3.3 Schnelle Fouriertransformation (FFT)
3.3.1 Einführende Bemerkungen
3.3.2 Der grundlegende Zusammenhang
3.3.3 Bit-Umkehr
3.3.4 Der FFT-Algorithmus in der Situation N = 2q
3.3.5 Aufwandsbetrachtungen für den FFT-Algorithmus
3.3.6 Pseudocode für den FFT-Algorithmus in der Situation N = 2q
Weitere Themen und Literaturhinweise
Übungsaufgaben
4 Lösung linearer Gleichungssysteme
4.1 Gestaffelte lineare Gleichungssysteme
4.1.1 Obere gestaffelte Gleichungssysteme
4.1.2 Untere gestaffelte Gleichungssysteme
4.2 Der Gauß-Algorithmus
4.2.1 Einführende Bemerkungen
4.2.2 Gauß-Algorithmus mit Pivotsuche
4.3 Die Faktorisierung PA = LR
4.3.1 Permutationsmatrix
4.3.2 Eliminationsmatrizen
4.3.3 Die Faktorisierung PA = LR
4.4 LR-Faktorisierung
4.5 Cholesky-Faktorisierung symmetrischer, positiv
definiter Matrizen
4.5.1 Grundbegriffe
4.5.2 Die Berechnung einer Faktorisierung A = LLT für positiv definite Matrizen A ∈ RNxN
4.5.3 Eine Klasse positiv definiter Matrizen
4.6 Bandmatrizen
4.7 Normen und Fehlerabschätzungen
4.7.1 Normen
4.7.2 Spezielle Matrixnormen
4.7.3 Die Konditionszahl einer Matrix
4.7.4 Störungsresultate für Matrizen
4.7.5 Fehlerabschätzungen für fehlerbehaftete Gleichungssysteme
4.8 Orthogonalisierungsverfahren
4.8.1 Elementare Eigenschaften orthogonaler Matrizen
4.8.2 Die Faktorisierung A = QR mittels Gram-Schmidt-Orthogonalisierung
4.8.3 Die Faktorisierung A = QS mittels Householder-Transformationen
4.8.4 Anwendung 1: Stabile Lösung schlecht konditionierter GleichungssystemeAx = b
4.8.5 Anwendung 2: Lineare Ausgleichsrechnung
Weitere Themen und Literaturhinweise
Übungsaufgaben
5 Iterative Lösung nichtlinearer Gleichungssysteme
5.1 Vorbemerkungen
5.2 Der eindimensionale Fall
5.2.1 Ein allgemeines Resultat
5.2.2 Das Newton-Verfahren im eindimensionalen Fall
5.3 Der banachsche Fixpunktsatz
5.4 Das Newton-Verfahren im mehrdimensionalen Fall
5.4.1 Einige Begriffe aus der Analysis
5.4.2 Das Newton-Verfahren und seine Konvergenz
5.4.3 Nullstellenbestimmung bei Polynomen
Weitere Themen und Literaturhinweise
Übungsaufgaben
6 Numerische Integration von Funktionen
6.1 Interpolatorische Quadraturformeln
6.2 Spezielle interpolatorische Quadraturformeln
6.2.1 Abgeschlossene Newton-Cotes-Formeln
6.2.2 Andere interpolatorische Quadraturformeln
6.3 Der Fehler bei der interpolatorischen Quadratur
6.4 Der Genauigkeitsgrad abgeschlossener Newton-Cotes-Formeln In für gerade Zahlen n
6.4.1 Der Beweis von Lemma 6.16
6.5 Summierte Quadraturformeln
6.5.1 Summierte Rechteckregeln
6.5.2 Summierte Trapezregel
6.5.3 Summierte Simpson-Regel
6.6 Asymptotik der summierten Trapezregel
6.6.1 Die Asymptotik
6.7 Extrapolationsverfahren
6.7.1 Grundidee
6.7.2 Neville-Schema
6.7.3 Verfahrensfehler bei der Extrapolation
6.8 Gaußsche Quadraturformeln
6.8.1 Einleitende Bemerkungen
6.8.2 Orthogonale Polynome
6.8.3 Optimale Wahl der Stützstellen und Gewichte
6.8.4 Nullstellen von orthogonalen Polynomen als Eigenwerte
6.9 Nachtrag: Beweis der Asymptotik für die summierte Trapezregel
6.9.1 Bernoulli-Polynome
6.9.2 Der Beweis von Theorem 6.24
Weitere Themen und Literaturhinweise
Übungsaufgaben
7 Explizite Einschrittverfahren für Anfangswertprobleme bei gewöhnlichen Differenzialgleichungen
7.1 Ein Existenz- und Eindeutigkeitssatz
7.2 Theorie der Einschrittverfahren
7.2.1 Ein elementares Resultat zur Fehlerakkumulation
7.3 Spezielle Einschrittverfahren
7.3.1 Einschrittverfahren der Konsistenzordnung p = 1
7.3.2 Einschrittverfahren der Konsistenzordnung p = 2
7.3.3 Einschrittverfahren der Konsistenzordnung p = 4
7.4 Rundungsfehleranalyse
7.5 Asymptotische Entwicklung der Approximationen
7.5.1 Einführende Bemerkungen
7.5.2 Herleitung der asymptotischen Entwicklung des globalen Verfahrensfehlers,
1. Teil
7.5.3 Herleitung der asymptotischen Entwicklung des globalen Verfahrensfehlers,
2. Teil
7.5.4 Asymptotische Entwicklungen des lokalen Verfahrensfehlers
7.6 Extrapolationsmethoden für Einschrittverfahren
7.7 Schrittweitensteuerung
7.7.1 Verfahrensvorschrift
7.7.2 Problemstellung
7.7.3 Vorgehensweise bei gegebener Testschrittweite h(k)
7.7.4 Bestimmung einer neuen Testschrittweite h(k+1) im Fall δ(k) > ε
7.7.5 Pseudocode zur Schrittweitensteuerung
Weitere Themen und Literaturhinweise
Übungsaufgaben
8 Mehrschrittverfahren für Anfangswertprobleme
bei gewöhnlichen Differenzialgleichungen
8.1 Grundlegende Begriffe
8.1.1 Mehrschrittverfahren
8.1.2 Konvergenz- und Konsistenzordnung
8.1.3 Nullstabilität, Lipschitzbedingung
8.1.4 Übersicht
8.2 Der globale Verfahrensfehler bei Mehrschrittverfahren
8.2.1 Das Konvergenztheorem
8.2.2 Hilfsresultat 1: Das Lemma von Gronwall
8.2.3 Beschränktheit der Matrixfolge A, A2, A3,...
8.2.4 Die Konsistenzordnung linearer Mehrschrittverfahren
8.3 Spezielle lineare Mehrschrittverfahren – Vorbereitungen
8.4 Adams-Verfahren
8.4.1 Der Ansatz
8.4.2 Adams-Bashfort-Verfahren
8.4.3 Adams-Moulton-Verfahren
8.5 Nyström- und Milne-Simpson-Verfahren
8.5.1 Der Ansatz
8.5.2 Nyström-Verfahren
8.5.3 Milne-Simpson-Verfahren
8.6 BDF-Verfahren
8.6.1 Der Ansatz
8.6.2 Tabellarische Übersicht über spezielle Mehrschrittverfahren
8.7 Prädiktor-Korrektor-Verfahren
8.7.1 Linearer Prädiktor/Linearer Korrektor
8.8 Lineare homogene Differenzengleichungen
8.8.1 Die Testgleichung
8.8.2 Existenz und Eindeutigkeit bei linearen homogenen Differenzengleichungen
8.8.3 Die komplexwertige allgemeine Lösung der homogenen Differenzengleichung Lu = 0
8.8.4 Die reellwertige allgemeine Lösung der homogenen Differenzengleichung Lu = 0
8.8.5 Eine spezielle Differenzengleichung
8.9 Steife Differenzialgleichungen
8.9.1 Einführende Bemerkungen
8.9.2 Existenz und Eindeutigkeit der Lösung bei Anfangswertproblemen
für Differenzialgleichungen mit oberer Lipschitzeigenschaft
8.9.3 Das implizite Euler-Verfahren für steife Differenzialgleichungen
8.9.4 Steife Differenzialgleichungen in den Anwendungen
Weitere Themen und Literaturhinweise
Übungsaufgaben
9 Randwertprobleme bei gewöhnlichen Differenzialgleichungen
9.1 Problemstellung, Existenz, Eindeutigkeit
9.1.1 Problemstellung
9.1.2 Existenz und Eindeutigkeit der Lösung
9.2 Differenzenverfahren
9.2.1 Numerische Differenziation
9.2.2 Der Ansatz für Differenzenverfahren
9.2.3 Das Konvergenzresultat für Differenzenverfahren
9.2.4 Vorbereitungen für den Beweis von Teil a) des Theorems 9.11
9.2.5 Nachweis der Aussage in Teil a) von Theorem 9.11
9.3 Galerkin-Verfahren
9.3.1 Einführende Bemerkungen
9.3.2 Eigenschaften des Differenzialoperators Lu = u" + ru
9.3.3 Galerkin-Verfahren – ein allgemeiner Ansatz
9.3.4 Systemmatrix
9.3.5 Finite-Elemente-Methode
9.3.6 Anwendungen
9.3.7 Das Energiefunktional
9.4 Einfachschießverfahren
9.4.1 Numerische Realisierung des Einfachschießverfahrens mit dem
Newton-Verfahren
9.4.2 Numerische Realisierung des Einfachschießverfahrens mit einer
Fixpunktiteration
Weitere Themen und Literaturhinweise
Übungsaufgaben
10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren zur Lösung linearer Gleichungssysteme
10.1 Iterationsverfahren zur Lösung linearer Gleichungssysteme
10.1.1 Hintergrund zum Einsatz iterativer Verfahren bei linearen Gleichungssystemen
10.2 Lineare Fixpunktiteration
10.2.1 Ein Modellbeispiel
10.3 Einige spezielle Klassen von Matrizen und ihre Eigenschaften
10.3.1 Irreduzible Matrizen
10.4 Das Gesamtschrittverfahren
10.5 Das Einzelschrittverfahren
10.5.1 Der Betrag einer Matrix
10.5.2 Konvergenzergebnisse für das Einzelschrittverfahren
10.6 Das Relaxationsverfahren und erste Konvergenzresultate
10.6.1 M-Matrizen
10.7 Das Relaxationsverfahren für konsistent geordnete Matrizen
Weitere Themen und Literaturhinweise
Übungsaufgaben
11 Verfahren der konjugierten Gradienten und
GMRES-Verfahren
11.1 Vorbetrachtungen
11.1.1 Ausblick
11.2 Der Ansatz des orthogonalen Residuums für positiv definite
Matrizen
11.2.1 Existenz, Eindeutigkeit und Minimaleigenschaft
11.2.2 Der Ansatz des orthogonalen Residuums (11.2) für gegebene A-konjugierte Basen
11.3 Das CG-Verfahren für positiv definite Matrizen
11.3.1 Einleitende Bemerkungen
11.3.2 Die Berechnung A-konjugierter Suchrichtungen in Kn(A, b)
11.3.3 Der Algorithmus zum CG-Verfahren
11.4 Die Konvergenzgeschwindigkeit des CG-Verfahrens
11.5 Das CG-Verfahren für die Normalgleichungen
11.6 Arnoldi-Prozess
11.6.1 Vorbetrachtungen zum GMRES-Verfahren
11.6.2 Arnoldi-Prozess
11.7 Realisierung von GMRES auf der Basis des
Arnoldi-Prozesses
11.7.1 Einführende Bemerkungen
11.7.2 Allgemeine Vorgehensweise zur Lösung des
Minimierungsproblems (11.32)
11.7.3 Detaillierte Beschreibung der Vorgehensweise zur Lösung des Minimierungsproblems
(11.32)
11.7.4 Matlab-Programm für GMRES
11.8 Konvergenzgeschwindigkeit des GMRES-Verfahrens
11.9 Nachtrag 1: Krylovräume
11.10 Nachtrag 2: Interaktive Programmsysteme mit Multifunktionalität
Weitere Themen und Literaturhinweise
Übungsaufgaben
12 Eigenwertprobleme
12.1 Einleitung
12.2 Störungstheorie für Eigenwertprobleme
12.2.1 Diagonalisierbare Matrizen
12.2.2 Der allgemeine Fall
12.3 Lokalisierung von Eigenwerten
12.4 Variationsformulierung für Eigenwerte von symmetrischen
Matrizen
12.5 Störungsresultate für Eigenwerte symmetrischer Matrizen
12.6 Nachtrag: Faktorisierungen von Matrizen
12.6.1 Symmetrische Matrizen
12.6.2 Diagonalisierbare Matrizen
12.6.3 Schur-Faktorisierung
Weitere Themen und Literaturhinweise
Übungsaufgaben
13 Numerische Verfahren für Eigenwertprobleme
13.1 Einführende Bemerkungen
13.1.1 Ähnlichkeitstransformationen
13.1.2 Vektoriteration
13.2 Transformation auf Hessenbergform
13.2.1 Householder-Ähnlichkeitstransformationen zur Gewinnung von
Hessenbergmatrizen
13.2.2 Der symmetrische Fall
13.3 Newton-Verfahren zur Berechnung der Eigenwerte von
Hessenbergmatrizen
13.3.1 Der nichtsymmetrische Fall. Die Methode von Hyman
13.3.2 Das Newton-Verfahren zur Berechnung der Eigenwerte tridiagonaler
Matrizen
13.4 Jacobi-Verfahren zur Nichtdiagonaleinträge-Reduktion
bei symmetrischen Matrizen
13.4.1 Approximation der Eigenwerte durch Diagonaleinträge
13.4.2 Givensrotationen zur Reduktion der Nichtdiagonaleinträge
13.4.3 Zwei spezielle Jacobi-Verfahren
13.5 Das QR-Verfahren
13.5.1 Eindeutigkeit und Stetigkeit der QR-Faktorisierung einer Matrix
13.5.2 Definition des QR-Verfahrens
13.5.3 Konvergenz des QR-Verfahrens für betragsmäßig einfache Eigenwerte
13.5.4 Praktische Durchführung des QR-Verfahrens für Hessenbergmatrizen
13.6 Das LR-Verfahren
13.7 Die Vektoriteration
13.7.1 Definition und Eigenschaften der Vektoriteration
13.7.2 Spezielle Vektoriterationen
Weitere Themen und Literaturhinweise
Übungsaufgaben
14 Restglieddarstellung nach Peano
14.1 Einführende Bemerkungen
14.2 Peano-Kerne
14.3 Anwendungen
14.3.1 Interpolation
14.3.2 Numerische Integration
Weitere Themen und Literaturhinweise
Übungsaufgaben
15 Approximationstheorie
15.1 Einführende Bemerkungen
15.2 Existenz eines Proximums
15.3 Eindeutigkeit eines Proximums
15.3.1 Einige Notationen; streng konvexe Mengen
15.3.2 Strikt normierte Räume
15.4 Approximationstheorie in Räumen mit Skalarprodukt
15.4.1 Einige Grundlagen
15.4.2 Proxima in linearen Unterräumen
15.5 Gleichmäßige Approximation stetiger Funktionen durch Polynome vom Höchstgrad n - 1
15.6 Anwendungen des Alternantensatzes
15.6.1 Ein Beispiel
15.6.3 Eine zweite Anwendung des Alternantensatzes
15.7 Haarsche Räume, Tschebyscheff-Systeme
15.7.1 Alternantensatz für haarsche Räume
15.7.2 Eindeutigkeit des Proximums
15.7.3 Untere Schranken für den Minimalabstand
Weitere Themen und Literaturhinweise
Übungsaufgaben
16 Rechnerarithmetik
16.1 Zahlendarstellungen
16.2 Allgemeine Gleitpunkt-Zahlensysteme
16.2.1 Grundlegende Begriffe
16.2.2 Struktur des normalisierten Gleitpunkt-Zahlensystems F
16.2.3 Struktur des denormalisierten Gleitpunkt-Zahlensystems F
16.3 Gleitpunkt-Zahlensysteme in der Praxis
16.3.1 Die Gleitpunktzahlen des Standards IEEE 754
16.3.2 Weitere Gleitpunkt-Zahlensysteme in der Praxis
16.4 Runden, Abschneiden
16.4.1 Runden
16.4.2 Abschneiden
16.5 Arithmetik in Gleitpunkt-Zahlensystemen
16.5.1 Arithmetische Grundoperationen in Gleitpunkt-Zahlensystemen
16.5.2 Fehlerakkumulation bei der Hintereinanderausführung von Multiplikationen
und Divisionen in Gleitpunkt-Zahlensystemen
16.5.3 Fehlerverstärkung bei der Hintereinanderausführung von Additionen
in einem gegebenen Gleitpunkt-Zahlensystem F
Weitere Themen und Literaturhinweise
Literaturverzeichnis
Index

Citation preview

Robert Plato

Numerische Mathematik kompakt Grundlagenwissen für Studium und Praxis 5. Auflage

Numerische Mathematik kompakt

Robert Plato

Numerische Mathematik kompakt Grundlagenwissen für Studium und Praxis

Robert Plato Department Mathematik Universität Siegen Siegen, Deutschland

ISBN 978-3-662-64109-5 ISBN 978-3-662-64110-1  (eBook) https://doi.org/10.1007/978-3-662-64110-1 Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2000, 2004, 2006, 2010, 2021 Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen. Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten. Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral. Planung/Lektorat: Annika Denkert Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature. Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany

Vorwort In diesem Lehrbuch werden in kompakter Form zahlreiche grundlegende und für die Anwendungen wichtige Themenkomplexe aus der numerischen Mathematik behandelt: 

Interpolation, schnelle Fouriertransformation und Integration,



direkte und iterative Lösung linearer Gleichungssysteme,



iterative Verfahren für nichtlineare Gleichungssysteme,



numerische Lösung von Anfangs- und Randwertproblemen bei gewöhnlichen Differenzialgleichungen,



Eigenwertaufgaben bei Matrizen,



Approximationstheorie und Rechnerarithmetik.

Auf die Behandlung der Numerik partieller Differenzialgleichungen sowie der nichtlinearen Optimierung wird aufgrund des angestrebten überschaubaren Umfangs verzichtet. Die erste Auflage des vorliegenden Lehrbuchs ist hervorgegangen aus einem zweiteiligen Vorlesungszyklus mit jeweils vierstündigen Vorlesungen über numerische Mathematik, den ich im Zeitraum 1997–2000 wiederholt an der Technischen Universität Berlin durchgeführt habe. Diese Vorlesungen sind in erster Linie von Studierenden der Mathematik besucht worden, zu einem kleineren Teil von Studierenden aus der Physik und der Informatik. In seiner jetzigen Form richtet sich das Lehrbuch an Studierende und Absolventen der Mathematik sowie benachbarter Fächer wie Informatik, Natur- und Ingenieurwissenschaften an Universitäten und Fachhochschulen. Das Bestreben dieses Lehrbuchs ist es, die vorliegenden Themen auf möglichst elementare und übersichtliche Weise zu behandeln. Dies gilt auch für die Herleitung der Approximationseigenschaften der vorgestellten numerischen Methoden, bei der jeweils lediglich Grundkenntnisse der Analysis und der linearen Algebra vorausgesetzt werden. Außerdem sind für viele der diskutierten Verfahren die jeweiligen Vorgehensweisen durch Abbildungen und Schemata veranschaulicht, was das Erlernen der auftretenden Zusammenhänge erleichtern sollte. Für zahlreiche der behandelten Verfahren werden praktisch relevante Aufwandsbetrachtungen angestellt und Pseudocodes angegeben, die sich unmittelbar in Computerprogramme umsetzen lassen. Die etwa 200 vorgestellten Übungsaufgaben unterschiedlichen Schwierigkeitsgrads sind fast alle im Übungsbetrieb verwendet worden und daher praxiserprobt. Zu zahlreichen der in diesem Lehrbuch vorgestellten Aufgaben finden Sie vollständige Lösungswege in dem Übungsbuch [83]. Ich selbst habe Vorläufer dieses Lehrbuchs und dann das Lehrbuch selbst ohne weitere Themenauswahl als Vorlage für Vorlesungen über numerische Mathematik 1 und 2 verwendet. Dabei wurden in der Regel die ersten sechs Kapitel in Teil 1 behandelt, und die Kapitel 7 bis maximal einschließlich 13 in Teil 2 der Vorlesung. Möglich wäre es aber auch, im ersten Teil die Behandlung des sechsten Kapitels über

VI

Vorwort

numerische Integration deutlich abzukürzen. Stattdessen könnten dann im ersten Teil beispielsweise noch die Grundlagen über Einschrittverfahren zur numerischen Lösung von Anfangswertproblemen bei gewöhnlichen Differentialgleichungen (Kapitel 7) oder Relaxationsverfahren zur iterativen Lösung linearer Gleichungssysteme (Kapitel 10) vorgestellt werden. Für diese fünfte Auflage sind erneut Aktualisierungen, Korrekturen und Klarstellungen vorgenommen worden. Dabei sind auch Erfahrungen aus verschiedenen in der jüngeren Vergangenheit an der Universität Siegen durchgeführten Lehrveranstaltungen zur Numerik eingeflossen, von denen einige an Studierende der Mathematik gerichtet waren, andere an Studierende des Bauingenieurwesens. Aus diesen Lehrveranstaltungen sind auch zahlreiche weitere Übungsaufgaben in das Lehrbuch integriert worden. Darüber hinaus gibt es zahlreiche stilistische Änderungen, und an einigen Stellen sind Beispiele und Erläuterungen ergänzt worden. Außerdem sind die Ausführungen zu landauschen Symbolen erweitert worden, da sich bei diesem Thema erfahrungsgemäß oftmals Verständnisprobleme zeigen. Mein Dank gilt meinen ehemaligen Kollegen Prof. Dr. Rolf-Dieter Grigorieff sowie Prof. Dr. Etienne Emmrich von der TU Berlin für viele nützliche Anregungen zur ersten Auflage. Außerdem danke ich Prof. Dr. Chuck Groetsch, Prof. Dr. Martin HankeBourgeois und Prof. Dr. Hans-Jürgen Reinhardt für die Unterstützung beim Zustandekommen der ersten Auflage. Ich möchte dem Verlag Springer Nature, insbesondere Frau Dr. Denkert und Frau Lerch, für die gute Zusammenarbeit während der Erstellung dieser Neuauflage danken. Hinweise und Verbesserungsvorschläge zu diesem Lehrbuch erreichen mich unter der Email-Adresse [email protected] Siegen, im Juli 2021

Robert Plato

Inhaltsverzeichnis

Vorwort Inhaltsverzeichnis 1 Polynominterpolation 1.1 Allgemeine Vorbetrachtungen . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Landausche Symbole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Anwendung landauscher Symbole . . . . . . . . . . . . . . . . . 1.2.3 Rechnen mit landauschen Symbolen . . . . . . . . . . . . . . . . 1.3 Existenz und Eindeutigkeit bei der Polynominterpolation . . . . . . . . 1.3.1 Die lagrangesche Interpolationsformel . . . . . . . . . . . . . . . 1.3.2 Erste Vorgehensweise zur Berechnung des interpolierenden Polynoms . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Neville-Schema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5 Die newtonsche Interpolationsformel, dividierte Differenzen . . . . . . 1.6 Fehlerdarstellungen zur Polynominterpolation . . . . . . . . . . . . . . 1.7 Tschebyscheff-Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

V VII 1 1 2 2 3 4 5 5 6 8 9 12 15 19 20

2 Splinefunktionen 2.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Interpolierende lineare Splinefunktionen . . . . . . . . . . . . . . . . . 2.2.1 Die Berechnung interpolierender linearer Splinefunktionen . . . 2.3 Minimaleigenschaften kubischer Splinefunktionen . . . . . . . . . . . . 2.4 Die Berechnung interpolierender kubischer Splinefunktionen . . . . . 2.4.1 Vorüberlegungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.2 Natürliche Randbedingungen . . . . . . . . . . . . . . . . . . . . 2.4.3 Vollständige Randbedingungen . . . . . . . . . . . . . . . . . . . 2.4.4 Periodische Randbedingungen . . . . . . . . . . . . . . . . . . . 2.4.5 Existenz und Eindeutigkeit der betrachteten interpolierenden kubischen Splines . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Fehlerabschätzungen für interpolierende kubische Splines . . . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

23 23 24 24 25 27 27 30 30 31

3 Diskrete Fouriertransformation und Anwendungen 3.1 Diskrete Fouriertransformation . . . . . . . . . . . . . . . . . . . . . . . 3.2 Anwendungen der diskreten Fouriertransformation . . . . . . . . . . . 3.2.1 Fourierreihen . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

41 41 42 43

31 32 37 38

VIII

Inhaltsverzeichnis

3.3

– –

3.2.2 Zusammenhang zwischen komplexen Fourierkoeffizienten und der diskreten Fouriertransformation . . . . . . . . . . . . . . . . 3.2.3 Trigonometrische Interpolation, Teil 1 . . . . . . . . . . . . . . . 3.2.4 Trigonometrische Interpolation, Teil 2 . . . . . . . . . . . . . . . 3.2.5 Trigonometrische Interpolation, Teil 3 . . . . . . . . . . . . . . . 3.2.6 Interpolierende reelle trigonometrische Polynome . . . . . . . . Schnelle Fouriertransformation (FFT) . . . . . . . . . . . . . . . . . . . 3.3.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Der grundlegende Zusammenhang . . . . . . . . . . . . . . . . . 3.3.3 Bit-Umkehr . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 Der FFT-Algorithmus in der Situation N D 2q . . . . . . . . . . 3.3.5 Aufwandsbetrachtungen für den FFT-Algorithmus . . . . . . . . 3.3.6 Pseudocode für den FFT-Algorithmus in der Situation N D 2q . Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

4 Lösung linearer Gleichungssysteme 4.1 Gestaffelte lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 4.1.1 Obere gestaffelte Gleichungssysteme . . . . . . . . . . . . . . . . 4.1.2 Untere gestaffelte Gleichungssysteme . . . . . . . . . . . . . . . 4.2 Der Gauß-Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . 4.2.2 Gauß-Algorithmus mit Pivotsuche . . . . . . . . . . . . . . . . . 4.3 Die Faktorisierung PA D LR . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Permutationsmatrix . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Eliminationsmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Die Faktorisierung PA D LR . . . . . . . . . . . . . . . . . . . . 4.4 LR-Faktorisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5 Cholesky-Faktorisierung positiv definiter Matrizen . . . . . . . . . . . 4.5.1 Grundbegriffe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.2 Die Berechnung einer Faktorisierung A D LL> für positiv definite Matrizen A 2 R N N . . . . . . . . . . . . . . . . . . . . . . . 4.5.3 Eine Klasse positiv definiter Matrizen . . . . . . . . . . . . . . . 4.6 Bandmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7 Normen und Fehlerabschätzungen . . . . . . . . . . . . . . . . . . . . . 4.7.1 Normen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7.2 Spezielle Matrixnormen . . . . . . . . . . . . . . . . . . . . . . . 4.7.3 Die Konditionszahl einer Matrix . . . . . . . . . . . . . . . . . . . 4.7.4 Störungsresultate für Matrizen . . . . . . . . . . . . . . . . . . . 4.7.5 Fehlerabschätzungen für fehlerbehaftete Gleichungssysteme . 4.8 Orthogonalisierungsverfahren . . . . . . . . . . . . . . . . . . . . . . . 4.8.1 Elementare Eigenschaften orthogonaler Matrizen . . . . . . . . 4.8.2 Die Faktorisierung A D QR mittels Gram-Schmidt-Orthogonalisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

44 45 46 46 48 50 50 50 52 53 55 56 56 57 61 62 63 63 64 64 67 68 68 70 72 75 76 76 79 80 81 82 83 86 90 90 92 93 93 94

IX

Inhaltsverzeichnis

– –

4.8.3 Die Faktorisierung A D QS mittels Householder-Transformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 4.8.4 Anwendung 1: Stabile Lösung schlecht konditionierter Gleichungssysteme Ax D b . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 4.8.5 Anwendung 2: Lineare Ausgleichsrechnung . . . . . . . . . . . . 99 Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . 102 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5 Iterative Lösung nichtlinearer Gleichungssysteme 5.1 Vorbemerkungen . . . . . . . . . . . . . . . . . . . . . . 5.2 Der eindimensionale Fall . . . . . . . . . . . . . . . . . . 5.2.1 Ein allgemeines Resultat . . . . . . . . . . . . . . 5.2.2 Das Newton-Verfahren im eindimensionalen Fall 5.3 Der banachsche Fixpunktsatz . . . . . . . . . . . . . . . 5.4 Das Newton-Verfahren im mehrdimensionalen Fall . . 5.4.1 Einige Begriffe aus der Analysis . . . . . . . . . . 5.4.2 Das Newton-Verfahren und seine Konvergenz . 5.4.3 Nullstellenbestimmung bei Polynomen . . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

109 109 111 111 112 115 118 118 120 122 126 127

6 Numerische Integration von Funktionen 6.1 Interpolatorische Quadraturformeln . . . . . . . . . . . . . . . . 6.2 Spezielle interpolatorische Quadraturformeln . . . . . . . . . . 6.2.1 Abgeschlossene Newton-Cotes-Formeln . . . . . . . . . . 6.2.2 Andere interpolatorische Quadraturformeln . . . . . . . 6.3 Der Fehler bei der interpolatorischen Quadratur . . . . . . . . . 6.4 Genauigkeit abgeschlossener Newton-Cotes-Formeln . . . . . . 6.4.1 Der Beweis von Lemma 6.16 . . . . . . . . . . . . . . . . . 6.5 Summierte Quadraturformeln . . . . . . . . . . . . . . . . . . . . 6.5.1 Summierte Rechteckregeln . . . . . . . . . . . . . . . . . . 6.5.2 Summierte Trapezregel . . . . . . . . . . . . . . . . . . . . 6.5.3 Summierte Simpson-Regel . . . . . . . . . . . . . . . . . . 6.6 Asymptotik der summierten Trapezregel . . . . . . . . . . . . . 6.6.1 Die Asymptotik . . . . . . . . . . . . . . . . . . . . . . . . 6.7 Extrapolationsverfahren . . . . . . . . . . . . . . . . . . . . . . . 6.7.1 Grundidee . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.7.2 Neville-Schema . . . . . . . . . . . . . . . . . . . . . . . . 6.7.3 Verfahrensfehler bei der Extrapolation . . . . . . . . . . . 6.8 Gaußsche Quadraturformeln . . . . . . . . . . . . . . . . . . . . 6.8.1 Einleitende Bemerkungen . . . . . . . . . . . . . . . . . . 6.8.2 Orthogonale Polynome . . . . . . . . . . . . . . . . . . . . 6.8.3 Optimale Wahl der Stützstellen und Gewichte . . . . . . 6.8.4 Nullstellen von orthogonalen Polynomen als Eigenwerte 6.9 Beweis der Asymptotik für die summierte Trapezregel . . . . . 6.9.1 Bernoulli-Polynome . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

131 132 133 133 135 136 139 141 143 144 145 145 147 147 147 147 148 149 151 151 152 155 158 160 160

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

X

Inhaltsverzeichnis

– –

6.9.2 Der Beweis von Theorem 6.24 . . . . . . . . . . . . . . . . . . . 161 Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . 163 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

7 Einschrittverfahren für Anfangswertprobleme 7.1 Ein Existenz- und Eindeutigkeitssatz . . . . . . . . . . . . . . . . . . . . 7.2 Theorie der Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . 7.2.1 Ein elementares Resultat zur Fehlerakkumulation . . . . . . . . 7.3 Spezielle Einschrittverfahren . . . . . . . . . . . . . . . . . . . . . . . . 7.3.1 Einschrittverfahren der Konsistenzordnung p D 1 . . . . . . . . 7.3.2 Einschrittverfahren der Konsistenzordnung p D 2 . . . . . . . . 7.3.3 Einschrittverfahren der Konsistenzordnung p D 4 . . . . . . . . 7.4 Rundungsfehleranalyse . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.5 Asymptotische Entwicklung der Approximationen . . . . . . . . . . . . 7.5.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . 7.5.2 Herleitung der asymptotischen Entwicklung des globalen Verfahrensfehlers, 1. Teil . . . . . . . . . . . . . . . . . . . . . . . . 7.5.3 Herleitung der asymptotischen Entwicklung des globalen Verfahrensfehlers, 2. Teil . . . . . . . . . . . . . . . . . . . . . . . . 7.5.4 Asymptotische Entwicklungen des lokalen Verfahrensfehlers . 7.6 Extrapolationsmethoden für Einschrittverfahren . . . . . . . . . . . . . 7.7 Schrittweitensteuerung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.7.1 Verfahrensvorschrift . . . . . . . . . . . . . . . . . . . . . . . . . 7.7.2 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.7.3 Vorgehensweise bei gegebener Testschrittweite h.k/ . . . . . . . 7.7.4 Bestimmung einer neuen Testschrittweite h.kC1/ im Fall ı .k/ > " 7.7.5 Pseudocode zur Schrittweitensteuerung . . . . . . . . . . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

167 169 171 173 173 173 174 176 177 178 178

8 Mehrschrittverfahren für Anfangswertprobleme 8.1 Grundlegende Begriffe . . . . . . . . . . . . . . . . . . . . . . . 8.1.1 Mehrschrittverfahren . . . . . . . . . . . . . . . . . . . . 8.1.2 Konvergenz- und Konsistenzordnung . . . . . . . . . . 8.1.3 Nullstabilität, Lipschitzbedingung . . . . . . . . . . . . 8.1.4 Übersicht . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.2 Der globale Verfahrensfehler bei Mehrschrittverfahren . . . . 8.2.1 Das Konvergenztheorem . . . . . . . . . . . . . . . . . . 8.2.2 Hilfsresultat 1: Das Lemma von Gronwall . . . . . . . . 8.2.3 Beschränktheit der Matrixfolge A; A2 ; A3 ; : : : . . . . . . 8.2.4 Die Konsistenzordnung linearer Mehrschrittverfahren 8.3 Spezielle lineare Mehrschrittverfahren – Vorbereitungen . . . 8.4 Adams-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.1 Der Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . 8.4.2 Adams-Bashfort-Verfahren . . . . . . . . . . . . . . . . . 8.4.3 Adams-Moulton-Verfahren . . . . . . . . . . . . . . . . .

197 197 197 198 199 200 200 200 203 205 206 208 211 211 211 214

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

. . . . . . . . . . . . . . .

180 181 184 185 188 188 188 189 190 191 192 192

XI

Inhaltsverzeichnis

8.5

8.6

8.7 8.8

8.9

– –

Nyström- und Milne-Simpson-Verfahren . . . . . . . . . . . . . . . . . . 216 8.5.1 Der Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 8.5.2 Nyström-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 217 8.5.3 Milne-Simpson-Verfahren . . . . . . . . . . . . . . . . . . . . . . 218 BDF-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 8.6.1 Der Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220 8.6.2 Tabellarische Übersicht über spezielle Mehrschrittverfahren . . 222 Prädiktor-Korrektor-Verfahren . . . . . . . . . . . . . . . . . . . . . . . 223 8.7.1 Linearer Prädiktor/Linearer Korrektor . . . . . . . . . . . . . . . 227 Lineare homogene Differenzengleichungen . . . . . . . . . . . . . . . . 228 8.8.1 Die Testgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 8.8.2 Existenz und Eindeutigkeit bei linearen homogenen Differenzengleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 8.8.3 Die komplexwertige allgemeine Lösung der homogenen Differenzengleichung Lu D 0 . . . . . . . . . . . . . . . . . . . . . . . 229 8.8.4 Die reellwertige allgemeine Lösung der homogenen Differenzengleichung Lu D 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 8.8.5 Eine spezielle Differenzengleichung . . . . . . . . . . . . . . . . 234 Steife Differenzialgleichungen . . . . . . . . . . . . . . . . . . . . . . . 237 8.9.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . 237 8.9.2 Existenz und Eindeutigkeit der Lösung bei Anfangswertproblemen für Differenzialgleichungen mit oberer Lipschitzeigenschaft 239 8.9.3 Das implizite Euler-Verfahren für steife Differenzialgleichungen 242 8.9.4 Steife Differenzialgleichungen in den Anwendungen . . . . . . . 244 Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . 245 Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246

9 Randwertprobleme 9.1 Problemstellung, Existenz, Eindeutigkeit . . . . . . . . . . . . . 9.1.1 Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . 9.1.2 Existenz und Eindeutigkeit der Lösung . . . . . . . . . . . 9.2 Differenzenverfahren . . . . . . . . . . . . . . . . . . . . . . . . . 9.2.1 Numerische Differenziation . . . . . . . . . . . . . . . . . 9.2.2 Der Ansatz für Differenzenverfahren . . . . . . . . . . . 9.2.3 Das Konvergenzresultat für Differenzenverfahren . . . . 9.2.4 Vorbereitungen für den Beweis von Teil a) des Theorems 9.2.5 Nachweis der Aussage in Teil a) von Theorem 9.11 . . . . 9.3 Galerkin-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . 9.3.2 Eigenschaften des Differenzialoperators Lu D u00 C ru 9.3.3 Galerkin-Verfahren – ein allgemeiner Ansatz . . . . . . . 9.3.4 Systemmatrix . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.5 Finite-Elemente-Methode . . . . . . . . . . . . . . . . . . . 9.3.6 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . 9.3.7 Das Energiefunktional . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . 9.11 . . . . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

253 253 253 255 256 256 257 259 260 265 265 266 266 269 272 273 275 277

XII

Inhaltsverzeichnis

9.4

– –

Einfachschießverfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.1 Numerische Realisierung des Einfachschießverfahrens mit dem Newton-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.4.2 Numerische Realisierung des Einfachschießverfahrens mit einer Fixpunktiteration . . . . . . . . . . . . . . . . . . . . . . . . . Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren 10.1 Iterationsverfahren zur Lösung linearer Gleichungssysteme . . . 10.1.1 Hintergrund zum Einsatz iterativer Verfahren bei linearen chungssystemen . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Lineare Fixpunktiteration . . . . . . . . . . . . . . . . . . . . . . . 10.2.1 Ein Modellbeispiel . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Einige spezielle Klassen von Matrizen . . . . . . . . . . . . . . . . 10.3.1 Irreduzible Matrizen . . . . . . . . . . . . . . . . . . . . . . 10.4 Das Gesamtschrittverfahren . . . . . . . . . . . . . . . . . . . . . . 10.5 Das Einzelschrittverfahren . . . . . . . . . . . . . . . . . . . . . . 10.5.1 Der Betrag einer Matrix . . . . . . . . . . . . . . . . . . . . . 10.5.2 Konvergenzergebnisse für das Einzelschrittverfahren . . . 10.6 Das Relaxationsverfahren und erste Konvergenzresultate . . . . . 10.6.1 M-Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.7 Relaxationsverfahren für konsistent geordnete Matrizen . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . .

278 279 280 280 281

287 . . . 287 Glei. . . 287 . . . 288 . . . 290 . . . 292 . . . 292 . . . 294 . . . 296 . . . 297 . . . 298 . . . 300 . . . 302 . . . 304 . . . 309 . . . 310

11 CG- und GMRES-Verfahren 11.1 Vorbetrachtungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1.1 Ausblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Der Ansatz des orthogonalen Residuums . . . . . . . . . . . . . . . . . 11.2.1 Existenz, Eindeutigkeit und Minimaleigenschaft . . . . . . . . . 11.2.2 Der Ansatz des orthogonalen Residuums (11.2) für gegebene Akonjugierte Basen . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 Das CG-Verfahren für positiv definite Matrizen . . . . . . . . . . . . . . 11.3.1 Einleitende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . 11.3.2 Die Berechnung A-konjugierter Suchrichtungen in K n .A; b / . . 11.3.3 Der Algorithmus zum CG-Verfahren . . . . . . . . . . . . . . . . 11.4 Die Konvergenzgeschwindigkeit des CG-Verfahrens . . . . . . . . . . . 11.5 Das CG-Verfahren für die Normalgleichungen . . . . . . . . . . . . . . 11.6 Arnoldi-Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.6.1 Vorbetrachtungen zum GMRES-Verfahren . . . . . . . . . . . . . 11.6.2 Arnoldi-Prozess . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.7 GMRES auf der Basis des Arnoldi-Prozesses . . . . . . . . . . . . . . . . 11.7.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . 11.7.2 Allgemeine Vorgehensweise zur Lösung des betrachteten Minimierungsproblems . . . . . . . . . . . . . . . . . . . . . . . . . .

315 315 316 316 317 318 320 320 320 322 323 326 327 327 328 331 331 332

XIII

Inhaltsverzeichnis

11.7.3 Detaillierte Beschreibung der Vorgehensweise zur Lösung des betrachteten Minimierungsproblems . . . . . . . . . . . . . . . . 11.7.4 Matlab-Programm für GMRES . . . . . . . . . . . . . . . . . . . 11.8 Konvergenzgeschwindigkeit des GMRES-Verfahrens . . . . . . . . . . . 11.9 Nachtrag 1: Krylovräume . . . . . . . . . . . . . . . . . . . . . . . . . . 11.10Nachtrag 2: Programmsysteme mit Multifunktionalität . . . . . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 Eigenwertprobleme 12.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2 Störungstheorie für Eigenwertprobleme . . . . . . . . . . . 12.2.1 Diagonalisierbare Matrizen . . . . . . . . . . . . . . 12.2.2 Der allgemeine Fall . . . . . . . . . . . . . . . . . . . 12.3 Lokalisierung von Eigenwerten . . . . . . . . . . . . . . . . 12.4 Variationssätze für symmetrische Eigenwertprobleme . . 12.5 Störungsresultate für Eigenwerte symmetrischer Matrizen 12.6 Nachtrag: Faktorisierungen von Matrizen . . . . . . . . . . 12.6.1 Symmetrische Matrizen . . . . . . . . . . . . . . . . 12.6.2 Diagonalisierbare Matrizen . . . . . . . . . . . . . . 12.6.3 Schur-Faktorisierung . . . . . . . . . . . . . . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

13 Numerische Verfahren für Eigenwertprobleme 13.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . . . . . . . . . . . 13.1.1 Ähnlichkeitstransformationen . . . . . . . . . . . . . . . . . . . . 13.1.2 Vektoriteration . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.2 Transformation auf Hessenbergform . . . . . . . . . . . . . . . . . . . 13.2.1 Householder-Ähnlichkeitstransformationen zur Gewinnung von Hessenbergmatrizen . . . . . . . . . . . . . . . . . . . . . . . . . 13.2.2 Der symmetrische Fall . . . . . . . . . . . . . . . . . . . . . . . . 13.3 Newton-Verfahren zur Berechnung von Eigenwerten . . . . . . . . . . . 13.3.1 Der nichtsymmetrische Fall. Die Methode von Hyman . . . . . . 13.3.2 Das Newton-Verfahren zur Berechnung der Eigenwerte tridiagonaler Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.4 Das Jacobi-Verfahren für symmetrische Matrizen . . . . . . . . . . . . 13.4.1 Approximation der Eigenwerte durch Diagonaleinträge . . . . . 13.4.2 Givensrotationen zur Reduktion der Nichtdiagonaleinträge . . . 13.4.3 Zwei spezielle Jacobi-Verfahren . . . . . . . . . . . . . . . . . . . 13.5 Das QR-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13.5.1 Eindeutigkeit und Stetigkeit der QR-Faktorisierung einer Matrix 13.5.2 Definition des QR-Verfahrens . . . . . . . . . . . . . . . . . . . . 13.5.3 Konvergenz des QR-Verfahrens für betragsmäßig einfache Eigenwerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

333 335 336 337 338 339 339 341 341 342 342 344 346 348 350 351 351 352 352 352 352 357 357 357 358 359 359 361 362 362 364 366 366 367 370 372 372 375 377

XIV

Inhaltsverzeichnis

13.5.4 Praktische Durchführung des QR-Verfahrens für matrizen . . . . . . . . . . . . . . . . . . . . . . . . 13.6 Das LR-Verfahren . . . . . . . . . . . . . . . . . . . . . . 13.7 Die Vektoriteration . . . . . . . . . . . . . . . . . . . . . . 13.7.1 Definition und Eigenschaften der Vektoriteration 13.7.2 Spezielle Vektoriterationen . . . . . . . . . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . 14 Restglieddarstellung nach Peano 14.1 Einführende Bemerkungen . . . . . . . . . . . 14.2 Peano-Kerne . . . . . . . . . . . . . . . . . . . 14.3 Anwendungen . . . . . . . . . . . . . . . . . . 14.3.1 Interpolation . . . . . . . . . . . . . . . 14.3.2 Numerische Integration . . . . . . . . – Weitere Bemerkungen und Literaturhinweise – Übungsaufgaben . . . . . . . . . . . . . . . .

Hessenberg. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

380 385 385 385 387 388 388

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

391 391 392 394 394 395 395 395

15 Approximationstheorie 15.1 Einführende Bemerkungen . . . . . . . . . . . . . . . . 15.2 Existenz eines Proximums . . . . . . . . . . . . . . . . 15.3 Eindeutigkeit eines Proximums . . . . . . . . . . . . . 15.3.1 Einige Notationen; streng konvexe Mengen . . 15.3.2 Strikt normierte Räume . . . . . . . . . . . . . 15.4 Approximationstheorie in Räumen mit Skalarprodukt 15.4.1 Einige Grundlagen . . . . . . . . . . . . . . . . . 15.4.2 Proxima in linearen Unterräumen . . . . . . . . 15.5 …n 1 -Proxima bzgl. Maximumnormen . . . . . . . . . 15.6 Anwendungen des Alternantensatzes . . . . . . . . . 15.6.1 Ein Beispiel . . . . . . . . . . . . . . . . . . . . . 15.6.2 Eine erste Anwendung des Alternantensatzes . 15.6.3 Eine zweite Anwendung des Alternantensatzes 15.7 Haarsche Räume, Tschebyscheff-Systeme . . . . . . . 15.7.1 Alternantensatz für haarsche Räume . . . . . . 15.7.2 Eindeutigkeit des Proximums . . . . . . . . . . 15.7.3 Untere Schranken für den Minimalabstand . . – Weitere Bemerkungen und Literaturhinweise . . . . . – Übungsaufgaben . . . . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

397 397 398 400 400 401 403 403 404 406 409 409 410 411 412 413 414 414 415 415

16 Rechnerarithmetik 16.1 Zahlendarstellungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.2 Allgemeine Gleitpunkt-Zahlensysteme . . . . . . . . . . . . . . . . . 16.2.1 Grundlegende Begriffe . . . . . . . . . . . . . . . . . . . . . . 16.2.2 Struktur des normalisierten Gleitpunkt-Zahlensystems F . . 16.2.3 Struktur des denormalisierten Gleitpunkt-Zahlensystems b F. 16.3 Gleitpunkt-Zahlensysteme in der Praxis . . . . . . . . . . . . . . . .

. . . . . .

. . . . . .

417 417 418 418 419 421 422

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

Inhaltsverzeichnis

16.3.1 Die Gleitpunktzahlen des Standards IEEE 754 . . . . . . . . . . 16.3.2 Weitere Gleitpunkt-Zahlensysteme in der Praxis . . . . . . . . . 16.4 Runden, Abschneiden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.1 Runden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.4.2 Abschneiden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16.5 Arithmetik in Gleitpunkt-Zahlensystemen . . . . . . . . . . . . . . . . . 16.5.1 Arithmetische Grundoperationen in Gleitpunkt-Zahlensystemen 16.5.2 Fehlerakkumulation bei der Hintereinanderausführung von Multiplikationen und Divisionen in Gleitpunkt-Zahlensystemen . . 16.5.3 Fehlerverstärkung bei der Hintereinanderausführung von Additionen in einem gegebenen Gleitpunkt-Zahlensystem F . . . . . – Weitere Bemerkungen und Literaturhinweise . . . . . . . . . . . . . . .

XV 422 424 425 425 427 428 429 429 431 433

Literaturverzeichnis

435

Index

441

1

Polynominterpolation

1.1 Allgemeine Vorbetrachtungen Gegenstand dieses und der beiden nachfolgenden Kapitel sind Problemstellungen der folgenden Art: Aus einer vorab festgelegten Menge von Funktionen Mn bestimme man eine Funktion, die durch gegebene Punkte .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 verläuft. Hierbei ist Mn  ¹ W I ! R º eine problembezogen ausgewählte Menge von Funktionen, wobei I  R ein endliches oder unendliches Intervall mit paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn 2 I ist. Solche Problemstellungen werden im Folgenden kurz als (eindimensionale) Interpolationsprobleme bezeichnet. Bemerkung 1.1. Interpolationsprobleme treten in unterschiedlichen Anwendungsbereichen auf. Einige davon werden – ohne weitere Spezifikation der Menge Mn – im Folgenden vorgestellt:  Durch die Interpolation von zeit- oder ortsabhängigen Messwerten wird die näherungsweise Ermittlung auch von Daten für solche Zeiten oder Orte ermöglicht, für die keine Messungen vorliegen.

Die Interpolation lässt sich ebenfalls sinnvoll einsetzen bei der effizienten näherungsweisen Bestimmung des Verlaufs solcher Funktionen f W I ! R, die nur aufwändig auszuwerten sind. Hier wird die genannte Funktion f vorab lediglich an den vorgegebenen Stützstellen ausgewertet. Zur näherungsweisen Bestimmung der Funktionswerte von f an weiteren Stellen werden dann ersatzweise die entsprechenden Werte der interpolierenden Funktion aus Mn herangezogen, wobei hier fj D f .xj / für j D 0; 1; : : : ; n angenommen wird.



Eine weitere wichtige Anwendung stellt das rechnergestützte Konstruieren (Computer-Aided Design, kurz CAD) dar, das beispielsweise zur Konstruktion von Schiffsrümpfen oder zur Festlegung von Schienenwegen verwendet wird. Mathematisch betrachtet geht es hierbei darum, interpolierende Funktionen mit hinreichend guten Glattheitseigenschaften zu verwenden. 

Es existieren weitere Anwendungen, deren Modellierung auf andere mathematische Problemstellungen führen wie etwa die numerische Integration oder die numerische Lösung von Anfangswertproblemen für gewöhnliche Differenzialgleichungen. Wie sich herausstellen wird, lassen sich hierfür unter Zuhilfenahme der Interpolation numerische Verfahren entwickeln. M



Für jedes der vorzustellenden Interpolationsprobleme sind im Prinzip die folgenden Themenkomplexe von Interesse:

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_1

2 ✘

Kapitel 1

Polynominterpolation

Existenz und Eindeutigkeit der interpolierenden Funktion aus der vorgegebenen Klasse von Funktionen Mn . Dabei ist es aufgrund der vorliegenden .nC 1 / Interpolationsbedingungen naheliegend, für Mn lineare Funktionenräume der Dimension .n C 1 / heranzuziehen.



Stabile Berechnung der Werte der interpolierenden Funktion an einer oder mehrerer Stellen.



Aufwandsbetrachtungen für jedes der betrachteten Verfahren.



Herleitung von Abschätzungen für den bezüglich einer gegebenen hinreichend glatten Funktion f W Œa; b  ! R und der interpolierenden Funktion auf dem Intervall Œa; b  auftretenden größtmöglichen Fehler, wobei hier fj D f .xj / für j D 0; 1; : : : ; n angenommen wird.

1.2 Landausche Symbole 1.2.1 Einführung Im Folgenden werden zunächst die landauschen Symbole O und O vorgestellt. Damit lassen sich die zentralen Aussagen bei Fehlerabschätzungen und Effizienzbetrachtungen herausstellen. Definition 1.2. Gegeben seien zwei Funktionen f; g W R N  D ! R, und x  2 R N sei ein Häufungspunkt der Menge D , es existiere also eine Folge x .0/ ; x .1/ ; : : :  D .n/ mit maxj D1;:::;N jxj xj j ! 0 für n ! 1. a) Die Notation

f .x / D O.g.x //

für D 3 x ! x 

ist gleichbedeutend mit der Existenz einer Konstanten K  0 sowie einer Umgebung U D ¹x 2 R N W maxj D1;:::;N jxj xj j  ıº von x  (mit einer Zahl ı > 0), so dass die folgende Abschätzung gilt,

jf .x /j  Kjg.x /j für x 2 U \ D: b) Die Notation

f .x / D O.g.x //

für D 3 x ! x 

jf .x /j  "jg.x /j

für x 2 U" \ D:

wird verwendet, wenn für jede Zahl " > 0 eine Umgebung U" D ¹x 2 R N W maxj D1;:::;N jxj xj j  ı" º (mit einer von " abhängenden Zahl ı D ı" > 0) von  x existiert, so dass Folgendes gilt,

Im eindimensionalen Fall N D 1 lassen sich diese Notationen auf die Situation x  D 1 übertragen, wobei nur die angegebenen Umgebungen durch Mengen der Form U D ¹x 2 R W x  M º mit Zahlen M 2 R zu ersetzen sind. Bemerkung 1.3. 1) Wenn die Funktion g in einer Umgebung von x  keine Nullstelle f .x / besitzt, ist f .x / D O .g.x // für D 3 x ! x  gleichbedeutend mit g.x / ! 0 für

3

Abschnitt 1.2 Landausche Symbole

D 3 x ! x  . Gilt zusätzlich noch g.x  / D 0 und ist g an der Stelle x  stetig, so impliziert (jeweils für D 3 x ! x  ) die Aussage f .x / D O .g.x // sinngemäß, dass f .x / schneller gegen 0 konvergiert als g.x / es tut. 2) Es gilt f .x / D O. 1 / für x ! x  genau dann, wenn f .x / in einer Umgebung von x  beschränkt ist. Weiter gilt f .x / D O. 1 / für x ! x  genau dann, wenn f .x / ! 0 für D 3 x ! x  (Aufgabe 1.1). M Für die Einordnung von Konvergenzraten und Aufwandsbetrachtungen ist das folgende Beispiel sehr hilfreich. Beispiel 1.4. Für Zahlen 0 < p  q gilt

N p D O.N q / für N ! 1;

hq D O.hp / für h ! 0;

was man für N  1 und jhj  1 so einsieht:

N p D N p q N q  N q; „ƒ‚… 1

jhq j D jhjq p jhjp  jhjp : „ ƒ‚ … 1

M

Für landausche Symbole gelten einige Rechenregeln, die gelegentlich auch benötigt werden. Einige davon sind in der folgenden Bemerkung angegeben, weitere finden Sie in Aufgabe 1.1 auf Seite 20. Bemerkung 1.5. Für Funktionen f; g W R ! R und Zahlen a 2 R gilt

a  O.f .x// D O.f .x// für x ! x0 ; O.f .x//  O.g.x// D O.f .x/g.x// für x ! x0 ; O.f .x// C O.g.x// D O. max¹jf .x/j; jg.x/jº/ für x ! x0 : 1.2.2 Anwendung landauscher Symbole Bemerkung 1.6. Es bezeichne f .N / die Komplexität eines Algorithmus, also die Anzahl der anfallenden elementaren mathematischen Operationen wie Addition, Subtraktion, Multiplikation oder Subtraktion. Der Parameter N korrespondiere in irgendeiner Weise zur Datenmenge, beispielsweise der Anzahl von Einträgen in einem Vektor oder der Zahl der Zeilen und Spalten in einer quadratischen Matrix. Landausche Symbole werden hier verwendet, um wesentliche Eigenschaften für das asymptotische Verhalten der Funktion f .N / für N ! 1 herauszustellen. 

Der Fall

f .N / D O.N q / für N ! 1

mit q > 0 steht für polynomiales Wachstum. Dabei ist der Aufwand umso höher, je größer q ist. Manchmal schreibt man auch genauer

f .N / D cN q C O.N p / für N ! 1 mit c > 0 und 0  p < q . Das ist zum Beispiel dann erforderlich, wenn man zwei Verfahren mit den Komplexitäten f1 .N / D c1 N q CO.N p / beziehungsweise f2 .N / D

4

Kapitel 1

Polynominterpolation

c2 N q C O.N p / vergleichen möchte. Hier besitzt zum Beispiel der erste Algorithmus dann eine asymptotisch geringere Komplexität, falls 0 < c1 < c2 gilt. 

In gewissen Fällen gilt

f .N / D O.q N / für N ! 1 mit einer Zahl q > 1. Dann liegt ein exponentielles Wachstum vor. Ein Beispiel liefert das Simplex-Verfahren zur Lösung linearer Optimierungsprobleme. M Bemerkung 1.7. Eine weitere Anwendung liefert

f .h/ D Genauigkeit eines Algorithmus in Abhängigkeit eines Parameters h, der zur Feinheit einer Diskretisierung korrespondiert. Eine typische Situation ist

f .h/ D O.hq / für h ! 0 mit einem Exponenten q > 0. Dabei ist das zugrunde liegende Verfahren umso besser, je größer q > 0 ist. M Beispiel 1.8. Die lokale Approximation einer Funktion durch einfachere Funktionen wie etwa Taylorpolynome ist ein weiteres Anwendungsfeld. Hier werden landausche Symbole für Abschätzungen des Restglieds verwendet. Wir geben im Folgenden einige Beispiele an: sin x D O.x / für x ! 0; cos x D 1 C O.x 2 /

sin x D x C O.x 3 /

für x ! 0;

cos x D 1

x

2

2

für x ! 0;

C O.x 4 / für x ! 0:

M

1.2.3 Rechnen mit landauschen Symbolen Anhand eines Beispiels soll nun der rechnerische Umgang mit landauschen Symbolen erläutert werden. Beispiel 1.9. a) Hier soll eine Zahl p > 0 so bestimmt werden, dass

f .N / WD .N

1

C 2N

2

/. 1 C N 2 / D N

1

C N C 2N

2

C 2 D O.N p / für N ! 1

gilt. Hierzu berechnen wir Folgendes:

.N

1

C 2N

2

/. 1 C N 2 / D N

1

C N C 2N

2

C2

D O.N / C O.N / C O.N / C O.N / D O.N / für N ! 1: Es ist also p D 1. Dieser Wert ist nicht zu verbessern, das heißt, für keinen Wert von 0 < p < 1 gilt f .N / D O.N p / für N ! 1.

5

Abschnitt 1.3 Existenz und Eindeutigkeit bei der Polynominterpolation

b) Hier sind Zahlen a 2 R und p > 0 so zu bestimmen, dass 2 f .h/ D 2h C h3 D a C O.hp / für h ! 0:

hCh

Es wird die Zahl a zuerst ermittelt:

D ✁h

2h C h2

h C h3

2Ch

2

h1Ch ✁

! 2 für h ! 0;

also gilt a D 2. Nun erfolgt die Berechnung von p : 2h C h2 3

hCh

2D

2h C h2

2.h C h3 /

h C h3



2 2✚ h ✚ h C h3

2h C h D✚

2h3

2 D hh

also p D 1. Insgesamt erhalten wir 2h C h2

h C h3

1

2h

1 C h2

„ƒ‚… !1

D O.h/;

D 2 C O.h/ für h ! 0:

Beachten Sie, dass auch hier der Exponent für h nicht zu verbessern ist, das heißt, für keinen Wert von p > 1 gilt f .h/ D O.hp / für h ! 0. M

1.3 Existenz und Eindeutigkeit bei der Polynominterpolation Im weiteren Verlauf dieses Kapitels werden zur Interpolation von .n C 1 / beliebigen Stützpunkten .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 mit paarweise verschiedenen Stützstellen x0 ; : : : ; xn speziell Funktionen aus der Menge

® ¯ …n WD P W P ist Polynom vom Grad  n

herangezogen; es wird also ein Polynom P mit den folgenden Eigenschaften gesucht,

P 2 …n ; P .xj / D fj

für j D 0; 1; : : : ; n:

³

(1.1)

1.3.1 Die lagrangesche Interpolationsformel Für den Nachweis der Existenz einer Lösung des Interpolationsproblems (1.1) lassen sich die folgenden Polynome verwenden. Definition 1.10. Zu gegebenen .n C 1 / paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn 2 R sind die .n C 1 / lagrangeschen Basispolynome L0 ; L1 ; : : : ; Ln 2 …n folgendermaßen definiert,

Lk .x / D

n Y x xk

sD0 s¤k

xs xs

für k D 0; 1; : : : ; n:

6

Kapitel 1

Polynominterpolation

Bemerkung 1.11. Das lagrangesche Basispolynom Lk genügt offensichtlich den .n C 1 / Interpolationsbedingungen

Lk .xj / D ıkj WD

° 1 für j D k; 0 für j ¤ k:

Daraus resultiert auch unmittelbar die lineare Unabhängigkeit der lagrangeschen Basispolynome L0 ; L1 ; : : : ; Ln , so dass diese eine Basis des .n C 1 /-dimensionalen Raums …n der Polynome vom Grad  n bilden. M Das folgende Theorem behandelt die Frage der Existenz und Eindeutigkeit des interpolierenden Polynoms: Theorem 1.12. Zu beliebigen .n C 1 / Stützpunkten .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 mit paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn existiert genau ein interpolierendes Polynom P 2 …n (siehe Eigenschaft (1.1)). Es besitzt die Darstellung ( lagrangesche Interpolationsformel)

P .x / D

n X

fk Lk .x /:

(1.2)

kD0

Beweis. a) Existenz: Für die Funktion P aus (1.2) gilt P 2 …n und P .xj / D P n kD0 fk ıjk D fj für j D 0; 1; : : : ; n, wie man sofort nachrechnet. b) Eindeutigkeit: Wenn auch das Polynom Q 2 …n den Interpolationsbedingungen genügt, wenn also Q.xj / D fj für j D 0; 1; : : : ; n erfüllt ist, so gilt Q P 2 …n und

.Q

P /.xj / D 0 für j D 0; 1; : : : ; n:

Damit ist Q P ein Polynom vom Grad  n mit mindestens n C 1 paarweise verschiedenen Nullstellen, so dass (siehe beispielsweise Fischer/Springborn [27, Abschnitt 2.3.11]) notwendigerweise Q P  0 beziehungsweise Q  P gilt.

1.3.2 Eine erste Vorgehensweise zur Berechnung des interpolierenden Polynoms Im Folgenden sollen Algorithmen zur Berechnung der Werte des interpolierenden Polynoms an einer oder mehrerer Stellen angegeben werden, wobei zur jeweiligen Bewertung auch Aufwandsbetrachtungen angestellt werden. Definition 1.13. Jede der Grundoperationen Addition, Subtraktion, Multiplikation und Division sowie die Wurzelfunktion wird im Folgenden als arithmetische Operation bezeichnet. Der jeweils zu betreibende Aufwand eines Verfahrens lässt sich über die Anzahl der durchzuführenden arithmetischen Operationen beschreiben. Der Einfachheit halber bleibt im Folgenden unberücksichtigt, dass ein Mikroprozessor zur Ausführung einer Division beziehungsweise zur Berechnung einer Quadratwurzel jeweils etwa vier mal

7

Abschnitt 1.3 Existenz und Eindeutigkeit bei der Polynominterpolation

so viel Zeit benötigt wie zur Durchführung einer Addition, einer Subtraktion oder einer Multiplikation (Überhuber [114], Abschnitt 5.5). Wie sich herausstellt, ist die folgende Zielsetzung realistisch: Angestrebtes Ziel ist die Herleitung von Verfahren, für die das zu .n C 1 / Stützpunkten gehörende interpolierende Polynom P (siehe (1.1)) nach einer Anlaufrechnung mit O.n2 / arithmetischen Operationen an jeder Stelle x 2 R in O.n/ arithmetischen Operationen ausgewertet werden kann.

9 > > > = > > > ;

(1.3)

Hierbei sind Ausdrücke der Form “O.nq /” eine Kurzform für “O.nq / für n ! 1”. Eine erste Variante zur Bestimmung eines interpolierenden Polynoms mit dem in (1.3) angestrebten maximalen Aufwand basiert auf der folgenden Darstellung für die lagrangeschen Basispolynome,

Lk .x / D

n Y x xk

sD0 s¤k

xs xs

Dx

k q.x /; xk

mit k D

k D 0; 1; : : : ; n; n Y

sD0 s¤k

1

xk

xs

;

q.x / D

(1.4) n Y

.x

xs /:

sD0

Die Zahlen 0 ; 1 ; : : : ; n , die auch als Stützkoeffizienten bezeichnet werden, lassen sich mit einem Aufwand von insgesamt O.n2 / arithmetischen Operationen ermitteln. Sind diese Koeffizienten einmal berechnet, so lässt sich für jede Zahl x 2 R der Wert P P .x / D q.x /. nkD0 k fk =.x xk // in O.n/ arithmetischen Operationen bestimmen, wie man sich leicht überlegt. Diese Vorgehensweise zur Berechnung von P .x / lässt sich also mit in (1.3) angestrebten maximalen Aufwand realisieren und hat zudem den praxisrelevanten Vorteil, dass die in der Anlaufrechnung berechneten Koeffizienten 0 ; 1 ; : : : ; n nicht von den Stützwerten f0 ; f1 ; : : : ; fn abhängen. Bei einem Wechsel der Stützwerte f0 ; f1 ; : : : ; fn unter gleichzeitiger Beibehaltung der Stützstellen x0 ; x1 ; : : : ; xn ist also eine erneute Anlaufrechnung nicht erforderlich. Bemerkung 1.14. Die Entwicklung des interpolierenden Polynoms P 2 …n als Linearkombination der lagrangeschen Basispolynome in Kombination mit der in diesem Abschnitt 1.3.2 beschriebenen Vorgehensweise zur Auswertung von P .x / führt jedoch für nahe bei Stützstellen liegende Zahlen x zu Instabilitäten, was zurückzuführen ist auf auftretende Brüche mit betragsmäßig kleinen Nennern und Zählern. Pn k Andererseits führt der Ansatz P .x / D kD0 ak x als Linearkombination der Monome zusammen mit den Interpolationsbedingungen auf ein lineares Gleichungssystem, dessen Lösung sich als zu aufwändig und zu empfindlich gegenüber Rundungsfehlern erweist. M In Abschnitt 1.5 wird eine Darstellung des interpolierenden Polynoms bezüglich einer anderen Basis behandelt, mit der sich das interpolierende Polynom P mit dem in (1.3) angegebenen maximalen Aufwand stabil berechnen lässt.

8

Kapitel 1

Polynominterpolation

1.4 Neville-Schema Die Lösung für das Interpolationsproblem (1.1) kann schrittweise aus den interpolierenden Polynomen zu m D 0; 1; : : : Stützpunkten berechnet werden, wie sich im Folgenden herausstellt. Einerseits wird dieses Resultat für den Beweis der wesentlichen Aussage des nachfolgenden Abschnitts benötigt, andererseits erhält man dabei eine allgemein beliebte Vorgehensweise zur Auswertung des interpolierenden Polynoms an einigen wenigen Stellen. Definition 1.15. Seien k; m 2 N0 . Zu den .mC1 / Stützpunkten .xk ; fk /; .xkC1 ; fkC1 /; : : : ; .xkCm ; fkCm / bezeichne Pk;kC1;:::;kCm dasjenige (eindeutig bestimmte) Polynom vom Grad  m mit der Eigenschaft

Pk;kC1;:::;kCm .xj / D fj

für j D k; k C 1; : : : ; k C m:

(1.5)

Für die vorgestellten Polynome Pk;kC1;:::;kCm besteht die folgende Rekursionsbeziehung: Theorem 1.16. Seien .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / vorgegebene Stützpunkte. Für die Interpolationspolynome Pk;kC1;:::;kCm (mit k  0 und m  0 mit k C m  n ) aus (1.5) gilt die Rekursionsformel

Pk .x /  fk ; .x xk /PkC1;:::;kCm .x / .x xkCm /Pk;:::;kCm Pk;kC1;:::;kCm .x / D xkCm xk

(1.6) 1 .x /

; m  1: (1.7)

Beweis. Die Identität (1.6) ist wegen Pk 2 …0 und Pk .xk / D fk offensichtlich richtig. Es bezeichne Q.x / die rechte Seite von (1.7), und Q D Pk;kC1;:::;kCm ist dann nachzuweisen, was im Folgenden geschieht. Es gilt PkC1;:::;kCm 2 …m 1 und Pk;:::;kCm 1 2 …m 1 und demnach Q 2 …m . Weiter gilt

Q.xk / D

0

.xk xkCm /fk xkCm xk

D fk ;

und für j D k C 1; k C 2; : : : ; k C m

Q.xj / D

.xj

Q.xkCm / D

.xkCm xk /fkCm xkCm xk

0

D fkCm ;

1 gilt

xk /fj .xj xkCm /fj xkCm xk

D

. xk C xkCm /fj xkCm xk

D fj :

Aufgrund der Eindeutigkeit des interpolierenden Polynoms (Theorem 1.12) gilt daher notwendigerweise die Identität Q D Pk;kC1;:::;kCm . Die sich für die Werte Pk;kC1;:::;kCm .x / aus der Rekursionsformel (1.7) ergebenden Abhängigkeiten sind in Schema 1.1 dargestellt, das als Neville-Schema bezeichnet wird. Die Einträge in Schema 1.1 lassen sich beispielsweise spaltenweise jeweils von oben nach unten berechnen. Wie bereits erwähnt wird das resultierende Verfahren zur Auswertung des interpolierenden Polynoms P .x / D P0:::n .x / an einzelnen Stel2 len x verwendet, wobei jeweils 72n C O.n/ arithmetische Operationen anfallen, wie man leicht nachzählt.

9

Abschnitt 1.5 Die newtonsche Interpolationsformel, dividierte Differenzen

f0 D P0 .x / f1 D P1 .x /

& ! & !

P01 .x /

& ! P012 .x / :: :: : : fn 1 D Pn 1 .x / ! Pn 2;n 1 .x / !       P0:::n 1 .x / & & & fn D Pn .x / ! Pn 1;n .x / !       P1:::n .x / ! P0:::n .x / f2 D P2 .x / :: :

P12 .x / :: :

Schema 1.1: Neville-Schema Beispiel 1.17. Man betrachte folgende Stützpunkte,

j xj fj

0 0 1

1 1 3

2 3 2

Für x D 2 sind die Werte des Neville-Schemas in Schema 1.2 angegeben.

f 0 D P0 . 2 / D 1 f 1 D P1 . 2 / D 3

P01 . 2 / D 5

f 2 D P2 . 2 / D 2

P12 . 2 / D

5 2

P012 . 2 / D

10 3

Schema 1.2: Neville-Schema zu Beispiel 1.17 Die Einträge in Schema 1.2 ergeben sich dabei folgendermaßen:

P01 . 2 / D P12 . 2 / D P012 . 2 / D

.2 .2 .2

0 /P1 . 2 / 1

.2 0

1 /P0 . 2 /

1 /P2 . 2 / 3

.2 1

3 /P1 . 2 /

0 /P12 . 2 / 3

.2 0

D D

3 /P01 . 2 /

23 12

D

1

11

D 5;

. 1/  3

2

2  5=2

3

D 25 ;

. 1/  5

D

10 : 3

M

1.5 Die newtonsche Interpolationsformel, dividierte Differenzen In diesem Abschnitt wird eine weitere Darstellung des interpolierenden Polynoms behandelt. Hierfür werden die folgenden Basispolynome benötigt. Definition 1.18. Zu gegebenen paarweise verschiedenen .n C 1 / Stützstellen x0 ; x1 ; : : : ; xn 2 R sind die speziellen .n C 1 / newtonschen Basispolynome folgendermaßen

10

Kapitel 1

Polynominterpolation

erklärt: 1;

x

x0 ;

.x

x0 /.x

x1 /; : : : : : : ; .x

x0 /.x

x1 / : : : .x

xn

1 /:

Das gesuchte interpolierende Polynom P 2 …n mit P .xj / D fj für j D 0; 1; : : : ; n (vergleiche (1.1)) soll nun als Linearkombination der newtonschen Basispolynome dargestellt werden, also in der Form

P .x / D a0 C a1 .x

x0 / C a2 .x

   C an .x

x0 /.x

x0 /.x

x1 / C   

x1 / : : : .x

xn

1/

µ

(1.8)

mit noch zu bestimmenden Koeffizienten a0 ; a1 ; : : : ; an . Sind diese Koeffizienten erst einmal bestimmt, so kann für jede Zahl x D  das Polynom (1.8) mit dem HornerSchema

P . / D



 : : : an .

xn

1/

C an

1



.

xn

2/

 C    C a1 .

x0 / C a0

ausgewertet werden, wobei die (insgesamt 3n ) arithmetischen Operationen von links nach rechts auszuführen sind. Bemerkung 1.19. Die Koeffizienten a0 ; a1 ; : : : ; an können im Prinzip aus den Gleichungen

f0 D P .x0 / D a0 ; f1 D P .x1 / D a0 C a1 .x1

x0 /;

f2 D P .x2 / D a0 C a1 .x2 :: :: :: : : :

x0 / C a2 .x2

x0 /.x2

x1 /;

3

gewonnen werden, wobei allerdings n3 C O.n2 / arithmetische Operationen anfallen, wie man sich leicht überlegt. Im Folgenden soll eine günstigere Vorgehensweise vorgestellt werden, die eine Berechnung dieser Koeffizienten mit den angestrebten O.n2 / arithmetischen Operationen ermöglicht. M Definition 1.20. Zu gegebenen Stützpunkten .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 sind die dividierten Differenzen folgendermaßen erklärt:

f Œ xk  WD fk ;

k D 0; 1; : : : ; n;

f Œ xkC1 ; : : : ; xkCm  f Œ xk ; : : : ; xkCm f Œ xk ; : : : ; xkCm  WD xkCm xk



;

für 0  k; m  n mit k C m  n. Bemerkung 1.21. 1. Die dividierte Differenz f Œ xk ; : : : ; xkCm  hängt neben den Stützstellen xk ; xkC1 ; : : : ; xkCm auch von den Stützwerten fk ; fkC1 ; : : : ; fkCm ab.

11

Abschnitt 1.5 Die newtonsche Interpolationsformel, dividierte Differenzen

2. Werden die Stützwerte etwa mit gj anstelle fj bezeichnet, so wird für die dividierten Differenzen naheliegenderweise die Bezeichnung g Œ xk ; : : : ; xkCm  verwendet. 3. Für die Berechnung aller dividierten Differenzen zu den Stützpunkten .x0 ; f0 /; 1/ arithmetische Operationen erfor.x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 sind lediglich 3n.nC 2 derlich. M Die Abhängigkeiten zwischen den dividierten Differenzen sind in Schema 1.3 dargestellt.

f 0 D f Œ x0 

fn

&

f 1 D f Œ x1 

!

f Œ x0 ; x1 

f 2 D f Œ x2  :: :

!

f Œ x1 ; x2  :: :

1

D f Πxn

&

1 !f

&

Πxn

&

!f Œ x0 ; x1 ; x2  :: :: : :

2 ; xn 1  !



  f Πx0 ; : : : ; xn

1 ; xn  !



   f Œ x1 ; : : : ; xn  !f Œ x0 ; : : : ; xn 

f n D f Œ xn  ! f Œ xn

&



&

Schema 1.3: Abhängigkeiten zwischen den dividierten Differenzen Beispielsweise gilt

f Œ x0 ; x1  D f Œ x0 ; x1 ; x2  D

f Œ x1  x1

f Œ x0  ; x0

f Œ x1 ; x2  x2

f Œ x1 ; x2  D

f Œ x2  x2

f Œ x1  ; x1

f Œ x0 ; x1  : x0

Das nachfolgende Theorem liefert die wesentliche Aussage dieses Abschnitts 1.5. Theorem 1.22 (Newtonsche Interpolationsformel). Für das interpolierende Polynom

P 2 …n zu gegebenen .n C 1 / Stützpunkten .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 gilt P .x / D f Œ x0  C f Œ x0 ; x1 .x

x0 / C : : :

: : : C f Œ x0 ; : : : ; xn .x

x0 /.x

x1 /    .x

xn

1 /:

(1.9)

Beweis. Dieser wird per vollständiger Induktion über n geführt. Die Aussage ist sicher richtig für n D 0 und beliebige Stützpunkte .x0 ; f0 /, und es sei nun angenommen, dass sie richtig ist für n 2 N0 und beliebige Stützpunkte .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 . Im Folgenden seien .n C 2 / Stützpunkte .x0 ; f0 /; .x1 ; f1 /; : : : ; .xnC1 ;

12

Kapitel 1

Polynominterpolation

fnC1 / 2 R 2 gegeben, und P 2 …nC1 bezeichne das zugehörige interpolierende Polynom. Mit der Notation aus Definition 1.15 gilt dann

P P .xj / und damit gilt P .x /

P0;:::;n 2 …nC1 ;

P0;:::;n .xj / D 0 für j D 0; 1; : : : ; n;

P0;:::;n .x / D a.x

x0 /    .x

P .x / D P0;:::;n .x / C a.x

xn / beziehungsweise

x0 /    .x

xn /

(1.10)

mit einer geeigneten Konstanten a 2 R (Übungsaufgabe; folgt aus der Eindeutigkeit des interpolierenden Polynoms (Theorem 1.12)). Nach Induktionsvoraussetzung gilt

P0;:::;n .x / D f Œ x0  C f Œ x0 ; x1 .x

x0 / C   

   C f Œ x0 ; : : : ; xn .x

x0 /.x

x1 /    .x

xn

1 /;

µ

(1.11)

so dass wegen (1.10), (1.11) noch

a D f Œ x0 ; : : : ; xnC1 

(1.12)

nachzuweisen ist. Zu diesem Zweck verwendet man entsprechend Theorem 1.16 die Identität

P .x / D

.x

x0 /P1;:::;nC1 .x / .x xnC1 /P0;:::;n .x / xnC1 x0

(1.13)

und führt in (1.13) einen Koeffizientenvergleich durch. Wegen der Identität (1.10) ist klar, dass a der führende Koeffizient von P ist, es gilt also

P D Q C ax nC1 für ein gewisses Polynom Q 2 …n . Andererseits ist nach Induktionsvoraussetzung bekannt, dass das Polynom P1;:::;nC1 den führenden Koeffizienten f Œ x1 ; : : : ; xnC1  sowie P0;:::;n den führenden Koeffizienten f Œ x0 ; : : : ; xn  besitzt; wegen (1.13) besitzt P also tatsächlich den führenden Koeffizienten

aD

f Œ x1 ; : : : ; xnC1  xnC1

f Œ x0 ; : : : ; xn  x0

def

D f Œ x0 ; : : : ; xnC1 ;

was identisch mit (1.12) ist und den Beweis komplettiert.

1.6 Fehlerdarstellungen zur Polynominterpolation Das folgende Theorem liefert für hinreichend glatte Funktionen eine Darstellung des bei der Polynominterpolation auftretenden Fehlers.

Abschnitt 1.6 Fehlerdarstellungen zur Polynominterpolation

13

Theorem 1.23. Die Funktion f W Œa; b  ! R sei .n C 1 /-mal differenzierbar und sei P 2 …n das Polynom mit P .xj / D f .xj / für j D 0; 1; : : : ; n. Für jedes x 2 Œa; b  gilt dann die Fehlerdarstellung

f .x/

P .x/ D

! . x / f .nC1/ . / ; .n C 1 /Š

(1.14)

mit einer Zwischenstelle  D  .x/ 2 Œa; b  und

!.x / WD .x

x0 /    .x

xn /:

Beweis. Falls x D xj für ein j gilt, so verschwinden beide Seiten der Gleichung (1.14). Sei nun x 62 ¹x0 ; x1 ; : : : ; xn º und sei

.x / WD f .x /

P .x /

K !.x /;

wobei die Konstante K so gewählt sei, dass

.x/ D 0 erfüllt ist. Im Folgenden soll eine spezielle Darstellung für die Konstante K hergeleitet werden. Hierzu beobachtet man, dass die Funktion in dem Intervall Œa; b  mindestens .n C 2 / paarweise verschiedene Nullstellen

x0 ; : : : ; xn ; x besitzt. Eine wiederholte Anwendung des Theorems von Rolle zeigt: Die Funktion 0 besitzt in dem Intervall Œa; b  mindestens .n C 1 / paarweise verschiedene Nullstellen, die Funktion 00 besitzt in Œa; b  mindestens noch n paarweise verschiedene Nullstellen, und eine Fortführung dieses Arguments liefert die Existenz einer Nullstelle  der Funktion .nC1/ in dem Intervall Œa; b . Nun gilt aber

P .nC1/  0;

./

! .nC1/  .n C 1 /Š;

wobei man die Identität ./ aufgrund des Umstands erhält, dass ! 2 …nC1 den führenden Koeffizienten eins besitzt. Insgesamt erhält man .nC1/

. / D f .nC1/ . /

K .n C 1 /Š D 0

f .nC1/ .  /

beziehungsweise K D .nC1 /Š , was den Nachweis für die angegebene Fehlerdarstellung (1.14) komplettiert. Der Fehlerdarstellung (1.14) kann man unmittelbar entnehmen, dass beliebig oft differenzierbare Funktionen f W Œa; b  ! R mit gleichmäßig beschränkten Ableitungen durch interpolierende Polynome gut approximiert werden (siehe das nachfolgende Theorem). Vorbereitend wird für eine Unterteilung

® ¯ ./ ./ ./  D a D x0 < x1 <    < xn./ D b

14

Kapitel 1

Polynominterpolation

des vorgegebenen Intervalls Œa; b  das nachfolgende Maß für die Feinheit der Unterteilung  eingeführt,

jjjj WD

max 1j n./

®

./

xj

./

xj

1

¯ :

Man beachte, dass das folgende Theorem auch für Intervallunterteilungen .0/ ; .1/ ; : : : mit der Eigenschaft jj.m/ jj 6! 0 für m ! 1 gültig ist. Theorem 1.24. Die Funktion f W Œa; b  ! R sei unendlich oft differenzierbar, mit maxx 2 Œa;b  jf .s/ .x /j  M für s D 0; 1; : : :, mit einer endlichen Konstanten M . Weiter sei .0/ ; .1/ ; : : : eine Folge von Unterteilungen des Intervalls Œa; b  mit nm WD n..m/ / ! 1 für m ! 1. Dann konvergiert die zugehörige Folge der interpolierenden Polynome Pm 2 …nm (welche bezüglich der Unterteilung .m/ die zugehörigen Funktionswerte von f interpolieren) gleichmäßig gegen die Funktion f . Beweis. Mit der Notation aus Theorem 1.23 gilt maxx 2 Œa;b  j!.x /j  .b somit max jPm .x /

x 2 Œa;b 

a/nmC1 und

. /nm C1 f .x /j  M b. a / ! 0 für m ! 1:

nm C 1 Š

Gleichmäßige Konvergenz der Interpolationspolynome erhält man auch unter geringeren Differenzierbarkeitsannahmen an die Funktion f (siehe Maess [68], Band 2). Im Allgemeinen kann man jedoch nicht erwarten, dass eine fest vorgegebene stetige Funktion auf einem kompakten Intervall umso besser durch ein interpolierendes Polynom approximiert wird, je feiner nur die Unterteilung der Stützstellen gewählt wird. Diese Aussage wird in dem folgenden Theorem 1.25 präzisiert, das hier ohne Beweis angegeben wird und insbesondere für Intervallunterteilungen .0/ ; .1/ ; : : : mit jj.m/ jj ! 0 für m ! 1 von Bedeutung ist. Theorem 1.25 (Faber). Zu jeder Folge von Unterteilungen .0/ ; .1/ ; : : : des Intervalls Œa; b  gibt es eine stetige Funktion f W Œa; b  ! R, so dass die Folge der Polynome Pm 2 …n..m/ / (welche bezüglich der Unterteilung .m/ die zugehörigen Funktionswerte von f interpolieren) für m ! 1 nicht gleichmäßig gegen die Funktion f konvergieren. Eine weitere, ohne Differenzierbarkeitsannahmen auskommende Fehlerdarstellung zur Polynominterpolation wird durch dividierte Differenzen ermöglicht: Theorem 1.26. Mit den Notationen von Theorem 1.23 mit einer beliebigen Funktion

f W Œa; b  ! R gilt im Fall x 62 ¹x0 ; : : : ; xn º die folgende Darstellung für den Interpo-

lationsfehler,

f .x/

P .x/ D f Œx0 ; : : : ; xn ; x  !.x/:

Beweis. Mit xnC1 WD x gilt aufgrund von Theorem 1.22 die Darstellung

P0;:::;nC1 .x / D P0;:::;n .x / Cf Œx0 ; : : : ; xn ; x  !.x / für x 2 R ; „ ƒ‚ … D P .x /

15

Abschnitt 1.7 Tschebyscheff-Polynome

und mit der Identität f .x/ D P0;:::;nC1 .x/ folgt dann die Aussage des Theorems. Als Konsequenz aus den Theoremen 1.23 und 1.26 erhält man den folgenden Mittelwertsatz für höhere Ableitungen: Korollar 1.27. Zu jeder n-mal differenzierbaren Funktion f W Œa; b  ! R und paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b  existiert eine Zwischenstelle  D  .x / 2 Œa; b  mit

f Œ x0 ; : : : ; xn  D

f .n/ . / ; nŠ

wobei die Stützwerte durch fj D f .xj / für j D 0; 1; : : : ; n festgelegt sind. Beweis. Für n D 0 ist die Aussage trivialerweise richtig, und für n  1 folgt sie unmittelbar aus einem Vergleich der rechten Seiten in den Theoremen 1.23 und 1.26, angewandt mit den Stützstellen x0 ; : : : ; xn 1 und für x D xn .

1.7 Tschebyscheff-Polynome In diesem Abschnitt wird unter anderem der Frage nachgegangen, für welche Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b  der Ausdruck maxx2Œa;b  j.x x0 / : : : .x xn /j am kleinsten wird, es ist also eine Lösung des Minimax-Problems max j.x

x 2 Œa;b 

x0 / : : : .x

xn /j ! min

für x0 ; x1 ; : : : ; xn 2 Œa; b 

zu bestimmen. Die Darstellung (1.14) lässt bei einer solchen “optimalen” Wahl der Stützstellen (falls diese zudem paarweise verschieden sind) einen minimalen Fehler bei der Polynominterpolation erwarten. Die Untersuchungen werden zunächst auf das Intervall Œa; b  D Œ 1; 1  beschränkt; auf die allgemeine Situation für Œa; b  wird am Ende dieses Abschnitts eingegangen. Es stellt sich im Folgenden heraus, dass solche optimalen Stützstellen x0 ; x1 ; : : : ; xn 2 Œ 1; 1  durch die Nullstellen des .n C 1 /-ten Tschebyscheff-Polynoms der ersten Art gegeben sind. Definition 1.28. Die Tschebyscheff-Polynome der ersten Art sind folgendermaßen erklärt,

Tn .t / D cos.n arccos t /;

t 2 Œ 1; 1 

.n D 0; 1; : : :/:

(1.15)

Theorem 1.29. Für die Funktionen T0 ; T1 ; : : : aus (1.15) gelten die folgenden Aussagen: a) Tn . cos  / D cos n

für  2 Œ 0;  

.n D 0; 1; : : :/.

b) Für t 2 Œ 1; 1  gilt T0 .t / D 1; T1 .t / D t und

TnC1 .t / D 2 t Tn .t /

Tn

1 .t /;

n D 1; 2; : : : ;

(1.16)

16

Kapitel 1

Polynominterpolation

und Fortsetzung des Definitionsbereichs des Tschebyscheff-Polynoms Tn auf ganz R mittels dieser Rekursionsformel liefert

Tn 2 …n :

(1.17)

c) Der führende Koeffizient von Tn ist für n  1 gleich 2n d)

max t 2 Œ 1;1 

1

.

jTn .t /j D 1:

e) Das Tschebyscheff-Polynom Tn besitzt in dem Intervall Œ 1; 1  insgesamt .n C 1 / Extrema:

 .n/ .n/ Tn .sk / D . 1 /k für sk WD cos k ; n

k D 0; 1; : : : ; n:

(1.18)

f) Das Tschebyscheff-Polynom Tn besitzt n einfache Nullstellen, die allesamt in dem Intervall Œ 1; 1  liegen:

Tn .tk.n/ / D 0 für tk.n/ WD cos

. 2k

1 / 2n



;

k D 1; 2; : : : ; n:

(1.19)

Beweis. Die Aussage a) ist offensichtlich richtig, und die Darstellungen für T0 und T1 in b) ergeben sich sofort aus Teil a). Für die Herleitung der Rekursionsformel (1.16) wird das folgende Additionstheorem benötigt, cos x C cos y D 2 cos

xCy  2

cos

x

y 2



für x; y 2 R :

(1.20)

Für t D cos  erhält man dann mit (1.20) sowie Teil a) dieses Theorems die folgenden Identitäten, 2tTn .t /

Tn

1 .t /

D 2 cos  cos.n /

cos..n

1 / / D cos..n C 1 / / D TnC1 .t /:

Teil c) folgt unmittelbar aus der Rekursionsformel b), und schließlich sind d), e) und f) offensichtlich richtig. Das nachfolgende Theorem liefert die wesentliche Aussage dieses Abschnitts 1.7. Theorem 1.30. Für n 2 N0 und mit der Notation aus (1.19) gilt die folgende Optimalitätseigenschaft: min

max

y0 ;:::;yn 2 Œ 1;1  t 2 Œ 1;1 

j.t

D max j.t t 2 Œ 1;1

D

1 : 2n

y0 / : : : .t

yn /j

t1.nC1/ / : : : .t

.nC1/ tnC 1 /j

(1.21) (1.22)

17

Abschnitt 1.7 Tschebyscheff-Polynome

Beweis. Als Erstes beobachtet man, dass mit TnC1 entsprechend (1.15) die Darstellung



1 T 2n nC1



.t / D .t

.nC1/

t1

.nC1/

/ : : : .t

tnC1 /

(1.23)

gilt, was sich unmittelbar aus Theorem 1.29, Teil c) und f) ergibt. Die Identität (1.22) folgt damit aus max t 2Œ 1;1  jTnC1 .t /j D 1 (Theorem 1.29, Teil d)). Bei der Identität (1.21) ist die Abschätzung “” offensichtlich, und im Folgenden soll die Abschätzung “” durch eine Widerspruchsannahme nachgewiesen werden. Angenommen, es gibt Zahlen y0 ; y1 ; : : : ; yn 2 Œ 1; 1 , so dass 1 2n

>

max t 2 Œ 1;1 

j!.t /j;

!.t / WD .t

y0 / : : : .t

yn /

(1.24)

gilt. Dann besitzt das Polynom

P WD

1 T 2n nC1

!

.n C 1 / Nullstellen in Œ 1; 1 , denn es liegen .n C 1 / Vorzeichenwechsel vor, wie sich bei Betrachtung der .n C 2 / aufsteigend angeordneten Extrema1 von TnC1 zeigt, 





1 T 2n nC1 1 T 2n nC1 1 T 2n nC1



.s0



.s2



.nC1/

/D

.nC1/

/D

.nC1/

/D

.s1

1 ; 2n

.nC1/

/


.nC1/

/
0;

.nC1/

/ < 0;

.nC1/

/ > 0;

=) P .s0

=) P .s1 =) P .s2 :: :

:: :

beziehungsweise allgemein .nC1/

P .sk

.nC1/

/P .sk

1

/ < 0 für k D 1; 2; : : : ; n C 1:

Nun sind sowohl 21n TnC1 als auch ! jeweils Polynome vom Grad D nC 1 und besitzen beide den führenden Koeffizienten 1, so dass notwendigerweise P 2 …n gilt. Jedes Polynom vom Grad n mit n C 1 paarweise verschiedenen Nullstellen muss jedoch identisch verschwinden, daher gilt P  0 beziehungsweise



1 T 2n nC1



 !;

was einen Widerspruch zur Annahme (1.24) darstellt. In Abb. 1.1 ist der Verlauf des optimalen Polynoms vom Grad 10 dargestellt, und zum Vergleich ist noch das Polynom 2 …10 mit äquidistanten Nullstellen und führendem Koeffizienten 1 abgebildet. Man beachte, dass sich bei dem optimalen Polynom die Abstände der einzelnen Nullstellen zueinander zu den beiden Rändern des Intervalls Œ 1; 1  hin verringern, was zu der Vermeidung von Oszillationen am Rand führt. 1

diese sind in (1.18) angegeben

18

Kapitel 1

Polynominterpolation

0.00852 0.00682 0.00511 0.00341 0.00170 -0.00000 -0.00170 -0.00341 -0.00511 -0.00682 -0.00852 -1.0

-0.8

-0.6

-0.4

-0.2

0.0

0.2

0.4

Qn

0.6

QnC1

0.8

1.0

.nC1/

Abb. 1.1: Darstellung von kD0 .x xk / und kD1 .x tk / (letztere gestrichelt) für gleichabständige Nullstellen xk beziehungsweise Tschebyscheff.nC1/ Nullstellen tk ; für n D 10 Der Fall Œa; b  D Œ 1; 1  ist damit abgehandelt. Abschließend werden allgemeine Intervalle Œa; b   R betrachtet. Das nachfolgende Theorem2 ist eine leichte Folgerung aus Theorem 1.30 verbunden mit der folgenden affin-linearen Transformation,

t ֏ 12 ..b

W Œ 1; 1  ! Œa; b ; Theorem 1.31. Mit der Funktion

x0 / : : : .x

x0 ;:::;xn 2 Œa;b  x 2 Œa;b 

.nC1/

D max j.x

.t1

x 2 Œa;b 

xn /j

// : : : .x

.nC1/

.tnC1 //j

. /nC1 D b an :

Beweis. Die Identität (1.27) ergibt sich folgendermaßen, max j.x

.nC1/

.t1

.nC1/

// : : : .x

.tnC1 //j .nC1/

D max j. .t /

.t1

t 2Œ 1;1 

nC1 max j.t D b2a t 2 Œ 1;1 

nC1 D b2a

./

2

1 2n

(1.26) (1.27)

24

x2Œa;b 

(1.25)

aus (1.25) gilt folgende Optimalitätseigenschaft:

max j.x

min

a/t C a C b /:

D

.b

// : : : . .t /

.nC1/

t1

a/nC1

2  4n

/ : : : .t

.nC1/

.tnC1 //j .nC1/

tnC1 /j

;

das auch noch bei anderen mathematischen Problemen zur Anwendung kommt

19

Weitere Themen und Literaturhinweise

wobei man die Identität ./ aus Theorem 1.30 erhält. Die Ungleichung “” in (1.26) ist offensichtlich richtig, und zum Beweis der Ungleichung “” in (1.26) seien nun x0 ; x1 ; : : : ; xn 2 Œa; b  beliebig. Dann gibt es eindeutig bestimmte Zahlen y0 ; y1 ; : : : ; yn 2 Œ 1; 1  mit .yj / D xj für j D 0; 1; : : : ; n, und wie im ersten Teil des Beweises erhält man max j.x

x 2 Œa;b 

x0 / : : : .x

xn /j D

max t 2 Œ 1;1 

 .y0 / : : :

.t /

j

nC1 max j.t D b2a

y0 / : : : .t

t 2 Œ 1;1 

./ .b



a/nC1

2  4n

 .yn / j

.t /

yn /j

;

wobei sich die Ungleichung ./ erneut mit Theorem 1.30 ergibt. Abschließend werden in Abb. 1.2 anhand einer Beispielfunktion die interpolierenden Polynome für gleichabständige und für “optimal” gewählte Stützstellen dargestellt.

1.846

1.000

1.636

0.899

1.426

0.799

1.216

0.698

1.006

0.598

0.796

0.497

0.586

0.397

0.376

0.296

0.165

0.196

-0.045

0.095

-0.255

-0.005 -5

-4

-3

-2

-1

0

1

2

3

4

5

-5

-4

-3

-2

-1

0

1

2

3

4

5

Abb. 1.2: (Klassisches Beispiel von Runge) Interpolation von f .x / D 1 ; x 2 Œ 5; 5  (gestrichelt) für äquidistante Stützstellen (links) be1Cx 2 ziehungsweise solche Stützstellen, die sich aus linear transformierten Tschebyscheff-Nullstellen (rechts) ergeben; es ist n D 6. Man beachte die unterschiedlichen Skalierungen in den beiden Teilabbildungen links und rechts.

Weitere Themen und Literaturhinweise Thematisch eng verwandt ist die Hermite-Interpolation (Aufgabe 1.4), die beispielsweise in Deuflhard/Hohmann [21], Mennicken/Wagenführer [71], Opfer [80], Schaback/Wendland [95], Schwarz/Köckler [97], Freund/Hoppe [30], Weller [111] und in Werner [112] eingehend behandelt wird. Thematisch ebenfalls verwandt ist die rationale Interpolation, die beispielsweise in [71, 97, 30, 111] vorgestellt wird. Die SplineInterpolation und die trigonometrische Interpolation sind Gegenstand der beiden folgenden Kapitel, und spezielle Darstellungen für die (vektorwertige) Polynominterpolation bezüglich äquidistanter Stützstellen sind in Abschnitt 8.3 angegeben. An

20

Kapitel 1

Polynominterpolation

dieser Stelle sei noch darauf hingewiesen, dass in [83] Lösungen zu zahlreichen der in diesem Lehrbuch vorgestellten Übungsaufgaben präsentiert werden. Weitere Übungsaufgaben zum Thema Numerik inklusive Lösungswegen finden Sie in Reinhardt [87].

Übungsaufgaben Aufgabe 1.1. Für drei gegebene Funktionen f; g; h W R N  D ! R und einen Häufungspunkt x  2 R N von D zeige man Folgendes: a) f .x / D O .g.x // für D 3 x ! x 

b) c)

d) e)

f .x / D O.g.x // für D 3 x ! x  . f .x / D O.g.x //; g.x / D O.h.x // für D 3 x ! x  =) f .x / D O.h.x // für D 3 x ! x  . f .x / D O.1 / für D 3 x ! x  ” f .x / ! 0 für D 3 x ! x  . O.f .x // O.g.x // D O..f g/.x // für D 3 x ! x  . O. O.f .x /// D O.O.f .x /// D O.f .x // für D 3 x ! x  . =)

Aufgabe 1.2. a) Man bestimme das größtmögliche p > 0 so, dass

.1 C h/.h3 C h2 / D O.hp / für h ! 0: b) Man bestimme das kleinstmögliche p > 0 so, dass

.1 C N /.N 3 C N 2 / D O.N p / für N ! 1: c) Man bestimme a 2 R und das größtmögliche p > 0 so, dass 1  N 2 C 4N 3 DaCO 2 3 2N C N Np

für N ! 1:

Aufgabe 1.3. Man zeige Folgendes: für gegebene paarweise verschiedene Stützstellen x0 ; x1 ; : : : ; xn 2 R ist die Abbildung R nC1 ! …n ; .f0 ; f1 ; : : : ; fn /> ֏ P (wobei P das jeweilige Interpolationspolynom gemäß (1.1) bezeichnet) linear.

Aufgabe 1.4. (Hermite-Interpolation) Man zeige: zu paarweise verschiedenen P reellen Zahlen x0 ; x1 ; : : : ; xr sowie nichtnegativen ganzen Zahlen m0 ; m1 ; : : : ; mr 2 N0 mit rj D0 mj D n C 1 . /

und vorgegebenen Zahlen fj 2 R für  D 0; 1; : : : ; mj genau ein Polynom P 2 …n mit

P ./ .xj / D fj./ für

1 und j D 0; 1; : : : ; r existiert

 D 0; 1; : : : ; mj j D 0; 1; : : : ; r:

1;

Aufgabe 1.5. Zu paarweise verschiedenen reellen Zahlen x0 ; x1 ; : : : ; xn weise man für die zugehörigen lagrangeschen Basispolynome Folgendes nach: a)

n X

kD0

b)

Lk .x /  1; n X

kD0

Lk . 0 /xks D

´

1 0

. 1 /n x0 x1    xn

für s D 0; für 1  s  n; für s D n C 1:

Aufgabe 1.6. Zu den drei Stützpunkten .xj ; tan 2 .xj // für j D 0; 1; 2 mit den Stützstellen x0 D 6 ; x1 D 4 und x2 D 3 berechne man unter Verwendung des Schemas von Neville das zugehörige Interpolationspolynom.

21

Übungsaufgaben

Aufgabe 1.7. a) Berechnen Sie ohne Zuhilfenahme elektronischer Hilfsmittel das newtonsche Interpolationspolynom zu den drei Stützpunkten .0; 0/; . 6 ; 12 / und . 2 ; 1/.

p

b) Bestimmen Sie damit eine Näherung für 1= 2 und schätzen Sie den Betrag des Fehlers mit Hilfe der Formel für den Interpolationsfehler aus der Vorlesung ab. Bestimmen Sie zum Vergleich mit Hilfe eines Taschenrechners den Betrag des exakten Fehlers. Aufgabe 1.8. Zu gegebenen paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn 2 R und Stützwerten f0 ; f1 ; : : : ; fn 2 R weise man für die zugehörigen dividierten Differenzen Folgendes nach, n n X Y f Œ x0 ; : : : ; xn  D fj = .xj xs /: sD0 s¤j

j D0

Aufgabe 1.9. Seien .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 und .y0 ; g0 /; .y1 ; g1 /; : : : ; .yn ; gn / 2 R 2 Stützpunkte mit zugehörigen dividierten Differenzen f Œ x0 ; : : : ; xn  und g Œ y0 ; : : : ; yn . Man zeige: Wenn

®

¯ ® ¯ .xj ; fj /; j D 0; 1; : : : ; n D .yj ; gj /; j D 0; 1; : : : ; n

erfüllt ist, so gilt f Œ x0 ; : : : ; xn  D g Œ y0 ; : : : ; yn :

Aufgabe 1.10. Man bestimme in der newtonschen Darstellung das Interpolationspolynom zu den folgenden Stützpunkten:

j xj fj

0

1

2

3

5

2

1

0

4 1

17

8

21

42

35

Im Folgenden bezeichnet C Œa; b die Menge der stetigen Funktionen f W Œa; b ! R, und für r D 1; 2; : : : bezeichnet C r Œa; b die Menge der r -fach stetig differenzierbaren Funktionen f W Œa; b ! R. Aufgabe 1.11. Man zeige, dass es zu jeder Funktion f 2 C Œa; b und paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b sowie für " > 0 ein Polynom P gibt mit max jP .x /

x 2 Œa;b 

f .x /j  ";

P .xj / D f .xj / für j D 0; 1; : : : ; n:

Aufgabe 1.12. Seien '0 ; '1 ; : : : ; 'n W C Œa; b ! R lineare Funktionale und V  C Œa; b ein .n C 1 /-dimensionaler linearer Teilraum. a) Man zeige, dass die verallgemeinerte Interpolationsaufgabe bestimme v 2 V

mit 'j .v/ D 'j .f /

für j D 0; 1; : : : ; n

(1.28)

genau dann für jedes f 2 C Œa; b eindeutig lösbar ist, wenn die Funktion f D 0 nur v D 0 als verallgemeinerte Interpolierende besitzt. b) Sei die verallgemeinerte Interpolationsaufgabe (1.28) für jede Funktion f 2 C Œa; b eindeutig lösbar und Ln W C Œa; b ! V der zugehörige Interpolationsoperator, das heißt, Ln f D v . Man weise nach, dass Ln eine lineare Abbildung ist und für f 2 C Œa; b gilt

Ln f D f



f 2 V:

22

Kapitel 1

Polynominterpolation

Aufgabe 1.13. Für paarweise verschiedene Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b bezeichne Ln W C Œa; b ! …n den “Polynominterpolations-Operator”, das heißt,

.Ln f /.xj / D f .xj / für j D 0; 1; : : : ; n

.f 2 C Œa; b/:

Man weise Folgendes nach:

®

sup jj Ln f jj1 W f 2 C Œa; b; jj f jj1 D 1

wobei jj

¯

D max

x2Œa;b 

²

n Y n X

j D0 sD0 s¤j

x

jx

j

³

xs xs j ;

® ¯ jj1 WD max j .x /j W x 2 Œa; b die Maximumnorm bezeichnet.

Aufgabe 1.14. Die Tschebyscheff-Polynome der zweiten Art Un 2 …n sind definiert durch

U0 .x / WD 1;

U1 .x / WD 2x;

a) Man zeige Un . cos # / D

UnC1 WD 2xUn .x /

sin ..n C 1 /# / für sin #

Un 1 .x /;

n D 1; 2; : : : :

# 2 . 0;  /; n D 0; 1; : : : .

b) Für n D 0; 1; : : : berechne man die beiden Werte Un . 1 / und Un . 1 /. c) Man zeige Tn0 .x / D nUn

1 .x /

für x 2 Œ 1; 1 ; n D 1; 2; : : : .

Aufgabe 1.15. Es seien Tn die Tschebyscheff-Polynome der ersten Art. Für n 2 N fest sind .n/ die Tschebyscheff-Lobatto-Punkte durch k WD sk D cos. k / für 0  k  n definiert. n a) Zeigen Sie

w.x/ D

n Y

.x

kD0

k / D 1n TnC1 .x/ 2

 Tn 1 .x/ :

b) Zeigen Sie, dass man die baryzentrischen Gewichte

ˇk WD mithilfe der Formel ˇk D

1

w 0 .k /

n Y

.k

l /

1

lD0 l6Dk

darstellen kann.

c) Berechnen Sie die baryzentrischen Gewichte. Aufgabe 1.16 (Numerische Aufgabe). Man interpoliere die Funktion f .x / WD Œ 1; 1 ; jeweils mit einem Polynom vom Grad  n





in äquidistanten Punkten xj D

1 C j n2 ;

1 ; 25x 2 C1

j D 0; 1; : : : ; n,

x 2

in den Nullstellen tj;nC1 ; j D 1; 2; : : : ; nC 1 des .nC 1 /-ten Tschebyscheff-Polynoms TnC1 .

Man wähle hierbei n D 10 und erstelle jeweils einen Ausdruck des Polynomverlaufs.

2

Splinefunktionen

2.1 Einführende Bemerkungen Bei der Polynominterpolation auf äquidistanten Gittern stellt sich mit wachsender Stützstellenzahl typischerweise ein oszillierendes Verhalten ein. Dies wird bei der in dem vorliegenden Abschnitt betrachteten Interpolation mittels Splinefunktionen vermieden. Für deren Einführung sei

® ¯  D a D x0 < x1 <    < xN D b

(2.1)

eine fest gewählte Zerlegung des Intervalls Œa; b , wobei man die Stützstellen x0 ; x1 ; : : : ; xN aus historischen Gründen auch als Knoten bezeichnet. Definition 2.1. Eine Splinefunktion der Ordnung ` 2 N zur Zerlegung  ist eine Funktion s 2 C ` 1 Œa; b , die auf jedem Intervall Œxj 1 ; xj  mit einem Polynom `-ten Grades übereinstimmt. Der Raum dieser Splinefunktionen wird mit S;` bezeichnet, es gilt also

® S;` D s 2 C `

1

Œa; b  W sjŒxj

1 ;xj



D pj jŒxj

1 ;xj



für ein pj 2 …`

¯ .j D 1; : : : ; N / :

Anstelle Splinefunktion wird oft auch die Kurzbezeichnung Spline verwendet.

Bemerkung 2.2. Es ist offensichtlich S;` mit den üblichen Verknüpfungen ein linearer Raum. Für dessen Dimension gilt dim S;` D N C `, wie durch Abzählen der Freiheitsgrade intuitiv klar wird. M In Abb. 2.1 und Abb. 2.2 sind Beispiele für lineare sowie quadratische Splines angegeben.





....... .......... ............ ....... .. ...... .. .............. ..... ... .... .......... ..... . . . . ... .... ... .. .. .. ... ..... .. ... ... . . . .. ... .. ... .. .... ... ..... . . . .... . ........ ................ .......

... .... ... ... ..... ... ..... ... ...... ...................... ... . ... . ........... ....... ... .... ..... ....... ... ............... ...... . . . . . . . . . . . . . . . . . . . . . ... ..... .......... .......

0



a D x0 x1 x2 x3

x4 x5 D b

0



a D x0 x1 x2 x3

x4 x5 D b

Abb. 2.1: Ein linearer Spline auf Œa; b  Abb. 2.2: Ein quadratischer Spline auf Œa; b 

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_2

24

Kapitel 2

Splinefunktionen

Im Folgenden werden für interpolierende Splinefunktionen der Ordnung ` D 1 (lineare Splines genannt) und Splinefunktionen der Ordnung ` D 3 (kubische Splines) Algorithmen zur Berechnung sowie Fehlerabschätzungen hergeleitet. Splines der Ordnung ` D 2 (quadratische Splines) spielen in der Praxis eine geringere Rolle und werden hier nicht behandelt.

2.2 Interpolierende lineare Splinefunktionen 2.2.1 Die Berechnung interpolierender linearer Splinefunktionen Thema dieses Abschnitts ist die Berechnung linearer Splinefunktionen s 2 S;1 mit der Interpolationseigenschaft

s.xj / D fj

für j D 0; 1; : : : ; N;

(2.2)

wobei die Werte f0 ; f1 ; : : : ; fN 2 R vorgegeben sind. Für jeden Index j 2 ¹ 0; 1; :::;N 1 º besitzt eine solche Funktion s auf dem Intervall Œxj ; xj C1  die lokale Darstellung

s.x / D aj C bj .x

xj / für x 2 Œxj ; xj C1 ;

(2.3)

und die Interpolationsbedingungen sj .xj / D fj und sj .xj C1 / D fj C1 ergeben unmittelbar

aj D f j ;

f j C1

bj D x j C1

fj : xj

(2.4)

Die Interpolationsbedingungen legen die Koeffizienten in dem allgemeinen Ansatz (2.3) in eindeutiger Weise fest und liefern den interpolierenden linearen Spline. Als Folgerung erhält man: Theorem 2.3. (Existenz und Eindeutigkeit des interpolierenden linearen Splines) Zu der Zerlegung  D ¹a D x0 < x1 <    < xN D b º und Werten f0 ; f1 ; : : : ; fN 2 R gibt es genau einen linearen Spline s 2 S;1 mit der Interpolationseigenschaft (2.2). Er besitzt die lokale Darstellung (2.3)–(2.4). Mit der Notation

jjujj1 WD max ju.x /j; x 2 Œa;b 

u 2 C Œa; b ;

gilt für den Fehler bei der linearen Spline-Interpolation Folgendes: Theorem 2.4. Zu einer Funktion f 2 C 2 Œa; b  sei s 2 S;1 der zugehörige interpolierende lineare Spline (siehe (2.2)). Dann gilt

jjs

f jj1  81 jjf 00 jj1 h2max

mit hmax WD

max

¹xj C1

j D0;:::;N 1

xj º:

25

Abschnitt 2.3 Minimaleigenschaften kubischer Splinefunktionen

Beweis. Für jeden Index j 2 ¹ 1; 2; : : : ; N º stimmt die Splinefunktion s auf dem Intervall Œxj 1 ; xj  mit demjenigen Polynom P 2 …1 überein, für das P .xj 1 / D f .xj 1 / und P .xj / D f .xj / gilt, und Theorem 1.23 über den Fehler bei der Polynominterpolation liefert dann

js.x /

f .x /j  

.x

xj

1 /.xj

x/

2

h2max 8

max  2 Œxj

1 ;xj

jjf 00 jj1 für x 2 Œxj



jf 00 . /j

1 ; xj

:

Daraus folgt die angegebene Fehlerabschätzung. Bemerkung 2.5. Die wesentliche Aussage in Theorem 2.4 stellt jjs dar. M

f jj1 D O.h2max /

2.3 Minimaleigenschaften kubischer Splinefunktionen Im weiteren Verlauf wird die Interpolation mittels kubischer Splinefunktionen behandelt. Vor Behandlung der zugehörigen grundlegenden Themen wie Existenz, Eindeutigkeit, Berechnung und auftretender Fehler wird im vorliegenden Abschnitt zunächst eine für die Anwendungen wichtige Minimaleigenschaft interpolierender kubischer Splines vorgestellt (siehe Korollar 2.8 unten). Hierzu bezeichne im Folgenden

jjujj2 WD

Z

b a

ju.x /j2 dx

1=2

;

u 2 C Œa; b :

Lemma 2.6 (Holladay). Wenn eine Funktion f 2 C 2 Œa; b  und eine kubische Splinefunktion s 2 S;3 in den Knoten übereinstimmen,

s.xj / D f .xj / für j D 0; 1; : : : ; N;

(2.5)

so gilt

jjf 00

s 00 jj22 D jjf 00 jj22

jjs 00 jj22

2. Πf 0

xDb

s 0 s 00 /.x /jxDa :

(2.6)

Beweis. Nach Definition von jj  jj2 gilt

jjf 00

s 00 jj22 D

Z b a

jf 00 .x /

D jjf 00 jj22

2

s 00 .x /j2 dx D jjf 00 jj22

Z b a

.Œf 00

s 00 s 00 /.x / dx

2

Z b a

.f 00 s 00 /.x / dx C jjs 00 jj22

jjs 00 jj22 ;

(2.7)

26

Kapitel 2

Splinefunktionen

so dass man sich noch speziell mit dem mittleren Ausdruck in (2.7) zu befassen hat. Für j D 1; 2; : : : ; N liefert partielle Integration Z x j xj

. Πf 00

s 00 s 00 /.x / dx

1

ˇxDxj  s 0 s 00 .x / ˇ

D Œf 0

xDxj

D

1

Z x j xj

......

C

Œf 0 1

 xDx ss 000 .x /jxDxjj ƒ‚ D0

Œf „

Z x j xj



 s 0 s 000 .x / dx

.Œf 1

0

1 C0



ss .4/ /.x / dx ; ƒ‚ … D0

wobei der vorletzte Term aufgrund der Identität (2.5) verschwindet, und das letzte Integral verschwindet, da s .4/  0 auf den Teilintervallen .xj 1 ; xj / gilt. Das Symbol ........ wird als Unterführungszeichen verwendet, es fungiert also als Platzhalter für den darüber stehenden Ausdruck. Anschließende Summation über j D 1; 2; : : : ; N liefert aufgrund der Stetigkeit der Funktionen f 0 ; s 0 ; s 00 auf dem Intervall Œa; b  die folgende Teleskopsumme und damit die Aussage des Lemmas, Z b a

.Œf 00

s 00 s 00 /.x / dx D

N X

j D1

®

Œf 0

D Œf 0

 s 0 s 00 .xj /

 s 0 s 00 .b /

Œf 0

Œf 0

 s 0 s 00 .xj

 s 0 s 00 .a/:

1/

¯

Unter gewissen zusätzlichen Bedingungen vereinfacht sich die Aussage von Lemma 2.6: Theorem 2.7. Gegeben seien eine Funktion f 2 C 2 Œa; b  und ein kubischer Spline s 2 S;3 , die in den Knoten übereinstimmen, vergleiche (2.5). Dann gilt die Identität

jjf 00 jj22

jjs 00 jj22 D jjf 00

s 00 jj22 ;

(2.8)

sofern eine der drei folgenden Bedingungen erfüllt ist: a) b) c)

s 00 .a/ D s 00 .b / D 0;

s 0 .a/ D f 0 .a/;

f 0 .a/ D f 0 .b /;

s 0 .b / D f 0 .b /;

s 0 .a/ D s 0 .b /;

s 00 .a/ D s 00 .b /.

Beweis. In jedem der Fälle (a)–(c) verschwindet in (2.6) der Term .Œf 0 und die Identität (2.6) geht dann über in die Identität (2.8).

xDb

s 0 s 00 /.x /jxDa ;

Korollar 2.8. Zu gegebenen Werten f0 ; f1 ; : : : ; fN 2 R hat ein interpolierender kubischer Spline s 2 S;3 mit s 00 .a/ D s 00 .b / D 0 unter allen hinreichend glatten interpolierenden Funktionen die geringste Krümmung, es gilt also

jjs 00 jj2  jjf 00 jj2 für jede Funktion f 2 C 2 Œa; b  mit f .xj / D fj für j D 0; 1; : : : ; N .

27

Abschnitt 2.4 Die Berechnung interpolierender kubischer Splinefunktionen

Beweis. Die angegebene Abschätzung ergibt sich unmittelbar aus Theorem 2.7 für Splines mit der Eigenschaft a) dort. Die in Korollar 2.8 angegebene Abschätzung gilt mit den entsprechenden Modifikationen in den zugehörigen Voraussetzungen auch für solche kubischen Splines, die den Bedingungen b) oder c) in Theorem 2.7 genügen. Bemerkung 2.9. 1) Man weist über die Eigenschaft (2.8) leicht nach, dass jede der Bedingungen a), b) oder c) in Theorem 2.7 die Eindeutigkeit des interpolierenden kubischen Splines impliziert (Aufgabe 2.3). 2) Es stellt jjf 00 jj2 lediglich eine Approximation an die mittlere Krümmung der Funktion f dar. Genauer ist die Krümmung von f in einem Punkt x gegeben durch f 00 .x /=. 1 C f 0 .x /2 /3=2 : 3) Die in Korollar 2.8 vorgestellte Minimaleigenschaft stellt den Grund dafür dar, dass in der Praxis (beispielsweise bei der Konstruktion von Schiffsrümpfen oder der Festlegung von Schienenwegen) für die Interpolation oftmals kubische Splinefunktionen verwendet werden. M In Abb. 2.3 ist eine kubische Splinefunktion dargestellt.

✻ ......... ...... ........ ... .... ... .... .. ... . . . ... ... ... .. . ... . .. ... . . ... .. . . ... .. . ... . ... ... . .. ... . ... .. . ... . .. . . . ... . . . .... . . . . ..... ...... ....... ............................................................ ......................... ......... ........

0



a D x0

x1

x2

x3 D b

Abb. 2.3: Ein kubischer Spline auf Œa; b  zu den Knoten a D x0 < x1 < x2 < x3 D b

2.4 Die Berechnung interpolierender kubischer Splinefunktionen 2.4.1 Vorüberlegungen In dem vorliegenden Abschnitt wird die Berechnung interpolierender kubischer Splines behandelt. Ausgehend von dem lokalen Ansatz

s.x / D aj C bj .x

xj / C cj .x

für x 2 Œxj ; xj C1 ;

xj /2 C dj .x

j D 0; 1; : : : ; N

x j /3 1;

µ

(2.9)

28

Kapitel 2

Splinefunktionen

für eine Funktion s W Œa; b  ! R soll in diesem Abschnitt die Frage behandelt werden, wie man die Koeffizienten aj ; bj ; cj und dj für j D 0; 1; : : : ; N 1 zu wählen hat, damit die Funktion s auf dem Intervall Œa; b  zweimal stetig differenzierbar ist1 und darüber hinaus in den Knoten vorgegebene Werte f0 ; f1 ; : : : ; fN 2 R interpoliert,

s.xj / D fj

für j D 0; 1; : : : ; N:

(2.10)

Das nachfolgende Lemma reduziert das genannte Problem auf die Lösung eines linearen Gleichungssystems, wobei die folgende Notation verwendet wird,

hj WD xj C1

xj

für j D 0; 1; : : : ; N

1:

(2.11)

00 2 R den folgenden N Lemma 2.10. Falls N C 1 reelle Zahlen s000 ; s100 ; : : : ; sN pelten Gleichungen

hj 1 sj00 1

C 2.hj

1

C

hj /sj00

C

hj sj00C1

D

DW gj …„



f j C1 f j 6 hj

6

fj

fj hj

für j D 1; 2; : : : ; N

1

1 gekop-

ƒ 1

(2.12)

1

genügen, so liefert der lokale Ansatz (2.9) mit den Setzungen

cj WD bj WD

sj00 2

;

aj WD fj ; hj

f j C1 f j hj

6

dj WD

sj00C1

sj00

6hj

;

(2.13)

.sj00C1 C 2sj00 /;

(2.14)

für j D 0; 1; : : : ; N 1 eine kubische Splinefunktion s 2 S;3 , die die Interpolationsbedingungen (2.10) erfüllt. Beweis. Mit den Notationen

pj .x / D aj C bj .x

xj /2 C dj .x

xj / C cj .x

x j /3 2 … 3

.j D 0; 1; : : : ; N erhält man für j D 0; 1; : : : ; N

1/

1 die folgenden Identitäten,

pj .xj / D aj D fj ;

pj00C1 .xj C1 /

D 2cj C1 D sj00C1 D sj00 C 6dj hj D pj00 .xj C1 /

.j  N

beziehungsweise

pj .xj C1 / D aj C bj hj C cj h2j C dj h3j D fj 1

......

und somit tatsächlich ein kubischer Spline ist

sj00

h2 C 2 j

sj00C1

6

sj00

./

h2j D fj C1 ;

2/

29

Abschnitt 2.4 Die Berechnung interpolierender kubischer Splinefunktionen

wobei die Identität ./ eine Folgerung aus (2.14) darstellt. Die Stetigkeit der ersten Ableitung s 0 erhält man so,

pj0

1 .xj

/ D bj

1

C 2cj

1 hj

1

C 3dj

2 1 hj 1

./

D

bj D pj0 .xj /

.j D 1; 2; : : : ; N

1 /;

wobei ./ aus den Setzungen (2.13)–(2.14) und aus (2.12) resultiert. Bemerkung 2.11. 1) In der in Lemma 2.10 beschriebenen Situation bezeichnet man 00 die N C 1 reellen Zahlen s000 ; s100 ; : : : ; sN 2 R als Momente. Diese stimmen mit den zweiten Ableitungen der Splinefunktion s in den Knoten xj überein,

sj00 D s 00 .xj /

für j D 0; 1; : : : ; N:

2) Mit Lemma 2.10 wird klar, dass sich die Koeffizienten in der Darstellung (2.9) 00 ergeben. Diese N C 1 Momente unmittelbar aus den N C 1 Momenten s000 ; : : : ; sN genügen den N 1 Bedingungen dieses Lemmas, womit also zwei Freiheitsgrade vorliegen. Aufgrund der Bedingungen a)–c) in Theorem 2.7 werden noch drei Möglichkeiten diskutiert, wofür abkürzend

s00 WD s 0 .x0 /;

0 sN WD s 0 .xN /

gesetzt wird: Natürliche Randbedingungen W Vollständige Randbedingungen W Periodische Randbedingungen W

00 s000 D sN D 0I

0 D fN0 für gegebene f00 ; fN0 2 R I s00 D f00 ; sN

0 ; s00 D sN

00 : s000 D sN

Die Bezeichnung “natürliche Randbedingung” ist durch Korollar 2.8 gerechtfertigt. 3) Division von (2.12) durch 3.hj hj 3.hj

1

1

00

s C hj / j

1

1

C 32 sj00 C 3.h j D

2

C hj / führt auf die äquivalente Gleichung hj sj00C1 1 C hj /

f j C1 f j hj .hj 1 C hj /

2

hj

fj fj 1 ; 1 .hj 1 C hj /

(2.15)

bei der die linke Seite eine Approximation an sj00 und die rechte Seite eine Differenzenapproximation an f 00 .xj / darstellt. Mehr hierzu finden Sie im Beweis von Lemma 2.15. M In den folgenden Unterabschnitten 2.4.2–2.4.4 sollen die Bedingungen (2.12) für die Momente zusammen mit den unterschiedlichen Randbedingungen in Matrix-VektorForm angegeben werden.

30

Kapitel 2

Splinefunktionen

2.4.2 Natürliche Randbedingungen 00 D 0 führen zusammen mit (2.12) auf das Die natürlichen Randbedingungen s000 D sN folgende Gleichungssystem:

0

B 2.h0 C h1 / h1 B B B B B B B B B B B @

0

h1 2.h1 C h2 / h2

:::

0

::

:

:: :

1

0

h2

::

:

::

:

0

:: :

::

::

:

::

:

hN

0

:::

:

0 hN

2.hN

2

2

C hN

2

1/

C C0 1 0 1 C C s100 g1 CB C B C CB : C B : C C B :: C D B :: C : CB C B C [email protected] A @ A C C s 00 gN 1 C N 1 A

2.4.3 Vollständige Randbedingungen Die vollständigen Randbedingungen Š

f00 D s00 Db0 ; Š

0 DbN fN0 D sN

1

C 2cN

1 hN

1

C 3dN

2 1 hN

1

führen mit (2.13)–(2.14) auf die beiden zusätzlichen Bedingungen 2h0 s000 C h0 s100 D

hN

00

1 sN

1

C 2hN

00

1 sN

6f00 C 6

D 6fN0

6

f1

f0 h0

fN

fN hN

1

DW g0 ; 1

DW gN :

(2.16) (2.17)

Diese Bedingungen (2.16)–(2.17) führen zusammen mit (2.12) auf das folgende Gleichungssystem:

0

h0 0 B 2h0 B B B h0 2.h0 C h1 / h1 B B :: B : h1 B 0 B B : :: :: B :: : : B B B :: :: B : : B @ 0 ::: :::

:::

:::

0

:: :

::

:

::

:

::

:

:: :

::

:

::

:

0

::

: 2.hN

0

1

hN

2

C hN 1

1/

hN 2hN

1 1

C C C C0 1 0 1 C C s000 g CB C B 0 C CB : C B : C C B :: C D B :: C : CB C B C [email protected] A @ A C C s 00 gN C N C C A

(2.18)

31

Abschnitt 2.4 Die Berechnung interpolierender kubischer Splinefunktionen

2.4.4 Periodische Randbedingungen Die periodischen Randbedingungen Š

0 b0 D s00 D sN D bN

C 2cN

1

00 Š

1 hN

1

2 1 hN

C 3dN

1;

00 s0 D sN

führen mit (2.13)–(2.14) auf die zusätzliche Bedingung 2.hN

1

C h0 /s000 C h0 s100 C hN

00

1 sN

1

D6

f1

f0 h0

6

fN

fN hN

1

1

DW g0 :

(2.19)

Diese Bedingung (2.19) führt zusammen mit (2.12) auf das folgende Gleichungssystem:

0

B 2.hN B B B B B B B B B B B B B B B @

1 C h0 /

h0

0

h0 2.h0 C h1 / h1 0

:: :

::

1

::

0

hN

:

0

h1

::

:

::

:

::

:

:: :

:

::

:

::

:

::

:

0

::

:

::

:

::

:

hN

0

hN

:::

:::

0

0 hN

2

1

1

2

2.hN

2

C hN

1/

C C C C0 1 0 1 C C s000 g0 CB C B C CB : C B : C C B :: C D B :: C : CB C B C [email protected] A @ A C C s 00 g N 1 C N 1 C C A

2.4.5 Existenz und Eindeutigkeit der betrachteten interpolierenden kubischen Splines Für den Beweis der Existenz- und Eindeutigkeitsaussage für interpolierende kubische Splines wird das nachfolgende Lemma benötigt. Es wird hier in der nötigen Allgemeinheit formuliert wird, so dass es nochmals im Beweis des wichtigen Lemmas 2.15 angewandt werden kann. Vorbereitend wird die folgende Notation eingeführt,

jjz jj1 WD

max

j D1;:::;N

z 2 RN :

jzj j;

Definition 2.12. Eine Matrix A D .ajk / 2 R N N heißt strikt diagonaldominant, falls Folgendes gilt, N X

kD1 k¤j

jajk j < jajj j für j D 1; 2; : : : ; N:

Lemma 2.13. Jede strikt diagonaldominante Matrix A D .ajk / 2 R N N ist regulär und es gilt

jjx jj1 

max

j D1;:::;N

°

jajj j

N X

kD1 k¤j

jajk j



1

±

jjAx jj1 für x 2 R N :

(2.20)

32

Kapitel 2

Splinefunktionen

Beweis. Für den Vektor x 2 R N sei der Index j 2 ¹ 1; 2; : : : ; N º so gewählt, dass jxj j D jjx jj1 gilt. Dann berechnet man N ˇ X ˇ ajk xk ˇ  jajj jjxj j jjAx jj1  j.Ax /j j D ˇ kD1

 jajj jjxj j

N X

kD1 k¤j

 jajk jjjx jj1 D jajj j

N X

jajk jjxk j

kD1 k¤j N X

kD1 k¤j

 jajk j jjx jj1

beziehungsweise

 jjx jj1  jajj j

N X

kD1 k¤j

jajk j



1

jjAx jj1 ;

was die Ungleichung (2.20) nach sich zieht. Die Regularität der Matrix A folgt umgehend aus dieser Abschätzung (2.20). Offensichtlich ist jede der in den drei Abschnitten 2.4.2–2.4.4 betrachteten Matrizen strikt diagonaldominant. Als unmittelbare Folgerung aus dieser Eigenschaft sowie den Lemmata 2.10 und 2.13 erhält man Folgendes: Korollar 2.14. Zur Zerlegung  und den Werten f0 ; f1 ; : : : ; fN 2 R gibt es jeweils genau einen interpolierenden kubischen Spline mit natürlichen beziehungsweise vollständigen (hier sind zusätzlich Zahlen f00 ; fN0 2 R vorgegeben) beziehungsweise periodischen Randbedingungen.

2.5 Fehlerabschätzungen für interpolierende kubische Splines Das folgende Lemma liefert eine Abschätzung für die Differenz der Momente von s und f in den Knoten xj . Dabei werden wegen der einfacheren Vorgehensweise nur kubische Splines mit natürlichen Randbedingungen betrachtet. Vergleichbare Aussagen lassen sich auch für kubische Splines mit vollständigen oder periodischen Randbedingungen nachweisen (siehe beispielsweise Oevel [79], Mennicken/Wagenführer [71] und Freund/Hoppe [30]). Lemma 2.15. Zu einer gegebenen Funktion f 2 C 4 Œa; b  mit f 00 .a/ D f 00 .b / D 0 bezeichne s 2 S;3 den interpolierenden kubischen Spline2 mit natürlichen Randbedingungen. Dann gilt max

j D1;:::;N 1

js 00 .xj /

f 00 .xj /j  43 jjf .4/ jj1 h2max ; mit hmax WD

2

max

j D0;:::;N 1

¹xj C1

xj º:

zur Zerlegung  D ¹a D x0 <    < xN D b º und den Stützwerten fj D f . xj / für j D 0; 1; : : : ; N

33

Abschnitt 2.5 Fehlerabschätzungen für interpolierende kubische Splines

Beweis. Die Darstellung (2.15) für die Momente bedeutet in Matrixschreibweise

0

[email protected]

s100 :: : 00 sN 1

1

0

b g1 :: :

[email protected]

b gN

1 1

A;

(2.21)

wobei b g j die rechte Seite von (2.15) bezeichnet, und die Matrix B 2 R .N besitzt die folgende Form,

0

h1 2 B 0 ::: ::: 0 3 3.h0 C h1 / B B B :: B :: h1 h2 2 : B : B 3.h1 C h2 / 3 3.h1 C h2 / B B B :: :: :: :: :: B : : : : 0 : B B B WD B B :: :: :: :: :: B : : : : : 0 B B B B :: :: hN 3 hN 2 B 2 : : B 3 3.hN 3 C hN 2 / 3.hN 3 C hN B B @ hN 2 2 0 ::: ::: 0 3 3.hN 2 C hN 1 /

1/.N

1/

1

C C C C C C C C C C C C C; C C C C C C C C C 2/ C C A

mit der Notation hj D xj C1 xj . Im Folgenden werden die Abbildungseigenschaften der Matrix B sowie die rechte Seite des Gleichungssystems (2.21) eingehender untersucht. 1. Durch Taylorentwicklung der Funktion f 00 um den Punkt xj erhält man die folgenden Darstellungen,

f 00 .xj

1/

D f 00 .xj /

hj

1f

.3/

.xj / C

f 00 .xj C1 / D f 00 .xj / C hj f .3/ .xj / C

h2j 2

h2j 2

1

f .4/ .j /;

f .4/ .b  j /;

(2.22) (2.23)

mit geeigneten Zwischenstellen j und b  j . Die Gleichung (2.22) wird dann mit dem Faktor hj 1 =. 3.hj 1 C hj // und die Gleichung (2.23) mit dem Faktor hj =. 3.hj 1 C hj // multipliziert. Die beiden Ergebnisse werden anschließend addiert und resultieren in der folgenden Approximation an die zweite Ableitung f 00 .xj /, hj 3.hj

1

1

C hj /

f 00 .xj

1/

C 23 f 00 .xj / C 3.h j

D f 00 .xj / C Rj C ıj ;

Rj WD 13 .hj ıj WD 6.h j

hj 1

1 C hj /

1 /f

h3j

.3/

hj f 00 .xj C1 / 1 C hj /

.xj /;

1f

.4/

 .j / C h3j f .4/ .b j / ;

j D 1; 2; : : : ; N

1;

34

Kapitel 2

Splinefunktionen

beziehungsweise in Matrixschreibweise

0

[email protected]

f 00 .x1 / :: : 00 .x

f

1/

N

1

0

[email protected]

f 00 .x1 / :: : f

00 .x

1/

N

1

0

1

R1 :: :

[email protected]

RN

1

0

1

ı1 :: :

[email protected]

ıN

A:

1

(2.24)

2. Weiter ergibt eine Taylorentwicklung der Funktion f um den Punkt xj die folgenden Darstellungen:

f .xj C1 / D f .xj / C hj f 0 .xj / C f .xj

1/

D f .xj /

hj

1f

0

h2j 2

.xj / C

f 00 .xj / C

h2j

1

2

h3j 6

f .3/ .xj / C h3j

f 00 .xj /

1

6

h4j 24

f .4/ .j /;

f .3/ .xj / C

h4j

1

24

(2.25)

f .4/ .b j /;(2.26)

mit geeigneten Zwischenstellen j ; b j 2 Œa; b . Eine Multiplikation der Gleichung (2.25) mit dem Faktor 2= hj sowie Multiplikation der Gleichung (2.26) mit dem Faktor 2= hj 1 und jeweils anschließende Auflösung nach Termen mit f .xj 1 /; f .xj / und f .xj C1 / führt auf die Gleichungen 2 2

f .xj C1 / f .xj / hj f . xj /

f . xj hj

D 2f 0 .xj / C hj f 00 .xj / C

1/

2f 0 .xj / C hj

D

1

1f

00

h2j 3

f .3/ .xj / C h2j

.xj /

1

h3j 12

f .4/ .j /;

f .3/ .xj / C

3

h3j 12

1

f .4/ .b j /;

und eine Addition dieser beiden Gleichungen sowie die anschließende Division durch hj 1 C hj resultiert in der folgenden Differenzenapproximation an die zweite Ableitung f 00 .xj /,



f j C1 f j 2 hj .hj 1 C hj /

Db gj …„

ƒ

fj fj 1 2 hj 1 .hj 1 C hj /

b ı j WD

D f 00 .xj / C Rj C b ıj ; 1

12.hj

1 C hj /

j D 1; : : : ; N

h3j f .4/ .j / C h3j

1f

.4/

beziehungsweise in Vektorschreibweise

0 @

f 00 .x1 / :: : f

00 .x

N 1/

1

0

[email protected]

b g1 :: :

b gN

1 1

A

0 @

1

R1 :: : RN

1

A

1 b ı1 B :: C @ : A: b ıN 1 0

1;

 .b j / ;

(2.27)

Verwendung der Identität (2.27) auf der rechten Seite von (2.24) und anschließende Subtraktion des Resultats von der Gleichung (2.21) führt auf eine Fehlerdarstellung der Form

0

[email protected]

f 00 .x1 / f 00 .xN

1/

:: :

s 00 .x1 / s 00 .xN

1/

1

0

ADB @

ı1 :: : ıN

1

1

b ı1

b ıN

1

C A:

35

Abschnitt 2.5 Fehlerabschätzungen für interpolierende kubische Splines

Die Matrix B ist offensichtlich strikt diagonaldominant und somit aufgrund von Lemma 2.13 regulär, und mehr noch erhält man mit der Identität 2 3

hj C1

hj 3.hj C hj C1 /

3.hj C hj C1 /

D 13 ;

j D 1; 2; : : : ; N

1;

die Abschätzung max

j D0;:::;N

® s 00 .xj /j  3 max jı1 j C jb ı 1 j; : : : ; jıN

jf 00 .xj /

1j

 34 h2max jjf .4/ jj1 ;

C jb ıN

1j

¯

wobei in ./ die Abschätzung 3

jıj j C jb ıj j 

1 hj 4 hj

1 1

C h3j C hj

jjf .4/ jj1  41 h2max jjf .4/ jj1 ;

j D 1; 2; : : : ; N

1;

eingeht. Dies komplettiert den Beweis des Lemmas. Im folgenden Theorem werden die Approximationseigenschaften interpolierender kubischer Splines vorgestellt. Man beachte, dass die wesentliche Voraussetzung (2.28) für den Fehler der zweiten Ableitungen in den Knoten typischerweise erfüllt ist (siehe Lemma 2.15 und die davor angestellten Bemerkungen). Theorem 2.16. Sei f 2 C 4 Œa; b , und sei s 2 S;3 ein interpolierender kubischer Spline3 . Weiter bezeichne hj D xj C1 xj für j D 0; 1; : : : ; N 1 und

hmax D

max

j D0;:::;N 1

hj ;

hmin D

min

j D0;:::;N 1

hj :

Falls max

j D0;:::;N

js 00 .xj /

f 00 .xj /j  C jjf .4/ jj1 h2max

erfüllt ist mit einer Konstanten C > 0, so gelten mit der Zahl c WD hhmax .C C min folgenden Abschätzungen für jedes x 2 Œa; b :

js.x / 0

js .x /

f .x /j  2

js 00 .x / js .3/ .x / wobei der Ausdruck 3

f .x /j  cjjf .4/ jj1 h4max ;

......

0

(2.28) 1 / 4

die

(2.29)

.......

h3max ;

(2.30)

f 00 .x /j  2

......

h2max ;

(2.31)

f .3/ .x /j  2

......

hmax

.x ¤ xj /;

(2.32)

hier jeweils für den Faktor cjjf .4/ jj1 steht.

zur Zerlegung  D ¹a D x0 <    < xN D b º und den Stützwerten fj D f . xj / für j D 0; 1; : : : ; N

36

Kapitel 2

Splinefunktionen

Beweis. Man weist zunächst die Fehlerabschätzung (2.32) für die dritten Ableitungen nach. Per Definition ist s 00 auf jedem Intervall Œxj ; xj C1  affin-linear, mithin gilt für j D 0; 1; : : : ; N 1

s .3/ .x / 

s 00 .xj C1 / s 00 .xj / hj

für xj < x < xj C1 :

(2.33)

Eine Taylorentwicklung von f 00 um den Punkt x 2 Œxj ; xj C1  liefert

f 00 .xj C1 / D f 00 .x / C .xj C1 f 00 .xj / D f 00 .x / C .xj

x /f .3/ .x / C

.xj C1

.x

xj /2

x /f .3/ .x / C

x /2

2

2

f .4/ .˛j /;

f .4/ .ˇj /

mit gewissen Zwischenstellen ˛j ; ˇj 2 Œxj ; xj C1 . Subtraktion der letzten beiden Gleichungen und anschließende Division durch hj liefert

f .3/ .x / D

f 00 .xj C1 / f 00 .xj / hj

.xj C1 x /2 .4/ .x xj /2 .4/ f .˛ / C f .ˇj /; j 2hj 2hj

(2.34)

und die Subtraktion “(2.33)–(2.34)” ergibt

s .3/ .x / D

f .3/ .x /

s 00 .xj C1 /

hj

f 00 .xj C1 /

s 00 .xj /

f 00 .xj / hj

C

x /2 f .4/ .˛j / .x 2hj

.xj C1

xj /2 f .4/ .ˇj /

und somit

js .3/ .x /

f .3/ .x /j  jjf .4/ jj1 

hmax 2C hmin



x /2 C .x

min¹h0 ; : : : ; hN

C

ƒ‚ D 2c

wobei eine Abschätzung der Form

.xj C1

1 1 2



C h2max C C h2max C



jjf .4/ jj1 hmax ;

xj /2 D .xj C1  .xj C1

x j /2 2

2.xj C1

xj / 

x /.x

h2max  2

xj /

h2max

für x 2 Œxj ; xj C1  eingeht. Die Fehlerabschätzung (2.32) für die dritten Ableitungen ist damit nachgewiesen. Die weiteren Fehlerabschätzungen ergeben sich nun durch Integration. Zur Abschätzung der zweiten Ableitungen (2.31) wählt man zu einer gegebenen Zahl x 2 gilt. Der Hauptsatz der Œa; b  den nächstgelegenen Knoten xj , womit jx xj j  hmax 2 Differenzial- und Integralrechnung liefert

s 00 .x /

f 00 .x / D s 00 .xj /

f 00 .xj / C

Z x

xj

s .3/ .y /

f .3/ .y / dy

37

Weitere Themen und Literaturhinweise

und somit

js 00 .x /

f 00 .x /j  C jjf .4/ jj1 h2max C 2cjjf .4/ jj1 jx

xj jhmax  2cjjf .4/ jj1 h2max ;

wobei noch die Eigenschaft hmax = hmin  1 beziehungsweise C  c verwendet wurde. Damit ist auch (2.31) für die zweiten Ableitungen nachgewiesen. Zur Abschätzung (2.30) der ersten Ableitungen beachte man, dass die Stützstellen a D x0 < x1 <    < xN D b Nullstellen der Funktion s f sind und somit die Funktion s 0 f 0 in jedem Teilintervall Œxj 1 ; xj  eine Nullstelle yj besitzt. Wählt man zu einem gegebenen Punkt x 2 Œa; b  die nächstgelegene Nullstelle yj , so gilt jx yj j  hmax , und der Hauptsatz der Differenzial- und Integralrechnung liefert

js 0 .x /

ˇZ f 0 .x /j D ˇ

x yj

s 00 .y /

ˇ f 00 .y / dy ˇ  2cjjf .4/ jj1 h2max jx

yj j

 2cjjf .4/ jj1 h3max :

Damit ist auch die Fehlerabschätzung (2.30) für die ersten Ableitungen nachgewiesen. Abschließend wird der Fehler s f betrachtet. Für beliebiges x 2 Œa; b  und den nächstgelegenen Knoten xj erhält man

js.x /

ˇZ f .x /j D ˇ

x xj

s 0 .y /

ˇ f 0 .y / dy ˇ  2cjjf .4/ jj1 h3max jx

xj j

 cjjf .4/ jj1 h4max ;

womit auch die Fehlerabschätzung (2.29) nachgewiesen ist. Bemerkung 2.17. a) Die wesentliche Aussage in Theorem 2.16 ist die Fehlerabschätzung jjs f jj1 D O.h4max / für Zerlegungen  mit hmax = hmin  K , wobei K eine von der Zerlegung  unabhängige Konstante bezeichnet. Diese Bedingung an den Quotienten hmax = hmin stellt eine Uniformitätsbedingung an  dar. b) Konvergenz jjs f jj1 ! 0 für hmax ! 0 mit hmax = hmin  K erhält man auch unter geringeren Differenzierbarkeitseigenschaften. Für gleichmäßig stetige Funktionen f W Œa; b  ! R wird ein entsprechendes Resultat in Mennicken/Wagenführer [71], Band 2 nachgewiesen. M

Weitere Themen und Literaturhinweise Von einer gewissen Bedeutung sind in diesem Zusammenhang B-Splines der Ordnung ` 2 N0 , bei denen es sich um spezielle nichtnegative und mit einem kompakten Träger versehene4 Splinefunktionen der Ordnung ` aus den Räumen S;` handelt. Beispielsweise kann man mit ausgewählten B-Splines der Ordnung ` eine Basis für S;` erzeugen. Auf die Einführung von B-Splines wird hier im Sinne der angestrebten überschaubaren Darstellung verzichtet (ein paar weitere Anmerkungen finden 4

das heißt, diese verschwinden außerhalb eines endlichen Intervalls

38

Kapitel 2

Splinefunktionen

Sie noch in Abschnitt 9.3.5) und stattdessen auf die folgende Auswahl von Lehrbüchern verwiesen: de Boor [5], Deuflhard/Hohmann [21], Kress [63], Oevel [79], Mennicken/Wagenführer [71], Schaback/Wendland [95], Schwarz/Köckler [97], Freund/ Hoppe [30], Weller [111] und Werner [112]. Außerdem ist in diesem Zusammenhang die Bézier-Interpolation zu nennen, die beispielsweise in [63, 95, 97, 111, 112] behandelt wird.

Übungsaufgaben Aufgabe 2.1. Im Folgenden bezeichnet

 D ¹a D x0 < x1 <    < xN D bº

(2.35)

wieder eine Zerlegung des Intervalls Œa; b. Weiter seien f0 ; f1 ; : : : ; fN 2 R gegebene Stützwerte, und s sei die zugehörige interpolierende lineare Splinefunktion. Im Folgenden bezeich1 net C Œa; b den Raum derjenigen stetigen Funktionen f W Œa; b ! R, die stückweise stetig differenzierbar sind. Man zeige Folgendes: 1 a) Für jede Funktion f 2 C Œa; b mit f .xj / D fj für j D 0; 1; : : : ; N gilt:

(i) jj f 0 s 0 jj22 D jj f 0 jj22 jj s 0 jj22 . (ii) Für eine beliebige (bzgl.  ) lineare Splinefunktion

gilt jj f

0

s 0 jj2  jj f 0

0

jj2 :

b) Die interpolierende lineare Splinefunktion s löst das Variationsproblem

jj f 0 jj2 ! min

1 für f 2 C Œa; b

mit f .xj / D fj

für j D 0; 1; : : : ; N:

Aufgabe 2.2. Gegeben seien eine Zerlegung (2.35) des Intervalls Œa; b und Stützwerte f0 ; f1 ; : : : ; fN 2 R. a) Man weise nach, dass es für jede Zahl f00 2 R genau einen interpolierenden quadratischen Spline s gibt, der der Zusatzbedingung s 0 .x0 / D f00 genügt. Man gebe einen Algorithmus zur Berechnung von s an. b) Gesucht ist nun der interpolierende quadratische Spline s mit periodischen Randbedingungen s 0 .x0 / D s 0 .xN /. Man treffe Aussagen über Existenz und Eindeutigkeit von s . Aufgabe 2.3. Man weise die Aussage im ersten Teil von Bemerkung 2.9 nach. Aufgabe 2.4. Auf dem Intervall Œ0; 2 seien die Knoten x0 D 0; x1 D 1 und x2 D 2 gegeben. Handelt es sich bei der Funktion

f .x/ D

²

3x 2 C 4x C 1 für 0  x  1; 2x C 4 für 1 < x  2;

bezüglich der gegebenen Zerlegung um eine quadratische Splinefunktion? Aufgabe 2.5. Auf dem Intervall Œ 1; 1  seien die Knoten x0 D 1; x1 D 0 und x2 D 1 gegeben. Welche Eigenschaften eines natürlichen kubischen Splines bezüglich der zugehörigen Zerlegung besitzt die folgende Funktion, und welche besitzt sie nicht?

f .x / D

²

.x C 1 / C .x C 1 /3 für 1  x  0; 4 C .x 1 / C .x 1 /3 für 0 < x  1:

39

Übungsaufgaben Aufgabe 2.6. Gegeben seien die Stützpunkte

k xk fk

0

1

2

3

4

5

3

2

1

0

1

2

9

4

1

0

1

4

Man stelle das zugehörige lineare Gleichungssystem für die Momente der interpolierenden kubischen Splinefunktion mit natürlichen Randbedingungen auf. Aufgabe 2.7. Man berechne diejenige kubische Splinefunktion zur Zerlegung  D ¹ 0 D x0 < x1 D 1 < x2 D 2 º, die die Interpolationsbedingungen s.0/ D 3; s.1/ D 7 und s.2/ D 1 erfüllt.

Aufgabe 2.8. Gegeben seien eine äquidistante Zerlegung  D ¹ 0 D x0 < x1 <    < xN D 1 º des Intervalls Œ 0; 1 ; es gilt also xk D xk 1 C h für k D 1; 2; : : : ; N , mit h D N1 . Man betrachte auf diesem Intervall die Funktion f .x / D sin . 2x / und die dazugehörende interpolierende kubische Splinefunktion s 2 S;3 mit natürlichen Randbedingungen. Wie groß muss die Zahl N gewählt werden, damit auf dem gesamten Intervall die Differenz zwischen s und f betragsmäßig kleiner als 10 12 ausfällt? Aufgabe 2.9. Gegeben seien eine äquidistante Zerlegung  D ¹ 0 D x0 < x1 <    < xN D 1 º des Intervalls Œ 0; 1 ; es gilt also xk D xk 1 Ch für k D 1; 2; : : : ; N , mit h D N1 und x0 D 0. Man 1 . Wie groß muss die Zahl N jeweils betrachte auf diesem Intervall die Funktion f .x/ D 1Cx gewählt werden, damit auf dem gesamten Intervall die Differenz zwischen der Funktion f und der interpolierenden  

linearen Splinefunktion s 2 S;1 betragsmäßig kleiner als 0:0025 ausfällt?

kubischen Splinefunktion s 2 S;3 mit natürlichen Randbedingungen betragsmäßig kleiner als 0:0024 ausfällt?

Aufgabe 2.10. Gegeben sei eine zweimal stetig differenzierbare Funktion f W Œa; b ! R und eine Zerlegung (2.35) des gegebenen Intervalls. Für den zugehörigen interpolierenden linearen Spline s 2 S;1 weise man mit Hilfe der taylorschen Formel die folgende Fehlerabschätzung nach:

js 0 .x /

f 0 .x /j  1 jj f 00 jj1 hmax für x 2 Œa; b;

x 62 ¹x0 ; x1 ; : : : ; xN º;

2

wobei hmax WD maxj D0;:::;N

1 ¹xj C1

xj º den maximalen Knotenabstand bezeichnet.

Aufgabe 2.11 (Numerische Aufgabe). Zur Interpolation beliebig verteilter Punkte .x0 ; f0 /; .x1 ; f1 /; : : : ; .xn ; fn / 2 R 2 in der Ebene lassen sich kubische Splinekurven verwenden: Man bestimmt eine interpolierende kubische Splinefunktion s1 zu den Werten .t0 ; x0 /; .t1 ; x1 /; : : : ; .tn ; xn / 2 R 2 und eine zweite interpolierende kubische Splinefunktion s2 zu den Werten .t0 ; f0 /; .t1 ; f1 /; : : : ; .tn ; fn / 2 R 2 . Hierbei wählt man

t0 D 0;

tj D tj

1

C

q

.xj

xj

1/

2

C .fj

fj

1/

2

für j D 1; 2; : : : ; N:

Die gewünschte interpolierende kubische Splinekurve ist dann .s1 .t /; s2 .t // mit t 2 Œ 0; tN .

Diesen Ansatz wende man auf die folgenden Punkte an:

j xj fj

0

1

2

4

5

6

7

8

1.5

0.9

0.6

0.35

3

0.2

0.1

0.5

1.0

1.5

0.75

0.9

1.0

0.8

0.45

0.2

0.1

0.2

0.25

40

Kapitel 2

Splinefunktionen

Dabei sollen die interpolierenden kubischen Splinefunktionen s1 und s2 natürliche Randbedingungen erfüllen. Man erstelle einen Ausdruck des sich ergebenden Kurvenverlaufs.

3

Diskrete Fouriertransformation und Anwendungen

In diesem Abschnitt wird zunächst die diskrete Fouriertransformation einführend behandelt, und anschließend werden einige Anwendungen präsentiert. Schließlich wird ein Verfahren zur “schnellen” diskreten Fouriertransformation vorgestellt. Zu den Anwendungen der diskreten Fouriertransformation gehört auch die trigonometrische Interpolation, daher wird das vorliegende Thema an dieser Stelle behandelt.

3.1 Diskrete Fouriertransformation Definition 3.1. Zu einem gegebenem Datensatz von N komplexen Zahlen f0 ; f1 ; : : : ; 1 2 C wird der Datensatz d0 ; d1 ; : : : ; dN 1 komplexer Zahlen definiert durch

fN

dk D N1

NX1

fj e

ijk 2=N

;

k D 0; 1; : : : ; N

j D0

1

.i D

p

1/

(3.1)

als diskrete Fouriertransformierte oder auch als diskrete Fourierkoeffizienten von f0 ; 1 bezeichnet. Es wird auch die folgende Notation verwendet,

f1 ; : : : ; fN

F .f0 ; : : : ; fN

1/

WD .d0 ; : : : ; dN

1 /:

(3.2)

In Matrix-Vektorschreibweise ergibt sich die diskrete Fouriertransformierte durch die Multiplikation

d0 ! ♣♣♣

dN

1

f0 ! ♣♣♣

1

D NV

fN

;

(3.3)

1

wobei die Matrix V 2 CN N konjugiert komplex ist zu der symmetrischen Matrix

0

V WD .! kj /k;j D0::N

1

1

1

♣♣♣

1

B B B1 ! !2 B B D B1 !2 !4 B B ♣♣ ♣♣ ♣♣ B♣ ♣ ♣ @ N 1 2.N 1! !

♣♣♣ ♣♣♣ ♣♣ 1/



♣♣♣

1

1

C C C C C N N ; ! WD e i2=N : ! 2.N 1/ C 2 C C (3.4) C ♣♣ C ♣ A 2 ! .N 1/ !N

1

Im Folgenden bezeichnet AH 2 CN M die zu einer gegebenen Matrix A 2 CM N >

konjugiert komplexe und transponierte Matrix, AH D A . Im Fall v D .v1 ; : : : ; vN /> 2 CN beispielsweise bedeutet dies v H D .v 1 ; : : : ; v N /.

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_3

42

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

Lemma 3.2. Für die Spaltenvektoren der Matrix V in (3.4),

v .k/ WD . 1; ! k ; ! 2k ; : : : ; ! .N gilt

.v .k/ /H v .`/ D

° N

0

1/k >

/ 2 CN ;

für k D `; für k ¤ `;

k D 0; 1; : : : ; N

k; ` D 0; 1; : : : ; N

1;

1I

(3.5)

die Spaltenvektoren von V sind also paarweise orthogonal zueinander. Beweis. Im Fall k D ` erhält man wegen j! j D 1

.v .k/ /H v .k/ D

NX1 sD0

! ks ! ks D

NX1 sD0

1 D N;

und im Fall k ¤ ` ergibt sich

.v .k/ /H v .`/ D

NX1

D

sD0

! ks ! `s D

NX1

! .`

sD0

k/s

D

NX1

.! .`

k/ s

/

sD0

! .` k/N 1 e i.` k/2 1 D D 0; ! .` k/ 1 e i.` k/2=N 1

wobei der Nenner für k; ` 2 ¹ 0; 1; : : : ; N

1 º mit k ¤ ` nicht verschwindet.

Als unmittelbare Folgerung aus Lemma 3.2 erhält man das folgende Korollar. Korollar 3.3. 1. ( Diskrete Fourierrücktransformation) Für die Matrix V 2 CN N aus (3.4) gilt



1

N

V



1

D V:

Jeder Datensatz f0 ; f1 ; : : : ; fN 1 komplexer Zahlen lässt sich also aus seiner diskreten Fouriertransformierten F .f0 ; : : : ; fN 1 / D .d0 ; : : : ; dN 1 / mittels

fj D

NX1

dk e ijk2=N ;

kD0

j D 0; 1; : : : ; N

1;

(3.6)

zurückgewinnen. Es wird auch die folgende Notation verwendet, 1

.d0 ; : : : ; dN 1 / D .f0 ; : : : ; fN 1 /: PN 1 PN 1 1 2 2. Mit der Notation aus (3.1) gilt kD0 jdk j2 D N j D0 jfj j . F

3.2 Anwendungen der diskreten Fouriertransformation Für die nachfolgenden Betrachtungen ist eine Erweiterung der Definition (3.2) für Indizes k 2 Z hilfreich,

dk D N1

NX1 j D0

fj e

ijk 2=N

;

k 2 Z:

(3.7)

43

Abschnitt 3.2 Anwendungen der diskreten Fouriertransformation

Wegen

D1

e

ij.kCN /2=N

De

ijk 2=N

‚ …„ ƒ e ijN 2=N D e

ijk 2=N

(3.8)

liegt in (3.7) Periodizität bezüglich k vor:

dkCN D dk ;

k 2 Z:

(3.9)

Mithilfe von (3.9) kann demnach aus den Werten d0 ; d1 ; : : : ; dN

1

unmittelbar dk für

k 2 Z ermittelt werden. 3.2.1 Fourierreihen Jede riemann-integrierbare Funktion f W Œ 0; L ! R mit f . 0 / D f .L/ lässt sich in eine Fourierreihe entwickeln,

f .x / D

a0 2

C

1 X

kD1



  ak cos k 2x C bk sin k 2x ; L L

(3.10)

mit den reellen Fourierkoeffizienten 2 ak D L

Z L 0



2y

f .y / cos k L

2 bk D L

dy;

Z L 0

2y

f .y / sin k L



dy;

(3.11)

für k D 0; 1; : : : . Dabei konvergiert die Reihe in (3.10) im quadratischen Mittel. Mit der eulerschen Formel

e ˙ik2x=L D cos k 2x L



 ˙ isin k 2x ; L

iD

p

1

.k 2 Z /;

erhält man die komplexe Fourierentwicklung

f .x / D

1 X

ck e ik2x=L

(3.12)

kD 1

mit den komplexen Fourierkoeffizienten 1 ck D L

Z L 0

f .y /e

ik 2y=L

dy;

k 2 Z;

(3.13)

wobei Konvergenz in (3.12) im quadratischen Mittel vorliegt. Zwischen den Koeffizienten in (3.11) und (3.13) besteht der folgende Zusammenhang (für k 2 N0 ):

ck D

ak

ibk 2

ak D ck C c

; k;

c

k

D

ak C ibk 2

bk D i.ck

;

c

k /:

44

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

3.2.2 Zusammenhang zwischen komplexen Fourierkoeffizienten und der diskreten Fouriertransformation Im Folgenden wird beschrieben, inwiefern zu einer riemann-integrierbaren Funktion f W Œ 0; L ! R die diskreten Fourierkoeffizienten zur Approximation der komplexen Fourierkoeffizienten aus (3.13) herangezogen werden kann. Hierzu wird

fj D f .xj / mit xj D j h; j D 0; 1; : : : ; N

1

L hD N

(3.14)

betrachtet. Das in (3.13) auftretende Integral wird auf Teilintervallen durch eine einfache Rechteckregel approximiert: 1 ck D L

Z L 0

1 L L N

f .y /e

NX1

fj e

ik 2y=L

1 dy D L

ijk 2=N

j D0

D N1

NX1 Z .j C1/L=N j D0

NX1

jL=N

fj e

f .y /e

ijk 2=N

ik 2y=L

D dk ;

j D0

dy;

k 2 Z;

(3.15)

mit dk aus (3.7). Solche “summierten Rechteckregeln” werden in Abschnitt 6.5.1 auf Seite 144 eingehender diskutiert. Allerdings sind bei der Diskretisierung in (3.15) lediglich für betragsmäßig kleine Werte von k gute Approximationen zu erwarten, da nur dann die auftretenden Funktionen e ik 2y=L niederfrequent sind. Diese Einschränkung an k ist auch deswegen einleuchtend, da für glatte Funktionen f die Eigenschaft ck ! 0 für k ! 1 erfüllt ist, während für die Koeffizienten dk aus (3.7) gemäß (3.9) eine Periodizität bzgl. k vorliegt. Eine naheliegende Verwendung (für gerades N ) ist

dk  ck ;

k D 0; 1; : : : ; N2

1;

dk D dkCN  ck ;

kD

N 2

;

N 2

C 1; : : : ; 1

beziehungsweise in kompakter Notation

.c

N=2 ; : : : ; c 1 ; c0 ; : : : ; cN=2 1 /

 .dN=2; : : : ; dN

1 ; d0 ; : : : ; dN=2 1 /:

Für die betrachtete Funktion f erhält man so die Näherung

f .x / 

N= 2 1 X

dk e ik2x=L :

(3.16)

kD N=2

Beispiel 3.4. Die digitale Datenübertragung liefert ein Beispiel für die praktische Anwendbarkeit der Eigenschaft (3.15). Hier ist es etwas vereinfacht dargestellt so, dass zu den N abgetasteteten Werten (3.14) eines analogen Signals f W Œ0; L ! R die diskreten Fourierkoeffizienten d0 ; : : : ; dN 1 berechnet werden. Diese diskreten Fourierkoeffizienten werden anschließend an den gewünschten Zielort übermittelt, an dem mittels (3.16) (unter Zuhilfenahme der Periodizitätseigenschaft (3.9)) das analoge Signal f näherungsweise zurückgewonnen werden kann.

45

Abschnitt 3.2 Anwendungen der diskreten Fouriertransformation

In diesem Zusammenhang spielen Glättung und Datenkompression eine Rolle. Zieht man nämlich zur Approximation einer Funktion f die Darstellung (3.16) heran, so werden dabei üblicherweise hochfrequente Anteile von f vernachlässigt, was einer Glättung der Funktion f gleichkommt. Dies lässt sich auch als Datenkompression interpretieren, da nur ein Teil der Fourierkoeffizienten bei der approximativen Rekonstruktion von f verwendet wird. M

3.2.3 Trigonometrische Interpolation, Teil 1 Zur Interpolation auf einem gegebenen Intervall Œ 0; L mit L > 0 werden im Folgenden trigonometrische Polynome von der folgenden Form herangezogen,

p.x / D

N X 1 M

dk e ik2x=L ;

x 2 R;

kD M

(3.17)

mit einer Zahl M 2 N0 und Koeffizienten d M ; d M C1 ; : : : ; dN 1 M . Weiter unten werden die Fälle M D 0 und M D N etwas genauer betrachtet. 2 Interpolierende trigonometrische Polynome von der Form (3.17) erhält man folgendermaßen: jL

Theorem 3.5. Zu äquidistanten Stützstellen xj D N 2 Œ 0; L und beliebigen Stützwerten fj 2 C für j D 0; 1; : : : ; N 1 mit N 2 N besitzt das trigonometrische Polynom p aus (3.17) die Interpolationseigenschaft

p.xj / D fj ;

j D 0; 1; : : : ; N

falls die Koeffizienten d M ; d M C1 ; : : : ; dN

1 M

1;

(3.18)

die Bedingung (3.7) erfüllen.

Beweis. Aus der Darstellung (3.17) erhält man unmittelbar

p.xj / D

N X 1 M kD M

dk e ijk2=N D



1 X

kD M

C

N X 1 M kD0

 dk e ijk2=N ;

(3.19)

und wir betrachten im Folgenden die erste dieser beiden Teilsummen. Hierfür erhält man Folgendes, 1 X

kD M

./

dk e ijk2=N D

1 X

kD M

./

dkCN e ij.kCN /2=N D

NX1

dk e ijk2=N :

(3.20)

kDN M

Dabei ergibt sich ./ wie in (3.8) sowie mit der Setzung (3.7), und ./ erhält man unmittelbar aus einer Umindizierung. Die Darstellungen (3.19) und (3.20) zusammen ergeben

p.xj / D

NX1 kD0

./

dk e ijk2=N D fj ;

wobei sich die Darstellung ./ aus der Definition in (3.1) ergibt.

46

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

Ein trigonometrisches Polynom der Form (3.17), das zugleich die Interpolationseigenschaft (3.18) besitzt, bezeichnen wir als trigonometrisches Interpolationspolynom. Gemäß Theorem 3.5 gewinnt man die Koeffizienten eines solchen trigonometrischen Interpolationspolynoms mit der diskreten Fouriertransformierten (3.1) und anschließender periodischer Fortsetzung entsprechend (3.9).

3.2.4 Trigonometrische Interpolation, Teil 2 Wir betrachten nun trigonometrische Polynome p D p1 aus (3.17) für den speziellen Fall M D 0:

p1 .x / D

NX1

dk e ik2x=L ;

x 2 R:

kD0

(3.21)

Diese haben unter Umständen aufgrund eines oszillierenden Verhaltens schlechte Approximationseigenschaften, was anhand des folgenden Beispiels deutlich wird. In Abschnitt 3.2.5 wird allgemein beschrieben, warum dieses Verhalten nicht überraschend ist. Beispiel 3.6. Man betrachte die Funktion f W Œ 0; 1  ! R definiert durch

f .x / D

²

1

x; x;

0x 1 2

1 ; 2

(3.22)

< x  1:

Für zwei verschiedene Werte von N sind in Abb. 3.1 die zugehörigen trigonometrischen Interpolationspolynome der Form (3.21) dargestellt. M

✻ 1=2



f .x.../..........................

1=2

....... ... ........ ....... ... .. ... .... .... ... ... .... ... ... . ... .... . ... .... ... ... . . . .... ... ... .. .. ............... . ..... ........ . . ... . . . . ... ... ... .... ..... ... .. . ... ....... ... . . ..... ... . .. ..... . . . ... . . . . . ... ... .. ...... .. ... .... .. . . . . . . . . . . . . .... ............ .. .. ......... ........... .............. . . . . . . . . . . ... ..... ......... ... .. ...... .. . . . . . . . . . ... ...... .... .... .. ..... .. . 1 . . . . . . . . ... . . .... .... .... ... .... ... ... ... .. ... ... .. ...... .. ... ........ .. . . . . . . . .... .. . ... . ........ .... .... ..... ... ..... ......... ........... ... ......... ....... ... .... ...... ... . . . . ... ... . .. . . . . . ... ... .. .. . . ... . . . ... . ... ... ... ... ... ... ... ... ... ..... ... .... ........... ............

Re p .x /

0

1=2

0

Im p1 .x /

✲ 1

f .x.../...............................

. . ... .. .. ... .......... ... ... ......... ... .. .. .. .. .. ... .... . . ........ .. .. .. .. .. .. ..... . ........ .......... ... ... ... ... ... .... ............ ........ . . . .. . . ... ... . ...... .. .. ... .. .. .. ... ... .. .. ....... ... .. ...... ......... .. ... .. ... ... ... .. ... .. .. ......... ...... .... .... .. .. ..... .. ... .... ... .. .. ... .... ... .. ...... .. ... ..... ... ...... ... .... ... ......... ... .... ... ...... ... .... ....... .... ... ... ........ .... .... ... ........ ... . . . . . . . . . . .. . . . . .. .. . ... . . ...... .. .. ...... ... .. ... ... .... .. . ..... . . . . . ..... .. ... .. ....... .. .. ... .. .. .. . .. ...... .... ...... ............ ... .. ... ... ... .. .. ... .. .. .... .... ... .... ...... ....... ............... ........... .... .... ... .... . ... .... .... ............ ..... . .. . .. . . .. . .... .. . . . 1 ....... .... ... .... .... ..... .... ... .... ... ......................... ... ....... ... .... ... ............ . . . . . .. ... ....... ..... .. .. .. ... ... ... .... .. .. .... ............ .. ... ... ....... ... ... .. ... .. .. .. ... ... .. .. .. .. .......... .. ... .. .. .. .. .. ..... ... .. ... .. .. .. ... ..... ... ... ............ . ...... .... .... .... .... .... .... ..... ..... .. ........ ........ .... .... ........ . ....... .... .... ...... ..... . . .. .. . .. .. .. ..... ... .. ...... ...... ... .... ... .... ... ......... ..... ...... .. .. .. .. .. .. ... .. .. .. .. .. .. .. .. ... ... ... .. .. .. .. .. ... ... .. .. .. .. .. .. .. .. .. ... .. ... ... .. ... .. ... ... .... .. .. ..... ... .. . .. .. .. .. .. .. .. ... .. .. .. ..... . . . . . . ..... ... .. . .. .. .... .. . .. . .. ... ..... .. .. ... ...... ...... ..... .. . .

Re p .x /

0

0

1=2

✲ 1

Im p1 .x /

Abb. 3.1: Darstellung der Funktion f und des Real- und Imaginärteils des trigonometrischen Interpolationspolynoms p1 der Form (3.21); links für N D 4, rechts für N D 16

3.2.5 Trigonometrische Interpolation, Teil 3 Zur Gewinnung interpolierender trigonometrischer Polynome mit zugleich guten Approximationseigenschaften werden im Folgenden interpolierende trigonometrische

47

Abschnitt 3.2 Anwendungen der diskreten Fouriertransformation

betrachtet, wobei Polynome p von der Form (3.17) für den speziellen Fall M D N 2 N 2 N als gerade angenommen wird. In diesem speziellen Fall gilt p D p2 mit

p2 .x / D

N= 2 1 X

dk e ik2x=L :

(3.23)

kD N=2

Man beachte, dass ein interpolierendes trigonometrisches Polynom der Form (3.23) mit der in (3.16) betrachteten Approximation übereinstimmt. Ergeben sich die Stützwerte fj aus den Werten einer hinreichend glatten periodischen Funktion an den Stützstellen xj , so besitzt das trigonometrische Polynom p2 aus (3.23) mit der Interpolationseigenschaft (3.18) auf dem gesamten Intervall Œ 0; L gute Approximationseigenschaften, die in Theorem 3.8 unten präzisiert sind. Zunächst werden die Approximationseigenschaften anhand des folgenden Beispiels dargestellt. Beispiel 3.7. Für die Funktion f W Œ 0; 1  ! R aus (3.22) sind in Abb. 3.2 für zwei Werte von N jeweils die interpolierenden trigonometrischen Polynome p2 aus (3.23), (3.18) dargestellt. M

✻ 1=2



...................... ...... .... ................. .... ... ... .... .... ... .... .... ... ...... .... .... . . .... ... .. .. ... ... .... .... .. ...... .... ... . . ....... ........ . . ....... ....... . ....... . . ...... ....... . . .... .... . ...... . ...... ....... . . . ...... ....... . . ... .... . ... .... .... .... . . ... .... .. ... . . ... ... . . ... .... ... ..... . . .... ... . 2 ... ...... .... .... . . . ..... ... ............... ....... ... . . .......... ............

1=2

f .x /

p .x /

0

0

1=2

p2 .x / ..

. ......... ......... ....... ......... .... ..... .... .... . . . ..... .. ..... ..... ..... .... . . . .... . .... .... . . . .... ... .... . . . .... ... . . . ..... . ..... ..... . . . .... .... .... . . .... ... . . . .... ..... .... . . . ..... ... . . . ..... . . ... ..... . . . .... .... . ...... . . .... . ....... . . . . . . ...... ......

f .x /



1

0

1=2

0



1

Abb. 3.2: Darstellung der Funktionen f und p2 aus (3.23), (3.18); links für

N D 4, rechts für N D 16 Im Folgenden werden die Approximationseigenschaften des interpolierenden trigonometrischen Polynoms p2 beschrieben. Theorem 3.8. Die Funktion f W R ! C sei m-mal R L stetig differenzierbar und periodisch der Länge L, und es bezeichne jjg jj2 D . 0 jg.x /j2 dx /1=2 . Dann gilt für das trigonometrische Polynom p2 aus (3.23) mit der Interpolationseigenschaft (3.18) (mit fj D f .xj / ) die Fehlerabschätzung

jjp2

f jj2  cm .jjf jj2 C jjf .m/ jj2 /N

m

mit einer gewissen Konstanten cm > 0. Beweis. Für einen elementaren Beweis unter expliziter Angabe der Konstanten cm siehe Saranen/Vainikko [94].

48

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

Bemerkung 3.9. Es soll hier nochmals das interpolierende trigonometrische Polynom aus Abschnitt 3.2.4 betrachtet werden. Interpoliert ein solches trigonometrisches Polynom p1 von der Form (3.21) auf dem Intervall Œ 0; L an den äquidistanjL 1, eine gegebene m-mal stetig diffeten Stützstellen xj D N ; j D 0; 1; : : : ; N renzierbare und L-periodische Funktion f W R ! C, so ist die Funktion p2 .x / WD p1 .x /e iN x=L von der Form (3.23) und interpoliert an den genannten Stützstellen die Funktion f .x /e iN x=L. Die letztgenannte Funktion oszilliert jedoch typischerweise stark. Genauer gilt dm .f .x /e dx m

iN x=L

iN x=L

/De

m X m s

sD0

N  s .m . iL / f

s/

 .x / ;

wobei auf der rechten Seite dieser Gleichung der Term N m dominiert und Theorem 3.8 hier somit lediglich

jjp1

f jj2 D jjp2

fe

iN x=L

jj2 D O. 1 /

erwarten lässt. Dies wird durch Beispiel 3.6 bestätigt.

M

Mit dem nächsten Beispiel wird der Effekt der Datenglättung demonstriert. Beispiel 3.10. Für die Funktion f W Œ 0; 1  ! R aus (3.22) ist in Abb. 3.3 der mittels des trigonometrischen Interpolationspolynoms (3.23), (3.18) gewonnene Effekt der Datenglättung1 veranschaulicht. M



0

✻ ...... f .x/ ...... .......... .. ......

1=2

. ...... ...... ....... ...... . ....... ...... ...... ...... ....... ... .... ...... ...... ...... . . . ..... ..... ...... ...... .....

0

1=2

...... . .. ...... ...... ...... ..... ... ....... ...... ...... ...... .... .... ...... ..... .... ...... ...... ...... ....... ...... . .. ...

1=2

1



Re p....2.. .x /

.. ... ... ..... ... ... .... ... . . . ........ ....... ..... ..... ... ... . ... .. ... . . .... .. . . . ....... ..... . . ...... . . . . ... .... . ... . ... ... . ... .. . .... . ....... .... . . . . . . ..... ..... ... . . ... ... . ... .. ... . . 2 .... ... . . . ... .. ...............................................................................................................................................................................................................

Im p .x /

0

0

1=2



1

Abb. 3.3: Links die Funktion f aus (3.22) mit kleinen aber hochfrequenten Störungen, und rechts das trigonometrische Interpolationspolynom p2 für N D 16

3.2.6 Interpolierende reelle trigonometrische Polynome jL

Zur Interpolation der Stützpunkte .xj ; fj / mit äquidistanten Stützstellen xj D N 2 Œ 0; L und reellen Zahlen fj 2 R für j D 0; 1; : : : ; N 1; werden im Folgenden 1

siehe Beispiel 3.4

49

Abschnitt 3.2 Anwendungen der diskreten Fouriertransformation

reelle trigonometrische Polynome der Form

T .x / D A0 C 2

N= 2 1 X kD1

      C AN=2 cos NLx (3.24) Ak cos k 2Lx C Bk sin k 2Lx

herangezogen mit geraden Zahlen N . Hierzu werden die folgenden Koeffizienten betrachtet:

Ak D N1

NX1

fj cos

j D0



j k 2 N



Bk D N1

2 R;

NX1

fj sin

j D0





j k 2 N

2 R;

(3.25)

k D 0; 1; : : : ; N2 :

Offenbar ist das trigonometrische Polynom T in (3.24) mit Koeffizienten Ak ; Bk wie in (3.25) reellwertig. Das folgende elementare Lemma wird beim Beweis des nachfolgenden Theorems 3.12 benötigt und gibt darüber hinaus an, wie man die Zahlen in (3.25) mithilfe der diskreten Fouriertransformierten (3.1) erhält. Lemma 3.11. Zwischen den Zahlen Ak ; Bk ; k D 0; 1; : : : ; N 1, in (3.25) einerseits und der diskreten Fouriertransformierten (3.3) bestehen die Zusammenhänge

d0 D A0 ;

d

dk D Ak

N=2

iBk ;

d

D AN=2 ; k

k D 1; 2; : : : ; N2

D Ak C iBk ;

1:

(3.26)

Beweis. Gemäß (3.3) gilt

dk D N1

NX1

ijk 2=N

fj e

j D0

D N1

NX1 j D0

   j k 2 fj cos N

i sin

kD

N 2



j k 2 N

;:::;

N 2



;

1;

woraus die angegebenen Identitäten unmittelbar folgen. Das folgende Theorem beschreibt die Interpolationseigenschaften des trigonometrischen Polynoms T aus (3.24)–(3.25). Theorem 3.12. Für das interpolierende trigonometrische Polynom p2 mit (3.23), (3.18) und das reelle trigonometrische Polynom T aus (3.24)–(3.25) gilt Re p2 .x / D T .x / sowie T .xj / D fj für j D 0; 1; : : : ; N 1. Beweis. Mit dem trigonometrischen Polynom p2 aus (3.23) gilt

p2 .x / D d0 C ./

D A0 C

N= 2 1 X kD1

N= 2 1 X

D A0 C 2

.Ak

kD1

N= 2 1 X kD1

dk e ik2x=L C d

ke

ik 2x=L



Cd

N=2 e

iN x=L

 iBk /e ik 2x=L C .Ak C iBk /e ik 2x=L C AN=2 e iN x=L

    C AN=2e Ak cos k 2Lx C Bk sin k 2Lx

iN x=L

;

50

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

wobei in ./ noch Lemma 3.11 herangezogen wurde. Aus dieser Darstellung für p2 ergeben sich unmittelbar die beiden Aussagen des Theorems.

3.3 Schnelle Fouriertransformation (FFT) 3.3.1 Einführende Bemerkungen In diesem Abschnitt wird ein Verfahren zur “schnellen Fouriertransformation” (Fast Fourier Transform, kurz FFT ) vorgestellt. Dieses Verfahren nutzt die spezielle Form der Transformation (3.1) aus und benötigt dabei lediglich O.N log2 N / komplexe Multiplikationen, wobei log2 den Logarithmus zur Basis 2 bezeichnet. Man beachte, dass die Berechnung der diskreten Fouriertransformierten (3.1) mittels einer MatrixVektor-Multiplikation entsprechend (3.3) insgesamt N 2 komplexe Multiplikationen erfordert.

3.3.2 Der grundlegende Zusammenhang Von grundlegender Bedeutung für den FFT-Algorithmus ist das folgende Resultat. Theorem 3.13. Aus den diskreten Fouriertransformierten der beiden (komplexen) Datensätze g0 ; g1 ; : : : ; gM 1 und gM ; gM C1 ; : : : ; g2M 1 der Längen M lässt sich die diskrete Fouriertransformierte des Datensatzes g0 ; gM ; g1 ; gM C1 ; : : : ; gM 1 ; g2M 1 der Länge 2M folgendermaßen bestimmen: 1 2

1 2

Fk .g0 ; g1 ; : : : ; gM

1/

Ce

ik=M

Fk .gM ; gM C1 ; : : : ; g2M

D Fk .g0 ; gM ; g1 ; gM C1 ; ♣ ♣ ; gM Fk .g0 ; g1 ; : : : ; gM

1/

e

ik=M

1 ; g2M

1/



für k D 0; 1; : : : ; M

Fk .gM ; gM C1 ; : : : ; g2M

D FM Ck .g0 ; gM ; g1 ; gM C1 ; : : : ; gM

1/

1 ; g2M

1/

1/

1;



für k D 0; 1; : : : ; M

1:

Hierbei bezeichnen Fk beziehungsweise FM Ck die k -te beziehungsweise .M C k/-te Komponente von F . Beweis. Für k D 0; 1; : : : ; M

1 gilt

Fk .g0 ; gM ; g1 ; gM C1 ; : : : ; gM 1 ; g2M 1 /  MX1 M X1 gM Cj e gj e i2jk2=2M C D 21M j D0

j D0

D 21M

 MX1

i.2j C1/k 2=2M

gj e

ijk 2=M

j D0

Ce

ik=M

M X1 j D0

gM Cj e



ijk 2=M



:

Die zweite Gleichung in Theorem 3.13 erhält man völlig analog, wobei noch

e

ij.kCM /2=2M

berücksichtigt wird.

De

ijk 2=2M

e

ij

D . 1 /j e

ijk 2=2M

51

Abschnitt 3.3 Schnelle Fouriertransformation (FFT)

Für den Fall N D 2q mit N 2 N kann die in Theorem 3.13 vorgestellte Eigenschaft genutzt werden, um die diskrete Fouriertransformierte eines komplexen Datensatzes f0 ; : : : ; fN 1 zu bestimmen. Dies soll zunächst anhand des nachfolgenden Beispiels erläutert werden. Beispiel 3.14. In Schema 3.1 ist für den Spezialfall N D 23 dargestellt, wie man für r D 0; 1; 2 ausgehend von der Stufe r mit den diskreten Fouriertransformierten von Datensätzen der Länge 2r zu den diskreten Fouriertransformierten von Datensätzen der Länge 2rC1 in der Stufe r C 1 gelangt. Im Folgenden wird beschrieben, wie man in

Stufe 0

Stufe 1

f0

f4

f2

f6

f1

f5

f3

f7

k

k

k

k

k

k

k

k

F .f0 /

F .f4 /

F .f2 /

F .f6 /

F .f1 /

F .f5 /

&

.

&

F .f0 ; f4 /

F .f2 ; f6 / &

Stufe 2

&

.

&

F .f1 ; f5 /

.

&

F .f0 ; f2 ; f4 ; f6 / &

Stufe 3

.

F .f3 / F .f7 / .

F .f3 ; f7 / .

F .f1 ; f3 ; f5 ; f7 / .

F .f0 ; f1 ; f2 ; f3 ; f4 ; f5 ; f6 ; f7 /

Schema 3.1: Darstellung der schnellen Fouriertransformation im Fall N D 23 der Stufe 0 die angegebene Zuordnung f0 ; f4 ; f2 ; f6 ; f1 ; f5 ; f3 ; f7 auf die Positionen 0–7 erhält; für jede einzelne Positionsnummer n 2 ¹ 0; 1; : : : ; 7 º wird die jeweilige Binärdarstellung n D b2 22 C b1 21 C b0 20 ermittelt und in dieser anschließend die Reihenfolge der Binärziffern umgedreht. Die zugehörige Dezimalzahl b0 22 C b1 21 C b2 20 liefert dann den gesuchten Index von f . Dieses Vorgehen der Bit-Umkehr ist in Tabelle 3.1 dargestellt. Die Begründung dafür, warum dieses Vorgehen die richtige Zuordnung liefert, wird in Abschnitt 3.3.4 nachgereicht. M Position

Index von f

Dezimal , Binär 0 000 1 001 2 010 3 011 4 100 5 101 6 110 7 111

Binär revers , Dezimal 000 0 100 4 010 2 110 6 001 1 101 5 011 3 111 7

Tabelle 3.1: Darstellung der Bit-Umkehr im Fall N D 23 . Die Positionsangaben und Indizes betreffen von links aus gesehen die erste Zeile in Schema 3.1.

52

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

Für die Berechnung von F .f0 ; f1 ; : : : ; fN 1 / lässt sich das Ergebnis aus Theorem 3.13 sowohl rekursiv (ohne Bit-Umkehr) als auch iterativ umsetzen. Im Folgenden soll der iterative Weg verfolgt werden, bei dem weniger Speicherplatz erforderlich ist. Die allgemeine Vorgehensweise hierzu ist in Definition 3.19 weiter unten beschrieben. Vorbereitend wird die Bit-Umkehr eingehender behandelt.

3.3.3 Bit-Umkehr Im Folgenden wird die Bit-Umkehr in der allgemeinen Situation N D 2q betrachtet.

Pq

1

Definition 3.15. Für q 2 N0 sei n D `D0 b` 2` die eindeutige Binärdarstellung einer Zahl n 2 Mq D ¹ 0; 1; : : : ; 2q 1 º mit Binärziffern (Bits) b` 2 ¹ 0; 1 º . Die durch qX1

q W Mq ! Mq ;

b` 2` ֏

`D0

qX1

bq

1 `2

`

`D0

definierte Abbildung bezeichnet man als Bit-Umkehr. Die Situation q D 0 in Definition 3.15 wird dabei lediglich aus technischen Gründen zugelassen und bedeutet M0 D ¹ 0 º und 0 . 0 / D 0. Bemerkung 3.16. Es gilt offensichtlich

q

 qX1 `D0

 qX1 b` 2` D b` 2q

1 `

M

:

`D0

Das folgende Theorem liefert eine Vorgehensweise, mit der sich die Bit-Umkehr effizient realisieren lässt. Die Werte q . 0 /; q . 1 /; : : : ; q . 2q 1 / können damit mittels zwei geschachtelter for-Schleifen und ohne Durchführung von Multiplikationen berechnet werden. Theorem 3.17. Für die Bit-Umkehr q W Mq ! Mq gilt

q . 2r C n/ D q .n/ C 2q

1 r

n D 0; 1; : : : ; 2r

;

1;

Beweis. Sei r 2 ¹ 0; 1; : : : ; q 1 º. Für n 2 ¹ 0; 1; : : : ; 2r Binärdarstellung von der Form

nD und dann gilt n C 2r D

Pr

1 `D0

rX1

r D 0; 1; : : : ; q

1:

1 º existiert eine eindeutige

b` 2` ;

`D0

b` 2` C 2r beziehungsweise

q .n C 2r / D

rX1

`D0



b` 2q

1 `

ƒ‚



D q .n/

C2q

1 r

:

Für das Verständnis der Funktionsweise der Bit-Umkehr in der allgemeinen Situation N D 2q ist noch das folgende Resultat von Bedeutung.

53

Abschnitt 3.3 Schnelle Fouriertransformation (FFT)

Lemma 3.18. Die Bit-Umkehr q W Mq ! Mq ist bijektiv mit q 1 D q . Weiter gilt für r D 0; 1; : : ::

r .n/ D rC1 . 2n/;

r

2 C r .n/

n 2 Mr ;

D rC1 . 2n C 1 /;

.......

:

Beweis. Ist elementar und wird hier nicht geführt (Aufgabe 3.8).

3.3.4 Der FFT-Algorithmus in der Situation N D 2q Ausgehend von beliebigen gegebenen komplexen Zahlen g0 ; g1 ; : : : ; gN

N D 2q

1

2 C mit

mit q 2 N

führt der in Theorem 3.13 beschriebene Zusammenhang auf die in dem folgenden Algorithmus 3.19 beschriebenen Vorgehensweise. Wie sich herausstellen wird (siehe Korollar 3.23), stimmt der dabei ermittelte Vektor dŒq;0 2 CN mit der diskreten Fouriertransformierten F .gq .0/ ; : : : ; gq .2q 1/ / überein. Damit wird dann auch unmittelbar klar, wie man die Zahlen g0 ; g1 ; : : : ; gN 1 2 C letztlich zu wählen hat, so dass der Vektor dŒq;0 2 CN tatsächlich mit der zu bestimmenden diskreten Fouriertransformierten F .f0 ; : : : ; fN 1 / eines gegebenen Datensatzes von N komplexen Zahlen f0 ; : : : ; fN 1 übereinstimmt. Algorithmus 3.19 (FFT). Ausgehend von Zahlen dŒ0;j  D gj 2 C; j D 0; : : : ; 2q 1 bestimme man für Stufen r D 1; 2; : : : ; q in der r -ten Stufe insgesamt 2q r Vektoren der Länge 2r q r

dŒr;0 ; dŒr;1 ; : : : ; dŒr;2



r

2 C2

aus den Datensätzen der jeweils vorhergehenden Stufe r Vorschrift: ŒrC1;j 

WD

1 2

ŒrC1;j 

WD

1 2

dk

d2r Ck

 

Œr;2j 

dk

......

Œr;2j C1

C .r /k dk

......





r mit den Zahlen .r / WD e i=2 ; r D 0; 1; : : : ; q

1 gemäß der folgenden

; k D 0; : : : ; 2r 1; j D 0; : : : ; 2q r 1 r D 0; : : : ; q 1;

;

1.

1;

M

Bemerkung 3.20. In Schema 3.2 ist die Vorgehensweise beim FFT-Algorithmus schematisch dargestellt. M Mit dem nachfolgenden Theorem werden die Einträge der im Zuge des FFT-Algorithmus auftretenden Vektoren angegeben.

54

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

Stufe 0

g0 jj

g1 jj

g2 jj

g3 jj

dŒ0;0 dŒ0;1 dŒ0;2 dŒ0;3

&.

&.

dŒ1;0

Stufe 1

dŒ1;1

&

.

&

♣♣ ♣ Stufe q

g2q jj

g2q jj

4

q

dŒ0;2

&

dŒ0;2

q

dŒ0;2



&



g2q jj

2

q

dŒ0;2

q dŒ2;2

2



.

q 1

dŒ1;2

&

1



.



. :

♣♣

&

dŒq 1;0

1



.

q 1

::: ::

g2q jj

3

q



dŒ1;2

:::

dŒ2;0

Stufe 2

::: ::: :::



.

dŒq 1;1

&. dŒq;0

Stufe q

Schema 3.2: Schema zur Vorgehensweise beim FFT-Algorithmus Theorem 3.21. Es gilt dŒr;j  D F .gj 2r Cr .0/ ; gj 2r Cr .1/ ; ♣ ♣ ; gj 2r Cr .2r

1/ /;

j D 0; 1; : : : ; 2q r D 0; 1; : : : ; q:

r

1; (3.27)

Beweis. Es wird vollständige Induktion über r angewandt. Die Aussage (3.27) ist sicher richtig für r D 0, und im Folgenden sei (3.27) richtig für ein 0  r  q 1. Dann berechnet man unter Berücksichtigung von 2j 2r D j 2rC1 Folgendes, ŒrC1;j 

dk

D

1 2



Fk .g2j 2r Cr .0/ ; : : : ; g2j 2r Cr .2r

1/

/

C.r /k Fk .g.2j C1/ 2r Cr .0/ ; : : : ; g.2j C1/ 2r Cr .2r

D Fk .gs0 ; : : : ; gs2rC1 mit

1

1/

/

/



rC1 .2k/

‚…„ƒ s2k WD j 2rC1 C r .k/ ;

s2kC1 WD

.......

C 2r C r .k/; „ ƒ‚ …

k D 0; 1; : : : ; 2r

1;

rC1 .2kC1/

ŒrC1;j 

unter Berücksichtigung von Lemma 3.18. Die angegebene Darstellung für d2r Ck ergibt sich durch die gleiche Rechnung, mit .r /k ersetzt durch .r /k . Dies komplettiert den Beweis des Theorems.

55

Abschnitt 3.3 Schnelle Fouriertransformation (FFT)

Bemerkung 3.22. Wenn man für eine fixierte Zahl r alle in (3.27) auftretenden Argumente gj 2r Cr .k/ (für k D 0; : : : ; 2r 1; j D 0; : : : ; 2q r 1) aufreiht mit j als äußerem Laufindex, so findet sich an der Position j 2r C k die Zahl gj 2r Cr .k/ , deren Index man aus j 2r C k 2 Mq durch Bit-Umkehr der ersten (zu den kleinsten Potenzen der Basis 2 gehörenden) r Bits erhält. Für N D 8 ist die Situation in Tabelle 3.2 dargestellt. M

Stufe r

Position der Argumente 0

1

♣♣ ♣

0

g000

g001

1

g000

g001

2

g000

3

g000

2

♣♣ ♣ ♣♣ ♣

g010

3

♣♣ ♣

g011

g010

g011

g010

g001

g011

g100

g010

g110

4

♣♣ ♣ ♣♣ ♣ ♣♣ ♣

g100

5

♣♣ ♣

g101

g100

g101

g100 g001

6

♣♣ ♣ ♣♣ ♣

g110

7

♣♣ ♣

g111

g110

g111

g110

g101

g111

g101

g011

g111

Tabelle 3.2: Stufenweise Auflistung der Argumente aus (3.27) gemäß der in Bemerkung 3.22 angegebenen Reihenfolge am Beispiel N D 23 . Die Indizes der Zahlen sind in Binärdarstellung angegeben. Unter Beachtung von q ı q D id erhält man als wesentliche Schlussfolgerung aus Theorem 3.21 das folgende Resultat: Korollar 3.23. Der FFT-Algorithmus liefert dŒq;0 D F .gq .0/ ; : : : ; gq .2q Die Setzung gk D fq .k/ ; k D 0; : : : ; 2q

1/ /:

1, führt daher auf dŒq;0 D F .f0 ; : : : ; f2q

1 /.

Die Bit-Umkehr liefert also tatsächlich die anfänglich richtige Zuordnung der Zahlen f0 ; f1 ; : : : ; fN 1 2 C auf die Positionen 0 bis N 1.

3.3.5 Aufwandsbetrachtungen für den FFT-Algorithmus Theorem 3.24. Bei der schnellen Fouriertransformation zur Bestimmung der diskreten Fouriertransformierten eines Datensatzes der Länge N D 2q fallen nicht mehr als N log2 N C O.N / komplexe Multiplikationen an. 2 Beweis. Wir verwenden im Folgenden die Notationen aus Algorithmus 3.25. Für r 2 1 º fallen beim Übergang von der r -ten zur .r C 1 /-ten Stufe des FFTAlgorithmus die folgenden komplexen Multiplikationen an:

¹ 0; 1; : : : ; q 



r

ausgehend von .r / erfordert die Berechnung der Zahlen .r /2 ; .r /3 ; : : : ; .r /2 2 C insgesamt 2r 2 . 2r / komplexe Multiplikationen; rC1

1

aus den beiden Vektoren dŒr;2j  ; zur Bestimmung des Vektors dŒrC1;j  2 C2 r Œr; 2j C1 2r d 2 C sind 2 komplexe Multiplikationen erforderlich, und dies jeweils

56

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

für die Indizes j D 0; : : : ; 2q r 1 komplexen Multiplikationen auf.

1. Dies summiert sich zu 2r  2q r

1

D 2q

1

Beim Übergang von der r -ten zur .r C 1 /-ten Stufe des FFT-Algorithmus fallen demnach weniger als 2q 1 C 2r komplexe Multiplikationen an. Berücksichtigt man noch die zu Beginn des FFT-Algorithmus notwendigen q 2 . q/ komplexen Multiplikationen .r / D .r C 1 /2 ; r D q 2; q 3; : : : ; 1, so erhält man abschließend für den gesamten FFT-Algorithmus die folgende obere Schranke für die erforderliche Zahl komplexer Multiplikationen: qX1

. 2q

rD0

1

C 2r / C q  q 2q

1

C 2q C q D

N log2 N 2

C O.N /:

3.3.6 Pseudocode für den FFT-Algorithmus in der Situation N D 2q Abschließend wird der FFT-Algorithmus in Form eines Pseudocodes angegeben. Algorithmus 3.25. Sei N D 2q . Eingabe f .k/ D fk ; Ausgabe d.k/ D dk ; for k D 0 W .N for r D 0 W .q

1/ 1/

k D 0; : : : ; N

1

......

d.k / D f .q .k //=N

(** reeller oder komplexer Datensatz **) (** diskrete Fouriertransformierte **) end

(** Übergang Stufe r ! Stufe r C 1 **) (** M , Datensatzlänge(r ) **)

M D 2r I  D e i=M ; for k D 0 W .M 1 / (** k , Position in den Datensätzen **) for j D 0 W 2q r 1 1 (** 2q r 1 , (Anzahl Datensätze)(r C 1) **) x D  k d. 2jM C M C k /; d. 2jM C M C k / D d. 2jM C k / x ; d. 2jM C k / D d. 2jM C k / C x ; end

end end

Weitere Themen und Literaturhinweise Die diskrete Fouriertransformation geht zurück auf Cooley/Tukey [12] und wird beispielsweise in Bärwolff [11], Bollhöfer/Mehrmann [4], Deuflhard/Hohmann [21], Hanke-Bourgeois [52], Oevel [79] und in Schwarz/Köckler [97] einführend behandelt. In [52, 79, 83] werden auch die in der Bildverarbeitung bedeutungsvolle zweidimensionale diskrete Fourier- beziehungsweise Cosinustransformation und deren Modifikationen für die Datenkompression beziehungsweise die Digitalisierung beschrieben. Diskrete Fouriertransformationen für die trigonometrische Interpolation auf nichtäquidistanten Gittern werden in Potts/Steidl/Tasche [85] behandelt.

57

Übungsaufgaben

Übungsaufgaben Aufgabe 3.1. Für gerades N seien .N C 1 / Stützstellen x0 < x1 <    < xN und Stützwerte f0 ; f1 ; : : : ; fN 2 C gegeben, mit xN x0 < 2 . Man zeige Folgendes: a) Es gibt genau ein trigonometrisches Polynom der Form

T .x / D

A0 2

C

N= X2

kD1

.Ak cos kx C Bk sin kx /;

(3.28)

mit komplexen Koeffizienten Ak und Bk , das die Interpolationsbedingungen T .xj / D fj für j D 0; 1; : : : ; N erfüllt.

b) Sind die Stützwerte f0 ; f1 ; : : : ; fN alle reell, so sind es auch alle Koeffizienten Ak ; Bk des zugehörigen interpolierenden trigonometrischen Polynoms der Form (3.28). Aufgabe 3.2. Sei N gerade. Man zeige: a) Für reelle Zahlen x1 ; x2 ; : : : ; xN ist die Funktion

t.x / D

N Y

sin

x

xs 2

sD1

ein trigonometrisches Polynom von der Form (3.28) mit reellen Koeffizienten Ak ; Bk . b) Man zeige mithilfe von Teil a) der vorliegenden Aufgabe, dass das interpolierende trigonometrische Polynom zu den Stützstellen in Aufgabe 3.1 und zu den Stützwerten f0 ; f1 ; : : : ; fN identisch ist mit

T .x / D

N X

kD0

fk

t .x /; t k . xk / k

mit tk .x / WD

N Y

sin

sD0 s¤k

x

xs 2

:

Hinweis zu a): Für Un WD span ¹1 1; sin x; cos x; : : : ; sin nx; cos nx º weise man Folgendes nach:  

für beliebige Zahlen b; c 2 R gilt w.x / WD sin x

g1 2 U m ; g2 2 U n

=)

2

b sin x

2

c 2U ; 1

g1 g2 2 UmCn :

Aufgabe 3.3. Es bezeichne nun D2 W CN ! CN die folgende lineare Abbildung:

D2 c WD . cj

1

C 2cj C cj C1 /j D0;::;N

1;

mit

c D .c0 ; c1 ; : : : ; cN 1 />; c 1 WD cN 1 ; cN WD c0 ;

und außerdem sei

M D diag .0 ; 1 ; : : : ; N

1/

2 CN N

mit k WD 4sin2 .k=N / 2 R für k D 0; 1; : : : ; N

1:

Man zeige Folgendes:

D2 D F .D2

I /

1

DF

1

MF ;

1

.M

I / 1 F

. 2 C;

 ¤ k für k D 0; 1; : : : ; N

Hierbei bezeichnet F W CN ! CN die diskrete Fouriertransformation.

1 /:

58

Kapitel 3 Diskrete Fouriertransformation und Anwendungen

Aufgabe 3.4. a) Zu einem gegebenen Datensatz f0 ; f1 ; : : : ; fN Datensatz dQ0 ; dQ1 ; : : : ; dQN 1 komplexer Zahlen definiert durch N 1

X fj e dQk D k

N

i.2j C1/k=N

N X1 kD0

dQk i.2j C1/k=N

k e

komplexer Zahlen sei der

für k D 0; 1; : : : ; N

j D0

mit gegebenen Koeffizienten k ¤ 0 für k D 0; 1; : : : ; N

fj D

1

1

(3.29)

1. Man zeige

für j D 0; 1; : : : ; N

1:

b) Zu einem gegebenen Datensatz f0 ; f1 ; : : : ; fn 1 reeller Zahlen mit n 2 N sei der transformierte Datensatz d0 ; d1 ; : : : ; dn 1 reeller Zahlen definiert durch n 1

X

dk D nk

fj cos

j D0

.



2j C 1 /k 2n

für k D 0; 1; : : : ; n

mit gegebenen Koeffizienten k ¤ 0 für k D 0; 1; : : : ; n

d

fj D 0 C 2 0

n X1

kD1

dk

k cos

.

2j C 1 /k 2n



1

(3.30)

1:

(3.31)

1. Man zeige:

für j D 0; 1; : : : ; n

Hinweis: Man verwende Teil a) dieser Aufgabe mit den Setzungen N D 2n und fN 1 j D fj für j D 0; 1; : : : ; n 1 beziehungsweise N k D k für k D 1; 2; : : : ; n und zeige für diese Situation noch dQN k D dQk für k D 1; 2; : : : ; n. Aufgabe 3.5. Für n 2 N sei f0 ; f1 ; : : : ; fn

1

ein gegebener Datensatz reeller Zahlen.

a) Man zeige, dass mit den Koeffizienten dk aus (3.30) für das trigonometrische Polynom n X1

d

p. / D 0 C 2 0 Folgendes gilt:

p b) Es sei P 2 …n

kD1

 2j C 1   D fj 2n

dk

k cos k

für j D 0; 1; : : : ; n

(3.32)

1: .n/

1

das Interpolationspolynom zu den Stützpunkten .tj C1 ; fj / für j D 0; 1;

tj.n/ C1

: : : ; n 1, wobei D cos.. 2j C 1 /=. 2n// die Nullstellen des Tschebyscheff-Polynoms Tn der ersten Art vom Grad n bezeichnet. Man zeige, dass mit den Koeffizienten dk aus (3.30) Folgendes gilt: d

P .x / D 0 C 2 0

n X1

kD1

dk

k Tk .x /:

Aufgabe 3.6. Aufgabe 4 Zu gegebenem trigonometrischen Polynom

p.x/ D

N X1 kD0

dk e ikx

(3.33)

59

Übungsaufgaben bezeichne s X

ps .x/ D

kD0

das s te Abschnittspolynom (s D 0; 1; : : : ; N Polynomen der Form

q.x/ D mit 0  s  N

2j

N

1). Zeigen Sie: unter allen trigonometrischen s X

ck e ikx

kD0

1 fest minimiert ps die Fehlerquadratsumme

s.q/ D wobei xj D

dk e ikx

für j D 0; 1; : : : ; N

N X1 j D0

jp.xj /

q.xj /j2 ;

1.

Aufgabe 3.7 (Numerische Aufgabe). Man berechne entsprechend der Vorgehensweise in Teil b) der Aufgabe 3.5 das Interpolationspolynom P 2 …n 1 zu den beiden Funktionen

f .x / D x 1=3 ;

x 2 Œ 0; 64 

bzw.

f .x / D ln x;

x 2 . 0; 1 

für die Werte n D 2m für m D 2; 4; : : : ; 10 und mit den Stützstellen aus Teil b) der Aufgabe 3.5, wobei hierfür das Intervall Œ 1; 1  affin-linear auf Œ 0; 64  beziehungsweise Œ 0; 1  zu transformieren ist. Die Koeffizienten d0 ; d1 ; : : : ; dn 1 (mit den Faktoren k D 2 für k D 0; 1; : : : ; n 1) des Interpolationspolynoms P in der Darstellung (3.33) berechne man mit der schnellen Fouriertransformation. Man berechne außerdem den auftretenden Fehler an (den linear zu transformierenden) Stellen xj D 1 C j=10 für j D 1; 2; : : : ; 20: Zur Auswertung von P .x / D Pn 1 d0 =2 C kD 1 dk Tk .x / verwende man die folgende Variante des Horner-Schemas:

bn WD bnC1 WD 0;

P .x / D

b0

b2

2

bk WD 2 x bkC1

bkC2 C dk für k D n

1; n

2; : : : ; 0;

:

(3.34)

Man weise noch die Richtigkeit der Identität (3.34) nach. Aufgabe 3.8. Man beweise Lemma 3.18. Aufgabe 3.9. Führen Sie die Bitumkehr für den Datensatz 15; 14; : : : ; 1; 0 durch. Aufgabe 3.10. Sei N D 2q ; q  1. Berechnen Sie für die Bitumkehr die folgenden Werte: a) q . 2Nk /; k D 1; 2; : : : ; q ,

b) q .N

1/.

Aufgabe 3.11. Zeigen Sie für N D 2q ; q  1 W a) q .n/ ist gerade für n 

N

1,

2

b) q .n/ ist ungerade für n 

N 2

.

4

Lösung linearer Gleichungssysteme

In diesem Abschnitt werden Verfahren zur Lösung linearer Gleichungssysteme Ax D b vorgestellt, wobei A D .ajk / 2 R N N eine gegebene Matrix und b D .bj / 2 R N ein gegebener Vektor ist. Solche Gleichungssysteme treten in zahlreichen Anwendungen auf, wovon eine bereits aus Kapitel 2 über Splinefunktionen bekannt ist; mit der Ausgleichsrechnung wird in diesem Abschnitt eine weitere Anwendung vorgestellt. Praktische Anwendungen gibt es zum Beispiel in der Medizindiagnostik, bei Stromnetzwerken oder der Input-Output-Analyse in einer Volkswirtschaft. Beispiel 4.1. Gegenstand dieses Beispiels ist die gezeichnete Schaltung mit zwei Spannungsquellen U1 ; U2 und drei ohmschen Widerständen R1 ; R2 und R3 : ..................... .......................................................................................................................................................... ... ... ... .. ... 1 ... ... .. ........... ..... ... ... .... 1 ... ............. ..... .. ... ... ................... ... ............. .......... . ...................................... .......... ........... ............. .......... .......................... ........... . .......... . . ... ........... .......... 1 .......................... .... ... ......... .... ... 3 . .... . .... ............ ... .... . . ... .... ... . ... . .... .. ... . . 2 . 3 . . ... . . . .......... . . ... . .... ..... .... ... ... ... . . . . . . . . . . . . . . . . ... .......... ........... .......... ............................................................................................................ .......... ..................................... ........... .......... ........... ..........

I

U

R

R

I

U

R2 I 2

Für die drei Ströme I1 ; I2 und I3 ergeben sich mithilfe der kirchhoffschen Gesetze die folgenden Gleichungen:

I3 D I1 C I2

(Knotenregel)

U1 D I1 R1 C I3 R3

(obere Masche)

U2 D I2 R2 C I3 R3

(untere Masche):

Dabei handelt es sich um ein lineares System von drei Gleichungen für die drei Ströme I1 ; I2 und I3 . M Beispiel 4.2 (Leontief-Modell). Es werden im Folgenden Produkte P1 ; P2 ; : : : ; PN einer Fabrik oder alternativ einer Volkswirtschaft betrachtet. Dabei wird für die Herstellung einer Einheit des Produkts Pk – das eigene dabei nicht ausgeschlossen – eine gewisse Menge von Einheiten des Produkts Pj benötigt. Wir gehen hier der Frage nach, wie viele Einheiten eines jeden Produktes in einem vorgegebenem Zeitraum hergestellt werden müssen, damit der interne Bedarf und – für den Konsum – zusätzlich ein externer Bedarf bedient werden kann. Wir führen hierzu für j D 1; 2; : : : ; N die folgenden Notationen ein:

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_4

62 



Kapitel 4

Lösung linearer Gleichungssysteme

die für die Herstellung einer Einheit des Produktes Pk benötigte Zahl von Einheiten des Produktes Pj wird mit ajk  0 bezeichnet (k D 1; 2; : : : ; N ),

es sei yj die Anzahl der Einheiten des für die Endnachfrage benötigten Produktes

Pj , 

es bezeichne xj diejenige Gesamtzahl der Einheiten des Produktes Pj , die für die Bedienung des internen und externen Bedarfs notwendig ist.

PN

Dabei gelte kD1 ajk  1. Wir leiten im Folgenden Bedingungen an die Werte x1 ; : : : ; xN her. Dazu betrachten wir für einen festen Wert j 2 ¹ 1; : : : ; N º das Produkt Pj genauer. In der vorliegenden Situation müssen für die Herstellung von xk Einheiten des Produktes Pk insgesamt ajk xk Einheiten des Produktes Pj hergestellt werden

PN

(k 2 ¹ 1; 2; : : : ; N º). Insgesamt werden für den internen Bedarf also kD1 ajk xk Einheiten von Pj benötigt. Dazu kommen noch yj Einheiten für den Konsum. Das führt auf die Bedingung

xj D

N X

kD1

ajk xk C yj :

Dies muss für jedes j D 1; 2; : : : ; N erfüllt sein und führt auf ein System von N linearen Gleichungen für N Unbekannte. Eine Matrixschreibweise dafür ist

x D Ax C y bzw. .I

A/x D y;

wobei hier A D .ajk / eine nn-Matrix ist, die die Inputkoeffizienten enthält und auch als Verflechtungsmatrix bezeichnet wird, und I 2 R N N bezeichnet die Einheitsmatrix. Außerdem werden die Bezeichnungen x D .xj / und y D .yj / verwendet. M

4.1 Gestaffelte lineare Gleichungssysteme Typischerweise überführt man lineare Gleichungssysteme Ax D b in eine gestaffelte Form, die dann einfach nach den Unbekannten aufzulösen ist. Solche gestaffelten linearen Gleichungssysteme werden zunächst kurz behandelt. Definition 4.3. Matrizen L; R 2 R N N der Form

1 ` 0 ♣♣♣ 0 11 C B B ♣♣ C B `21 `22 ♣ ♣ ♣ ♣ C C B LDB ♣ C; ♣♣ C B ♣♣ ♣ 0 C B A @ `N 1 ♣ ♣ ♣ ♣ ♣ ♣ `N N 0

1 ♣ ♣ ♣ r1N r 11 r12 C B B ♣♣ C B 0 r22 ♣ C C B ; RDB ♣ ♣♣ C ♣♣ ♣♣ C B ♣♣ ♣ ♣ ♣ C B A @ ♣ ♣ ♣ 0 rN N 0 0

heißen untere beziehungsweise obere Dreiecksmatrizen.

Es sind die Matrizen L beziehungsweise R regulär genau dann, wenn det L D

¤ 0 beziehungsweise det R D

QN

j D1 rjj

¤ 0 gilt.

QN

j D1 `jj

63

Abschnitt 4.1 Gestaffelte lineare Gleichungssysteme

4.1.1 Obere gestaffelte Gleichungssysteme Für die obere Dreiecksmatrix R D .rjk / 2 R N N mit rjk D 0 für j > k ist das entsprechende gestaffelte Gleichungssystem Rx D z für einen gegebenen Vektor z 2 R N von der Form

r11 x1 C r12 x2 C    C r1N xN D z1 r22 x2 C    C r2N xN D z2 ♣♣

♣ ♣♣



♣♣ ♣

♣♣ ♣

rN N xN D zN dessen Lösung x 2 R N für reguläres R zeilenweise von unten nach oben durch jeweiliges Auflösen nach der Unbekannten auf der Diagonalen berechnet werden kann, siehe Schema 4.1. for j D N W

1W1

N X

xj D zj

kDj C1

 rjk xk =rjj ;

end

Schema 4.1: Rekursive Auflösung eines oberen gestaffelten Gleichungssystems Rx D z Theorem 4.4. Für die Auflösung eines oberen gestaffelten Gleichungssystems sind N 2 arithmetische Operationen erforderlich. Beweis. In den Stufen j D N; N 1; : : : ; 1 der Schleife aus Schema 4.1 sind zur Berechnung der Unbekannten xj je N j Multiplikationen und genauso viele Subtraktionen sowie eine Division durchzuführen, insgesamt erhält man die folgende Anzahl von arithmetischen Operationen,

N C2

N X

j D1

.N

j/ D N C2

NX1 mD1

m D N C .N

1 /N D N 2 :

4.1.2 Untere gestaffelte Gleichungssysteme Für die untere Dreiecksmatrix L D .`jk / 2 R N N mit `jk D 0 für j < k ist das entsprechende gestaffelte Gleichungssystem Lx D b mit einem gegebenen Vektor b 2 R N von der folgenden Form,

`11 x1

D b1

`21 x1 C `22 x2

D b2

♣♣ ♣

♣♣ ♣

♣♣



♣♣ ♣

♣♣ ♣

` N 1 x1 C ` N 2 x2 C    C ` N N xN D bN

64

Kapitel 4

Lösung linearer Gleichungssysteme

Dessen Lösung x 2 R N kann für eine reguläre Matrix L zeilenweise von oben nach unten durch jeweiliges Auflösen nach der Unbekannten auf der Diagonalen berechnet werden: for j D 1 W N

 xj D bj

jX1

kD1

 `jk xk =`jj ;

end

Schema 4.2: Rekursive Auflösung eines regulären unteren gestaffelten Gleichungssystems Lx D b Dabei sind genauso viele arithmetische Operationen durchzuführen wie im Fall des oberen gestaffelten Gleichungssystems, nämlich N 2 (vergleiche Theorem 4.4).

4.2 Der Gauß-Algorithmus 4.2.1 Einführende Bemerkungen Seien wieder A D .ajk / 2 R N N eine gegebene Matrix sowie b D .bj / 2 R N ein gegebener Vektor. Im Folgenden wird der Gauß-Algorithmus beschrieben, der das Gleichungssystem Ax D b in ein äquivalentes oberes gestaffeltes Gleichungssystem Rx D z überführen soll, dessen Lösung x 2 R N dann leicht berechnet werden kann. In der ersten Stufe des Gauß-Algorithmus wird das gegebene Gleichungssystem

a11 x1 C a12 x2 C    C a1N xN D b1 a21 x1 C a22 x2 C    C a2N xN D b2 ♣♣ ♣

♣♣ ♣

♣♣ ♣

♣♣ ♣

aN 1 x1 C aN 2 x2 C    C aN N xN D bN durch Zeilenoperationen in ein äquivalentes Gleichungssystem der Form

9 > > > > > > > > =

a11 x1 C a12 x2 C    C a1N xN D b1 .2/

.2/

♣♣ ♣

♣♣ ♣

.2/

a22 x2 C    C a2N xN D b2 .2/

.2/

(4.1)

> > > > > > > > ;

♣♣ ♣ .2/

aN 2 x2 C    C aN N xN D bN

überführt. Falls a11 ¤ 0 gilt, so kann dieses erreicht werden mit Zeilenoperationen neue Zeile j WD alte Zeile j

`j 1  alte Zeile 1; j D 2; 3; : : : ; N;

oder explizit

.aj 1 `j 1 a11 / x1 C .aj 2 `j 1 a12 / x2 C    C .ajN `j 1 a1N / xN D bj `j 1 b1 „ „ ƒ‚ … ƒ‚ … „ ƒ‚ … „ ƒ‚ … Š

D 0

.2/

DW aj 2

.2/

DW ajN

.2/

DW bj

65

Abschnitt 4.2 Der Gauß-Algorithmus

mit der Setzung

aj 1

`j 1 WD a ; 11

j D 2; 3; : : : ; N:

Nach diesem Eliminierungsschritt verfährt man im nächsten Schritt ganz analog mit dem System der unteren N 1 Gleichungen in (4.1). Diesen Eliminierungsprozess sukzessive durchgeführt auf die jeweils entstehenden Teilsysteme liefert zu Ax D b äquivalente Gleichungssysteme

A.s/ x D b .s/ ; wobei sich

A.s/

2

R N N

und

b .s/

2

s D 1; 2; : : : ; N;

RN

in der Reihenfolge

A D A.1/ ! A.2/ !



! A.N / DW R

b D b .1/



! b .N / DW z

! b .2/

!

ergeben mit Matrizen und Vektoren von der speziellen Form

0

A

.s/

B B B B B B B DB B B B B B @

.1/

a11

.1/

a12



.2/ a22 

♣♣

 

♣ .s/

ass ♣♣ ♣

.s/

aN s



.1/

a1N

1

0

.1/

b1

1

C B C C B .2/ C B b2 C a2.2N/ C C B C B ♣ C ♣♣ C ♣ C B C ♣ C B ♣ C C 2 R N N ; b .s/ D B C 2 RN : .s/ C .s/ C B    asN C B bs C C B C ♣♣ C B ♣♣ C B ♣ C ♣ C A @ A .s/ .s/    aN N bN 

(4.2)

Hierbei wird vorausgesetzt, dass die auftretenden Diagonalelemente allesamt nicht .s/ verschwinden, ass ¤ 0 für s D 1; 2; : : : ; N; da anderweitig der Gauß-Algorithmus abbricht beziehungsweise die Matrix R singulär ist. Algorithmus 4.5. Ein Pseudocode für den Gauß-Algorithmus ist in dem folgenden Schema 4.3 angegeben. Dabei werden zur Illustration noch die Indizes .1/ ; .2/ ; : : : mitgeführt. In jeder Implementierung werden dann entsprechend die Einträge der ursprünglichen Matrix A sowie in dem Vektor b überschrieben. Theorem 4.6. Für den Gauß-Algorithmus in Schema 4.3 sind 2N 3 3

1CO

arithmetische Operationen erforderlich.

1

N



(4.3)

Beweis. In der s -ten Stufe des Gauß-Algorithmus sind .N s/2 C .N s/ Multiplikationen und ebenso viele Additionen durchzuführen und außerdem sind .N s/ Divisionen erforderlich, so dass insgesamt 2

NX1 sD1

s2 C 3

NX1 sD1

. sD N

1 /N . 2N 3

1/

. C 3N N2

1/

   3 D 2N3 1 C O N1

66

Kapitel 4

for s D 1 W N

1

( **

for j D s C 1 W N

`js D

.sC1/ 

aj;sC1 ; : : : ; ajN end

A.s/ ! A.sC1/ ; b .s/ ! b .sC1/

** )

Zeile j

** )

( **

.s/ .s/ ajs =ass ;

.sC1/

Lösung linearer Gleichungssysteme

.sC1/ bj

D

.s/

.s/ bj

.s/ `js bs ; .s/

D aj;sC1 ; : : : ; ajN



.s/ .s/  `js as;sC1 ; : : : ; asN ;

end Schema 4.3: Gauß-Algorithmus arithmetische Operationen anfallen. Das folgende Theorem liefert eine Klasse von Matrizen A 2 R N N , für die der GaußAlgorithmus durchführbar ist.

Theorem 4.7. Ist die Matrix A D .ajk / 2 R N N strikt diagonaldominant, so ist der Gauß-Algorithmus zur Lösung von Ax D b durchführbar. Beweis. Es wird mit vollständiger Induktion über s D 1; 2; : : : ; N dass die Matrizen

0

.s/

ass



.s/

asN

1

C B B ♣ ♣♣ C .N B .s/ D B ♣♣ ♣ C2R @ A .s/ .s/ aN s    aN N

1 nachgewiesen,

sC1/.N sC1/

(4.4)

strikt diagonaldominant sind. Für B .1/ D A ist dies nach Voraussetzung richtig, und wir nehmen nun an, dass für ein 1  s  N 2 die Matrix B .s/ strikt diagonaldomi.s/ nant ist. Dann gilt insbesondere ass ¤ 0, somit ist der Gauß-Eliminationsschritt auf .sC1/

B .s/ anwendbar und liefert die Matrix B .sC1/ D .ajk

mit

.sC1/ .sC1/  .s/ .s/  aj;sC ; : : : ; ajN D aj;sC ; : : : ; ajN 1 1

/sC1j;kN 2 R .N

s/.N s/

.s/ .s/  `js as;sC 1 ; : : : ; asN ; j D s C 1; : : : ; N;

mit den Koeffizienten .s/

`js D

ajs

.s/

ass

;

j D s C 1; s C 2; : : : ; N:

Man erhält nun die strikte Diagonaldominanz der Matrix B .sC1/ : für j D s C 1; : : : ; N

67

Abschnitt 4.2 Der Gauß-Algorithmus

ergibt sich N X

.sC1/

kDsC1 k¤j

jajk

j 

N X

.s/

jajk j C j`js j

kDsC1 k¤j

N X

kDsC1 k¤j

.s/

jask j

.s/

.s/

.s/

< jajj j

jajs j C

.s/

jajs j .s/

jass j

.s/

D jajj j

.s/ j jass .sC1/

j`js jjasj j  jajj

.s/

jasj j

j;



was den Beweis komplettiert.

4.2.2 Gauß-Algorithmus mit Pivotsuche Zu Illustrationszwecken betrachten wir für " 2 R die reguläre Matrix

A" D

" 1 1 0

!

:

Für jeden Vektor b 2 R 2 ist der Gauß-Algorithmus zur Staffelung von A0 x D b nicht durchführbar, und für 0 ¤ "  0 erhält man in der ersten Stufe des Gauß-Algorithmus zur Staffelung von A" x D b das Element `21 D 1" , was bei der Berechnung der Lösung zugehöriger Gleichungssysteme zu Fehlerverstärkungen führen kann. Zur Vermeidung solcher numerischen Instabilitäten bietet sich die folgende Vorgehensweise an: Algorithmus 4.8. (Gauß-Algorithmus mit Pivotstrategie). Im Folgenden wird der Übergang A.s/ ! A.sC1/ um eine Pivotstrategie ergänzt. a) Man bestimme zunächst einen Index p 2 ¹s; s C 1; : : : ; N º mit .s/

.s/ japs j  jajs j für j D s; s C 1; : : : ; N: .s/

Das Element aps wird als Pivotelement bezeichnet. .s/ b) Transformiere A.s/ ! b A.s/ D b ajk



.s/  2 RN 2 R N N sowie b .s/ ! b b .s/ D b bj

durch Vertauschung der p -ten und der s -ten Zeile von A.s/ beziehungsweise b .s/ : .s/  .s/  .s/ .s/ ; : : : ; asN ; b aps ; : : : ;b apN D ass

.s/ b b .s/ s D bp ;

b bp.s/ D bs.s/ ;

.s/  .s/  .s/ ; : : : ; apN ; b a.s/ a sN D aps ss ; : : : ;b

die anderen Einträge bleiben unverändert. c) Der nachfolgende Eliminationsschritt b A.s/ ! A.sC1/ ; b b .s/ ! b .sC1/ geht wie .sC 1/ bisher so vonstatten, dass die Matrix A die Form (4.2) erhält. M

Die in Algorithmus 4.8 vorgestellte Pivotsuche wird etwas genauer auch als Spaltenpivotsuche bezeichnet. Es existieren noch andere Privotstrategien (siehe Aufgabe 4.7).

68

Kapitel 4

Lösung linearer Gleichungssysteme

4.3 Die Faktorisierung PA D LR Bei vielen Anwendungen ist für eine gegebene reguläre Matrix A 2 R N N das Gleichungssystem Ax D b für unterschiedliche rechte Seiten b zu lösen. Dies kann effizient mit einer Faktorisierung der Form PA D LR geschehen, wobei P 2 R N N eine Permutationsmatrix1 sowie L 2 R N N eine untere beziehungsweise R 2 R N N eine obere Dreiecksmatrix ist: man hat für jede rechte Seite b jeweils nur nacheinander die beiden gestaffelten Gleichungssysteme

Lz D P b;

Rx D z;

zu lösen. Eine solche Faktorisierung PA D LR gewinnt man mit dem Gauß-Algorithmus mit Spaltenpivotsuche; man hat nur die auftretenden Zeilenpermutationen und Zeilenoperationen geeignet zu verwenden. Die genaue Vorgehensweise wird am Ende dieses Abschnitts 4.3 beschrieben.

4.3.1 Permutationsmatrix Es werden nun Permutationsmatrizen betrachtet, mit denen sich Zeilen- und Spaltenvertauschungen beschreiben lassen. Definition 4.9. Man bezeichnet P 2 R N N als Permutationsmatrix, falls für eine bijektive Abbildung  W ¹ 1; : : : ; N º ! ¹ 1; : : : ; N º (Permutation genannt) Folgendes gilt,

1

0

P D @ e.1/ : : : e.N / A ;

(4.5)

wobei ek 2 R N den k -ten Einheitsvektor bezeichnet, das heißt, der k -te Eintrag des Vektors ek ist gleich eins und die anderen Einträge sind gleich null. Beispiel 4.10. Die folgende Matrix stellt eine Permutationsmatrix dar:

0

0

1 0

0

1

B0 0 1 0C 44 C P DB @1 0 0 0A 2 R : 0

0 0

M

1

Lemma 4.11. Für eine Permutationsmatrix P 2 R N N mit zugehöriger Permutation  gilt die Darstellung

0

B P DB @ 1

e>  1 .1/ ♣♣ ♣ e>  1 .N /

1

C C: A

für deren Einführung siehe den nachfolgenden Abschnitt 4.3.1

69

Abschnitt 4.3 Die Faktorisierung PA D LR

Beweis. Für k D 1; 2; : : : ; N gilt

0

1

e>  1 .1/ ♣♣ ♣

B B @

0

1

e> 1 ek C B  .♣ 1/ C ♣♣ C ek D B C D e.k/ : A @ A e> e 1 k  .N /

e>  1 .N /

Bei einer Permutationsmatrix treten also in jeder Zeile beziehungsweise jeder Spalte jeweils genau eine Eins und sonst nur Nullen auf. Theorem 4.12. Sei P 2 R N N eine Permutationsmatrix und  die zugehörige Permutation. Für Vektoren a1 ; a2 ; : : : ; aN 2 R M mit M 2 N gilt

0

1

a> 1

B PB @

0

C B CDB A @

♣♣ ♣

a> N

a> 

1 .1/

♣♣ ♣

a> 

1 .N /

1

1

0

0

1

C C B C B C C ; Ba : : : a C P D Ba NA @ .1/ : : : a.N / A : A @1

(4.6)

Beweis. Die erste Identität erhält man wie folgt,

0

B B PB @

a> 1 ♣♣ ♣

a> N

1

C N N X X C e` a> e.j / a> CD j D  A j D1 `D1

1 .`/

0

B B DB @

a> 

1

1 .1/

C C C; A

♣♣ ♣

a> 

1 .N /

und die angegebene Spaltenpermutation folgt so:

0

1

B C N X B C ak e> B a1 : : : aN C P D  @ A kD1

1 .k/

D

0

1

B C B C a.`/ e> D B a : : : a .1/ .N / C : ` @ A `D1 N X

Bemerkung 4.13. Für eine gegebene Matrix A bewirkt also eine Multiplikation mit einer Permutationsmatrix von links eine Permutation der Zeilen von A, und eine Multiplikation mit einer Permutationsmatrix von rechts bewirkt eine Permutation der Spalten von A. In numerischen Implementierungen erfolgt die Speicherung einer Permutationsmatrix mit der zugehörigen Permutation  in Form eines Vektors . 1 . 1 /; : : : ;  1 .N //> 2 R N oder .. 1 /; : : : ; .N //> 2 R N : M Als unmittelbare Konsequenz aus der zweiten Identität in (4.6) erhält man noch das folgende Resultat. Korollar 4.14. Die Menge der Permutationsmatrizen P 2 R N N bildet zusammen mit der Matrizenmultiplikation eine Gruppe: für Permutationen 1 ; 2 W ¹ 1; : : : ; N º !

70

Kapitel 4

¹ 1; : : : ; N º gilt 0

10

1

Lösung linearer Gleichungssysteme

0

B CB C B Be CB C B @ 2 .1/ : : : e2 .N / A @ e1 .1/ : : : e1 .N / A D @ e2 ı1 .1/

1

C : : : e2 ı1 .N / C A:

Eine wichtige Rolle spielen im Folgenden elementare Permutationsmatrizen. Definition 4.15. Eine elementare Permutationsmatrix ist von der Form (4.5) mit einer Elementarpermutation  W ¹ 1; : : : ; N º ! ¹ 1; : : : ; N º, die zwei Zahlen vertauscht und die restlichen Zahlen unverändert lässt, das heißt, es gibt Zahlen 1  q; r  N mit

.q/ D r;

.r / D q;

.j / D j

für j 62 ¹q; r º:

(4.7)

Bemerkung 4.16. Es sei P 2 R N N eine elementare Permutationsmatrix mit zugehöriger Elementarpermutation  von der Form (4.7). Dann gilt

01

♣♣

B B B B B P DB B B B @ und es gilt 

1



1

0

1 ♣ ♣♣

1 1

1

D  sowie P

1

0

D P.

1

1 ♣ ♣



1

C C C C C C C C C A

Zeile q Zeile r

M

4.3.2 Eliminationsmatrizen Es werden nun Eliminationsmatrizen betrachtet. Es wird sich herausstellen, dass sich mit solchen Matrizen Zeilenoperationen beschreiben lassen. Definition 4.17. Jede Matrix von der Form

0 B B B B B B B @ mit s 2 ¹ 1; 2; : : : ; N

1

1

♣♣

♣ 1

♣ `sC1;s ♣ ♣ ♣♣ ♣

`N s

♣♣

♣ 1

C C C C C 2 R N N C C A

1 º heißt Eliminationsmatrix vom Index s .

(4.8)

71

Abschnitt 4.3 Die Faktorisierung PA D LR

Bemerkung 4.18. 1. Eine Eliminationsmatrix vom Index s unterscheidet sich von der Einheitsmatrix also nur in der s -ten Spalte, und dort auch nur unterhalb der Diagonalen. 2. Die prinzipielle Vorgehensweise bei den Zeilenoperationen der s -ten Stufe des Gauß-Algorithmus wird durch Multiplikation mit einer Eliminationsmatrix vom Index s beschrieben: für Vektoren ak 2 R N ; k D 1; 2; : : : ; N gilt

0 B B B B B B @

1

1

♣♣

♣ 1

♣♣

`sC1;s ♣ ♣♣ ♣

♣♣



`N s

1

0 C CB CB CB CB [email protected] A

0

B B B C B C B CDB C B A B B B @ 1

a> 1 ♣♣♣

a> N

1

a> 1

C C C C C C: C C C C A

♣♣ ♣

a> s a> sC1

`sC1;s a> s ♣♣ ♣

a> N

`N s a> s

3. Bei der Herleitung der Abbildungseigenschaften von Eliminationsmatrizen Fs der Form (4.8) ist die folgende Darstellung hilfreich,

Fs D I

fs e> s;

R N N

mit fs D 0; : : : ; 0; `sC1;s ; : : : ; `N s RN

>

2 RN ;

(4.9)

wobei I 2 die Einheitsmatrix und es 2 den s -ten Einheitsvektor bezeichnet. 4. Eine Eliminationsmatrix wird auch als Gauß-Transformation oder gelegentlich als Frobeniusmatrix bezeichnet. M Die beiden folgenden Lemmata liefern Hilfsmittel für den Beweis von Theorem 4.21 über die Faktorisierung PA D LR. Lemma 4.19. Für s D 1; 2; : : : ; N 1 sind Eliminationsmatrizen Fs vom Index s regulär, und mit der Notation (4.8) für Fs gilt

Fs

1

F1 1    FN 1 1

01

B B D B B @

♣♣



1

1

♣ `sC♣ 1;s ♣ ♣ ♣♣

`N s

0 1 B` B 21 1 B ♣♣ D B B ♣ `32 1 ♣♣ ♣ ♣ B ♣♣ @ ♣ ♣ ♣

♣♣



1

♣♣

C C C C A

für s D 1; 2; : : : ; N

1



`N 1 `N 2 ♣ ♣ ♣ `N;N

1

1

C C C C: C C A

Beweis. Mit der Notation (4.9) für Fs berechnet man > .I C fs e> fs e> s / .I s / D I C fs es „ ƒ‚ … D Fs

fs e> s

> fs . e> s fs / es D I;

„ƒ‚…

D02R

1;

72

Kapitel 4

Lösung linearer Gleichungssysteme

woraus die Regularität von Fs sowie die angegebene Darstellung für die Matrix Fs folgt. Im Folgenden soll nun mit vollständiger Induktion

F1 1    Fs

1

DIC

s X

fk e> k;

s D 1; 2; : : : ; N

kD1

1;

1

(4.10)

nachgewiesen werden, was im Fall s D N 1 gerade die letzte Darstellung des Lemmas liefert. Die Darstellung in (4.10) ist sicher richtig für s D 1, und wir nehmen nun an, dass sie richtig ist für ein 1  s  N 2. Dann erhält man wie behauptet

F1 1    FsC11 D I C

s X

kD1

fk e> k



D I C fsC1 e> sC1 C

I C fsC1 e> sC1 s X

kD1

fk e> k C



s X

kD1

D 02R

‚ …„ ƒ > fk . e> k fsC1 / esC1 :

Lemma 4.20. Sei Fs eine Eliminationsmatrix vom Index s in der Darstellung (4.9), und sei P eine elementare Permutationsmatrix mit zugehöriger Elementarpermutation  von der Form (4.7) mit Zahlen s C 1  q; r  N . Dann entsteht PFs P aus Fs durch Vertauschen der Einträge q und r in der s -ten Spalte, das heißt,

PFs P D I

.P fs /e> s:

Beweis. Die Aussage ergibt sich unmittelbar:

PFs P D P 2 „ƒ‚… DI

.P fs /. e> s P /; „ƒ‚… D e> s

wobei sowohl Bemerkung 4.16 als auch die zweite Identität in (4.6) für M D 1 sowie die Tatsache q; r  s C 1 berücksichtigt sind.

4.3.3 Die Faktorisierung PA D LR Vorbereitend wird die bereits vorgestellte Vorgehensweise beim Gauß-Algorithmus mit Spaltenpivotstrategie2 als Folge spezieller Matrix-Operationen beschrieben: es werden sukzessive Matrizen

A.sC1/ D Fs Ps A.s/ für s D 1; 2; : : : ; N 2

siehe hierzu Schema 4.3, Algorithmus 4.8 sowie Bemerkung 4.18

1

73

Abschnitt 4.3 Die Faktorisierung PA D LR

mit

0

B B B B B Fs D B B B B @

♣♣

.s/

1

1

♣ 1

♣ `sC1;s ♣ ♣ ♣♣ ♣

♣♣



`N s

1

`js D

C C C C C C; C C C A

01 ♣♣ ♣ B 1 B B 0 1 B B 1 ♣♣ B ♣ Ps D B B 1 B B 1 0 B 1 @ ♣♣ ♣

ajs

ap.s/ ss

`ps s D

1

1

;

.s/ ass .s/

j D s C 1; : : : ; N;

j ¤ ps ;

;

(4.11)

aps s

0

      B : :: B :: : Zeile s B B B     A.s/ D B B .s/ .s/ B ass    asN B Zeile ps B ♣♣♣ ♣♣♣ @ .s/ .s/ aN s    aN N

C C C C C C C C C C C A

1

C C C C C C ; (4.12) C C C C A

berechnet, wobei ps  s die Position derjenigen Zeile aus der Matrix A.s/ mit dem Pivotelement bezeichnet. Es kann nun die Faktorisierung PA D LR explizit angegeben werden. Theorem 4.21. Mit den Notationen (4.11)–(4.12) gilt für P D PN sowie

0

1

1

Bb B `21 1 B ♣ ♣ b LDB B ♣ `32 ♣♣ B ♣♣ ♣ @ ♣ b b `N 1 `N 2

1 ♣♣ ♣

♣♣



♣♣♣ b `N;N

1

1

C C C C; C C A

1

0

0♣ B ♣♣ C B 0 C C B C mit B Bb 1 C WD PN B `sC♣ 1;s C @ ♣♣ A

die Identität PA D LR.

b `N s

1

   P1 ; R D A.N / 0

0♣ ♣♣ 0 1

B C B C B C B C ; (4.13) : : : P sC1 B 1 C B `sC1;s C @ ♣♣ A ♣

`N s

Beweis. Für s D 1; 2; : : : gilt:

A.2/ D F1 P1 A D F1 .P1 A/; A

.3/

A

.4/

D F2 P2 A

.2/

D F3 P3 A.3/

DI

‚…„ƒ D F2 P2 .F1 P2 P2 P1 A/ D F2 .P2 F1 P2 /.P2P1 A/  D F3 P3 F2 P3 P3 P2 F1 P2 P3 P3 P2 P1 A „ƒ‚… „ƒ‚… DI

DI

D F3 .P3 F2 P3 /.P3 P2 F1 P2 P3 /.P3P2 P1 A/;

1

74

Kapitel 4

Lösung linearer Gleichungssysteme

und so weiter, was schließlich auf

bN R D A.N / D F

b 1 PA F

1

führt mit den Eliminationsmatrizen

0

b s D PN F

1

   PsC1 Fs PsC1    PN

1

(4.14)

1

1

B B B ./ B DB B B B @

♣♣

♣ 1

♣ b `sC1;s ♣ ♣ ♣♣ ♣

♣♣

b `N s

♣ 1

C C C C C; C C C A

s D 1; : : : ; N

1;

wobei in der Identität ./ noch Lemma 4.20 berücksichtigt ist. Eine Umformung von (4.14) liefert dann die Identität ./

b1 1    F b 1 /R D LR; PA D . F N 1

wobei in ./ noch Lemma 4.19 eingeht. Dies komplettiert den Beweis. Bemerkung 4.22. In praktischen Implementierungen werden die frei werdenden Anteile des unteren Dreiecks der Matrix A sukzessive überschrieben mit den Einträgen der unteren Dreiecksmatrix L, und in dem oberen Dreieck der Matrix A ergeben sich die Einträge der Dreiecksmatrix R. Die Permutationsmatrix P lässt sich einfach in Form eines Buchhaltungsvektors r 2 R N berechnen: es gilt

P

b♣1 ♣♣

bN

!

D

br♣ 1 ♣♣

brN

!

r1♣ ♣♣

für

rN

!

1 ♣♣ ♣

WD P

N

!

;

M

was man unmittelbar aus Theorem 4.12 erschließt.

Beispiel 4.23 (Oevel [79]). Die durch Theorem 4.21 vorgegebene Vorgehensweise soll anhand der Matrix

0

0

B B2 B ADB B1 @ 1

1

0

1

1

2

2

2

2

2

3

2C C

C

C 2 R 44

2C A 6

exemplarisch vorgestellt werden. Nach Anhängen des für die Speicherung der Zeilenpermutationen zuständigen Buchhaltungsvektors geht man so vor (unterhalb der Treppe ergeben sich sukzessive die Einträge der unteren Dreiecksmatrix L aus (4.13)):

0

0

0

B B 2✐ 2 B B B1 2 @ 1

2

1

1

1

2

2C C

2 3

C

0

1

1

B C B 2 C B C C; B C B C 2C A @ 3 A 6

4

Zeilentausch -!

0

2

B B0 B B B1 @ 1

1

2

2

2

0

1

2

2

2

3

1C C

C

0

2

1

B C B 1 C B C C; B C B C 2C A @ 3 A 6

4

75

Abschnitt 4.4 LR-Faktorisierung

0 B

2

B Elimination B 0 -! B B 1=2 @ 0 B B

1

2

2

2

0

1

1C C

1✐ 1

C

1

2

2

2

2

2

1

1

1C C

1

0

2

1

1

C

0

2

1

0

2

B C B B 3 C Elimination B 1=2 B C B -! C; B C B C B C B 0 ✐ 1 1A @ 1 A @ 1 4 1=2 4

0

1=2

2

B C B B 1 C Zeilentausch B 1=2 B C B -! C; B C B C B B 0 C 1A @ 3 A @ 1=2 5 4

1=2

Elimination B 1=2 -! B B 0 @

0

1

2

2

2

1

1

0

1

1

2

1C C

C

0

2

1

B C B 3 C B C C; B C C C 1A B @ 1 A 5

1 0

2

2

2

1

1

0

1

1

1

1C C

4

2

1

C B C B 3 C B C C; B C; C C 1A B @ 1 A 3

4

wobei das jeweils gewählte Pivotelement  eingekreist dargestellt ist, ✐. Es ergibt sich somit das folgende Resultat:

0

1

1

B B 1=2 B LDB B 0 @ 1=2

1 0

1

1

1

1

C C C C; C A

0

B B B RDB B @

2

1

2

2

2

1

1

1C C

C

C;

1C A

1

3

0

b1

1

0

b2

1

B C B C B b C B b C B 2 C B 3 C PB CDB C: B b3 C B b1 C @ A @ A b4 b4

M

4.4 LR -Faktorisierung In gewissen Situationen ist es möglich und zwecks Bewahrung etwaiger Bandstrukturen der Matrix A auch wünschenswert, auf eine Pivotstrategie zu verzichten und eine LR-Faktorisierung von der Form

0

10

1

B B B `21 1 B ADB ♣ ♣♣ ♣♣ B ♣♣ ♣ ♣ B @ `N 1 ♣ ♣ ♣ `N;N

1

1 r 11 r12 ♣ ♣ ♣ rN N CB C CB ♣♣ C CB r22 ♣ C CB C CB ♣♣ C ♣♣ CB C ♣ ♣ C CB [email protected] A 1 rN N

(4.15)

j; k D 1; 2; : : : ; N:

(4.16)

zu bestimmen. Ein direkter Ansatz zur Bestimmung einer solchen LR-Faktorisierung besteht darin, das Gleichungssystem (4.15) als N 2 Bestimmungsgleichungen für die N 2 gesuchten Größen rjk .j  k/ und `jk .j > k/ aufzufassen:

ajk D

min¹j;kº

X

sD1

`js rsk ;

Dabei gibt es verschiedene Reihenfolgen, mit denen man aus den Gleichungen in (4.16) die Einträge der Dreiecksmatrizen L und R berechnen kann. Beispielsweise

76

Kapitel 4

Lösung linearer Gleichungssysteme

führt eine Berechnung der Zeilen von R und der Spalten von L entsprechend der Parkettierung nach Crout

0

1

1a !

C B C B C B 1b 2a ! C B C B C B # 2b 3a ! C B C B B # 3b 4a ! C A @ # 4b 5

(4.17)

auf den in Schema 4.4 beschriebenen Algorithmus zur Bestimmung der LR-Faktorisierung. for n D 1 W N for k D n W N

rnk D ank

for j D n C 1 W N end



nX1 sD1

` j n D aj n

`ns rsk ; nX1 sD1

end

 `js rsn =rnn ;

end

Schema 4.4: LR-Faktorisierung nach Crout 3 Wie man leicht abzählt, fallen bei diesem Algorithmus 2N . 1 C O. N1 // arithmetische 3 Operationen an (Aufgabe 4.10).

4.5 Cholesky-Faktorisierung symmetrischer, positiv definiter Matrizen 4.5.1 Grundbegriffe Gegenstand des vorliegenden Abschnitts sind die in der folgenden Definition betrachteten Matrizen. Definition 4.24. Eine Matrix A 2 R N N heißt symmetrisch, falls A D A> gilt. Sie heißt positiv definit, falls x>Ax > 0 für alle 0 ¤ x 2 R N gilt. Beispielsweise sind die bei der kubischen Spline-Interpolation auftretenden Systemmatrizen zur Berechnung der Momente symmetrisch und positiv definit. Einzelheiten dazu werden in Abschnitt 4.5.3 nachgetragen. Für positiv definite Matrizen wird nun eine der LR-Faktorisierung ähnliche Faktorisierung mit einem geringeren Speicherplatzbedarf vorgestellt. Wir beginnen mit einem vorbereitenden Lemma. Lemma 4.25. Die Matrix A 2 R N N sei symmetrisch. Dann gilt:

a) Die Matrix A ist positiv definit genau dann, wenn die Eigenwerte von A positiv sind.

77

Abschnitt 4.5 Cholesky-Faktorisierung positiv definiter Matrizen

b) Die Matrix A ist positiv definit genau dann, wenn alle Hauptuntermatrizen

0

arr

B B ♣♣ B ♣ @ asr

1

♣ ♣ ♣ ars C ♣♣ C .s ♣♣ ♣ ♣ C2R ♣ ♣ ♣ ass

von A positiv definit sind.

rC1/.s rC1/

A

für 1  r  s  N

(4.18)

c) Ist die Matrix A positiv definit, so gilt det A > 0. Beweis. a) Ist die Matrix A positiv definit und  2 R ein Eigenwert von A, so gilt für einen beliebigen Eigenvektor 0 ¤ x 2 R N von A zum Eigenwert  Folgendes: 0 < x>Ax D  x>x

„ƒ‚… > 0

und damit  > 0. Für den Nachweis der anderen Richtung der Äquivalenz benötigen wir die für symmetrische Matrizen A existierende Faktorisierung

A D UDU >

U 2 R N N regulär;

U

1

D U >;

D D diag .1 ; : : : ; N / 2 R N N :

µ

(4.19)

Die Zahlen 1 ; : : : ; N 2 R sind dabei gerade die entsprechend ihrer Vielfachheit gezählten Eigenwerte der Matrix A, und diese seien nun allesamt als positiv angenommen. Dann ist die Matrix D positiv definit, denn es gilt

z>Dz D

N X

j D1

j zj2 > 0 für 0 ¤ z D .zj / 2 R N :

Damit gilt auch

x>Ax D .U >x />D.U >x / > 0 für 0 ¤ x 2 R N ; so dass die Matrix A ebenfalls positiv definit ist. b) Falls alle Hauptuntermatrizen von A positiv definit sind, so ist insbesondere auch die Matrix A positiv definit. Für den Nachweis der anderen Richtung der betrachteten Äquivalenz sei nun die Matrix A als positiv definit angenommen, und es sei B 2 R .s rC1/.s rC1/ eine Hauptuntermatrix der Form (4.18). Die Matrix B ist offensichtlich symmetrisch, und sei nun 0 ¤ x D .xj /sj Dr 2 R s rC1 . Für

N z D .zj /N j D1 2 R mit

zj D

²

xj ; 0;

r  j  s; sonst

gilt dann z ¤ 0 und

x>Bx D

s X

j;kDr

ajk xj xk D

N X

j;kD1

ajk zj zk D z>Az > 0:

78

Kapitel 4

Lösung linearer Gleichungssysteme

c) Hier zieht man eine Faktorisierung von der Form (4.19) heran und erhält daraus wie angegeben det A D det .U

1

/ det .D/ det .U / D det D D

N Y

 j > 0:

j D1

Theorem 4.26. Die Matrix A 2 R N N sei symmetrisch und positiv definit. Dann gibt es genau eine untere Dreiecksmatrix L D .`jk / 2 R N N mit `jj > 0 für alle j und

A D LL>:

(4.20)

Die Faktorisierung (4.20) wird als Cholesky-Faktorisierung von A bezeichnet. Beweis. Der Beweis wird mit vollständiger Induktion über N geführt. Für N D 1 ist eine positiv definite Matrix A D .˛/ 2 R 11 eine positive Zahl ˛ > 0, die eindeutig in der Form

˛ D `  `;

`D

p

˛;

geschrieben werden kann. Wir nehmen nun an, dass für eine ganze Zahl N  1 die Aussage des Theorems richtig ist mit N 1 anstelle N und betrachten dann eine symmetrische, positiv definite Matrix A 2 R N N . Diese lässt sich in der Form

0 B B B B B @

AN

1

C b C C C C A

1

b>

aN N

partitionieren mit einem Vektor b 2 R N 1 und einer Matrix AN 1 2 R .N 1/.N 1/ , die nach Lemma 4.25 positiv definit ist. Nach Induktionsvoraussetzung gibt es eine eindeutig bestimmte untere Dreiecksmatrix LN 1 D .`jk / 2 R .N 1/.N 1/ mit `jj > 0 für j D 1; 2; : : : ; N 1 und

AN Die gesuchte Matrix L 2

R N N

1

0

LN

AN b>

1

1

1

0

C B B b C C Š B C D B C B A @

aN N

1:

1 C

0C C

1

c>

an mit dem Ziel, einen Vektor c 2 R N

B B B ADB B @

>

1 LN

setzt man nun in der Form

B B B LDB B @

0

D LN

˛

C C A

und eine Zahl ˛ > 0 so zu bestimmen, dass

LN c>

1

10 CB

B 0C CB

˛

CB CB [email protected]

L> N 0>

1

1

C cC C C C A ˛

(4.21)

79

Abschnitt 4.5 Cholesky-Faktorisierung positiv definiter Matrizen

gilt. Gleichheit in (4.21) liegt genau dann vor, wenn

LN

1c

>

2

Db

c c C ˛ D aN N

(4.22)

gilt, und die erste dieser beiden Gleichungen besitzt sicher genau eine Lösung c D LN1 1 b , da LN 1 2 R .N 1/.N 1/ als untere Dreiecksmatrix mit nichtverschwindenden Diagonaleinträgen regulär ist. Auch die zweite Gleichung (4.22) besitzt eine Lösung ˛ 2 C, mit der dann die Faktorisierung (4.21) gültig ist. Wir zeigen abschließend ˛ 2 > 0; dann kann in (4.22) in eindeutiger Weise ˛ > 0 gewählt werden. Wegen (4.21) gilt

0 B B @

det A D det B

LN

1

B B C det B A @

0C C

1

c>

˛

0

L> N 0>

1

1

cC C C D det .LN A

1/

2

˛2

˛

und wegen det A > 0 (siehe Lemma 4.25) sowie der Regularität von LN behauptet ˛ 2 > 0.

1

folgt wie

Bemerkung 4.27. Der im Beweis von Theorem 4.26 vorgestellte Algorithmus zur Berechnung einer Faktorisierung A D LL> wird als Quadratwurzelverfahren bezeichnet. M

4.5.2 Die Berechnung einer Faktorisierung A D LL> für positiv definite Matrizen A 2 R N N In einem direkten Ansatz zur Bestimmung einer solchen LL>-Faktorisierung fasst N.N C1 / N.N C1 / man die Matrix-Gleichung (4.20) als Bestimmungsgleichungen für die 2 2 gesuchten Einträge `jk .j  k/ auf:

ajk D

k X

sD1

`js `ks ;

1  k  j  N:

(4.23)

Spaltenweise Berechnung der Einträge der unteren Dreiecksmatrix L 2 R N N aus den Gleichungen in (4.23) führt auf den in Schema 4.5 beschriebenen Algorithmus.

Theorem 4.28. Zur Berechnung einer Cholesky-Faktorisierung sind insgesamt N3 . 1 C O. N1 // arithmetische Operationen durchzuführen. 3

80

Kapitel 4

for n D 1 W N

nX1

`nn D ann

`2nk

kD1

1=2

for j D n C 1 W N

Lösung linearer Gleichungssysteme

;

` j n D aj n

nX1

kD1

end

 `jk `nk =`nn I

end

Schema 4.5: LL>-Faktorisierung Beweis. Nach Schema 4.5 summiert sich die Zahl der genannten Operationen zu N X

nD1

D D



2n N X

1C

nD1 N X

nD1

N X

. 2n

j DnC1

.N C 1

n/ C 2

n C 2.N C 1 /

D . 2N C 1 /

1/



N X

nD1

N X

n

D

2

2

.N C 1

nD1

.N C 1 2

N X

n/. 2n

1/



n/n

n2

nD1

nD1

N.N C 1 /

N X

N . N C 1 /. 2N C 1 / 6

 3 D N3 1 C O N1 :

4.5.3 Eine Klasse positiv definiter Matrizen Zu Beginn des vorliegenden Abschnitts 4.5 wurde bereits darauf hingewiesen, dass beispielsweise die bei der kubischen Spline-Interpolation auftretenden Systemmatrizen zur Berechnung der Momente symmetrisch und positiv definit sind. In diesem Abschnitt wird hierfür noch der Nachweis geliefert. Wir beginnen mit einem vorbereitenden Lemma. Lemma 4.29. Die Matrix A 2 R N N sei symmetrisch und strikt diagonaldominant, und sie besitze ausschließlich positive Diagonaleinträge. Dann ist die Matrix A positiv definit. Beweis. Gemäß Teil a) von Lemma 4.25 genügt es nachzuweisen, dass alle Eigenwerte der Matrix A positiv sind. Zunächst stellt man fest, dass zu jedem Eigenwert  2 R der Matrix A D .ajk / notwendigerweise ein Index j 2 ¹ 1; 2; : : : ; N º mit

jajj

j 

N X

kD1 k¤j

jajk j

(4.24)

81

Abschnitt 4.6 Bandmatrizen

existieren muss3 , da ansonsten die Matrix A I strikt diagonaldominant und damit regulär wäre. Aus der Abschätzung (4.24) erhält man dann die Aussage des Lemmas,

ajj

  jajj

j 

N X

kD1 k¤j

jajk j

  ajj

bzw.

N X

kD1 k¤j

jajk j > 0:

Beispiel 4.30. In Abschnitt 2.4 ab Seite 27 sind Verfahren zur Berechnung interpolierender kubischer Splinefunktionen mit natürlichen, vollständigen beziehungsweise periodischen Randbedingungen vorgestellt worden. Die dabei jeweils entstehenden linearen Gleichungssysteme zur Berechnung der Momente beinhalten Systemmatrizen, die den Bedingungen von Lemma 4.29 genügen und somit positiv definit sind. Diese linearen Gleichungssysteme lassen sich also jeweils mit einer Cholesky-Faktorisierung lösen. M

4.6 Bandmatrizen Bei der Diskretisierung von gewöhnlichen oder partiellen Differenzialgleichungen oder auch der Berechnung der Momente kubischer Splinefunktionen ergeben sich lineare Gleichungssysteme Ax D b , bei denen A D .ajk / 2 R N N eine Bandmatrix ist, das heißt, es gilt ajk D 0 für k < j p oder k > j C q mit gewissen Zahlen p; q :

0

1

a11 ♣ ♣ ♣ a1;qC1

B ♣ B ♣♣ ♣ ♣ ♣ B B Ba B pC1;1 ADB ♣♣ B ♣ B B B @

♣♣ ♣♣

♣♣

♣ ♣♣

♣♣



aN

♣ ♣♣



aN;N



p



C C C C C C C : C q;N C C ♣ C ♣♣ A

(4.25)

♣ ♣ ♣ aN N

Bei solchen Problemstellungen lässt sich der zu betreibende Aufwand bei allen in diesem Kapitel angesprochenen Methoden verringern. (Ausgenommen sind Pivotstrategien, da sich hier die Bandstruktur nicht auf die Faktorisierung überträgt.) Exemplarisch soll das Vorgehen für Bandmatrizen am Beispiel der LR-Faktorisie3

Diese Eigenschaft wird nochmals in Theorem 12.10 auf Seite 346 verwendet.

82

Kapitel 4

Lösung linearer Gleichungssysteme

rung demonstriert werden: der Ansatz

0

1

a11 ♣ ♣ ♣ a1;qC1

♣♣ B ♣ B B B apC1;1 B ♣♣ B ♣ B B @ ♣♣ ♣

0

♣♣ ♣♣

♣♣

♣ ♣♣

♣♣



♣♣



aN;N



aN

♣ p

q;N

♣ ♣♣



♣ ♣ ♣ aN N

1

1

♣ B ` B 21 ♣ ♣ B ♣♣ ♣ ♣ B ♣ ♣ D B B` B pC1;1 B ♣♣ @ ♣

C C C C C C C C A

♣♣



♣♣



`N;N

p

♣♣



♣♣



♣♣



♣ ♣ ♣ `N;N

1

1

0 C r11 CB CB CB CB CB CB [email protected] A

1

♣ ♣ ♣ r1;qC1 C ♣♣ ♣♣ C ♣ ♣ C ♣♣ ♣ rN q;N C C ♣♣ C ♣♣ ♣ ♣ A

rN N

beziehungsweise in Komponentenschreibweise

ajk D

min¹j;kº

X

sDs0

`js rsk ; j D 1; : : : ; N; k D max¹ 1; j s0 WD max¹ 1; j p; k qº

pº; : : : ; min¹j C q; N º;

führt bei einer Parkettierung wie in (4.17) auf den in Schema 4.6 angegebenen Algorithmus zur Bestimmung der LR-Faktorisierung der Bandmatrix A. for n D 1 W N for k D n W min¹n C q; N º

s0 D max¹ 1; n

p; k

qº;

end for j D n C 1 W min¹n C p; N º

s0 D max¹ 1; j end

p; n

qº;

rnk D ank

 ` j n D aj n

nX1

`ns rsk ;

sDs0

nX1

sDs0

 `js rsn =rnn ;

end Schema 4.6: LR-Faktorisierung für Bandmatrizen

4.7 Normen und Fehlerabschätzungen In diesem Abschnitt soll der Einfluss von Störungen4 der Matrix A 2 R N N beziehungsweise des Vektors b 2 R N auf die Lösung des linearen Gleichungssystems 4

Solche Störungen können durch Mess- oder Rundungsfehler verursacht werden.

83

Abschnitt 4.7 Normen und Fehlerabschätzungen

Ax D b untersucht werden, für die Einzelheiten sei auf Abschnitt 4.7.5 verwiesen. Zuvor werden in den nun folgenden Abschnitten 4.7.1–4.7.4 die nötigen Voraussetzungen geschaffen. Dabei werden zunächst allgemeiner Vektoren aus KN beziehungsweise Matrizen aus KN N zugelassen, wobei entweder K D R oder K D C ist. Dies ermöglicht später die Herleitung von Schranken sowohl für Nullstellen von Polynomen als auch für Eigenwerte von Matrizen. 4.7.1 Normen Definition 4.31. Sei V ein beliebiger Vektorraum über K. Eine Abbildung jj  jj W V ! R C heißt Norm, falls Folgendes gilt:

jjx C y jj  jjx jj C jjy jj

.x; y 2 V /

jj˛x jj D j˛ jjjx jj jjx jj D 0



. Dreiecksungleichung /I

.x 2 V ; ˛ 2 K / . positive Homogenität /I x D 0 .x 2 V /:

Eine Norm jj  jj W KN ! R C wird auch als Vektornorm bezeichnet, und entsprechend wird eine Norm jj  jj W KN N ! R C auch Matrixnorm genannt.

y .................................................................................... ......... ......... ..... ....... .... ....... ... . ....... . ....... . . .... . . . . . . . ...... .... ........ ... ....... .... ....... ....... .... ....... . . .... . . . . . . . ...... .... ....... ... ....... .... ........ .... ....... ................. . . . . .. .......

x

xCy

Abb. 4.1: Illustration der Dreiecksungleichung

Lemma 4.32. Für eine Norm jj  jj W V ! R C gilt die umgekehrte Dreiecksungleichung

jjjx jj

jjy jjj  jjx

Beweis. Zum einen gilt jjx jj D jjx

jjx jj

y jj;

x; y 2 V :

y C y jj  jjx jjy jj  jjx

y jj C jjy jj und somit y jj:

(4.26)

Vertauschung von x und in y in (4.26) liefert dann

jjy jj

jjx jj  jjx

y jj;

(4.27)

und (4.26)–(4.27) zusammen liefern die umgekehrte Dreiecksungleichung. Korollar 4.33. Eine Norm jj  jj W V ! R C ist stetig, das heißt, für beliebige Folgen .xn /  V und Elemente x 2 V folgt aus der Konvergenz jjxn x jj ! 0 für n ! 1 auch jjxn jj ! jjx jj für n ! 1.

84

Kapitel 4

Lösung linearer Gleichungssysteme

Im Folgenden werden einige spezielle Vektornormen vorgestellt. Theorem 4.34. Durch

jjx jj2 D

X N

kD1

jxk j2

1=2

. euklidische Norm /I

jjx jj1 D max jxk j jjx jj1 D

kD1

.x 2 KN /I

. Maximumnorm /I

kD1::N N X

jxk j

. Summennorm /I

sind jeweils Normen auf KN definiert. Beweis. Der Nachweis dafür, dass die Maximum- und Summennorm tatsächlich die Normeigenschaften erfüllen, ist elementar und wird an dieser Stelle nicht geführt. Für die euklidische Norm resultiert die Dreiecksungleichung aus der cauchyschwarzschen Ungleichung: für x; y 2 KN gilt

D jj x jj22

D jj y jj22

 2j x j 2 j y j 2

‚…„ƒ ‚ …„ ƒ ‚…„ƒ jjx C y jj22 D .x C y /H .x C y / D x H x C 2Re x H y C y H y  .jjx jj2 C jjy jj2 /2 ;

wobei Re z den Realteil einer komplexen Zahl z 2 C bezeichnet.

Man kann zeigen, dass je zwei verschiedene Normen jj  jj; jjjjjj W KN ! R C äquivalent in dem Sinne sind, dass es Konstanten c1 ; c2 > 0 gibt mit

c1 jjx jj  jjjxjjj  c2 jjx jj;

x 2 KN :

Konkret gelten für die in Theorem 4.34 aufgeführten Vektornormen die folgenden Abschätzungen:

jjx jj1  jjx jj2 

p N jjx jj1 ;

(4.28)

jjx jj1  jjx jj1  N jjx jj1 ; p jjx jj2  jjx jj1  N jjx jj2 :

(4.29) (4.30)

Die (nicht zu verbessernden) Abschätzungen in (4.28)–(4.29) erhält man leicht, und die erste Abschätzung in (4.30) erhält man wie folgt (wobei o.B.d.A. x ¤ 0 angenommen sei):

y WD

x jj x jj1

Ý

1=2

jjx jj2 D jjx jj1 jjy jj2  jjx jj1 jjy jj1

D jjx jj1 :

Die zweite Abschätzung in (4.30) schließlich folgt aus der cauchy-schwarzschen Ungleichung:

jjx jj1 D

N X

kD1

1  jxk j 

X N

kD1

1

1=2  X N

kD1

jxk j2

1=2

D

p N jjx jj2 :

Somit werden für große Zahlen N 2 N die jeweils zweiten Abschätzungen in (4.28)– (4.30) praktisch bedeutungslos aufgrund der Größe der auftretenden Koeffizienten.

85

Abschnitt 4.7 Normen und Fehlerabschätzungen

Bemerkung 4.35. Allgemeiner ist für jedes 1  p < 1 durch

jjx jjp WD

X N

kD1

jxk jp

1=p

x 2 KN ;

;

eine Norm auf KN definiert mit der Eigenschaft limp!1 jjx jjp D jjx jj1 für x 2 KN . M

Im Folgenden werden drei spezielle Matrixnormen vorgestellt. Dabei erhält nur die letzte der drei Normen eine besondere Indizierung, für die beiden anderen werden später eigene Bezeichnungen vergeben (siehe Theorem 4.42). Theorem 4.36. Durch

jjA jj D max

j D1::N

jjA jj D max

kD1::N

jjA jjF D

 X N

j;kD1

N X

kD1 N X

j D1

jajk j

. Zeilensummennorm /I

jajk j

. Spaltensummennorm /I

jajk j2

1=2

.A D .ajk / 2 KN N /

. Frobeniusnorm /

sind jeweils Normen auf KN N definiert. Beweis. Der Nachweis dafür, dass die Zeilen- beziehungsweise die Spaltensummennorm tatsächlich die Normeigenschaften erfüllen, ist elementar und wird an dieser Stelle nicht geführt. Jede Matrix A 2 KN N lässt sich als Vektor der Länge N 2 auffassen, und die Frobeniusnorm fällt dann mit der euklidischen Vektornorm in Theorem 4.34 zusammen, so dass die Frobeniusnorm tatsächlich auch die Normeigenschaften besitzt. Definition 4.37. Eine Matrixnorm jj  jj W KN N ! R C nennt man a) submultiplikativ, falls

jjAB jj  jjA jjjjB jj

.A; B 2 KN N /I

b) mit einer gegebenen Vektornorm jj  jj W KN ! R C verträglich, falls

jjAx jj  jjA jjjjx jj

.A 2 KN N ;

x 2 KN /:

Definition 4.38. Sei jj  jj W KN ! R C eine Vektornorm. Die induzierte Matrixnorm ist definiert durch

jjA jj D

max

0¤x2K N

jj Ax jj ; jj x jj

A 2 KN N :

(4.31)

86

Kapitel 4

Lösung linearer Gleichungssysteme

Aufgrund der positiven Homogenität der Vektornorm gilt für jede Matrix A 2 KN N die Identität jjA jj D maxx2KN ;jj x jjD1 jjAx jj. Wegen der Kompaktheit der Sphäre ¹x 2

KN W jjx jj D 1 º sowie der Stetigkeit der Norm5 wird das Maximum in (4.31) tatsächlich angenommen. Die wesentlichen Eigenschaften induzierter Matrixnormen sind im Folgenden zusammengefasst: Theorem 4.39. Die durch eine Vektornorm induzierte Matrixnorm besitzt die in Definition 4.31 angegebenen Normeigenschaften, und sie ist sowohl submultiplikativ als auch verträglich mit der zugrunde liegenden Vektornorm. Es gilt jjI jj D 1. Beweis. Die Normeigenschaften der induzierten Matrixnorm sind leicht nachzuprüfen, gleiches gilt für die Verträglichkeit. Zum Nachweis der Submultiplikativität seien nun jj  jj W KN ! R C die Vektornorm mit induzierter Matrixnorm jj  jj W KN N ! R C . Für A; B 2 KN N und x 2 KN mit Bx ¤ 0 gilt dann jj ABx jj jj x jj

D

jj A. Bx / jj jj Bx jj jj Bx jj jj x jj

 jjA jjjjB jj;

und im Fall 0 ¤ x 2 KN ; Bx D 0 gilt sicher auch 0 D jjABx jj=jjx jj  jjA jjjjB jj, so dass man insgesamt jjAB jj  jjA jjjjB jj erhält. Die Identität jjI jj D 1 schließlich ist unmittelbar klar.

4.7.2 Spezielle Matrixnormen Definition 4.40. Für eine Matrix B 2 KN N bezeichnet

 .B / D ¹ 2 C W  ist Eigenwert von B º; r .B / D max jj 2.B/

das Spektrum von B beziehungsweise den Spektralradius von B . Theorem 4.41. a) Für jede Matrix A 2 CN N und die durch eine Vektornorm induzierte Matrixnorm jj  jj W CN N ! R C gilt

jjA jj  r .A/:

(4.32)

b) Ist A 2 R N N und sind alle Eigenwerte von A reell, so gilt die Ungleichung (4.32) auch für reelle Matrixnormen jj  jj W R N N ! R C . Beweis. a) Sei 0 ¤ x 2 CN Eigenvektor zum Eigenwert  2 C einer Matrix A 2 CN N ,

Ax D x: Mit der zugehörigen Vektornorm jj  jj W CN ! R C gilt dann

jjA jj  5

siehe Korollar 4.33

jj Ax jj jj x jj

D

jjjj x jj jj x jj

D jj:

87

Abschnitt 4.7 Normen und Fehlerabschätzungen

b) In der vorliegenden Situation folgt die Behauptung wie in Teil a) dieses Beweises, wobei dann jeweils “C” durch “R” zu ersetzen ist. Mit dem folgenden Theorem werden für die durch die Vektornormen jj  jj1 und jj  jj1 jeweils induzierten Matrixnormen handliche Darstellungen geliefert. Theorem 4.42. Für A D .ajk / 2 KN N gilt

jjA jj1 D max

j D1::N

jjA jj1 D max

kD1::N

N X

kD1 N X

j D1

jajk j

. Zeilensummennorm, siehe Theorem 4.36 /I

jajk j

. Spaltensummennorm,

.......

/:

Beweis. Es wird zunächst die angegebene Darstellung für jjA jj1 nachgewiesen. Für

x 2 KN gilt

  N N N ˇ ˇ X X X jjAx jj1 D max ˇ ajk xk ˇ  max jajk jjxk j  max jajk j jjx jj1 ; j D1::N

j D1::N

kD1

j D1::N

kD1

kD1

und für den Nachweis der umgekehrten Abschätzung sei j 2 ¹ 1; 2; : : : ; N º beliebig aber fest. Für x D .xk / 2 KN mit

xk D

´ ja j jk ajk

;

falls ajk ¤ 0;

1;

.k D 1; 2; : : : ; N /

sonst,

gilt dann jjx jj1 D 1 und somit N N ˇ X ˇ X jajk j; ajk xk ˇ D jjA jj1  jjAx jj1  ˇ kD1 kD1 „ƒ‚…

(4.33)

D j ajk j

und aufgrund der freien Wahl des Indexes j 2 ¹ 1; 2; : : : ; N º in der Abschätzung (4.33) folgt die Darstellung für jjA jj1 . Nun soll die Darstellung für jjA jj1 nachgewiesen werden. Für x 2 KN gilt

jjAx jj1 D 

N X

j D1



 N N X N X N N ˇ ˇ X X X ˇ jajk j jxk j ajk xk ˇ  jajk jjxk j D j D1 kD1

kD1

max kD1::N

N X

j D1

jajk j

 X N

kD1

jxk j D

kD1



max kD1::N

N X

j D1

j D1

 jajk j jjx jj1 ;

und für den Nachweis der umgekehrten Abschätzung sei n 2 ¹ 1; 2; : : : ; N º beliebig aber fest. Mit dem n-ten Einheitsvektor en D .ık n /k 2 KN erhält man wegen jj en jj1 D 1 somit

jjA jj1  jjAen jj1 D

N X

j D1

N N ˇ ˇ X X ˇ jaj n j; ajk ık n ˇ D kD1

j D1

(4.34)

88

Kapitel 4

Lösung linearer Gleichungssysteme

und aufgrund der freien Wahl des Indexes n 2 ¹ 1; 2; : : : ; N º in der Abschätzung (4.34) folgt die Darstellung für jjA jj1 . Im Folgenden können die Betrachtungen wieder auf den reellen Fall beschränkt werden6 , K D R. Als unmittelbare Konsequenz aus Theorem 4.42 erhält man: Korollar 4.43. Für Matrizen A 2 R N N gilt

jjA jj1 D jjA>jj1 ;

jjA jj1 D jjA> jj1 :

Das folgende Theorem liefert für die durch die euklidische Vektornorm jj  jj2 induzierte Matrixnorm eine alternative Darstellung. Theorem 4.44. Für A 2 R N N gilt

jjA jj2 D r .A>A/1=2

. Spektralnorm /:

Beweis. Es ist A>A 2 R N N eine symmetrische, positiv semidefinite Matrix, so dass es ein vollständiges System u1 ; : : : ; uN 2 R N von orthonormalen Eigenvektoren von A>A gibt, das heißt,

A>Auk D k uk ;

k D 1; 2; : : : ; N;

mit ¹1 ; : : : ; N º D  .A>A/  Œ 0; 1 /, und u> u D ık` . Sei nun x 2 R N mit jjx jj2 D 1 k ` beliebig. Wegen der Orthonormalität der Eigenvektoren erhält man mit der DarstelPN lung x D kD1 ck uk Folgendes,

jjAx jj22 D x>A>Ax D

N X

kD1

./

k ck2 

max kD1;:::;N

k

N  X

kD1

ck2 D r .A>A/jjx jj22 ;

und in ./ wird Gleichheit angenommen für einen Eigenvektor x zu einem maximalen Eigenwert von A>A. Die Bezeichnung “Spektralnorm” begründet sich in der folgenden Identität (4.35) für symmetrische Matrizen: Theorem 4.45. Sei A 2 R N N eine symmetrische Matrix, A D A>. Dann gilt

jjA jj2 D r .A/:

(4.35)

Für jede andere durch eine Vektornorm induzierte Matrixnorm jj  jj W R N N ! R C gilt

jjA jj2  jjA jj: 6

siehe die einführenden Bemerkungen in diesem Abschnitt 4.7

(4.36)

89

Abschnitt 4.7 Normen und Fehlerabschätzungen

®

¯

Beweis. Wegen  .A2 / D 2 W  2  .A/ gilt r .A2 / D r .A/2 und daher

jjA jj2 D r .A>A/1=2 D r .A2 /1=2 D r .A/2

1=2

D r .A/:

Der zweite Teil des Theorems folgt nun mit Theorem 4.41. Beispiel 4.46. Die symmetrische Matrix

AD p

1 3 3

2

p

besitzt die Eigenwerte 1=2 D 3˙ 2 37 , so dass jjA jj2 D 3C 2 37  4:541 gilt. Weiter gilt jjA jj1 D jjA jj1 D 5. Nebenbei zeigt dieses Beispiel, dass die in (4.28) angegebene Abschätzung jjx jj1  jjx jj2 ; x 2 R N , sich nicht auf die jeweils induzierten Matrixnormen überträgt. Als ein weiteres Beispiel betrachte man die nichtsymmetrische Matrix A 2 R 22 definiert durch

AD



0 1 0 1

=) A>A D

 0 0  : 0

2

p

2, so dass auf die Hier gilt jjA jj1 D 2 und r .A/ D 1 D jjA jj1 sowie jjA jj2 D Voraussetzung “A D A>” in Theorem 4.45 nicht verzichtet werden kann. M Das folgende Theorem liefert einfache Abschätzungen für die Spektralnorm. Theorem 4.47. Für jede Matrix A 2 R N N gelten die beiden folgenden Abschätzungen,

jjA jj2  jjA jj1 jjA jj1

1=2

;

jjA jj2  jjA jjF :

Beweis. Die erste Abschätzung erhält man als Korollar zu Theorem 4.45, 1=2

jjA jj2 D r .A>A/1=2 D jjA>A jj2

./

 jjA>A jj11=2

./

 .jjA>jj1 jjA jj1 /1=2 D .jjA jj1 jjA jj1 /1=2 ; wobei ./ aus Theorem 4.45 und ./ aus Korollar 4.43 folgt. Die zweite Abschätzung resultiert aus der cauchy-schwarzschen Ungleichung,

jjAx jj2 D

 X N

j

N X

j D1 kD1

2

ajk xk j

1=2



D jjA jjF jjx jj2 für x 2 R N :

 X N N X j D1

kD1

jajk j2

X N

sD1

jxs j2

 1=2

90

Kapitel 4

Lösung linearer Gleichungssysteme

4.7.3 Die Konditionszahl einer Matrix Bei Stabilitätsuntersuchungen für lineare Gleichungssysteme spielt der nachfolgende Begriff eine besondere Rolle. Definition 4.48. Sei A 2 R N N eine reguläre Matrix und jj  jj W R N N ! R C eine Matrixnorm. Die Zahl cond.A/ D jjA jjjjA

1

jj

wird als Konditionszahl der Matrix A bezeichnet. Das folgende Theorem liefert eine alternative Darstellung der Konditionszahl, die unter anderem eine geometrische Deutung ermöglicht (siehe Bemerkung 4.50). Theorem 4.49. Sei A 2 R N N eine reguläre Matrix und jj  jj W R N ! R C eine Vektornorm. Für die induzierte Konditionszahl gilt dann cond.A/ D





max jjAx jj = min jjAx jj :

jj x jjD1

jj x jjD1

(4.37)

Beweis. Die Darstellung (4.37) erhält man wie folgt,

jjA

1

jj D D

max

0¤y2R N



jj x jj jj A 1 y jj ./ D max jj y jj jj Ax jj N 0¤x2R

min

x2R N ;jj x jjD1

jjAx jj



D

max

x2R N ;jj x jjD1

1

jj Ax jj

1

;

wobei die Identität ./ aus der Substitution y D Ax resultiert. Bemerkung 4.50. Die Konditionszahl cond.A/ gibt also die Bandbreite an, um die sich die Vektorlänge bei Multiplikation mit der Matrix A ändern kann. Aus der Darstellung (4.37) ergibt sich zudem die Ungleichung cond.A/  1: M

4.7.4 Störungsresultate für Matrizen Lemma 4.51. Für die durch eine Vektornorm induzierte Matrixnorm jj  jj W R N N ! R C und jede Matrix B 2 R N N mit jjB jj < 1 ist die Matrix I C B regulär und es gilt

jj.I C B /

1

jj 

1

jj B jj

1

:

Beweis. Die umgekehrte Dreiecksungleichung liefert für x 2 R N

jj.I C B /x jj D jjx C Bx jj  jjx jj

jjBx jj  jjx jj

jjB jjjjx jj D . 1

jjB jj/jjx jj;

was die Regularität der Matrix I C B impliziert. Die Substitution y D .I C B /x in der vorangegangenen Abschätzung liefert dann auch

jjy jj  . 1

jjB jj/jj.I C B /

1

y jj;

y 2 RN ;

91

Abschnitt 4.7 Normen und Fehlerabschätzungen

was den Nachweis von Lemma 4.51 komplettiert. Als eine Konsequenz aus Lemma 4.51 erhält man die Offenheit der Menge der regulären Matrizen und die Stetigkeit der Matrixinversion. Korollar 4.52. Sei jj  jj W R N N ! R C die durch eine Vektornorm induzierte Matrixnorm, und A 2 R N N sei eine reguläre Matrix. Für jede Matrix A 2 R N N mit jjA jj < 1=jjA 1 jj ist die Matrix A C A regulär, und

jj.A C A/ jj.A C A/

1

A

1

1

jj 

1

jj A

1

1

jj

jj A jj

:

jj  cjjA jj für jjA jj 

1 2jj A

1

jj

;

mit c D 2jjA

1 2

jj :

A jj  jjA 1 jjjjA jj < 1 ist nach Lemma 4.51 die Matrix A C A D A.I C A 1 A/ regulär, und mit der Darstellung .A C A/ 1 D .I C A 1 A/ 1 A 1 erhält man zudem

Beweis. Wegen jjA

1

jj.A C A/

1

jj 

1

jj A jj A

1 1

jj A jj



jj A 1 jj : jj A 1 jjjj A jj

1

(4.38)

Die zweite Abschätzung des Korollars folgt unmittelbar aus der ersten Abschätzung zusammen mit der Darstellung

.A C A/ jj

1

A

1

D .A C A/ jj 

........

jj A jj A 1 jj 1

1

1

1

AA

;

jj jjA jj: jj A jj

Korollar 4.53. Sei jj  jj W R N N ! R C die durch eine Vektornorm induzierte Matrixnorm, und A 2 R N N sei eine reguläre Matrix. a) Für jede Matrix B 2 R N N gilt:

B ist singulär =)

1

jj A

1

jj

 jjA

B jjI

b) Es gilt 1 cond.A/

 min

° jjA B jj ± W B 2 R N N ist singulär : jjA jj

(4.39)

Beweis. Aussage a) ergibt sich durch Negation der ersten Aussage in Korollar 4.52, und Division in a) durch jjA jj liefert Aussage b). Bemerkung 4.54. 1. Wegen der Stetigkeit der Matrixnorm (siehe Korollar 4.33) sowie der Abgeschlossenheit der Menge der singulären Matrizen aus R N N (siehe Korollar 4.52) wird das Minimum in (4.39) tatsächlich auch angenommen. 2. Durch die Aussage b) in Korollar 4.53 wird klar, dass cond1.A/ eine untere Schranke für den relativen Abstand der Matrix A zur Menge der singulären Matrizen darstellt. M

92

Kapitel 4

Lösung linearer Gleichungssysteme

4.7.5 Fehlerabschätzungen für fehlerbehaftete Gleichungssysteme Es können nun die zentralen Theoreme dieses Abschnitts 4.7 formuliert werden. Theorem 4.55 (Fehlerbehaftete rechte Seiten). Mit jj  jj seien gleichzeitig sowohl eine Vektornorm auf R N als auch die induzierte Matrixnorm auf R N N bezeichnet. Es sei A 2 R N N eine reguläre Matrix, und b; x 2 R N und b; x 2 R N seien Vektoren mit

Ax D b;

A.x C x / D b C b:

(4.40)

Dann gelten für den absoluten beziehungsweise den relativen Fehler die folgenden Abschätzungen, 1

jjx jj  jjA

jj x jj jj x jj

jjjjb jj;

 cond.A/

jj b jj ; jj b jj

(4.41)

wobei in der zweiten Abschätzung noch b ¤ 0 angenommen sei. Beweis. Aus (4.40) folgt unmittelbar Ax D b beziehungsweise x D A 1 b , woraus die erste Abschätzung in (4.41) resultiert. Aus dieser Abschätzung wiederum ergibt sich die zweite Abschätzung in (4.41), jj x jj AxDb  jj x jj

jjA

1

jj

jj b jj jj Ax jj jj b jj jj x jj

 cond.A/

jj b jj : jj b jj

Bemerkung 4.56. Fällt also die Konditionszahl einer Matrix A groß aus (cond.A/  1), so tut dies auch in (4.41) die obere Schranke für den relativen Fehler in der Lösung der fehlerbehafteten Version des linearen Gleichungssystems Ax D b . In einem solchen Fall spricht man von schlecht konditionierten Gleichungssystemen Ax D b . M Vergleichbares wie in Theorem 4.55 gilt auch im Fall fehlerbehafteter Matrizen: Theorem 4.57 (Fehlereinflüsse in der rechten Seite und der Matrix). Mit jj  jj seien gleichzeitig sowohl eine Vektornorm als auch die induzierte Matrixnorm bezeichnet, A 2 R N N sei eine reguläre Matrix, und A 2 R N N sei eine Matrix mit jjA jj < jjA 1 jj 1 . Dann gilt für beliebige Vektoren b; x 2 R N n¹ 0 º und b; x 2 R N mit

Ax D b;

.A C A/.x C x / D b C b;

und für jjA jj  2jj A1 1 jj die Abschätzung jj x jj jj x jj

C



jj A jj jj A jj

C

jj b jj jj b jj



(4.42)

mit C D 2cond.A/:

Beweis. Aus (4.42) folgt unmittelbar

.A C A/x D b

Ax;

und Korollar 4.52 liefert nun (neben der Regularität der Matrix A C A ) die Abschätzung 

jjx jj 

1

jj A

1

jj

1

jj A jj

jjb jj C jjA jjjjx jj :

Anschließende Division durch jjx jj liefert wegen jjb jj  jjA jjjjx jj die Aussage des Theorems.

93

Abschnitt 4.8 Orthogonalisierungsverfahren

4.8 Orthogonalisierungsverfahren In diesem Abschnitt soll für eine gegebene Matrix A 2 R M N ; 1  N  M , eine Faktorisierung der Form

A D QS

(4.43)

bestimmt werden mit einer orthogonalen Matrix Q,

Q 2 R M M ;

Q

1

D Q>;

(4.44)

und S ist eine verallgemeinerte obere Dreiecksmatrix,

0

B S DB @

R 0

1

C C 2 R M N ; R D A

................................... ............................... .......................... ...................... ................. ............. ........ ....

!

2 R N N ; 0 D . 0 / 2 R .M

N /N

:

(4.45)

Eine solche Faktorisierung (4.43) ermöglicht beispielsweise die stabile Lösung von regulären aber eventuell schlecht konditionierten linearen Gleichungssystemen Ax D b (für M D N ); mehr hierzu in Abschnitt 4.8.4. Auch die stabile Lösung von Ausgleichsproblemen jjAx b jj2 ! min; x 2 R N , ist mit einer solchen Faktorisierung möglich. Details hierzu finden Sie in Abschnitt 4.8.5.

4.8.1 Elementare Eigenschaften orthogonaler Matrizen Eine quadratische Matrix ist genau dann orthogonal, wenn ihre Spaltenvektoren paarweise orthonormal bezüglich des Standardskalarprodukts zueinander sind. So sind zum Beispiel die beiden folgenden Matrizen orthogonal:

Q1 D p1

2



1

1

1

1



;

Q2 D



sin '

cos '

cos '

sin '



.' 2 R /:

Vorbereitend werden nun einige Eigenschaften orthogonaler Matrizen vorgestellt. Lemma 4.58. Sei Q 2 R M M eine orthogonale Matrix. Dann ist auch Q> eine orthogonale Matrix, und es gilt

jjQx jj2 D jjx jj2 D jjQ>x jj2 ;

x 2 RM ;

das heißt, Q und Q> sind isometrisch bezüglich der euklidischen Vektornorm. Beweis. Es gilt .Q>/ 1 D .Q 1 / 1 D Q D .Q>/>; somit ist auch Q> eine orthogonale Matrix. Des Weiteren besitzt die Matrix Q die Isometrieeigenschaft:

jjQx jj2 D x> Q>Q x „ƒ‚… DI

1=2

D .x>x /1=2 D jjx jj2 :

Diese beiden Aussagen ergeben dann die Identität jjQ>x jj2 D jjx jj2 . Bezogen auf die euklidische Vektornorm jj  jj2 ändert sich die Konditionszahl einer quadratischen regulären Matrix nicht bei Multiplikation mit einer orthogonalen Matrix:

94

Kapitel 4

Lösung linearer Gleichungssysteme

Korollar 4.59. Sei A 2 R N N regulär, und Q 2 R N N sei eine orthogonale Matrix. Dann gilt cond2 .QA/ D cond2 .A/:

Beweis. Nach Lemma 4.58 gilt jjQAx jj2 D jjAx jj2 für x 2 R N , was unmittelbar auf jjA jj2 D jjQA jj2 führt. Weiter gilt nach Lemma 4.58 auch

jjA

1

Q> jj2 D ./

D

jj A

max

0¤x2R N

max

0¤y2R N

Q>x jj2 jj x jj2 1

jj A 1 y jj2 jj y jj2

D

max

0¤x2R N

D jjA

1

jj A

1

Q>x jj2

jj Q>x jj

2

jj2 ;

wobei ./ mit der Substitution y D Q>x folgt. Insgesamt erhält man daraus cond2 .QA/ D jjQA jj2 jjA

1

Q 1 jj2 D jjA jj2 jjA „ƒ‚…

1

jj2 D cond2 .A/:

D Q>

Das folgende Resultat wird in Abschnitt 4.8.3 über die Gewinnung einer Faktorisierung A D QS mittels spezieller und hintereinander auszuführender Transformationen benötigt. Lemma 4.60. Für orthogonale Matrizen Q1 ; Q2 2 R M M ist auch Q1 Q2 eine orthogonale Matrix. Beweis. Es gilt .Q1 Q2 /

1

> > D Q2 1 Q1 1 D Q> 2 Q1 D .Q1 Q2 / :

4.8.2 Die Faktorisierung A D QR mittels Gram-Schmidt-Orthogonalisierung Für eine quadratische reguläre Matrix A 2 R N N nimmt der Ansatz (4.43)–(4.45) die folgende Form an,

A D QR

(4.46)

mit einer orthogonalen Matrix Q 2 R N N und der oberen Dreiecksmatrix R 2 R N N . Mit den Notationen

0

1

B C C ADB @ a1 : : : aN A ;

0

1

C B C QDB @ q1 : : : qN A ;

0

B RDB @

r11 ♣ ♣ ♣ r1N ♣♣



♣♣ ♣

rN N

1 C C A

(4.47)

(mit Vektoren ak ; qk 2 R N ) führt der Ansatz (4.46) auf die folgenden Forderungen,

ak D

k X

j D1

rjk qj ;

k D 1; 2; : : : ; N;

q1 ; : : : ; qN 2 R N paarweise orthonormal:

(4.48) (4.49)

Im Folgenden wird beschrieben, wie man mittels einer Gram-Schmidt-Orthogonalisierung eine solche Faktorisierung (4.48)–(4.49) gewinnt.

95

Abschnitt 4.8 Orthogonalisierungsverfahren

Algorithmus 4.61. Für eine gegebene reguläre Matrix A 2 R N N geht man bei der Gram-Schmidt-Orthogonalisierung schrittweise für k D 1; 2; : : : ; N so vor: ausgehend von bereits gewonnenen orthonormalen Vektoren q1 ; q2 ; : : : ; qk 1 2 R N mit span ¹a1 ; : : : ; ak



D span ¹q1 ; : : : ; qk



DW Mk

1;

bestimmt man in Schritt k  1 das Lot von ak auf den linearen Unterraum Mk RN ,

und nach der Normierung

b q k WD ak

qk WD

kX1

.a> k qj /qj ;

1



(4.50)

j D1

b qk

(4.51)

jjb q k jj2

sind die Vektoren q1 ; : : : ; qk 2 R N paarweise orthonormal mit span ¹a1 ; : : : ; ak º D span ¹q1 ; : : : ; qk º:

M

Der Gleichung (4.50) entnimmt man unmittelbar die Darstellung kX1

.a> ak D jjb q k jj2 qk C k qj / qj ; „ƒ‚… j D1 „ ƒ‚ … DW rkk DW rjk

k D 1; 2; : : : ; N;

(4.52)

und mit den Notationen aus (4.51) beziehungsweise (4.52) erhält man nach Abschluss der Gram-Schmidt-Orthogonalisierung die gesuchte Faktorisierung (4.48)–(4.49)7. Der in Algorithmus 4.61 beschriebene Orthogonalisierungsprozess ist jedoch unter Umständen nicht gutartig (wenn etwa jjb q k jj2 klein ausfällt), so dass zur Bestimmung einer QR-Faktorisierung andere Methoden vorzuziehen sind (mehr hierzu im folgenden Abschnitt 4.8.3).

4.8.3 Die Faktorisierung A D QS mittels Householder-Transformationen Gegenstand dieses Abschnitts 4.8.3 ist die Bestimmung einer Faktorisierung der Form A D QS entsprechend (4.44)–(4.45) mittels Householder-Transformationen, wobei wieder der allgemeine Fall A 2 R M N mit M  N  1 zugelassen wird. In dem folgenden Unterabschnitt werden die nötigen Vorbereitungen getroffen. 7

beziehungsweise in Matrixschreibweise und mit der Notation aus (4.47) die Faktorisierung A D QR

96

Kapitel 4

Lösung linearer Gleichungssysteme

Vorüberlegungen Lemma 4.62. Für eine Matrix 2ww> 2 R ss

H DI mit s  1 gilt Folgendes:

H> D H 2

H DI

H >H D I

mit w 2 R s ;

w>w D 1

.H ist symmetrisch /  H ist involutorisch

(4.53)

(4.54) (4.55)

.H ist orthogonal /:

(4.56)

Beweis. Die Identitäten (4.54)–(4.55) ergeben sich wie folgt,

H> D I H 2 D .I

2.ww>/> D I 2ww>/.I

2ww> D H ;

2ww>/ D I

2ww>

D 1

‚ …„ ƒ > 2ww C 4w .w>w/ w> D I;

und die Identität (4.56) folgt unmittelbar aus (4.54)–(4.55). Definition 4.63. Eine Abbildung Rs ! Rs ;

x ֏ Hx

mit einer Matrix H 2 R ss der Form (4.53) mit s  1 bezeichnet man als Householder-Transformation. Eine Householder-Transformation mit einer Matrix H 2 R ss der Form (4.53) bewirkt aufgrund der Identität x 2.w>x /w D x .w>x /w .w>x /w eine Spiegelung von x an der Hyperebene ¹z 2 R s W z>w D 0 º. Für den Fall s D 2 ist dies in Abb. 4.2 veranschaulicht.

x

✁✁ > ✁ ¹z W z w D 0 º 2.w>x /w ✁ r❍ ✁ ❈❖ ❍❍ ❍ ✁x .w>x /w ❈ r ❍❍ ✁ r ... ❈ .................... ❍ ❍ ✁ ❈ ❍ ❍r x ✯ ✟ ✟ ✁ ❈ ✟ ✟ ❈ ✁ ❈ .✁........ ✟✟ ... .. ✟ ✁ r✟ . 0 ❈❍ ... ✁ ❍ ❥ w ✁ ✁

Abb. 4.2: Darstellung der Householder-Spiegelung für den zweidimensionalen Fall Bei der sukzessiven Triangulierung einer Matrix mittels Householder-Transformationen (siehe unten) ist in jedem Teilschritt (für unterschiedliche Werte von s ) ein

97

Abschnitt 4.8 Orthogonalisierungsverfahren

Vektor w 2 R s ; jjw jj2 D 1, so zu bestimmen, dass die zugehörige HouseholderTransformation einen gegebenen Vektor x 2 R s in ein Vielfaches des ersten Einheitsvektors e1 D . 1; 0; : : : ; 0 /> 2 R s abbildet. Das folgende Lemma gibt einen solchen Vektor w 2 R s an. Lemma 4.64. Gegeben sei ein Vektor 0 ¤ x 2 R s mit x 62 span ¹ e1 º. Für

wD

x C  e1 jj x C  e1 jj2

mit  D ˙jjx jj2 ;

(4.57)

gilt

jjw jj2 D 1; >

.I

2ww /x D

(4.58)

 e1 :

(4.59)

Beweis. Wegen x 62 span ¹ e1 º verschwindet der Nenner in (4.57) nicht, so dass w 2 R s wohldefiniert ist und offensichtlich (4.58) gilt. Für den Nachweis der Identität (4.59) berechnet man 2 > jjx C  e1 jj22 D jjx jj22 C 2 e> 1 x C  D 2.x C  e1 / x:

Daraus erhält man 2w>x D

2.x C  e1 />x jj x C  e1 jj2

D jjx C  e1 jj2 ;

was zusammen mit (4.57) die Darstellung 2ww>x D x C  e1 liefert. Dies stimmt mit der Identität (4.59) überein. Bemerkung 4.65. Der Vektor w 2 R s in (4.57) entsteht also aus x 2 R s durch eine Modifikation des ersten Eintrags von x sowie einer anschließenden Normierung. Zur Vermeidung von Stellenauslöschungen wird in (4.57)  D sgn.x1 /jjx jj2 gewählt. Hier bezeichnet für eine Zahl y 2 R sgn.y / D

°

1; 1;

falls y  0; sonst:

M

98

Kapitel 4

Lösung linearer Gleichungssysteme

Triangulierung mittels Householder-Transformationen Im Folgenden wird beschrieben, wie man ausgehend von der Matrix A D A.1/ 2 R M N sukzessive Matrizen der Form

0

A.k/

B B B B B B B DB B B B B B B @

.k/

.k/

a11 a12 ♣♣





1

.k/



a1N

C C C C C C .k/    ak 1;N C C 2 R M N ; C .k/ C  akN C C C ♣♣♣ C A .k/    aMN ♣♣ ♣



ak.k/1;k



1

.k/ akk

♣♣♣ .k/ aM k

k D 2; 3; : : : ; N  ;

(4.60)

bestimmt, so dass dann schließlich A.N / D S gilt mit einer verallgemeinerten oberen Dreiecksmatrix S 2 R M N von der Form (4.45). Hierbei wird die Bezeichnung

N D

°

N; falls M D N; N C 1; falls M > N;

verwendet. Die Matrizen in (4.60) werden dabei für k D 1; 2; : : : ; N durch Transformationen der Form

0

B b k A.k/ ; H bk D B A.kC1/ D H B @

Ik

0

1

0

Hk

1

C C C; A

Hk D IM

wk 2 R M

1 sukzessive

2wk wk>;

.k 1/ .k 1/ ;

jjwk jj2 D 1;

gewonnen, wobei wieder Is 2 R ss die Einheitsmatrix bezeichnet, und der Vektor wk 2 R M .k 1/ ist so zu wählen, dass

0

B Hk B @

.k/ akk

♣♣ ♣ .k/

aM k

1

0

k

1

C B 0 C CDB ♣ C A @ ♣♣ A 0

gilt; die genaue Form von wk 2 R M kC1 und k 2 R entnimmt man Lemma 4.64. b 1; : : : ; H b N 1 orthogonal und symmetrisch, so Nach Lemma 4.62 sind die Matrizen H  dass man mit

bN S DH 

b

1 H N 2

b 1 A; H

b 1H b2  H bN QDH 

1;

die gewünschte Faktorisierung A D QS erhält, wobei Q nach Lemma 4.60 tatsächlich eine Orthogonalmatrix ist.

99

Abschnitt 4.8 Orthogonalisierungsverfahren

Bemerkung 4.66. a) Praktisch geht man für k D 1; 2; : : : ; N 1, so vor, dass man .kC1/ das Diagonalelement akk gesondert abspeichert und in der Matrix A.kC1/ den frei werdenden Platz in der k -ten Spalte unterhalb der Diagonalen dazu verwendet, den Vektor wk abzuspeichern. b) Die nötigen Matrixmultiplikationen der Form

.I

2ww>/B D B

wv>;

v> WD 2w>B

führt man so aus, dass zunächst der Vektor v berechnet und anschließend die Matrix B modifiziert (“aufdatiert”) wird. M

4.8.4 Anwendung 1: Stabile Lösung schlecht konditionierter Gleichungssysteme Ax D b Für eine reguläre aber eventuell schlecht konditionierte Matrix A 2 R N N ermöglicht eine Faktorisierung der Form A D QR mit einer orthogonalen Matrix Q 2 R N N und einer oberen Dreiecksmatrix R 2 R N N eine stabile Lösung zugehöriger linearer Gleichungssysteme. Dies liegt daran, dass für einen gegebenen Vektor b 2 R N das Gleichungssystem Ax D b äquivalent ist zu dem gestaffelten Gleichungssystem

Rx D Q>b; wobei die Matrix R bezüglich der Norm jj  jj2 keine schlechtere Konditionszahl als die Matrix A aufweist und die Norm des Vektors Q>b nicht größer als die des Vektors b ist:8 cond2 .R/ D cond2 .Q>A/ D cond2 .A/;

jjQ>b jj2 D jjb jj2 :

4.8.5 Anwendung 2: Lineare Ausgleichsrechnung Lineare (unrestringierte) Ausgleichsprobleme sind von der Form

jjAx

b jj2 ! min

für x 2 R N ;

(4.61)

mit gegebener Matrix A 2 R M N und gegebenem Vektor b 2 R M . Zunächst soll ein konkretes lineares Ausgleichsproblem vorgestellt werden. Beispiel 4.67. Im Folgenden ist diejenige Gerade in R 2 gesucht, die im quadratischen Mittel den geringsten vertikalen Abstand zu vorgegebenen Stützpunkten .yj ; fj / 2 R 2 ; j D 1; 2; : : : ; M besitzt, mit paarweise verschiedenen reellen Zahlen y1 ; y2 ; : : : ; yM ; diese bezeichnet man als Ausgleichsgerade. Wegen der allgemeinen Darstellung 8

siehe Lemma 4.58 und Korollar 4.59 für die Einzelheiten

100

Kapitel 4

Lösung linearer Gleichungssysteme

¹ cy C d W y 2 R º mit gewissen Koeffizienten c; d 2 R für Geraden in R 2 lautet das zu lösende Minimierungsproblem folglich M X

j D1

fj /2 ! min;

.cyj C d

c; d 2 R ;

(4.62)

das man in der Form (4.61) schreiben kann,

0

y1

B ♣♣

@ ♣

yM

1

1

B ♣♣ C @ ♣ A ! min

fM 0

1   ♣♣ C c ♣A

d

1

f1

für c; d 2 R :

2

Von allgemeinerer Form ist das Problem, Koeffizienten a0 ; : : : ; aN PN 1 stimmen, dass für das Polynom p.y / D kD0 ak y k der Ausdruck M X

1

2 R so zu be-

f j /2

.p.yj /

(4.63)

j D1

minimal wird (mit M  N ). Die zugehörige Lösung bezeichnet man als Ausgleichspolynom. Dieses Problem kann ebenfalls in der Form (4.61) geschrieben werden:

0

y 0 y11 : : : y1N

B 1

B ♣♣ ♣♣ ♣♣ ♣♣♣

B ♣ ♣ ♣

@

0 1 N

yM yM : : : yM

1

1

10 CB CB CB [email protected]

1

a0 ♣♣♣

aN

1

C C C A

1

B C B ♣♣ C B ♣ C ! min @ A

fM 0

f1

für a0 ; a1 ; : : : ; aN

1

2 R:

2

Für einen kleinen Grad N 1 und eine große Stützpunkteanzahl M tritt bei dem Ausgleichspolynom üblicherweise nicht ein solches oszillierendes Verhalten auf, wie man es von dem interpolierenden Polynom (vom Grad  M 1) zu erwarten hat. M Mit dem nachfolgenden Theorem wird klar, wie mittels Faktorisierungen der Form A D QS lineare Ausgleichsprobleme effizient gelöst werden können. Theorem 4.68. Für die Matrix A 2 R M N ; 1  N  M , mit maximalem Rang N sei eine Faktorisierung A D QS gegeben mit einer orthogonalen Matrix Q 2 R M M und der verallgemeinerten oberen Dreiecksmatrix S 2 R M N entsprechend (4.45),

SD



R 0



2R

M N

;

RD

................................... ............................... .......................... ...................... ................. ............. ........ ....

!

2 R N N ;

0 D . 0 / 2 R .M N /N :

Zu gegebenem Vektor b 2 R M sei Q>b wie folgt partitioniert,

Q>b DW



y1

y2



2 RM ;

y1 2 R N ;

y2 2 R M

N

:

Dann ist für einen Vektor x 2 R N Folgendes äquivalent: es löst x das lineare Ausgleichsproblem jjAx b jj2 ! min für x 2 R N ;

genau dann, wenn Rx D y1 erfüllt ist.

101

Abschnitt 4.8 Orthogonalisierungsverfahren

Beweis. Für einen beliebigen Vektor x 2 R N gilt

jjAx

b jj22 D jjQSx QQ>b jj22 D jjSx Q>b jj22

    2

R y1

D jjRx y1 jj2 C jjy2 jj2 ; D x 2 2 0 y2 2

woraus die Aussage des Theorems folgt:

jjAx

b jj2  jjy2 jj2 I

jjAx

b jj2 D jjy2 jj2



Rx D y1 :

Lineare Ausgleichsprobleme lassen sich auch mithilfe der Normalgleichungen lösen: Theorem 4.69. Es seien eine Matrix A 2 R M N ; 1  N  M und ein Vektor b 2 R M gegeben. Es löst ein Vektor x 2 R N das lineare Ausgleichsproblem jjAx b jj2 ! min für x 2 R N genau dann, wenn x die Normalgleichungen A>Ax D A>b löst. Beweis. Wird hier nicht geführt. Bemerkung 4.70.  Grundsätzlich ist die Anwendung von Orthogonalisierungsverfahren gegenüber der Lösung der Normalgleichungen vorzuziehen, da die Normalisierung üblicherweise die Empfindlichkeit der Lösung des Problems gegenüber Störungen in dem Vektor b oder der Matrix A vergrößert. Die in den Normalgleichungen auftretende Koeffizientenmatrix A>A ist symmetrisch. Sie ist genau dann nichtsingulär, wenn die Matrix A 2 R M N maximalem Rang N besitzt. In diesem Fall ist sie dann auch positiv definit, so dass eine CholeskyFaktorisierung existiert. M 

Beispiel 4.71. Zu den drei Stützpunkten

j

0

xj yj

0

1

3

2

2

0

1

2

soll dasjenige Polynom p.x / D a0 C a1 x maximal ersten Grades bestimmt werden, das die Summe der Fehlerquadrate 2 X

.p.xj /

yj /2

j D0

minimiert. In Matrixschreibweise bedeutet dies 2 X

j D0

.p.xj /

ˇˇ  x 0 ˇˇ yj / D ˇˇˇˇ x1 x2 ˇˇ  0 ˇˇ D ˇˇˇˇ 1 2

2

1   a1 1 a0 1

1   a1 1 a0 1 „ƒ‚…

„ ƒ‚ … DW x DW A

 y  ˇˇ2 1 ˇˇ y1 ˇˇˇˇ y2 2 

2  ˇˇˇˇ2 ˇˇ ! min 2 ˇˇ 0 2

„ ƒ‚ … DW b

für x 2 R 2 :

102

Kapitel 4

Lösung linearer Gleichungssysteme

Die zugehörigen Normalgleichungen sind von der Form A>Ax D A>b . Im Einzelnen ergibt sich für die Normalgleichungen Folgendes:

   0 1  5 3 0 1 2 A>A D 1 1 1 1 1 D 3 3 ; 2 1

  0 1 2 A> D 1 1 1 ;

  0 1 2 A>b D 1 1 1

  2  2 2 D 0 : 0

Die Normalgleichungen lauten daher

Deren Lösung ist a1 D 1; a0 D



5 3

3 3



   a1 2 a0 D 0 :

1 (nachrechnen!), damit ist

p.x / D x das gesuchte Ausgleichspolynom.

1

M

Weitere Themen und Literaturhinweise Der Gauß-Algorithmus zur Lösung linearer Gleichungssysteme lässt sich auch mit der (numerisch allerdings aufwändigen) Totalpivotsuche durchführen (Aufgabe 4.7). Mehr Einzelheiten zu der in Abschnitt 4.6 behandelten LR-Faktorisierung für Bandmatrizen werden beispielsweise in Schwarz/Köckler [97], Weller [111] und Werner [112] vorgestellt. Untersuchungen zu den Auswirkungen von Störungen symmetrischer positiv definiter Matrizen auf ihre Cholesky-Faktorisierung findet man in Higham [55]. Eine QR-Faktorisierung für Bandmatrizen wird in Oevel [79] vorgestellt. Einen Beweis zu Theorem 4.69 auf Seite 101 über den Zusammenhang zwischen der Bestapproximation und den Normalgleichungen findet man zum Beispiel in Richter/Wick [88]. Dort werden auch zahlreiche Beispiele zum Thema Orthogonalisierungsverfahren vorgestellt. Bei der Analyse schlecht konditionierter linearer Gleichungssysteme lässt sich die Singulärwertzerlegung einer Matrix verwenden (Aufgabe 4.22). Weitere Einzelheiten zu diesem Thema werden beispielsweise in Baumeister [2], Engl/Hanke/Neubauer [24], Golub/Van Loan [35], Hämmerlin/Hoffmann [51], Horn/Johnson [58], Kress [63], Louis [66] und in Rieder [89] behandelt. Zur stabilen Lösung schlecht konditionierter linearer Gleichungssysteme bietet sich die Verwendung von Regularisierungsverfahren an ([2, 24, 51, 63, 66, 89] sowie Groetsch [42] und Hofmann [57]). Auch über Matrixäquilibrierungen lässt sich eine Reduktion der Konditionszahl erzielen (Aufgabe 4.24 und Schaback/Wendland [95]). Erwähnenswert ist auch der Algorithmus von Strassen, mit dem sich der numerische Aufwand bei der Multiplikation zweier N  N -Matrizen (von normalerweise O.N 3 / arithmetischen Operationen) auf O.N log2 7 /  O.N 2:807 / arithmetische Operationen reduzieren lässt (siehe Strassen [102] beziehungsweise [51, 55] und Überhuber [114]). Mittels verfeinerter Techniken kann man den Aufwand weiter reduzieren; der aktuelle Stand ist O.N 2:38 / arithmetische Operationen (Pan [81]). Speziell auf Parallel- und Vektorrechner zugeschnittene Verfahren finden Sie in Golub/Ortega [37], Schwandt [96] und in [95, 97].

103

Übungsaufgaben

Übungsaufgaben Aufgabe 4.1. Man löse das lineare Gleichungssystem



10 1

4

1 1



   x1 1 D x2 2

einmal mit dem Gauß-Algorithmus ohne Pivotsuche und einmal mit dem Gauß-Algorithmus inklusive Pivotsuche. Dabei verwende man jeweils eine dreistellige dezimale Gleitpunktarithmetik. (Hierbei ist nach jeder Operation das Zwischenergebnis auf drei gültige Dezimalstellen zu runden.) Aufgabe 4.2. Man weise nach, dass bei der Lösung eines oberen gestaffelten linearen Gleichungssystems der Bandbreite r

0

a11 : : : a1r : B B 0 :: B :: : : : : B : : : B : :: B :: : B : @ :: 0 ::: ::: mit r  N , r fest, insgesamt .2r

0 :::

1

0

:: C 0 1 0 1 :: :: : : : C x1 b1 C :: : 0 C @ :: A D @ :: A C :: : : : aN r;N C xN bN :: C :: :: A : : : : : : 0 aNN

1/N C O. 1 / arithmetische Operationen anfallen .N ! 1/.

Aufgabe 4.3. Zur Lösung eines linearen Gleichungssystems Ax D b mit einer Tridiagonalmatrix

0

a11 a12 B B a21 ♣ ♣ ♣ B B ♣♣ ADB ♣ B B @

♣♣

1



♣♣ ♣ ♣♣ ♣

♣♣ ♣ ♣♣ ♣ aN;N

aN 1

C C C C C 2 R N N C C 1;N A

aNN

(es gilt ajk D 0 für k  j 2 oder k  j C 2) vereinfache man den Gauß-Algorithmus in geeigneter Weise und gebe die zugehörige Anzahl der arithmetischen Operationen an. Aufgabe 4.4. Es sei A D .ajk / 2 R N N eine Bandmatrix von der Form (4.25) auf Seite 81. Zur Lösung von linearen Gleichungssystemen Ax D b mit einer solchen Bandmatrix A gebe man einen modifizierten Gauß-Algorithmus an, der mit höchstens p. 3C2q /.N 1 / arithmetischen Operationen auskommt. Aufgabe 4.5. Zur Lösung eines linearen Gleichungssystems Ax D b mit einer Matrix A 2 R N N wird der Gauß-Algorithmus betrachtet. a) Man zeige: ist die Matrix A symmetrisch, so sind auch die Matrizen B .1/ ; B .2/ ; : : : ; B .N / aus (4.4) auf Seite 66 allesamt symmetrisch. b) Man zeige weiter: ist die Matrix A symmetrisch und positiv definit, so sind auch die Matrizen B .1/ ; B .2/ ; : : : ; B .N / aus (4.4) alle symmetrisch und positiv definit und der GaußAlgorithmus ist durchführbar. c) Man gebe einen auf symmetrische Matrizen zugeschnittenen Gauß-Algorithmus an und berechne die dabei anfallende Zahl der arithmetischen Operationen.

104

Kapitel 4

Lösung linearer Gleichungssysteme

Aufgabe 4.6. Die Matrix A D .ajk / 2 R N N sei diagonaldominant, das heißt,

jajj j 

N X

kD1 k¤j

jajk j für j D 1; 2; : : : ; N;

und außerdem sei die Matrix A regulär. Man weise nach, dass der Gauß-Algorithmus ohne Pivotwahl durchführbar ist. Aufgabe 4.7. Sei P 2 R N N eine Permutationsmatrix und  die zugehörige Permutation. Man zeige: a) Die Spaltenvektoren von P sind paarweise orthonormal zueinander, P b) Mit der Darstellung (4.5) gilt

P

1

0

D @ e

1 .1 /

:::

e

1 .N /

1

D P >:

1

A:

Aufgabe 4.8 (Numerische Aufgabe). Man schreibe einen Code, der den Gauß-Algorithmus einmal ohne Pivot-, einmal mit Spaltenpivot- und schließlich mit Totalpivotsuche durchführt. Bei letzterem werden – ausgehend von der Notation in Algorithmus 4.8 – beim Übergang A.s/ ! A.sC1/ zunächst Indizes p; q 2 ¹s; s C 1; : : : ; N º mit .s/

.s/ japq j  jajk j;

j; k D s; s C 1; : : : ; N;

.s/

bestimmt und apq als Pivotelement verwendet. Man teste das Programm anhand des Beispiels Ax D b mit

ajk D bj D

1

j Ck

1

;

1

j CN

1

j; k D 1; 2; : : : ; N; ;

j D 1; 2; : : : ; N:

Für N D 50; 100; 200 und jede Pivotstrategie gebe man die Werte x10j ; j D 1; 2; : : : ;

N 10

aus.

Aufgabe 4.9. Man zeige: Eine Matrix A 2 R N N besitzt eine LR-Faktorisierung genau dann, wenn die Hauptuntermatrizen von A von der Form

1 a11 ♣ ♣ ♣ a1n ♣♣ ♣ ♣ ♣♣ @ ♣ ♣ ♣ A 2 R nn für n D 1; 2; : : : ; N ♣ ♣ an1 ♣ ann 0 alle regulär sind. Aufgabe 4.10. Man rechne nach, dass bei der Berechnung einer LR-Faktorisierung einer ge3 . 1 C O. N1 // gebenen Matrix A 2 R N N gemäß der Parkettierung von Crout insgesamt 2N 3 arithmetische Operationen anfallen. Aufgabe 4.11. Man zeige Folgendes: a) Die Menge der skalierten (die Diagonaleinträge sind alle D 1) unteren Dreiecksmatrizen L 2 R N N bildet bezüglich der Matrixmultiplikation eine Untergruppe in R N N .

b) Die Menge der regulären oberen Dreiecksmatrizen R 2 R N N bildet bezüglich der Matrixmultiplikation eine Untergruppe in R N N .

105

Übungsaufgaben

c) Die Darstellung A D LR einer nichtsingulären Matrix A 2 R N N als Produkt einer skalierten unteren Dreiecksmatrix L und einer regulären oberen Dreiecksmatrix R ist eindeutig (sofern sie existiert). Aufgabe 4.12. Gegeben sei die Matrix

0

1 B 2 B @ 3 4

2 8 6 14

1

3 6

4 14 C C 15 A 30

a 15

mit einem reellen Parameter a. Man berechne die zugehörige LR-Faktorisierung beziehungsweise gebe an, für welchen Wert des Parameters a diese nicht existiert. Aufgabe 4.13. Gegenstand dieser Aufgabe sind Eliminationsmatrizen der Form

0

1

B B B B Gs D B B B B @

::

1

`1 s :: : :: :

: 1

`s

1;s

1

::

: 1

C C C C C 2 RN N C C C A

für s D 2; 3; : : : ; N:

a) Zeigen Sie: (i) Gs D I gs esT mit gs D .l1s ; : : : ; ls (ii) Gs ist regulär mit

0

Gs 1

B B B B DB B B B @

1

::

`s

1;s

1

::

: 1

(iii)

0

GN1 GN1 1    G2 1

T

2 RN ; s D 2; : : : ; N .

1

`1 s :: : :: :

: 1

1;s ; 0; : : : ; 0/

B B B B DB B B @

C C C C C C C C A

für s D 2; 3; : : : ; N:

1 `21         

:: : 1 :: :

b) Mit Eliminationsmatrizen der Form Gs ; s D N; N sei hier vorausgesetzt) eine Darstellung der Form

::

:

`1 N :: : :: : :: :

:: : :: : `N

1;N

1

1 C C C C C C C A

1; : : : ; 2, lässt sich (Durchführbarkeit

L D G2 G3 : : : GN A

()

gewinnen, wobei L 2 RN N untere Dreiecksmatrix ist. Wie lässt sich Darstellung ./ zur Gewinnung einer sinnvollen Faktorisierung von A verwenden?

106

Kapitel 4

Lösung linearer Gleichungssysteme

Aufgabe 4.14. Geben Sie einen Algorithmus an, der die Einträge von Matrizen L; R einer Faktorisierung A D LR zeilenweise berechnet. Überprüfen Sie die Durchführbarkeit. Aufgabe 4.15. Sei A D .ajk / 2 R N N symmetrisch und positiv definit. Man zeige Folgendes: a) ajj > 0;

j D 1; 2; : : : ; N , j; k D 1; 2; : : : ; N;

2 b) ajk < ajj akk ;

j ¤ k,

c) der betragsmäßig größte Eintrag der Matrix A liegt auf der Hauptdiagonalen. Aufgabe 4.16. Die Matrix A 2 R N N sei symmetrisch und positiv definit. Man gebe einen Algorithmus zur Gewinnung einer Faktorisierung A D RR> an. Hierbei bezeichnet R D .rjk / 2 R N N eine obere Dreiecksmatrix mit rjj > 0 für alle j . Man begründe zudem die Durchführbarkeit dieses Verfahrens. Aufgabe 4.17. Man zeige Folgendes: 

Die Menge der unteren Dreiecksmatrizen L 2 R N N mit positiven Diagonaleinträgen bildet bezüglich der Matrixmultiplikation eine Gruppe.



Die Cholesky-Faktorisierung A D LLT einer symmetrischen positiv definiten Matrix A 2 R N N ist eindeutig.

Aufgabe 4.18. Es sei A D .ajk / 2 R N N eine symmetrische, positiv definite Bandmatrix der Bandbreite m, das heißt, ajk D 0 für j; k mit jj k j  m. Man weise nach, dass in der Cholesky-Faktorisierung A D LL> die untere Dreiecksmatrix L eine Bandmatrix der Bandbreite m ist. Aufgabe 4.19. Für N  1 sei

jj A jj D

X

j;kD1;:::;N

jajk j;

A 2 R N N :

a) Zeigen Sie, dass jj  jj eine Norm auf R N N definiert.

b) Gibt es eine Norm jj  jj auf R N , die jj  jj induziert, das heißt, jj A jj D maxx6D0

j Ax j  j x j ?

Aufgabe 4.20. Zeigen Sie: für Matrizen A; B 2 R N N gilt jj AB jjF  jj A jj2 jj B jjF . Aufgabe 4.21. Gegeben seien die Matrizen

AD





101 99 ; 99 101

BD





101 99 : 99 101

a) Berechne die Konditionszahlen cond1 .A/ und cond1 .B /.

b) Für die Vektoren

  bD 1 1 ;

  b D ıı ;

b bD



ı ı



mit einer kleinen reellen Zahl ı > 0 löse man die Gleichungssysteme

Ax D b;

A.x C x / D b C b;

A.x C b x / D b C b b:

Man vergleiche die jeweiligen relativen Fehler jj x jj1 =jj x jj1 und jj b x jj1 =jj x jj1 mit der allgemeinen Fehlerabschätzung jj x jj=jj x jj  cond.A/jj b jj=jj b jj.

Aufgabe 4.22. Für diese Aufgabe verwende man das folgende Theorem über die Singulärwertzerlegung einer Matrix:

107

Übungsaufgaben

Theorem 4.72. Zu einer nichtsingulären Matrix A 2 R N N gibt es orthonormale Matrizen U; V 2 R N N und eine Diagonalmatrix † D diag .1 ; : : : ; N / 2 R N N (mit 1  2      N > 0), so dass

A D V †U >:

a) Man zeige:P für jeden Vektor x 2 R N gilt ausgehend von der Darstellung als LinearkomN bination x D kD1 ck uk der paarweise orthonormalen Spaltenvektoren u1 ; u2 ; : : : ; uN 2 R N der Matrix U 2 R N N Folgendes: N X

Ax D

ck k vk ;

kD1

wobei v1 ; v2 ; : : : ; vN 2 R N die paarweise orthonormalen Spaltenvektoren der Matrix V 2 R N N bezeichnen. b) Man gebe die Werte von jj A jj2 ; jj A 1 jj2 sowie cond2 .A/ über die Singulärwerte der Matrix A an. c) Zur Lösung von

A.x C x / D b C b gebe man mithilfe der Matrix U diejenigen Vektoren b 2 R N beziehungsweise b 2 R N an, die in den Abschätzungen

jj b jj2  jj A jj2 jj x jj2 ; jj x jj2  jj A

1

jj2 jj b jj2 ;

jj x jj2 jj b jj2 ;  cond2 .A/ jj b jj2 jj x jj2 Gleichheit ergeben. Aufgabe 4.23. Für eine reguläre Matrix A 2 R N N sei B 2 R N N eine Näherung für A jj  jj W R N N ! R eine beliebige submultiplikative Matrixnorm. Man zeige:

jj A 1 jj A

jj BA

1

B jj  min¹jj AB jj

I jj; jj BA

I jj  cond.A/jj AB

1

und

I jjº;

I jj  cond.A/2 jj BA

I jj:

Zu Testzwecken betrachte man die beiden Matrizen

0

[email protected]

9999

9998

10000

9999

und berechne die Matrizen BA

1

A;

0

B 9999:9999

B [email protected]

10001

I 2 R N N sowie AB

1

9997:0001 C 9998

I 2 R N N .

A;

Aufgabe 4.24. a) Es sei B D .bjk / 2 R N N eine reguläre Matrix, die zudem zeilenäquilibriert ist, das heißt, N X jbjk j D 1; j D 1; 2; : : : ; N: kD1

Man zeige, dass für jede reguläre Diagonalmatrix D 2 R N N die folgende Abschätzung gilt, cond1 .B /  cond1 .DB /:

108

Kapitel 4

Lösung linearer Gleichungssysteme

b) Sei A 2 R N N eine reguläre Matrix. Man zeige: es gibt eine Diagonalmatrix D 2 R N N , so dass DA zeilenäquilibriert ist, und dann gilt cond1 .DA/  cond1 .A/: Aufgabe 4.25. Es sei Q1 R1 D Q2 R2 erfüllt mit orthogonalen Matrizen Q1 ; Q2 2 R N N und regulären oberen Dreiecksmatrizen R1 ; R2 2 R N N . Zeigen Sie, dass es eine Diagonalmatrix D D diag.d1 ; : : : ; dN / 2 R N N mit den folgenden Eigenschaften gibt:

dk 2 ¹ 1; 1 º für k D 1; 2; : : : ; N;

R2 D DR1 ;

Q2 D Q1 D:

Aufgabe 4.26. Es sei A D .ajk / 2 R N N eine reguläre Matrix. Zeige mithilfe der QR-Faktorisierung die hadamardsche Determinantenabschätzung

j det Aj 

n X n Y

j D1

kD1

jajk j2

1=2

:

Aufgabe 4.27. Man zeige für eine nichtsinguläre Matrix A 2 R N N und Vektoren u; v 2 RN : a) Im Fall v>A

1

u ¤ 1 gilt die Sherman-Morrison-Formel .A C uv>/

b) Im Fall v>A

1

1

DA

1

A 1 uv>A 1 : 1 C v>A 1 u

u D 1 ist die Matrix A C uv> singulär.

Aufgabe 4.28. Transformieren Sie die Matrix

00 1 01 B0 0 1C [email protected] A 1 0 1 0 0 1

mittels Householder-Transformationen auf obere Dreiecksgestalt. Aufgabe 4.29 (Numerische Aufgabe). Man schreibe einen Code zur Lösung eines linearen Gleichungssystems mittels Householder-Transformationen. Man teste das Programm anhand des Beispiels Ax D b mit

0

B B B B ADB B B B @

ı

0

1

ı

1

::

:

:: : 1

1

 :: : :: : :: : 

0

:: : 0

ı

1

1

C 1C C C N N C ; 1C 2 R C C 1A

1 1

0

B B B bDB B B @

1Cı

ı

1

C C C 2 RN ; C C A

1Cı C

:: : 3 N Cı 2 N

mit N D 20 und ı D 0:1. Man gebe den Lösungsvektor x D .x1 ; x2 ; : : : ; xN /> aus.

5

Iterative Lösung nichtlinearer Gleichungssysteme

5.1 Vorbemerkungen Im Folgenden sei F W R N ! R N eine gegebene nichtlineare Funktion und x 2 R N eine Nullstelle von F ,

F .x / D 0; die es zu bestimmen gilt. Anwendungen ergeben sich zum Beispiel bei der Berechnung stationärer Punkte oder der Nullstellenberechnung bei Polynomen. Typischerweise lässt sich ein solches nichtlineares Gleichungssystem nur approximativ lösen, was im Folgenden mittels Iterationsverfahren der Form

xnC1 D ˆ.xn / für n D 0; 1; : : :

(5.1)

geschehen soll mit einer geeigneten stetigen Iterationsfunktion ˆ W R N ! R N . Eine zentrale Annahme an die Abbildung ˆ ist dabei, dass x genau dann Nullstelle der Funktion F ist, wenn x ein Fixpunkt von ˆ ist, das heißt,

ˆ.x / D x : Eine Erläuterung dazu folgt in Bemerkung 5.4 auf Seite 110. Beispiel 5.1. Es stimmt die einzige Nullstelle der Funktion f .x / WD x e x ; x 2 R ; mit dem Fixpunkt der Funktion ˆ.x/ D e x ; x 2 R, überein. Dieses Problem wird nochmals in Beispiel 5.14 auf Seite 117 betrachtet. M Beispiel 5.2. Für gegebene Matrix A 2 R N N und gegebenen Vektor b 2 R N betrachten wir hier das lineare Gleichungssystem Ax D b , das auch als Nullstellenproblem

F .x/ D Ax

bD0

geschrieben werden kann. Dieses Nullstellenproblem lässt sich mithilfe einer beliebigen regulären Matrix M 2 R N N in Form einer Fixpunktgleichung

ˆ.x / D x

M.Ax

b/ D x

schreiben. Teile dieses Kapitels wie zum Beispiel der banachsche Fixpunktsatz, siehe Theorem 5.12 auf Seite 115, lassen sich zur Lösung solcher affin-linearen Probleme einsetzen. Anwendungen auf spezielle Iterationsverfahren finden Sie in Kapitel 10. M Es soll die Iterationsfunktion ˆ weiterhin so beschaffen sein, dass Konvergenz im folgenden Sinne vorliegt.

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_5

110

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

Definition 5.3. Sei ˆ W R N ! R N eine Iterationsfunktion. Das Verfahren (5.1) zur Bestimmung von x 2 R N heißt (lokal) konvergent, wenn eine Zahl ı > 0 existiert, so dass für alle Startwerte

® B.xI ı/ WD y 2 R N W jjy

x0 2 B.xI ı/; die Konvergenz

jjxn

x jj < ı

¯

x jj ! 0 für n ! 1

(5.2)

gilt. Hier bezeichnet jj  jj W R N ! R eine nicht näher spezifizierte Vektornorm. Bemerkung 5.4. Da die Iterationsfunktion ˆ W R N ! R N als stetig in x vorausgesetzt ist, handelt es sich aufgrund der Konvergenz (5.2) bei x 2 R N notwendigerweise um einen Fixpunkt von ˆ,

ˆ.x / D x ; denn

 x D lim xnC1 D lim ˆ.xn / D ˆ lim xn D ˆ.x /: n!1

n!1

n!1

Daher bezeichnet man das Verfahren (5.1) als Fixpunktiteration.

M

Mehr noch als Konvergenz (5.2) ist wünschenswert, dass das Verfahren (5.1) eine möglichst hohe Konvergenzordnung im Sinne der folgenden Definition besitzt. Definition 5.5. Sei ˆ W R N ! R N eine Iterationsfunktion mit Fixpunkt x 2 R N . Das Verfahren (5.1) heißt (lokal) konvergent von (mindestens) der Ordnung p  1, wenn ein ı > 0 existiert, so dass für alle Startwerte x0 2 B.x I ı/ gilt

jjxnC1

x jj  C jjxn

x jjp für n D 0; 1; : : :;

(5.3)

mit einer Konstanten 0  C < 1, wobei im Fall p D 1 noch C < 1 gefordert wird. Bei Konvergenz der Ordnung p D 1 beziehungsweise p D 2 spricht man dann von (mindestens) linearer beziehungsweise quadratischer Konvergenz. Das Verfahren (5.1) heißt konvergent von genau der Ordnung p , wenn es konvergent von der Ordnung p ist und keine höhere Konvergenzordnung besitzt.

Bemerkung 5.6. a) Lineare Konvergenz impliziert für x0 2 B.x I ı/

jjxn

x jj  C n jjx0

x jj;

n D 0; 1; : : :

(5.4)

mit einer Konstanten 0 < C < 1. Insbesondere ist das Verfahren also lokal konvergent.

111

Abschnitt 5.2 Der eindimensionale Fall

b) Ein Verfahren der Konvergenzordnung p > 1 besitzt für jedes 1  q  p formal auch die niedrigere Konvergenzordnung q : für Startwerte

x0 2 B.x Ib ı/;

® b ı WD min ı;

erhält man induktiv jjxn x jj  2 n jjx0 Konvergenz vor. Weiter berechnet man

jjxnC1

x jj  C jjxn  ıp

q

1 1=.p 1/ 2C

¯

mit C aus .5:3/;

x jj für n D 0; 1; : : :, somit liegt lineare

 ıp q ‚ …„ ƒ x jjp D C jjxn x jjp q jjxn

x jjq für n D 0; 1; : : :;

C jjxn

x jjq

was die angegebene Konvergenzordnung 1 < q  p liefert.

c) Je höher die Konvergenzordnung eines Verfahrens, desto schneller werden die Iterierten den gesuchten Wert x approximieren, denn für Zahlen 0  q < p sowie Startwerte x0 hinreichend nahe bei x und n hinreichend groß gilt jjxn x jj  1 und damit jjxn x jjp  jjxn x jjq . M Beispiel 5.7. Lineare und quadratische Konvergenzordnung treten besonders häufig auf. Diese beiden Fälle sollen anhand von Beispielen noch kurz erläutert werden. Lineare Konvergenz mit C D 21 etwa bedeutet, dass der Approximationsfehler in jedem Iterationsschritt mindestens halbiert wird. So handelt es sich zum Beispiel bei 1;

1 1 1 ; ; ; 1 ; 1 ; 1 ;:::; 2 4 8 16 32 64

um eine Zahlenfolge, die linear gegen die Zahl 0 konvergiert. Dagegen liegt mit 10

1

D 0: 1;

10

2

D 0:01;

10

4

D 0:0001;

10

8

D 0:00000001;

10

16

;:::

eine Zahlenfolge vor, die quadratisch gegen die Zahl 0 konvergiert. Man beachte, dass sich die Anzahl der Nachkommastellen, die mit denen der exakten Lösung übereinstimmt, in jedem Schritt verdoppelt. M

5.2 Der eindimensionale Fall 5.2.1 Ein allgemeines Resultat Das nachfolgende Theorem befasst sich mit Verfahren (5.1) im eindimensionalen Fall N D 1 und liefert Konvergenzresultate für hinreichend gute Startwerte x0 . Theorem 5.8. Sei ˆ W R ! R eine Iterationsfunktion mit Fixpunkt x 2 R, die zudem in x insgesamt p -mal differenzierbar sei mit p 2 N. Weiter sei

ˆ.k/ .x / D 0;

k D 1; 2; : : : ; p

1;

jˆ0 .x /j < 1;

falls p  2;

falls p D 1;

erfüllt. Dann ist das Verfahren (5.1) lokal mindestens konvergent von der Ordnung p . Wenn weiterhin ˆ.p/ .x / ¤ 0 gilt, so liegt die genaue Konvergenzordnung p vor.

112

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

Beweis. Eine Taylorentwicklung der Funktion ˆ an der Stelle x liefert

ˆ.x / D

p X ˆ.k/ . x / .x kŠ

kD0

D ˆ.x / C „ƒ‚…

x /k C O.jx

ˆ.p/ . x / .x pŠ

x  jp /

x /p C O.jx

x jp / für x ! x ;

D x

und somit

ˆ.x / x ˆ.p/ .x / ! p .x x / pŠ

für x ! x :

(5.5)

Daher existiert zu jedem " > 0 eine Zahl ı > 0 mit

jˆ.x /

x j 



jˆ.p/ . x / j pŠ

 C " jx

x jp für x 2 B.x I ı/;

(5.6)

wobei im Fall p D 1 noch " > 0 so klein zu wählen ist, dass die Ungleichung jˆ0 .x /j C " < 1 erfüllt ist. Wenn man nun

® x0 2 B.x Ib ı/ mit b ı WD min ı;

1 1=.p 1/ ¯ ; 2C

C WD

jˆ.p/ . x / j pŠ

C ";

wählt1 , so gilt auch xn 2 B.x I b ı/ für n D 1; 2; : : :, und (5.6) liefert dann die angegebene Konvergenzordnung  p . Unter der Zusatzbedingung ˆ.p/ .x / ¤ 0 gibt es wegen der Konvergenzaussage (5.5) für 0 < " < jˆ.p/ .x /j=pŠ eine Zahl ı > 0 mit

jˆ.x /

x j 



jˆ.p/ . x / j pŠ

 " jx

x jp für x 2 B.xI ı/;

was die genaue Konvergenzordnung p liefert.

5.2.2 Das Newton-Verfahren im eindimensionalen Fall Zur Bestimmung einer Nullstelle x 2 R einer gegebenen Funktion f W R ! R wird im Folgenden das Newton-Verfahren

xnC1 D xn

f . xn / f 0 . xn /

DW ˆ.xn /;

n D 0; 1; : : :

(5.7)

betrachtet. Die geometrische Bedeutung des Newton-Verfahrens ist in Abb. 5.1 veranschaulicht. In dem nachfolgenden Theorem wird unter verschiedenen Voraussetzungen jeweils die Konvergenzordnung von Verfahren (5.7) angegeben2 . Theorem 5.9. Die Funktion f W R ! R besitze eine Nullstelle x 2 R und sei in einer Umgebung von x hinreichend oft differenzierbar. 1 2

vergleiche hierzu die Argumentation in Teil b) der Bemerkung 5.6 unter Heranziehung von Theorem 5.8

113

Abschnitt 5.2 Der eindimensionale Fall

. ... .... .... ..... . . . . .... ..... ..... ..... ..... ..... . . . . . .... ...... ...... ..... ...... ...... . . . . . ...... ......... .......... ......... .......... ............ . . . . . . ...... .. ........................................................ .... ....... .. ...... ....... ....... ........ ........ ........ .... 0 2 1 ........ . .. . . .. . . . .. . ...... ....... ........ ............ .. ......... ..................... .......... .... ...... ....... .. . . . . . . . . . . ...... ...... ...... ...... ...... ..... ...... ......... .............. ........... ........... . . . . . . . . . . . .........

f .x /

x

x

x

x

Abb. 5.1: Illustration der Vorgehensweise beim Newton-Verfahren a) Im Fall f 0 .x / ¤ 0 konvergiert das Newton-Verfahren (5.7) mindestens quadratisch. b) Sei f 0 .x / ¤ 0. Die Aussage in a) wird noch präzisiert: Falls f 00 .x / ¤ 0, so liegt die genaue Ordnung p D 2, vor, und im Fall f 00 .x / D 0 besitzt das Newton-Verfahren (5.7) mindestens die Ordnung p D 3. c) Ist hingegen x eine m-fache Nullstelle von f mit einer Zahl m  2; gilt also

f .x / D .x

x /m g.x /;

g.x / ¤ 0;

und ist die Funktion g zweimal differenzierbar in x , so ist die Iterationsfunktion ˆ aus (5.7) differenzierbar fortsetzbar in x mit 1

ˆ0 .x / D 1

m

:

(5.8)

Das Newton-Verfahren (5.7) ist in diesem Fall also (genau) linear konvergent. Beweis. Die Aussagen ergeben sich mit Theorem 5.8 angewandt auf die Funktion f .x / sowie mit den folgenden Darstellungen: in den Fällen a), b) hat f 0 .x / man

ˆ.x / WD x

ˆ0 D 1

.f 0 /2 f f 00 .f 0 /2

D

f f 00 ; .f 0 /2

ˆ00 D

.f 0 /3 f 00 C f .f 0 /2 f 000 .f 0 /4

2ff 0 .f 00 /2

;

so dass also

ˆ.x / D x ;

ˆ0 .x / D 0;

ˆ00 .x / D

f 00 . x / f 0 . x /

gilt. Im Fall c) erhält man

f 0 .x / D m.x

x  /m

1

g.x / C .x

x /m g 0 .x /

und somit

ˆ.x / D x ˆ0 .x / D 1

f .x / f 0.x /

Dx

Πg . x / C .x

.x x /g . x / mg . x / C . x x /g 0 . x / x /g 0 . x /N . x /

DW x

Z. x / ; N .x /

Z . x /Π.m C 1 /g 0 . x / C .x 2

N .x /

(5.9) x /g 00 . x /

:

114

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

Dies liefert schließlich (5.8), also 0 < ˆ0 .x / < 1 und insbesondere auch ˆ0 .x / ¤ 0. Man beachte noch, dass die Darstellung (5.9) die differenzierbare Fortsetzbarkeit von ˆ nach x D x gewährleistet. Beispiel 5.10. Die Funktion ln x soll an der Stelle x D a > 0 näherungsweise berechnet werden. Dies kann beispielsweise mit dem Newton-Verfahren zur Bestimmung einer Nullstelle der Funktion

geschehen. Es gilt f

0 .x /

D

ex

f .x / D e x

a

und damit

ˆ.x / WD x

f .x / f 0. x /

Dx

1 C ae x :

Die Iterationsvorschrift lautet also

xnC1 D xn

1 C ae xn

für n D 0; 1; : : : :

Zur Bestimmung der Konvergenzordnung berechnet man

f 0 .x / D f 00 .x / D e x ¤ 0; so dass also quadratische und keine kubische Konvergenz vorliegt. Im Fall a D 1 und Startwert x0 D 1 haben die ersten vier Iterierten die Form

x1 = 0:3679;

keine Nachkommastelle genau

x2 = 0:0601;

eine

x3 = 0:0018;

zwei Nachkommastellen genau

x4 = 0:0000015641;

fünf

......

......

wobei die mit den Ziffern der exakten Lösung ln 1 D 0 übereinstimmenden Nachkommastellen unterstrichen sind. So wird verdeutlicht, dass sich mit jedem Iterationsschritt die Zahl der mit der exakten Lösung übereinstimmenden Nachkommastellen mindestens verdoppelt, was bei quadratischer Konvergenz ja auch zu erwarten ist. M Beispiel 5.11. Eine Lösung der Gleichung f .x/ D x 3 Newton-Verfahren bestimmt werden, das hier

xnC1 D xn

xn .xn 1/ ; 3xn 1

2x 2 C x D 0 soll mit dem

n D 0; 1; : : : ;

lautet, wie man leicht nachrechnet. Es soll im Folgenden noch kurz die Frage der Konvergenzordnung diskutiert werden. Es gilt f .x/ D .x 1/2 x , womit f die doppelte .1/

Nullstelle x

.2/

D 1 und die einfache Nullstelle x D 0 besitzt. Daher konvergiert das .1/ Newton-Verfahren zur Bestimmung der ersten Nullstelle x lediglich linear, wäh.2/ rend es bezüglich der zweiten Nullstelle x quadratisch konvergiert. Dabei hängt

115

Abschnitt 5.3 Der banachsche Fixpunktsatz

es von dem Startwert x0 ab, gegen welche Nullstelle es konvergiert beziehungsweise ob es überhaupt konvergiert. In den folgenden beiden Tabellen sind für die zwei Startwerte x0 D 1 (links) beziehungsweise x0 D 2 (rechts) jeweils einige Iterierte angegeben.

n 0 1 2 3 4 5 6

xn 1:0000000 0:5000000 0:2000000 0:0500000 0:0043478 0:0000373 0:0000000

jxn j jxn 1 j2

0:80 1:25 1:74 1:97 2:00 2:00

n

xn

0 1 2 3 4 5 ♣♣ ♣ 22 23 24

2:0000000 1:6000000 1:3473684 1:1935167 1:1040143 1:0543468 ♣♣ ♣ 1:0000004 1:0000002 1:0000001

jxn 1 j jxn 1 1 j2

0:96 1:60 2:78 5:02 9:43 ♣♣ ♣ 1144753:62 2297072:73 4564942:61 .2/

Dabei liegt im ersten Fall offenbar Konvergenz gegen die Nullstelle x D 0 vor, die wegen jxn j=jxn 1 j2 D O. 1 / tatsächlich quadratisch ausfällt. Im zweiten Fall erhält .1/

man offensichtlich Konvergenz gegen die Nullstelle x D 1, wobei hier die Quotienten jxn 1 j=jxn 1 1 j2 stark anwachsen, was die fehlende quadratische Konvergenz belegt. M

5.3 Der banachsche Fixpunktsatz In Abschnitt 5.2.1 ist das allgemeine Verfahren (5.1) im eindimensionalen Fall N D 1 und für hinreichend glatte Iterationsfunktionen ˆ W R ! R sowie hinreichend gute Startwerte x0 betrachtet worden. Im folgenden Theorem nun wird lineare Konvergenz für das allgemeine Verfahren (5.1) nachgewiesen für den mehrdimensionalen Fall N  1 und ohne Differenzierbarkeitsbedingungen an ˆ, und als Startvektor werden beliebige Elemente x0 der zugrunde gelegten Menge zugelassen; überdies erhalt man die Existenz eines eindeutigen Fixpunktes. Dafür ist allerdings die globale Kontraktionseigenschaft (5.10) eine relativ schwer wiegende Forderung an die Iterationsfunktion ˆ. Theorem 5.12. Sei M  R N eine abgeschlossene Teilmenge, und die Abbildung ˆ W M ! M sei bezüglich einer Vektornorm jj  jj W R N ! R eine Kontraktion, das heißt, für eine Konstante 0 < L < 1 sei

jjˆ.x /

ˆ.y / jj  Ljjx

erfüllt. Dann gilt Folgendes: 

ˆ besitzt genau einen Fixpunkt x 2 M ;

y jj;

x; y 2 M;

(5.10)

116



Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

Für jeden Startwert x0 2 M liefert die Fixpunktiteration3

xnC1 D ˆ.xn /;

n D 0; 1; : : :

(5.11)

eine gegen x konvergierende Folge, und es gilt genauer

jjxn

x jj 

L L

1

jjxn

xn

1 jj

n  1L L jjx1

x0 jj;

n D 1; 2; : : : :

Beweis. Sind x ; b x  2 M Fixpunkte von ˆ, so gilt

b x  jj D jjˆ.x /

jjx

(5.12)

b x  jj

ˆ.b x  / jj  Ljjx

beziehungsweise . 1 L/jjx b x  jj  0, was x D b x  bedeutet. Im Folgenden soll die Existenz eines Fixpunktes von ˆ nachgewiesen werden, was mithilfe der Fixpunktiteration geschieht. Die dabei erzielten Zwischenergebnisse liefern dann auch unmittelbar die Abschätzungen (5.12). Sei also der Startvektor x0 2 M beliebig, und .xn /  R N bezeichne die zugehörige Folge der Fixpunktiteration (5.11). Mithilfe einer Teleskopsumme erhält man dann für n; k 2 N0 unter Verwendung von jjxj C1 xj jj  Ljjxj xj 1 jj für j D 1; 2; : : : die folgenden Abschätzungen:

jjxnCk

ˇˇ nCk X1 x`C1 xn jj D ˇˇ

ˇˇ nCk X1 x` ˇˇ  jjx`C1



 nCk X

D

1 Lk jjxnC1 1 L



1

1

L`

n

`Dn

L L

jjxn

x` jj

`Dn

`Dn



xn

jjxnC1 xn jj  1 jj

xn jj D 1 1

L

 kX1 `D0

jjxnC1

n  1L L jjx1

 L` jjxnC1

xn jj

xn jj

x0 jj:

Damit gilt insbesondere

jjxnCk

xn jj 

L 1

jjx L n

xn

1 jj

n  1 L L jjx1

x0 jj;

n; k  0;

(5.13)

und somit ist .xn /  R N Cauchyfolge mit einem Grenzwert, der zudem Fixpunkt von ˆ ist4 und daher mit x 2 M übereinstimmt. Der Grenzübergang “k ! 1” in (5.13) liefert die angegebene Abschätzung (5.12). n

Bemerkung 5.13. a) Der Ausdruck 1L L jjx1 x0 jj in (5.12) kann für jeden Wert von n vor Beginn der Iteration bestimmt werden (nur die erste Iterierte x1 wird hierzu noch benötigt) und ermöglicht eine a priori-Fehlerabschätzung für den Approximationsfehler jjxn x jj. 3 4

vergleiche (5.1) was aus der Bemerkung 5.4 folgt unter Beachtung der Tatsache, dass wegen der Kontraktionseigenschaft (5.10) die Abbildung ˆ insbesondere stetig ist

117

Abschnitt 5.3 Der banachsche Fixpunktsatz

b) Der mittlere Ausdruck 1 LL jjxn xn 1 jj in (5.12) hingegen kann im n-ten Iterationsschritt bestimmt werden und ermöglicht eine a posteriori-Fehlerabschätzung für den Approximationsfehler jjxn x jj.

c) Praktisch geht man so vor: für eine vorgegebene Fehlerschranke " > 0 wird die Iteration in Schritt n D n."/ abgebrochen, falls erstmalig L 1

L

jjxn

xn

1 jj

"

gilt, und die a posteriori-Fehlerabschätzung garantiert dann die gewünschte Fehlerabschätzung jjxn x jj  ". Die a priori-Fehlerabschätzung ermöglicht die Abschätzung ln

n."/  dae;

aD

 jj x

x0 jj  . 1 L/" ln. 1=L/ 1

(5.14)

für die Anzahl der nötigen Iterationsschritte, wobei dae die kleinste ganze Zahl  a bezeichnet. d) Wir nehmen nun an, dass die Fixpunktabbildung ˆ in einer Umgebung der betrachteten abgeschlossenen Menge M stetig differenzierbar ist und die Ableitung von ˆ eine auf der Menge M beschränkte Funktion darstellt; das ist zum Beispiel dann der Fall, falls M eine beschränkte Menge ist. In diesem Fall lässt sich der Mittelwertsatz dazu verwenden, die Kontraktionsbedingung (5.10) auf Seite 115 zu überprüfen beziehungsweise eine entsprechende Kontraktionskonstante L zu berechnen. Das wird im Folgenden für den eindimensionalen Fall N D 1 erläutert. Hier lässt sich in (5.10) jede Schranke L > sup2M jˆ0 ./j verwenden, wobei dann noch die Kontraktionsbedingung L < 1 geprüft werden muss. Im mehrdimensionalen Fall N  2 gibt es eine analoge Möglichkeit der Bestimmung solcher Kontraktionskonstanten, auf die im nachfolgenden Abschnitt noch eingegangen wird, siehe Theorem 5.15 auf Seite 119. e) Der banachsche Fixpunktsatz ist nicht nur auf nichtlineare Probleme anwendbar, sondern auch auf affin-lineare Fixpunktabbildungen ˆ, siehe Beispiel 5.2 auf Seite 109. M Beispiel 5.14. Für

f .x / WD x

x

e

;

x 2 R;

f .x / D 0 für x  0:56714329 soll die Nullstelle x bestimmt werden unter Anwendung der Fixpunktiteration (5.1) mit der Iterationsfunktion

ˆ.x / WD e

x

;

x 2 R:

Auf dem Intervall M D Œ 0:5; 0:69  ist die Eigenschaft ˆ.M/  M ebenso erfüllt wie die Kontraktionseigenschaft (5.10) mit

LD

max

x2Œ 0:5;0:69 

jˆ0 .x /j D

max

x2Œ 0:5;0:69 

e

x

De

1=2

 0:606531:

118

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

In der folgenden Tabelle sind einige der durch das Verfahren (5.1) gewonnenen Iterierten aufgelistet, wobei als Startwert x0 D 0:55 gewählt ist und in der vorliegenden Situation das Verfahren von der speziellen Form xnC1 D e xn ; n D 0; 1; : : : ; ist.

n

xn

0 1 2 3 4 ♣♣ ♣

0:55000000 0:57694981 0:56160877 0:57029086 0:56536097 ♣♣ ♣

n

♣♣ ♣ 10 11 12 13 14 ♣♣ ♣

xn

♣♣ ♣ 0:56708394 0:56717695 0:56712420 0:56715412 0:56713715 ♣♣ ♣

n

xn

♣♣ ♣ 20 21 22 23 24 ♣♣ ♣

♣♣ ♣ 0:56714309 0:56714340 0:56714323 0:56714332 0:56714327 ♣♣ ♣

Die Situation soll für n D 12 genauer betrachtet werden. Die Fehlerabschätzung (5.12) liefert in diesem Fall 1:91  10

5

 jx12

x j  8:13  10

5

 1:70  10

4

;

so dass die a posteriori-Abschätzung den wirklichen Fehler etwa um den Faktor 4 überschätzt, und die a priori-Abschätzung überschätzt den wirklichen Fehler etwa um den Faktor 10. Das praktische Vorgehen soll nun für die spezielle Fehlerschranke " D 0:0076 illustriert werden. Die a posteriori-Abschätzung liefert n."/ D 4 als Stoppindex, jx4 x j  ". Die Abschätzung (5.14) liefert mit n."/  16 eine Überschätzung. Schließlich ist anzumerken, dass schon in Schritt 2 der (im Allgemeinen unbekannte) Approximationsfehler die Schranke " unterschreitet, jx2 x j  0:0055  ". M

5.4 Das Newton-Verfahren im mehrdimensionalen Fall Für eine gegebene Funktion F W R N ! R N soll nun die Konvergenz des NewtonVerfahrens zur Lösung des Gleichungssystems F .x / D 0 im mehrdimensionalen Fall N  1 untersucht werden.5

5.4.1 Einige Begriffe aus der Analysis In diesem Abschnitt werden einige Hilfsmittel aus der Analysis bereitgestellt. Im Folgenden wird mit jj  jj sowohl eine (beliebig aber fest gewählte) Vektornorm auf R N als auch die induzierte Matrixnorm bezeichnet. Bekanntlich heißt eine Funktion F W R N ! R N in einem Punkt x 2 R N differenzierbar, falls eine lineare Abbildung Dx F W R N ! R N existiert mit der Eigenschaft

jjF . x C h / 5

F .x / jjhjj

.Dx F /.h/jj

! 0 für R N 3 h ! 0:

Für den eindimensionalen Fall sowie hinreichend gute Startwerte x0 ist dies bereits in Abschnitt 5.2.2 geschehen.

119

Abschnitt 5.4 Das Newton-Verfahren im mehrdimensionalen Fall

Die Abbildung Dx F ist so eindeutig festgelegt und wird durch die Jacobi-Matrix repräsentiert,

0

.Dx F /.z/ D J.x /z;

@F1 .x / @x1

B B B B B @F2 B B @x1 .x / J.x / WD B B B ♣♣ B ♣ B B B @ @F N .x / @x 1

@F1 .x / @x2



@F2 .x / @x2



♣♣ ♣ @FN @x2

.x /   

@F1 @xN

1

.x / C C C C C @F2 .x / C C @xN C 2 R N N : C C ♣♣ C ♣ C C C A @FN .x / @x N

Im Folgenden werden wir Dx F mit der zugehörigen Jacobi-Matrix J.x / identifizieren. Die Funktion F W R N ! R N heißt auf einer Menge M  R N differenzierbar, falls sie in jedem Punkt x 2 M differenzierbar ist. Sie heißt stetig differenzierbar auf M , falls sie auf M differenzierbar und darüber hinaus die Abbildung x ֏ Dx F stetig auf M ist. Eine Menge M  R N heißt konvex, falls für je zwei Elemente x; y 2 M auch die Verbindungsstrecke von x nach y zu M gehört, das heißt,

®

x C t.y

¯ x / W 0  t  1  M;

x; y 2 M:

Im folgenden Lemma wird als Nachtrag zu Abschnitt 5.3 eine hinreichende Bedingung für die in Theorem 5.12 auftretende Kontraktionsbedingung (5.10) angegeben (für ˆ D F ). Lemma 5.15. Eine gegebene Funktion F W R N ! R N sei auf einer konvexen Menge M  R N stetig differenzierbar, und für eine Konstante 0  L < 1 gelte

jjDx F jj  L;

x 2 M:

Dann gilt die Abschätzung

jjF .x /

F .y / jj  Ljjx

y jj;

x; y 2 M:

Beweis. Die Aussage des Lemmas ergibt sich unmittelbar aus dem Mittelwertsatz R F .y / D 01 DyCt .x y/ F .x y / dt .

F .x /

Das nachfolgende Lemma über eine Variante der Taylorentwicklung für Funktionen mehrerer Veränderlicher wird beim Beweis des darauf folgenden Konvergenzresultats für das Newton-Verfahren benötigt.

120

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

Lemma 5.16. Eine gegebene Funktion F W R N ! R N sei auf der konvexen Menge M  R N differenzierbar, und für eine Konstante 0  L < 1 gelte

jjDx F

Dy F jj  Ljjx

y jj;

x; y 2 M:

Dann gilt die Abschätzung

j F .x /

F .y /

y /jj  L jjx 2

.Dy F /.x

y jj2 ;

x; y 2 M:

Beweis. Nach Voraussetzung ist für beliebige Elemente x; y 2 M die Funktion

' W Œ 0; 1  ! R N ;

t ֏ F .y C t.x

y //

stetig differenzierbar auf dem Intervall Œ 0; 1 , und die Kettenregel liefert

' 0 .t / D .DyCt .x

y /F

/.x

y /;

0  t  1:

Für 0  t  1 erhält man so die Abschätzung

jj' 0 .t /

' 0 . 0 / jj D jj.DyCt .x  jjDyCt .x

y/ F y/ F

/.x

y/

Dy F jjjjx

.Dy F /.x

y / jj

y jj  Ltjjx

y jj2 :

Wegen

 WD F .x /

F .y /

.Dy F /.x

y / D '. 1 /

'. 0 /

' 0.0/ D

Z 1 0

' 0 .t /

' 0 . 0 / dt

erhält man so schließlich die Aussage des Lemmas,

jjjj 

Z 1 0

jj' 0 .t /

' 0 . 0 / jj dt  Ljjx

y jj2

Z 1 0

t dt D L jjx 2

y jj2 :

5.4.2 Das Newton-Verfahren und seine Konvergenz Im Folgenden wird das Newton-Verfahren

xnC1 D xn

.Dxn F /

1

.F .xn //;

n D 0; 1; : : :;

(5.15)

zur Bestimmung einer Nullstelle der Funktion F betrachtet. Bemerkung 5.17. In numerischen Implementierungen des Newton-Verfahrens geht man in den Schritten n D 0; 1; : : : jeweils so vor: Ausgehend von der bereits berechneten Iterierten xn 2 R N löst man zunächst das lineare Gleichungssystem .Dxn F /n D F .xn / und erhält anschließend xnC1 D xn C n , so dass auf die aufwändige Matrixinversion .Dxn F / 1 verzichtet werden kann. M

121

Abschnitt 5.4 Das Newton-Verfahren im mehrdimensionalen Fall

Das nachfolgende Theorem liefert unter gewissen Voraussetzungen quadratische Konvergenz sowie eine Menge von zulässigen Startvektoren x0 , die Existenz einer Nullstelle x wird vorausgesetzt. Theorem 5.18. Eine gegebene Funktion F W R N ! R N sei auf der offenen konvexen Menge M  R N differenzierbar, und x 2 M sei eine Nullstelle von F . Wenn für gewisse Zahlen r; ˇ; L > 0 Folgendes gilt,

B.x I r /  M; jjDx F

Dx F ist invertierbar;

Dy F jj  Ljjx

y jj;

jj.Dx F /

1

jj  ˇ;

x; y 2 M;

so ist für jeden Startwert

®

x0 2 B.xI ı/

1

mit ı WD min r;

2ˇL

¯

(5.16)

das Newton-Verfahren (5.15) wohldefiniert, und es liegt lokale quadratische Konvergenz vor: für die Iterierten gilt

jjxnC1

x jj  ˇLjjxn

x jj2 ;

n D 0; 1; : : : :

(5.17)

Beweis. Zunächst wird gezeigt, dass für jeden Vektor x 2 R N die folgende Implikation gilt:

jjx

x jj < ı =) Dx F ist invertierbar;

Die Voraussetzung jjx

jj.Dx F /

1

jj  2ˇ:

(5.18)

x jj < ı impliziert nämlich

 WD jj.Dx F /

1

jjjjDx F

x jj  ˇLı  21 ;

Dx F jj  ˇLjjx

und Abschätzung (4.38) aus dem Beweis von Korollar 4.52 auf Seite 91 liefert dann die Invertierbarkeit von Dx F sowie die angegebene Abschätzung (5.18), 1

jj.Dx F /

jj 

jj .Dx F / 1 

1

jj



ˇ 1=2

D 2ˇ:

Die Wohldefiniertheit des Newton-Verfahrens (5.15) folgt dann aus der Abschätzung (5.18) zusammen mit der folgenden Aussage

xn 2 B.xI ı/;

n D 0; 1; : : : ;

(5.19)

die nun mit vollständiger Induktion nachgewiesen wird; nebenbei werden sich dann auch die Abschätzungen (5.17) ergeben. Nach Voraussetzung gilt x0 2 B.x I ı/, und für ein n 2 N0 sei nun bereits xn 2 B.xI ı/ gezeigt. Wegen (5.18) ist dann Dxn F invertierbar und xnC1 somit wohldefiniert, und es gilt

xnC1 D xn

.Dxn F /

1

.F .xn // D xn

.Dxn F /

1

.F .xn /

F .x //

122

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

beziehungsweise (unter Anwendung von Lemma 5.16)

xnC1

x D xn

x

.Dxn F / 1

D .Dxn F / jjxnC1

F .x /

1

.F .xn /

F .xn /

x jj D jj

F .x //

 xn / I

.Dxn F /.x

jj

......

jjxn  2ˇ L 2

x jj2 D ˇLjjxn x jj2  12 jjxn „ ƒ‚ …

x jj;

1=. 2ˇL/

woraus xnC1 2 B.x I ı/ folgt, und der vorhergehenden Zeile entnimmt man auch noch die Abschätzungen (5.17), was den Beweis von Theorem 5.18 komplettiert. Bemerkung 5.19. Die in Theorem 5.18 angegebene Forderung (5.16) an den Startwert x0 ist eher technischer Natur. Sie lässt sich in der Regel auch nicht überprüfen, da sowohl die gesuchte Nullstelle x als auch die beiden Parameter r und ˇ und damit ı nicht bekannt sind. Dennoch ist es sinnvoll, eine solche Aussage über quadratische Konvergenz des Newton-Verfahrens zu treffen. M

5.4.3 Nullstellenbestimmung bei Polynomen Für Polynome liefert das (eindimensionale) Newton-Verfahren unter günstigen Umständen die größte Nullstelle: Theorem 5.20. Gegeben sei ein reelles Polynom p.x / 2 …r , das eine reelle Nullstelle 1 besitze, so dass 1  Re  für jede andere Nullstelle  2 C von p gilt.6 Dann sind für jeden Startwert x0 > 1 die Iterierten des Newton-Verfahrens

xnC1 D xn

p . xn / ; p 0 . xn /

n D 0; 1; : : :;

streng monoton fallend, und

jxn

1 j ! 0 für n ! 1:

Beweis. Es bezeichne 1  2      ` die reellen Nullstellen sowie 1 ;  1 ; : : : ; m ;  m (mit ` C 2m D r ) die komplexen Nullstellen des Polynoms p , das o.B.d.A. den führenden Koeffizienten eins besitze. Ganz allgemein erhält man mit den Wurzeln k eines Polynoms q 2 …r mit führendem Koeffizienten eins die folgenden Darstellungen für q und q 0 ,

q.x / D 6

r Y

kD1

.x

k /;

q 0 .x / D

r Y r X

kD1 j D1 j ¤k

.x

j / D

Hier bezeichnet wieder Re z den Realteil einer komplexen Zahl z 2 C.

X r

kD1

1

x

k



q.x /;

123

Abschnitt 5.4 Das Newton-Verfahren im mehrdimensionalen Fall

und somit gilt in der vorliegenden Situation

p.x / D p 0 .x / D

` Y

.x

k /

kD1

.x

 j /;

j /.x

j D1

kD1

 X `

m Y

1

x

C2 k

m X

j D1

x .x

Re j

j /. x

j /



p.x /:

(5.20)

Nun gilt für jedes  2 CnR

.x

 / D jx

 /.x

 j2 > 0;

x 2 R;

so dass in jedem Fall

p 0 .x / > 0 für x > 1

p.x / > 0; und damit p. x / p0.x /

x

< x für x > 1

gilt. Andererseits gilt aber wegen der Darstellung (5.20) sowie wegen der Ungleichung

X `

kD1

1

x

C2 k

m X

j D1

x .x

Re j

j /.x

j /



>x

1

1

für x > 1

auch

x

p. x / p 0. x /

> 1 für x > 1 :

Mittels vollständiger Induktion erschließt man, dass für einen Startwert x0 > 1 das Newton-Verfahren eine streng monoton fallende Folge x1 ; x2 ; : : : mit xk > 1 liefert, und dann liegt notwendigerweise Konvergenz vor mit einem Grenzwert, der als Fixpunkt der stetigen Iterationsabbildung (vergleiche den Beweis von Theorem 5.9) auch Nullstelle von p ist und somit mit 1 übereinstimmt. Beispiel 5.21. Als Beispiel sei ein Polynom p 2 …11 betrachtet, dessen Nullstellen in der komplexen Ebene wie in Abb. 5.2 verteilt seien. Hier liefert das Newton-Verfahren für einen hinreichend großen Startwert näherungsweise die Nullstelle 1 , und anschließende Anwendung des gleichen Verfahrens auf das deflationierte Polynom p1 .x / D xp.x/1 liefert eine Näherung für die Nullstelle 2 (wobei als Startwert x0 D 1 verwendet werden kann). Ganz analog lässt sich eine Approximation für 3 gewinnen. Theorem 5.20 liefert jedoch keine Aussage darüber, wie die Nullstellen 4 und 5 numerisch bestimmt werden können. M Für die praktische Umsetzung von Theorem 5.20 wird noch ein hinreichend großer Startwert benötigt. Das folgende Lemma liefert untere Schranken für mögliche Startwerte.

124

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

1





3

2 









5





✲



3

4

1

2

2

3



1 Abb. 5.2: Beispiel für die Verteilung der Nullstellen eines Polynoms elften Grades in der komplexen Ebene Lemma 5.22. Gegeben sei das Polynom

p.x / D a0 C a1 x C    C ar

1x

r 1

C xr ;

und  2 C sei eine beliebige Nullstelle von p.x /. a) Es gelten die beiden Abschätzungen

¯ ® rX1 jak j ; j j  max 1;

® j j  max ja0 j; 1 C

kD0

b) Im Fall ak ¤ 0 für k D 1; : : : ; r

j j  max

® ja0 j ja1 j

;

max 1kr 1

¯ jak j :

1 gelten die beiden Abschätzungen

max

2

1kr 1

jak j ¯ ; jakC1 j

j j 

rX1

kD0

jak j : jakC1 j

c) Schließlich gilt noch

j j  q 1=r ;

falls q WD

rX1

kD0

jak j < 1:

Beweis. Die frobeniussche Begleitmatrix zu dem Polynom p ist folgendermaßen definiert,

0

0

B B 1 ♣♣♣ A WD B B ♣♣ ♣ 0 @ 1

1

a0 ♣♣ ♣ ♣♣ ♣

ar

1

C C C 2 R rr : C A

Für das zugehörige charakteristische Polynom gilt die Identität det .I

A/ D p./ für  2 C;

(5.21)

125

Abschnitt 5.4 Das Newton-Verfahren im mehrdimensionalen Fall

wie im Folgenden nachgewiesen wird. Entwicklung der Determinante der Matrix I

A nach der letzten Zeile liefert 0  B 1 ♣♣♣ B det .I A/ D det B ♣♣ @ ♣

1

a0 ♣ ♣♣



ar 2 1  C ar 1 0  B 1 ♣♣♣ B D . C ar 1 / det B ♣♣ ♣♣ @ ♣ ♣

C C C A

1 

ƒ‚ D r



0

1



B C B C C C det B @ A

1

♣♣



♣♣



♣♣ ♣ ♣♣ ♣

 1 ar



1

1

a0

2

C C C; A

und erneute Entwicklung der auftretenden Determinanten nach jeweils der letzten Zeile liefert

0



B B @

det B

1

a0 ♣♣ ♣♣

♣ ♣



♣ ♣♣ ♣♣♣

1 ak

1

C C C D ak det A

0 B B B @

1

♣♣ ♣♣

♣ ♣♣



2; r



1 

0



B B D ak k C det B @ für k D r

1



1

C C C C det A a0

♣♣



♣♣



 1 ak

♣ ♣♣ ♣♣♣ 1

0



B B B @

1

1

a0 ♣♣



♣♣



 1 ak

1

♣ ♣♣ ♣♣♣ 1

C C C A

C C C; A

3; : : : ; 2, und schließlich gilt det



a0

1 a1

!

D a1  C a0 ;

was den Beweis der Identität (5.21) komplettiert. Aufgrund von (5.21) nun stimmt die Menge der Nullstellen des Polynoms p mit der Menge  .A/ der Eigenwerte der Matrix A überein. Weiter gilt r .A/  jjA jj für jede durch eine komplexe Vektornorm induzierte Matrixnorm, vergleiche Bemerkung 4.41, und wegen

¯ ® rX1 jak j ; jjA jj1 D max 1; kD0

® jjA jj1 D max ja0 j; 1 C

max 1kr 1

¯ jak j ;

ergeben sich die Abschätzungen in a). Für den Nachweis der Abschätzungen in b) sei nun

D WD diag .a1 ; : : : ; ar

1 ; 1 /:

126

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

Die Matrix D 1 AD 2 R rr ist ähnlich zu der Matrix A, was  .D 1 AD/ D  .A/ beziehungsweise r .D 1 AD/ D r .A/ nach sich zieht. Weiter hat man die explizite Darstellung (es gilt ar D 1)

0

a0 =a1

0

B B B ♣ B a1 =a2 ♣ ♣ B B ♣ D 1 AD D B a2 =a3 ♣ ♣ B B B ♣♣ B ♣ B @

a1 =a2 a2 =a3 ♣♣ ♣

0

ar

1 =ar

ar

1 =ar

1

C C C C C C C 2 R rr ; C C C C C A

so dass also die beiden Identitäten

jjD

1

AD jj1 D max

°

ja0 j ; ja1 j

max

2

1kr 1

jak j jakC1 j

±

;

1

jjD

AD jj1 D

rX1

kD0

jak j jakC1 j

gelten, und analog zu a) ergeben sich die in b) angegebenen Abschätzungen. Schließlich erhält man c) folgendermaßen: wegen a) ist in jedem Fall j j  1 erfüllt, und weiter gilt für jede Zahl x 2 C mit q 1=r < jx j  1 die Abschätzung

jp.x /j  jx jr

rX1

kD0

rX1

jak jjx jk > q

kD0

jak j D 0;

so dass sogar j jr  q gilt. Dies komplettiert den Beweis des Lemmas. Eine Anwendung der vier Abschätzungen in a) und b) aus Lemma 5.22 auf einige spezielle Polynome liefert die in der folgenden Tabelle angegebenen Resultate.

p.x /

x2

j j 

x 2 C 1 D .x

i /.x C i /

1

1

2x C 1

1 /2

3

3

D .x

4

2: 5

Weitere Themen und Literaturhinweise Die numerische Lösung nichtlinearer Gleichungen wird ausführlich in Deuflhard [19] behandelt. Abschnitte über die numerische Lösung solcher Gleichungen findet man außerdem in jedem der im Literaturverzeichnis aufgeführten Lehrbücher über numerische Mathematik, beispielsweise in Deuflhard/Hohmann [21], Oevel [79], Schaback /Wendland [95] und in Werner [112]. Als eine Variante des in diesem Kapitel vorgestellten Newton-Verfahrens ist das gedämpfte Newton-Verfahren

xnC1 D xn

n .Dxn F /

1

.F .xn // für n D 0; 1; : : :

127

Übungsaufgaben

zu nennen, mit einer der Konvergenzbeschleunigung dienenden und geeignet zu wählenden variablen Schrittweite n . Eine weitere Variante des Newton-Verfahrens stellen die Quasi-Newton-Verfahren xnC1 D xn An 1 F .xn /; n D 0; 1; : : : dar, wobei die (numerisch aufwändig zu berechnenden) Jacobi-Matrizen Dxn F durch einfacher zu gewinnende Matrizen An  Dxn F ersetzt werden. Einzelheiten zu den beiden genannten Varianten werden beispielsweise in [19] beziehungsweise in Freund/Hoppe [30], Geiger/Kanzow [32], Großmann/Terno [44], Kosmol [62], Mennicken/Wagenführer [71], Nash/Sofer [76], Schwetlick [98] sowie in Aufgabe 5.12 vorgestellt. Weitere Varianten wie das Sekantenverfahren beruhen auf Approximationen der Ableitungen durch Differenzenquotienten.

Übungsaufgaben Aufgabe 5.1. Gegeben sei die Gleichung

x C ln x D 0; deren eindeutige Lösung x im Intervall Œ 0:5; 0:6  liegt. Zur approximativen Lösung dieser Gleichung betrachte man die folgenden fünf Iterationsverfahren:

xnC1 WD

ln xn ;

xnC1 WD

axn C e aC1

xnC1 WD e xn

;

xn

xnC1 WD

;

xnC1 WD

an xn C e an C 1

xn

xn C e 2

xn

;

:

(5.22) (5.23)

Welche der drei in (5.22) angegebenen Verfahren sind brauchbar? Man bestimme in (5.23) Werte a 2 R beziehungsweise a0 ; a1 ; : : : 2 R so dass sich jeweils ein Verfahren von mindestens zweiter Ordnung ergibt. Aufgabe 5.2. Gegeben sei die Gleichung

x C ln.x C sin x / D 0;

(5.24)

deren eindeutige Lösung x im Intervall Œ 0:3; 0:4  liegt. Zur approximativen Lösung dieser Gleichung betrachte man die folgenden vier Iterationsverfahren: (i) xnC1 WD

(ii) xnC1 WD e (iii) xnC1 WD

(iv) xnC1 WD

ln.xn C sin xn /, xn

sin xn ,

1 .xn C e xn sin xn /, 2 1 .axn C e xn sin xn /. 1Ca

a) Zeigen Sie, dass die zu den Verfahren (i)–(iv) gehörenden Fixpunktgleichungen jeweils äquivalent zu (5.24) sind. b) Welche der drei Verfahren (i), (ii) und (iii) sind lokal mindestens linear konvergent? c) Bestimmen Sie a 2 R in (iv) so, dass für die zugehörige Fixpunktfunktion ˆ Folgendes gilt: ˆ0 .0:35/ D 0. Dabei genügt es, den Parameter a mit drei gültigen Dezimalstellen anzugeben. d) Geben Sie für das folgende Verfahren praktikable Werte a0 ; a1 ; : : : 2 R an, so dass dieses schneller als das Verfahren aus c) konvergiert:

xnC1 WD 21 .an xn C e

xn

sin xn /:

128

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

e) Führen Sie für die Verfahren aus (i)–(iii) sowie c) und d) jeweils zehn Iterationsschritte aus und geben Sie die Iterierten jeweils mit neun Nachkommastellen aus. Als Startwert verwende jx x j man jeweils x0 D 0:3. Geben Sie jeweils für alle Iterierten auch j x  x n j aus, wobei x D  n 1 0:354463104. Aufgabe 5.3. Gesucht ist der Wert

r

q p x D lim 2 3 C 2 3 C    C 2 3 : n!1 „ ƒ‚ … n-mal

a) Geben Sie eine Fixpunktgleichung ˆ.x/ D x für x an und bestimmen Sie daraus x . b) Geben Sie außerdem ein Intervall I  R an, so dass das Iterationsverfahren xnC1 D ˆ.xn / für jeden Startwert x0 2 I gegen x konvergiert und der Fehler jxn x j in jedem Iterationsschritt mindestens halbiert wird. Wie viele Iterationsschritte sind maximal nötig, um den Fixpunkt mit einer Genauigkeit 10 6 zu berechnen? Aufgabe 5.4. Die Funktion ln x soll an der Stelle x D a > 0 näherungsweise berechnet werden. Dies kann beispielsweise mit dem Newton-Verfahren zur Bestimmung einer Nullstelle der Funktion

f .x / D e x

a

geschehen. Man gebe die zugehörige Iterationsvorschrift an und weise quadratische Konvergenz nach. Kann man die Konvergenzordnung p D 3 erwarten? Schließlich berechne man für a D 1 und Startwert x0 D 1 die ersten vier Iterierten x1 ; : : : ; x4 . Auf wie viele Nachkommastellen genau stimmen diese mit dem tatsächlichen Wert 0 D ln 1 überein?

p

Aufgabe 5.5. Für eine gegebene Zahl a > 0 kann der Wert 3 a näherungsweise mit dem Newton-Verfahren zur Bestimmung einer Nullstelle der Funktion

f .x/ D x 3

a

berechnet werden. Man gebe die Iterationsvorschrift für dieses konkrete Problem an und weise nach, dass das Verfahren konvergent von der Ordnung p D 2 ist, aber nicht die Konvergenzordnung p D 3 besitzt. Schließlich berechne man für a D 2 und Startwert x0 D 1 auf p 3 Papier die ersten beiden Approximationen x1 und x2 für den wahren Wert 2  1:2599. Aufgabe 5.6 (Numerische Aufgabe). Man schreibe einen Code, der die nichtlineare Gleichung

f .x/ D x 4

3x 3 C 3x 2

xD0

mit dem Newton-Verfahren näherungsweise löst. Man breche das Verfahren im n-ten Schritt ab, falls jxn xn 1 j  10 7 oder n D 100 gilt. Testen Sie das Programm mit den beiden Startwerten (i) x0 D 1 und (ii) x0 D 2. Berechnen Sie dabei jeweils auch die Quotienten

jx xn j ; jx xn 1 j2

wobei im Fall (i) x D 0 beziehungsweise im Fall (ii) x D 1 zu setzen ist. Interpretieren Sie das Ergebnis. Aufgabe 5.7. Zu einer kontraktiven Funktion ˆ W R N ! R N mit Kontraktionskonstante 0 < L < 1 bezeichne x 2 R N den Fixpunkt von ˆ, und der Vektor x0 2 R N sei beliebig. Die Folge .xnı /n2N0 sei gegeben durch

x0ı WD x0 C x0 ;

ı ı xnC 1 WD ˆ.xn / C xnC1 ;

n D 0; 1; : : :;

129

Übungsaufgaben

wobei jj xn jj  ı für n 2 N0 gelte bezüglich einer gegebenen Vektornorm jj  jj W R N ! R und einer gewissen Fehlerschranke ı . Man zeige Folgendes:

jj xnı

x jj 

ı 1

L

n C L

1

L

 x0ı jj ;

.L C 2 /ı C jj x1ı

n D 0; 1; : : : :

Aufgabe 5.8. Es sei die Abbildung ˆ W R 2 ! R 2 definiert durch

    sin x 1C Cy x 4 ˆ y D 1 : 2 1 C sin y C x

a) Man untersuche die Kontraktionseigenschaft von ˆ jeweils bezüglich jj  jj1 und jj  jj2 .

b) Man berechne den Fixpunkt .; /> 2 R 2 der Abbildung ˆ mittels der gewöhnlichen Fixpunktiteration, für den Startwert .x0 ; y0 /> D . 0; 0 />. Wie oft ist bei Verwendung der a prioriFehlerabschätzung zu iterieren, bis

jj .xn ; yn />

.; /> jj2  10

2

garantiert werden kann? Die entsprechende Frage stellt sich bei Anwendung der a posterioriFehlerabschätzung. Aufgabe 5.9. Es sei ˆ W R 2 ! R 2 definiert durch

ˆ



u v



D



2 u 5 3 u 5

C 35 v C 3 C 15 v

2



:

a) Man untersuche die Kontraktionseigenschaft von ˆ jeweils bezüglich der Normen jj  jj1 und jj  jj2 .

b) Zur näherungsweisen Berechnung des Fixpunkts x 2 R 2 von ˆ betrachte man die dazugehörige Fixpunktiteration mit dem Startwert x0 D .0; 0/>. Wie viele Iterationsschritte wären bei Verwendung der a priori-Fehlerabschätzung durchzuführen, bis

jj xn

x jj2  0:01

garantiert werden kann? c) (Programmieraufgabe) Wie oft ist tatsächlich zu iterieren, bis die a posteriori-Fehlerabschätzung die in b) angegebene Schranke unterschreitet. Aufgabe 5.10. Gegeben sei das nichtlineare Gleichungssystem

uv C u

v

1 D 0;

uv D 0:

³

a) Man bestimme die exakten Lösungen des nichtlinearen Gleichungssystems (5.25). b) Für die Startwerte

  0 x0 D 0

und

  1 x0 D 1

führe man jeweils den ersten Iterationsschritt des Newton-Verfahrens durch.

(5.25)

130

Kapitel 5 Iterative Lösung nichtlinearer Gleichungssysteme

Aufgabe 5.11 (Numerische Aufgabe). Man erstelle einen Code, der das nichtlineare Gleichungssystem  2    0 x C y 2 10 F .x; y/ D D 2 2 x y 8 0 mit dem Newton-Verfahren näherungsweise löst. Man breche das Verfahren im n-ten Schritt ab, falls jj xn xn 1 jj1  0:0001 oder n D 100 gilt. Man teste das Programm mit den beiden Startvektoren     1 0:0001 x0 D und x0 D : 1 0:0001 Geben Sie jeweils die letzte Näherung sowie die Anzahl der benötigten Iterationsschritte an. Aufgabe 5.12. Für eine reguläre Matrix A 2 R N N ist die inverse Matrix X D A lich eine Lösung der nichtlinearen Gleichung

X

1

A D 0:

1

offensicht(5.26)

Das Newton-Verfahren zur Lösung der Gleichung (5.26) führt auf das Verfahren von Schulz

XnC1 WD Xn C Xn .I

AXn /;

n D 0; 1; : : : :

N N

Man zeige: für jede Startmatrix X0 2 R mit jj I AX0 jj  q < 1 (mit einer gegebenen submultiplikativen Matrixnorm jj  jj W R N N ! R ) konvergiert die Matrixfolge X0 ; X1 ; ♣ ♣ ♣  R N N gegen die Matrix A 1 mit den Abschätzungen

jj Xn

A

1

jj 

jj X0 jj jj I 1 q

AXn jj 

jj X0 jj .2n / q 1 q

für n D 0; 1; : : : :

Aufgabe 5.13 (Numerische Aufgabe). Man schreibe einen Code zur Lösung eines nichtlinearen Gleichungssystems mittels der folgenden Variante des Newton-Verfahrens:

xnC1 D xn

An F .xn / für n D 0; 1; : : :;

mit

AkpCj D .Dxkp F /

1

für j D 0; 1; : : : ; p

1;

k D 0; 1; : : : :

Hierbei bezeichnet Dx F die Jacobi-Matrix der Abbildung F im Punkt x . Man breche die Iteration ab, falls die Bedingung jj xn xn 1 jj2  tol erstmalig erfüllt ist oder falls n D nmax gilt. Hier sind p 2 N; nmax 2 N0 und tol > 0 frei wählbare Parameter. Man teste das Programm anhand des Beispiels

    sin u cos v u 0 F v WD u2 C v 2 3 D 0 ;

mit den Parametern tol D 10 4 und nmax D 100 sowie mit den folgenden Startwerten beziehungsweise den folgenden Werten von p :

 

 

1 a) x0 D 1 ; p D 1I

1 b) x0 D 1 ; p D 5I

 

3 d) x0 D 3 ; p D 5:

3 c) x0 D 3 ; p D 1I

 

Aufgabe 5.14. Die Funktion f 2 C 1 Œa; b sei streng monoton wachsend und konvex mit Nullstelle x 2 Œa; b. Man zeige, dass für jeden Startwert x0 2 Œx ; b die Näherungen xn des Newton-Verfahrens gegen x konvergieren mit

xnC1  xn ;

n D 0; 1; : : : :

6

Numerische Integration von Funktionen

Zahlreiche Anwendungen wie etwa die Bestimmung von Flächeninhalten, Volumina, Massen, Schwerpunkten oder Wahrscheinlichkeitsverteilungen führen letztlich auf das Problem der Berechnung eindimensionaler Integrale

.f / WD

Z b a

f .x / dx

(6.1)

mit gewissen Funktionen f 2 C Œa; b . Oftmals ist jedoch die Berechnung des Integrals (6.1) nicht möglich, da beispielsweise die Stammfunktion von f nicht berechnet werden kann oder die Funktionswerte von f als Resultat von Messungen nur an endlich vielen Stellen vorliegen. Beispiel 6.1. Die Preise von Kaufoptionen auf europäischen Finanzmärkten lassen sich unter gewissen vereinfachenden Annahmen (zum Beispiel konstanten Volatilitäten) mit der Black-Scholes-Formel explizit angeben. Für Details sei auf Günther/ Jüngel [45] oder Hanke-Bourgeois [52] verwiesen. In unserem Zusammenhang ist von Interesse, dass dabei Auswertungen der Fehlerfunktion 2

erf.x / D p



Z x 0

exp . t 2 / dt

für x  0

erforderlich sind. Deren Werte lassen sich jedoch lediglich näherungsweise bestimmen. M Man ist an einfachen Methoden zur näherungsweisen Berechnung des Integrals (6.1) interessiert, und hierzu werden im Folgenden Quadraturformeln

n .f / D .b

a/

n X

k f .xk /;

(6.2)

kD0

herangezogen mit paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b  und reellen Gewichten 0 ; 1 ; : : : ; n 2 R. Definition 6.2. Die Zahl r 2 N0 heißt Genauigkeitsgrad der Quadraturformel n , wenn

n .x m / D .x m / für m D 0; 1; : : : ; r; n .x

rC1

/ ¤ .x

rC1

(6.3)

/

erfüllt ist. Der Genauigkeitsgrad einer Quadraturformel n ist per Definition mindestens r 2 N0 , falls (6.3) gilt. Bemerkung 6.3. a) n W C Œa; b  ! R ist offensichtlich eine lineare Abbildung, es gilt also

n .˛f C ˇg/ D ˛ n .f / C ˇ n .g/

8 f; g 2 C Œa; b ;

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_6

˛; ˇ 2 R :

132

Kapitel 6 Numerische Integration von Funktionen

b) Wegen der Linearität der Quadraturformel n und des Integrals gilt:

n besitzt den Genauigkeitsgrad r ´ n .P / D .P / für alle Polynome P vom Grad  r; und ” n .P / ¤ .P / für ein Polynom P vom (genauen) Grad D r C 1 ´ n .P / D .P / für alle Polynome P vom Grad  r; und ” n .P / ¤ .P / für alle Polynome P vom (genauen) Grad D r C 1

M

6.1 Interpolatorische Quadraturformeln Definition 6.4. Interpolatorische Quadraturformeln n .f / sind folgendermaßen erklärt: nach einer Festlegung von n 2 N0 sowie .n C 1 / paarweise verschiedenen Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b  wird als Näherung für .f / der Wert

n .f / WD

Z b a

Qn .x / dx

herangezogen, wobei Qn 2 …n das interpolierende Polynom zu den Stützpunkten .x0 ; f .x0 //; .x1 ; f .x1 //; : : : ; .xn ; f .xn // 2 R 2 bezeichnet. Bemerkung 6.5. Der Genauigkeitsgrad einer interpolatorischen Quadraturformel n ist offensichtlich mindestens n. M Im Folgenden soll eine explizite Darstellung für n .f / hergeleitet werden. Daraus resultiert dann auch die Darstellung (6.2) für die Quadraturformel n .f / aus Definition 6.4. Theorem 6.6. Eine interpolatorische Quadraturformel n besitzt die Gestalt

n .f / D .b

a/

n X

kD0

k f .xk / mit k WD

Z 1 Y n 0

mD0 m¤k

t tk

tm tm

x

a

tm WD bm a :

dt;

(6.4)

Beweis. Mit der lagrangeschen Interpolationsformel

Qn D

n X

f .xk /Lk

mit Lk .x / D

kD0

n Y

mD0 m¤k

x xk

xm xm

Rb

Pn

erhält man n .f / D kD0 f .xk / a Lk .x / dx , und aus der nachfolgenden Rechnung resultiert dann die Aussage des Theorems, 1

b

Z b

a a

Lk .x / dx D

1

b

Z b Y n

a a

mD0 m¤k

x xk

xm xm

./

dx D

Z 1 Y n 0

wobei man die Identität ./ mit der Substitution x D .b

mD0 m¤k

t tk

tm tm

dt D k ;

a/t C a erhält.

133

Abschnitt 6.2 Spezielle interpolatorische Quadraturformeln

Bemerkung 6.7. a) Der Vorteil in der Darstellung (6.4) ist in der Unabhängigkeit der Gewichte k sowohl von den Intervallgrenzen a und b als auch von der Funktion f begründet. Letztlich hängen die Gewichte nur von der relativen Verteilung der Stützstellen im Intervall Œa; b  ab. b) Für jede interpolatorische Quadraturformel n .f / D .b n X

kD0

a/

 k D 1;

Pn

kD0

da ihr Genauigkeitsgrad mindestens n  0 beträgt und somit .b n . 1 / D . 1 / D b a gilt. M

k f .xk / gilt (6.5)

a/

Pn

kD0 k

D

6.2 Spezielle interpolatorische Quadraturformeln 6.2.1 Abgeschlossene Newton-Cotes-Formeln Die Newton-Cotes-Formeln ergeben sich durch die Wahl äquidistanter Stützstellen bei interpolatorischen Quadraturformeln. Wenn zusätzlich Intervallanfang und -ende Stützstellen sind, also x0 D a; xn D b gilt, so spricht man von abgeschlossenen Newton-Cotes-Formeln. Speziell gilt hier also (für n  1)

xk WD a C kh;

k D 0; 1; : : : ; n;

h D b n a:

Lemma 6.8. Für die Gewichte 0 ; 1 ; : : : ; n der abgeschlossenen Newton-Cotes-Formeln gilt

k D 1n

Z n Y n s 0

mD0 m¤k

k

m m

ds für k D 0; 1; : : : ; n:

(6.6)

Beweis. Aus der Identität (6.4) erhält man aufgrund von tk D kn für die Gewichte die angegebene Darstellung,

k D

Z 1 Y n 0

mD0 m¤k

t .k

m=n m/=n

dt D n1

Z n Y n s 0

mD0 m¤k

k

m m

ds;

wobei man die zweite Gleichung aus der Substitution t D ns erhält. Die Darstellung (6.6) und die folgende Symmetrieeigenschaft der Gewichte der abgeschlossenen Newton-Cotes-Formeln ermöglichen die in den nachfolgenden Beispielen angestellten einfachen Berechnungen. Lemma 6.9. Für die Gewichte 0 ; 1 ; : : : ; n der abgeschlossenen Newton-Cotes-Formeln gilt

n

k

D k für k D 0; 1; : : : ; n:

(6.7)

134

Kapitel 6 Numerische Integration von Funktionen

Beweis. Für die lagrangeschen Basispolynome Lk gilt

Ln

k .x /

D Lk .b C a

x /;

x 2 Œa; b ;

(6.8)

denn Ln k 2 …n und Q.x / WD Lk .b C a

Q.xn

j/

x / 2 …n ; und   a C .n j / b n a D Lk a C j b n a

D Lk b C a

D Lk .xj / D ıkj D Ln

k .xn j /

für j D 0; 1; : : : ; n;

und die Eindeutigkeit des interpolierenden Polynoms resultiert in der Identität (6.8). Daraus erhält man

n

k

D b1a

Z b a

Ln

k .x / dx

D b1a

Z b a

./

Lk .b C a

wobei man ./ mit der Substitution x D b C a

x / dx D b

1

Z b

a a

Lk .t / dt D k ;

t erhält.

Beispiel 6.10. a) Für n D 1 erhält man die Trapezregel,

1 .f / D .b

a/

f .a/ C f .b / 2



Z b a

f .x / dx;

denn (6.5) und (6.7) liefern 0 C 1 D 1 und 0 D 1 , somit 0 D 1 D 12 :

b) Für n D 2 erhält man die Simpson-Regel

2 .f / D .b

 b C f .b /  a/ 16 f .a/ C 4f a C 2

Z b a

f .x / dx;

denn die Eigenschaften (6.5)–(6.7) ergeben Folgendes,

0 D

Z 1 2 s 2 0 0

1 s 10

2 2

ds D 61 ;

2 D 0 ;

1 D 1

0

2 D 23 :

Die geometrische Bedeutung der Trapez- und der Simpson-Regel ist in Abb. 6.1 beziehungsweise Abb. 6.2 dargestellt.





........................ ....... ... ...... ... ...... ... ...... ...... ... . ......... .. . . .......... . .. ........... .... . . . . ....... . ...... . . . . .................. . . . . . . . . . . .............................................. ........ . . . . . . . . . . . . . . . . . . . . . . . . . ................................................................ ................................................................... ................................................................... ................................................................... .................................. .................................................................................................... ................................................................... ..................................

f .x /

0



a

f .x /

0

b

Abb. 6.1: Illustration zur Trapezregel

............. .............................. . . ....................................... . ............................................. ............................................................................. . . . . . . . . . . . . . . . . . . . . ...... . . . . . . ................................................................. .. ........................................................................... ....... .................................................................. .................. ................................................................................................................. . . . . . . . . ... ................................................................ ................................................................... ................................................................... ................................................................... .................................. .................................................................................................... ................................................................... ..................................



a

.a C b/=2

Abb. 6.2: Illustration zur Simpson-Regel

c) Der Fall n D 3 führt auf die newtonsche 3/8-Regel

3 .f / D b 8 a f .a/ C 3f

2a C b 3

b



  C 3f a C3 2b C f .b / 

Z b a

f .x / dx:

135

Abschnitt 6.2 Spezielle interpolatorische Quadraturformeln

d) In der Situation n D 4 erhält man die Milne-Regel

4 .f / D 

b a 90

Z b a

7f .a/ C 32f

3a C b 4

f .x / dx:



C 12f

2.a C b/  4

  C 32f a C4 3b C 7f .b /

e) Der Fall n D 8 liefert die folgende Quadraturformel, b a 989f .x0 / C 5888f .x1 / 8 .f / D 28350



Z b a

C 10496f .x5 / f .x / dx:

928f .x2 / C 10496f .x3 /

928f .x6 / C 5888f .x7 / C 989f .x8 /

M

4540f .x4 /



Zu der zuletzt betrachteten Quadraturformel 8 .f / ist Folgendes anzumerken: 

Es treten negative Gewichte auf, wie überhaupt für n  8 bei den abgeschlossenen Newton-Cotes-Formeln. Dies widerspricht der Vorstellung des Integrals als Grenzwert einer Summe von Funktionswerten mit positiven Gewichten.



Die Summe der Beträge der Gewichte übersteigt den Wert eins, was zu einer Verstärkung von Rundungsfehlern führt. Es gilt das folgende Theorem, das hier ohne Beweis angegeben wird. .n/

.n/

.n/

Theorem 6.11 (Satz von Kusmin). Die Gewichte 0 ; 1 ; : : : ; n nen Newton-Cotes-Formeln n besitzen die Eigenschaft n X

kD0

der abgeschlosse-

.n/

jk j ! 1 für n ! 1:

Aus den beiden genannten Gründen werden abgeschlossene Newton-Cotes-Formeln nur für kleine Werte von n angewandt.

6.2.2 Andere interpolatorische Quadraturformeln Beispiel 6.12.  Eine Rechteckregel lautet 0 .f / D .b a/f .a/, wobei hier n D 0 und x0 D a gilt. Eine weitere Rechteckregel ist 0 .f / D .b a/f .b /, wobei hier die Fälle n D 0 und x0 D b vorliegen. Die Mittelpunktregel ist von der Form 0 .f / D .b x0 D .a C b /=2.



a/f

aCb 2



; hier ist n D 0 und

Die geometrische Bedeutung der ersten Rechteck- und der Mittelpunktregel ist in Abb. 6.3 beziehungsweise Abb. 6.4 dargestellt. M

136

Kapitel 6 Numerische Integration von Funktionen





..................... ....... ... ...... ... ...... ... ...... ... ...... . ....... .. . . . ....... .... ... . ......... . . . . . ...................... ....... . . . . . . . . . . . . . . . . . . . . . ... . . . . . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . .

. . . . . . . . . . . . . . . . . . . . .................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ........ . . . ................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .... . . . . . . . . . ................ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ...... . . . . . . . . . . . . . ............ . . . . . . . . . . . . . . . . . . . . . . . . . . . . ....... . . . . . . . . . . . . . . . . . ............... . . . . . . . . . . . . . . . . . . . . . . . ........... . . . . . . . . . . . . . . . . . . . . . ................ . . . . . . . .. . . . . . . . . . ................ . . . . . . . . . . . . . . . . . . . . . . . . . . . ...................... ........... .......... ... ................................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . .. . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . .. . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . .. . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . .. . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

f .x /

0

f .x /



a



0

b

aCb

a

b

2

Abb. 6.3: Darstellung der Rechteckregel Abb. 6.4: Darstellung der Mittelpunktregel

6.3 Der Fehler bei der interpolatorischen Quadratur Im Folgenden wird eine Abschätzung für den bei der interpolatorischen Quadratur auftretenden Fehler vorgestellt. Insbesondere wird dabei deutlich, dass die interpolatorischen Quadraturformeln lediglich für kurze Intervalle Œa; b  (also für b a  1) gute Näherungen an das zu bestimmende Integral darstellen. Vorbereitend wird noch folgende Sprechweise eingeführt: eine reellwertige Funktion heißt von einem Vorzeichen auf dem Intervall Œc; d , wenn (sie dort definiert ist und) .x /  0 für alle x 2 Œc; d  oder .x /  0 für alle x 2 Œc; d  gilt.

Pn

Theorem 6.13. Die interpolatorische Quadraturformel n .f / D .b a/ kD0 k f .xk / besitze mindestens den Genauigkeitsgrad r  n, und die Funktion f W Œa; b  ! R sei .r C 1 /-mal stetig differenzierbar. Dann gilt die folgende Fehlerabschätzung,

j .f /

. /rC2 n .f /j  cr b. a / max jf .rC1/ . /j

r C 1 Š  2 Œa;b 

(6.9)

mit

cr WD

min

Z 1 Y r

tnC1 ;:::;tr 2 Œ 0;1  0

kD0

jt

tk j dt;

x

a

tk WD bk a ;

k D 0; 1; : : : ; n:

(6.10)

Wenn mit den Werten t0 ; t1 ; : : : ; tn aus (6.10) für eine bestimmte Wahl von tnC1 ; : : : ; tr 2 Q Œ 0; 1  das Produkt rkD0 .t tk / von einem Vorzeichen in Œ 0; 1  ist, so gilt mit einer Zwischenstelle  2 Œa; b  die folgende Fehlerdarstellung,

.f /

. /rC2 n .f / D cr0 b. a / f .rC1/ . /

r C1 Š

mit cr0 WD

Z 1 Y r 0

(6.11)

.t

tk / dt:

kD0

Beweis. 1. Seien xnC1 ; : : : ; xr 2 Œa; b  beliebig aber so, dass x0 ; x1 ; : : : ; xr paarweise verschieden sind. Es soll in diesem ersten Teil des Beweises die unten stehende

137

Abschnitt 6.3 Der Fehler bei der interpolatorischen Quadratur

Fehlerdarstellung (6.14) nachgewiesen werden. Sei dazu Qr 2 …r das zu den Stützpunkten .x0 ; f .x0 //; : : : ; .xr ; f .xr // gehörende interpolierende Polynom. Aufgrund der Darstellung (6.2) für n erhält man

n .f / D .b

a/

n X

kD0

k f .xk / D .b

a/

n X

kD0

k Qr .xk / D n .Qr / D .Qr /;

und somit

.f /

n .f / D .f /

.Qr / D

Z b a

f .x /

Qr .x / dx:

(6.12)

x 2 Œa; b ;

(6.13)

Weiter gilt (siehe Theorem 1.23 auf Seite 13)

f .x /

. !  /. x / f .rC1/ .  . x //

Qr .x / D

. r C 1 /Š

;

mit

!.x / WD .x

x0 /    .x

xn /;

.x / WD .x

xnC1 /    .x

xr /;

und einer geeigneten Zwischenstellenfunktion  W Œa; b  ! Œa; b . Man beachte, dass die rechte Seite der Gleichung (6.13) als Differenz zweier stetiger Funktionen selbst stetig und damit integrierbar ist. Weiter sei noch angemerkt, dass ! bereits durch die Quadraturformel festgelegt ist, während die Nullstellen von  noch variieren können. Aus (6.12) und (6.13) erhält man

n .f / D .r C1 1 /Š

.f /

Z b a

.!  /.x / f .rC1/ . .x // dx:

(6.14)

2. Es soll nun die Fehlerabschätzung (6.9) bewiesen werden, und hierzu seien xnC1 ; : : : ; xr 2 Œa; b  beliebig. Dann wählt man Zahlen .m/ .m/ xnC 2 Œa; b ; 1 ; : : : ; xr

m D 1; 2; : : :;

so dass Folgendes gilt, .m/

x0 ; x1 ; : : : ; xn ; xnC1 ; : : : ; xr.m/ .m/

xk

! xk

für m ! 1

Mit der Notation

m .x / D

r Y

paarweise verschieden;

.k D n C 1; : : : ; r /: .x

.m/

xk /

kDnC1

erhält man aus der Identität (6.14) angewandt mit  D m sowie einem anschließenden Grenzübergang m ! 1 Folgendes:

j .f /

n .f /j

 .r C1 1 /Š max jf .rC1/ . /j  2 Œa;b  

......

Z b a

Z

j.! m /.x /j dx b

a

j.!  /.x /j dx C

 j!.x /jjm.x / .x /j dx ; a ƒ‚ … „ ! 0 für m ! 1 Z b

138

Kapitel 6 Numerische Integration von Funktionen

wobei die Konvergenz des zweiten Terms aus der auf dem Intervall Œa; b  vorliegenden gleichmäßigen Konvergenz m !  für m ! 1 resultiert. Somit erhält man

n .f /j  b c r .r C1 1 /Š max jf .rC1/ .x /j

j .f /

x 2 Œa;b 

mit ./

b c r WD

Z b Y r

min

xnC1 ;:::;xr 2 Œa;b  a

./

D .b

a/rC2

kD0

jx

xk j dx Z 1 Y r

min

tnC1 ;:::;tr 2 Œ 0;1  0

jt

kD0

tk j dt;

wobei das Minimum in der Setzung ./ aus Stetigkeitsgründen tatsächlich existiert, und ./ resultiert aus der Substitution x D .b a/t C a. Die Abschätzung (6.9) ist damit nachgewiesen. 3. Für den Nachweis von (6.11) betrachte man die Zahlen xk D .b a/tk C a für k D n C 1; : : : ; r , so dass entsprechend der Voraussetzung die Funktion !  auf dem Intervall Œa; b  von einem Vorzeichen ist, etwa

.!  /.x /  0;

x 2 Œa; b :

Eine dem zweiten Teil dieses Beweises entsprechende Vorgehensweise liefert

.f /

n .f / 

1 . r C 1 /Š



max f .rC1/ . /

 2 Œa;b 

Z b a

.!  /.x / dx

C max jf .rC1/ . /j  2 Œa;b 

!

Z b

1 max f .rC1/ . / . r C 1 /Š  2 Œa;b  a



Z b a

! 0 für m ! 1 …„ ƒ

j!.x /j jm .x /

.x /j dx



.!  /.x / dx für m ! 1;

und analog folgt

.f /

n .f / 

1

min f .rC1/ . /

. r C 1 /Š  2 Œa;b 

Z b a

.!  /.x / dx:

Die Anwendung des Zwischenwertsatzes auf die stetige Funktion f .rC1/ liefert eine Zwischenstelle  2 Œa; b  mit

.f /

n .f / D

1 . r C 1 /Š

f .rC1/ . /

und eine abschließende Substitution x D .b

Z b a

.!  /.x / dx;

(6.15)

a/t C a ergibt die Identität (6.11).

Bemerkung 6.14. Die Fehlerabschätzung (6.9) aus dem ersten Teil von Theorem 6.13 auf Seite 136 kommt in erster Linie bei den summierten Quadraturformeln zum Einsatz, die Gegenstand der Betrachtungen in Abschnitt 6.5 sind. Dabei wird dem Term .b a/rC2 die zentrale Bedeutung zufallen. Die Fehlerdarstellung (6.11) auf Seite 136 aus dem zweiten Teil des Fehlertheorems zeigt unter den genannten zusätzlichen Voraussetzungen, dass sich die Fehlerabschätzung (6.9) aus dem ersten Teil des Theorems im Prinzip nicht verbessern lässt, falls die in (6.11) auftretenden Ableitungen des Integranden von null wegbeschränkt sind. M

139

Abschnitt 6.4 Genauigkeit abgeschlossener Newton-Cotes-Formeln

Beispiel 6.15. 1. (Rechteckregeln) Für f 2 C 1 Œa; b  gelten die Fehlerdarstellungen Z b a Z b a

f .x / dx

.b

f .x / dx

.b

. /2 a/f .a/ D b 2 a f 0 .0 /;

a /2

.b

a/f .b / D

2

(6.16)

f 0 .1 /

(6.17)

mit gewissen Zwischenstellen 0 ; 1 2 Œa; b . Die Darstellung (6.16) beispielsweise erhält man aus Theorem 6.13 angewandt mit n D r D 0 und x0 D a beziehungsweise t0 D 0 unter Berücksichtigung von 0 Y

kD0

.t

tk / D t  0

c00 D

für 0  t  1;

Z 1 0

Analog leitet man die Darstellung (6.17) her. 2. (Trapezregel) In diesem Fall gilt für f 2 C 2 Œa; b 

.f /

.b

1 .f / D

a /3

12

2 ˇt D1 t dt D t2 ˇ D 12 :

t D0

f 00 . /

(6.18)

mit einer Zwischenstelle  2 Œa; b . Dies folgt aus Theorem 6.13 angewandt mit n D r D 1; x0 D a; x1 D b beziehungsweise t0 D 0; t1 D 1 unter Berücksichtigung von 1 Y

kD0

.t

tk / D t.t c10 D

Z 1 0

1/  0

t.t

für 0  t  1;

1 / dt D

t3 3

t 2 ˇˇt D1

2 t D0

D

1 : 6

M

In dem vorangegangenen Beispiel wurde für n D 0 sowie für n D 1 verwendet, dass n jeweils mindestens den Genauigkeitsgrad r D n besitzt. Analog kann man natürlich bei der Simpson-Regel (hier ist n D 2) vorgehen. Dort kann man sich jedoch zunutze machen, dass in diesem Fall der Genauigkeitsgrad r D 3 vorliegt, was im folgenden Abschnitt für eine allgemeinere Situation nachgewiesen wird.

6.4 Der Genauigkeitsgrad abgeschlossener Newton-CotesFormeln n für gerade Zahlen n Das folgende Lemma wird für den Beweis von Theorem 6.17 benötigt, das die wesentliche Aussage dieses Abschnitts 6.4 darstellt. Lemma 6.16. Sei n 2 N gerade, h D b n a , und xk D a C kh für k D 0; 1; : : : ; n. Für die Funktion

F .x / WD

n Z x Y a

kD0

.y

xk / dy;

x 2 Œa; b ;

(6.19)

gilt

F .a/ D F .b / D 0;

F .x / > 0 für a < x < b:

(6.20)

140

Kapitel 6 Numerische Integration von Funktionen

Der Beweis von Lemma 6.16 wird am Ende von Abschnitt 6.4 nachgetragen.

Theorem 6.17. Die abgeschlossenen Newton-Cotes-Formeln n besitzen für gerades n  2 den Genauigkeitsgrad r D n C 1. Beweis. Er gliedert sich in zwei Teile. 1. Offensichtlich ist der Genauigkeitsgrad von n mindestens n, siehe Bemerkung 6.5. Des Weiteren gilt ..x .a C b /=2 /nC1 / D 0; denn der Integrand ist eine ungerade Funktion bezüglich des Intervallmittelpunkts1 .aCb /=2. Im Folgenden wird

n



a C b nC1

x

2



D0

(6.21)

nachgewiesen, woraus sich dann unmittelbar ergibt, dass der Genauigkeitsgrad von n mindestens r D n C 1 beträgt. Für den Nachweis von (6.21) setzt man h D b n a und xk D a C kh für k D 0; 1; : : : ; n, so dass dann Folgendes gilt, b D a C 2n h; xn=2 D a C 2

xn

aCb

k

2

D

xk

aCb 2

k D 0; 1; : : : ; 2n

;

1:

Aufgrund der Symmetrieeigenschaft n k D k für k D 0; 1; : : : ; n (siehe (6.7)) erhält man daher

n



x

a C b nC1 2

D .b

a/

D .b

a/



2 1   n=X  k xk

kD0

2 1  n=X

kD0

a C b nC1 2

C xn

 k  0 C n=2  0 D 0;

k

a C b nC1 2



C n=2 xn=2

a C b nC1 2



was gerade die Aussage (6.21) darstellt. 2. Im Folgenden wird

n .x nC2 / ¤ .x nC2 /

(6.22)

nachgewiesen, woraus sich zusammen mit dem ersten Teil des Beweises die Aussage des Theorems über den Genauigkeitsgrad von n ergibt. Für den Nachweis von (6.22) betrachtet man für das Monom f .x / D x nC2 und für eine beliebige Zahl xnC1 2 Œa; b  mit xnC1 ¤ xk für k D 0; 1; : : : ; n die Fehlerformel (6.14) und integriert anschließend 1

Eine Erläuterung der Bezeichnung “ungerade bezüglich des Intervallmittelpunkts” findet sich im Beweisteil 2) von Lemma 6.16.

141

Abschnitt 6.4 Genauigkeit abgeschlossener Newton-Cotes-Formeln

partiell:

.x nC2 /

D

n .x nC2 / D

Z b nC Y1 a

.x

D

0

Z b

Z b

0

a

xk /

kD0

a

Z b

F .x /  1 dx D

a

  d nC2 nC2  . .x // dx x nC2 „

dx

ƒ‚

 .nC2 /Š

xnC1 / dx

 d F .x / dx .x

Z b

xnC1 /jxDa

.x

F 0 .x /.x

a

xDb

D F .x /.x (6.20)

. n C 2 /Š a

xk / dx D

kD0

Z b  nC Y1

1



.F wie in (6.19) /

 xnC1 / dx (6.20)

F .x / dx ¤ 0:

Dies komplettiert den Beweis des Theorems. Beispiel 6.18 (Simpson-Regel). Hier gilt für f 2 C 4 Œa; b  die Fehlerdarstellung Z b a

f .x / dx

b

a 6



 b f .a/ C 4f a C C f .b / D 2

.b

a/5

2880

f .4/ . /

(6.23)

mit einer Zwischenstelle  2 Œa; b , was aus Theorem 6.13 angewandt mit r D 3; n D ; x2 D b beziehungsweise t0 D 0; t1 D 12 ; t2 D 1 resul2; x0 D a; x1 D aCb 2 tiert. Für die Wahl t3 D 21 erhält man nämlich (bezüglich der Notation siehe wieder Theorem 6.13) 3 Y

kD0

.t

1 2 / .t 2

tk / D t .t c30 D

Z 1 0

1/  0

1 2 / .t 2

t.t

für t 2 Œ 0; 1 ;

1 / dt D

1 ; 120

und mit Theorem 6.13 ergibt sich die in (6.23) angegebene Fehlerdarstellung,

.f /

2 .f / D

.b

a /5 1 4Š

120

f .4/ . / D

. b a /5 .4/ f . /: 2880

M

6.4.1 Der Beweis von Lemma 6.16 Die Identität F .a/ D 0 ist offensichtlich richtig, und für den Nachweis der weiteren Aussagen des Lemmas sei der Integrand in (6.19) wie folgt bezeichnet,

!.y / D

n Y

.y

xk /;

kD0

y 2 R:

1) Es wird im Folgenden die Positivität der Funktion F auf der linken Hälfte des Intervalls Œa; b  nachgewiesen,

F .x / D

Z x a

!.y / dy > 0;

b a < x  aC : 2

(6.24)

142

Kapitel 6 Numerische Integration von Funktionen

Vorbereitendes hierzu wird in 1a)–1b) hergeleitet. 1a) Das Polynom ! mit genauem Grad n C 1 besitzt die paarweise verschiedenen Nullstellen x0 ; x1 ; : : : ; xn . Wegen !.y / ! 1 für y ! 1 (da ! ungeraden Grad besitzt) gilt also

!.y / < 0 für y < a; !.a C  / > 0 für 0 <  < h; !.x1 C  / < 0 für 0 <  < h; :: :: :: : : : siehe Abb. 6.5 für eine Darstellung des Verlaufs der Funktion ! . 0:01

0

. ..... .. ... .. .. .. .. ... .... .. . .. .. .. .. .. .. .. .. .. ... .. .. ... .. ... ... ..... .. ...... ...... ... .. ..................................................................................................................................... ............. .. . ... .. ......... ....... ... ................. ... ... .. .. ... .. . . ... . .. .. .. .. .. .. .. .. .. .. .. . .. ... ... . .. ... ... . ....

0:01

1 D x0 x1

x2

x3

x4

x5

x6

x7

x8

x9 1 D x10

Abb. 6.5: Beispiel für den Verlauf der Funktion ! Allgemein gilt

!.x2j C  / > 0;

(6.25) n

!.x2j C1 C  / < 0 für 0 <  < h;

1:

j D 0; 1; : : : ; 2

1b) Weiter gilt b j!.y C h/j < j!.y /j für a  y  a C 2

h;

y 62 ¹x0 ; : : : ; xn=2

1 º;

(6.26)

denn !. y C h / !. y /

D

Qn

kD0 Q n

.y C h

kD0

.y

xk / xk /

D

.y C h .y

und wegen der Annahmen in (6.26) gilt

jy C h

aj < b 2 a;

Qn 1 . a / kD xk / 0 y Qn 1 b / kD0 . y xk /

jy

D

yCh a ; y b

bj > b 2 a:

1c) Man erhält nun schließlich die in (6.24) angegebene Positivität der Funktion F : mit der Eigenschaft (6.25) erhält man unmittelbar Z x C 2j x2j

!.y / dy > 0;

0 <   h;

mit 0  j 

n=2 2

1

;

(6.27)

143

Abschnitt 6.5 Summierte Quadraturformeln

und die Abschätzung (6.26) liefert Folgendes, Z x 2j C1 C x2j

!.y / dy D

Z x 2j C x2j

0

>0 ‚ …„ ƒ ‚ …„ ƒ Z x 2j C1 !.y / C !.y C h/ dy C !.y / dy > 0; x2j C „ ƒ‚ … D j !.yCh/ j

0 0 für aCb 2 Nachweis der Aussagen in (6.20). 2a) Für den Beweis der Identität (6.28) wird benötigt, dass die Funktion ! ungexk D rade bezüglich des Intervallmittelpunkts .a C b /=2 D xn=2 ist: wegen aCb 2

. aCb 2

xn

k/

für k D 0; 1; : : : ; n gilt nämlich

n  Y b aCb ! aC C y D Cy 2 2 kD0

./

D

n Y

aCb 2

kD0

y



n Y

 xk D

xk D

Z .aCb/=2  0

!.x / dx C

b ! aC 2

Z .aCb/=2C .aCb/=2 

y

2

xn

kD0

wobei man ./ mit der Indextransformation k ! n 2b) Mit 2a) folgt schließlich die Identität (6.28):

 b F aC C D 2

aCb

y



k



für 0  y 

b

a 2

;

k erhält.

b !.x / dx D F a C 2

  C 0:

6.5 Summierte Quadraturformeln R

Zur numerischen Berechnung des Integrals .f / D ab f .x / dx kann man beispielsweise das Intervall Œa; b  mit Stützstellen

xk D a C kh

für k D 0; 1; : : : ; N

 h D bN a

(6.29)

versehen und die bisher betrachteten Quadraturformeln zur numerischen Berechnung der Integrale Z x k xk

f .x / dx; 1

k D 1; 2; : : : ; N

verwenden. Die Resultate werden schließlich aufsummiert, und die so gewonnenen Formeln bezeichnet man als summierte Quadraturformeln. Im Folgenden werden einige Beispiele und die jeweils zugehörigen Fehlerdarstellungen vorgestellt.

144

Kapitel 6 Numerische Integration von Funktionen

6.5.1 Summierte Rechteckregeln Zwei Rechteckregeln sind in Beispiel 6.12 vorgestellt worden. Die summierten Rechteckregeln mit den äquidistanten Stützstellen aus (6.29) lauten dann entsprechend

T0 .h/ D h Tb 0 .h/ D h

NX1 kD0 N X

f .xk / 

Z b a

f .xk /

f .x / dx;

(6.30)

:

(6.31)

......

kD1

Die geometrische Bedeutung der summierten Rechteckregel (6.30) ist in Abb. 6.6 dargestellt. Ihre approximativen Eigenschaften sind in dem nachfolgenden Theorem festgehalten. Theorem 6.19. Die Funktion f W Œa; b  ! R sei einmal stetig differenzierbar auf dem Intervall Œa; b . Dann gibt es Zwischenstellen ; b  2 Œa; b  mit Z b a

f .x / dx

T0 .h/ D b 2 a hf 0 . /;

(6.32)

b

(6.33)

Tb 0 .h/ D

.......

a 2

hf 0 .b  /;

b 0 .h/ wie in (6.30) beziehungsweise (6.31). mit h D bN a , und mit T0 .h/ und T

Beweis. Es wird hier nur die Fehlerdarstellung (6.32) betrachtet, den Nachweis für (6.33) führt man ganz analog. Für T0 .h/ liefert Beispiel 6.15 die Existenz einer Zwischenstelle k 2 Œa; b  mit Z x k xk

f .x / dx 1

hf .xk

1/

2 D h2 f 0 .k /;

k D 1; 2; : : : ; N;

und Summation über k liefert Z b a

f .x / dx

T0 .h/ D

N X h2

2

kD1

N X f 0 .k / D b 2 a h N1 f 0 .k /: kD1

Aufgrund der Ungleichungen min f 0 .x / 

x 2 Œa;b 

N 1 X

N

kD1

f 0 .k /  max f 0 .x / x 2 Œa;b 

existiert nach Anwendung des Zwischenwertsatzes auf die Funktion f 0 eine Zwischenstelle  2 Œa; b  mit

f 0 . / D N1 was die Fehlerdarstellung (6.32) liefert.

N X

kD1

f 0 .k /;

145

Abschnitt 6.5 Summierte Quadraturformeln





........ ..... .............. ....... .. .. ..... ................... .. .......................................... ................................................................................................................................................. . . ............................................................................................................................................................................................................... . . . ... . ..... ..................................................................................................................................................................................................................... . . . . . . ........................................ . .......................................................................................................................... .......... ................................................................................................................................................................................................................................................................. ................................................................................................................................................................................................................................................ ................................................................................................................................................................................................................................................ ............................................................ ............................................................................................................................................................................................................................................................................................................ ................................................................................................................................................................................................................................................ ............................................................ ............................................................................................................................................................................................................................................................................................................

........ .... ............... .. ....... .. ... .. .................. .......................................................................................................................................... . . . .......................................................................................................................................................................................... . . ... . . . . .......................................................................................................................................................................................................................................................... . . . . . . .... ............................................... ..................................................................................................................................................................... ........................................................................................................................................................................................................................................................................................................... .............................................................................................................................................................................................................................................. .............................................................................................................................................................................................................................................. ........................................................... .......................................................................................................................................................................................................................................................................................................... .............................................................................................................................................................................................................................................. ........................................................... ..........................................................................................................................................................................................................................................................................................................

f .x /

0

a D x0

x1

f .x/

✲ b D x3

x2

0

a D x0

Abb. 6.6: Summierte Rechteckregel

x1

x2

✲ b D x3

Abb. 6.7: Summierte Trapezregel

6.5.2 Summierte Trapezregel Die von der (in Beispiel 6.10 definierten) Trapezregel abgeleitete summierte Trapezregel mit den Stützstellen aus (6.29) lautet

  Zb NX1 T1 .h/ D h2 f .a/ C 2 f .xk / C f .b /  f .x / dx:

(6.34)

a

kD1

Die geometrische Bedeutung der summierten Trapezregel (6.34) ist in Abb. 6.7 veranschaulicht. Das nachfolgende Theorem liefert eine Fehlerdarstellung für diese summierte Quadraturformel. Theorem 6.20. Die Funktion f W Œa; b  ! R sei auf dem Intervall Œa; b  zweimal stetig differenzierbar. Dann gibt es eine Zwischenstelle  2 Œa; b  mit Z b a

f .x / dx

b

T1 .h/ D

a 12

h2 f 00 . /;

mit h D bN a und T1 .h/ wie in (6.34). Beweis. Der Beweis verläuft entsprechend dem Beweis von Theorem 6.19: es gibt (siehe Beispiel 6.15) Zwischenstellen k 2 Œa; b  mit Z x k xk

f .x / dx 1

h 2



f .xk

1/

und Summation über k liefert Z b a

f .x / dx

T1 .h/ D

 C f .xk / D

N X h3

kD1

f 00 .k / D 12

h3

12

b

a 12

f 00 .k /;

h2 N1

N X

kD1

k D 1; 2; : : : ; N;

f 00 .k / D

b

a 12

h2 f 00 . /

für eine Zwischenstelle  2 Œa; b , wobei man die Existenz einer solchen Zwischenstelle durch Anwendung des Zwischenwertsatzes auf die Funktion f 00 erhält.

6.5.3 Summierte Simpson-Regel Die von der (in Beispiel 6.10 vorgestellten) Simpson-Regel abgeleitete summierte Simpson-Regel lautet

 N X f .xk T2 .h/ D h6 f .a/ C 4 kD1

1=2 /

C2

NX1 kD1

 Zb f .xk / C f .b /  f .x / dx; (6.35) a

146

Kapitel 6 Numerische Integration von Funktionen

mit den äquidistanten Stützstellen xk D a C kh; k  0, und mit h D bN a . Das nachfolgende Theorem liefert eine Fehlerdarstellung für die summierte Simpson-Regel. Theorem 6.21. Die Funktion f W Œa; b  ! R sei auf dem Intervall Œa; b  viermal stetig differenzierbar. Dann gibt es eine Zwischenstelle  2 Œa; b  mit Z b a

f .x / dx

b

T2 .h/ D

a

2880

h4 f .4/ . /;

mit h D bN a und T2 .h/ wie in (6.35). Beweis. Der Beweis verläuft wiederum entsprechend dem Beweis von Theorem 6.19. Für k D 1; 2; : : : ; N gibt es (siehe Beispiel 6.18) Zwischenstellen k 2 Œxk 1 ; xk  mit Z x k xk

f .x / dx 1

h

6

f .xk

1/

C 4f .xk

1=2 /

und Summation über k liefert Z b a

f .x / dx

T2 .h/ D D

N X

kD1

b

a

2880

 C f .xk / D

h5

f .4/ .k / D 2880 4

h f

.4/

b

a

h4 N1 2880

h5

2880

N X

f .4/ .k /;

f .4/ .k /

kD1

. /

für eine Zwischenstelle  2 Œa; b , wobei man die Existenz einer solchen Zwischenstelle durch Anwendung des Zwischenwertsatzes auf die Funktion f .4/ erhält. Bemerkung 6.22. Zwar ist die Zahl der erforderlichen Funktionsaufrufe bei der summierten Simpson-Regel doppelt so hoch wie bei den summierten Rechteckregeln oder der summierten Trapezregel. Für hinreichend glatte Funktionen f ist die Anwendung der summierten Simpson-Regel dennoch vorzuziehen, da sich beispielsweise gegenüber der summierten Trapezregel die Genauigkeit quadriert. M Bemerkung 6.23. Es soll hier noch einmal kurz auf die in den Theoremen 6.19, 6.20 und 6.21 angegebenen Fehlerdarstellungen für die summierten Quadraturformeln T0 .h/; Tb 0 .h/; T1 .h/ sowie T2 .h/ (das sind summierte Versionen der beiden Rechteckregeln, der Trapezregel sowie der Simpson-Regel) eingegangen werden. Wegen der fehlenden Kenntnis der Zwischenstellen lassen sich die angegebenen Fehlerdarstellungen nicht direkt verwenden. Unter den jeweils getroffenen Annahmen an den Integranden ist aber gesichert, dass die auftretenden Ableitungen des Integranden jeweils beschränkte Funktionen darstellen. Wir können damit die folgenden Schlussfolgerungen ziehen: Z b a

Z b a

f .x / dx

T0 .h/ D O.h/;

f .x / dx

T1 .h/ D O.h2 /;

Z b

f .x / dx

a Z b a

f .x / dx

Tb 0 .h/ D O.h/;

T2 .h/ D O.h4 /;

(6.36) (6.37)

jeweils für h ! 0. Falls darüber hinaus die in den genannten Fehlertheoremen auftretenden Ableitungen des Integranden von null wegbeschränkt sind, lassen sich die in (6.36) und (6.37) angegebenen Konvergenzordnungen nicht verbessern. M

147

Abschnitt 6.6 Asymptotik der summierten Trapezregel

6.6 Asymptotik der summierten Trapezregel In dem vorliegenden Abschnitt 6.6 wird für die summierte Trapezregel (6.34) eine asymptotische Entwicklung vorgestellt, die beim Einsatz von Extrapolationsverfahren (siehe Abschnitt 6.7) Gewinn bringend eingesetzt werden kann.

6.6.1 Die Asymptotik Für die summierte Trapezregel T1 .h/ aus (6.34) wird im folgenden Theorem eine asymptotische Entwicklung angegeben, die gewisse Ähnlichkeiten mit einer Taylorentwicklung von T1 im Punkt h D 0 aufweist. (Man beachte jedoch, dass T1 .h/ nur für diskrete positive Werte von h definiert ist.) Theorem 6.24. Sei f 2 C 2rC2 Œa; b ; r  0. Für die summierte Trapezregel

 Zb  NX1 f .x / dx f .xk / C f .b /  T1 .h/ D h2 f .a/ C 2 a

kD1

 h D bN a

(vergleiche (6.34)) gilt die folgende Darstellung:

T1 .h/ D 0 C 1 h2 C    C r h2r C RrC1 .h/; mit

0 D

Z b a

f .x / dx;

RrC1 .h/ D O.h2rC2 / für h ! 0;

(6.38)

(6.39)

und gewissen Koeffizienten 1 ; 2 ; : : : ; r 2 R. Beweis. Siehe Abschnitt 6.9. Es fällt auf, dass in (6.38) Terme mit ungeraden Potenzen von h nicht auftreten, was man sich zunutze machen kann. Mehr hierzu finden Sie in dem nachfolgenden Abschnitt 6.7 über Extrapolationsmethoden.

6.7 Extrapolationsverfahren 6.7.1 Grundidee Der vorliegende Abschnitt über Extrapolationsverfahren lässt sich inhaltlich Kapitel 1 über Polynominterpolation zuordnen. Er wird erst hier präsentiert, da mit der vorgestellten Asymptotik der summierten Trapezregel nun eine spezielle Anwendung vorliegt. Für eine gegebene Funktion2 T .h/; h > 0; liege mit gewissen Koeffizienten 0 ; 1 ; : : : ; r 2 R das folgende asymptotische Verhalten vor,

T .h/ D 0 C 1 h C 2 h2 C    C r hr C O.h.rC1/ / für h ! 0; 2

(6.40)

die typischerweise ein numerisches Verfahren repräsentiert, das zu zulässigen Diskretisierungsparametern h jeweils eine Approximation für eine gesuchte Größe 0 2 R liefert

148

Kapitel 6 Numerische Integration von Funktionen

mit einer Zahl > 0 und dem gesuchten Wert 0 D limh!0C T .h/. Für eine Nullfolge positiver, paarweiser verschiedener Schrittweiten h sei T .h/ bestimmbar. Wegen (6.40) gilt zunächst nur

T .h/ D 0 C O.h / für h ! 0: Mithilfe des im Folgenden vorzustellenden Extrapolationsverfahrens erhält man ohne großen Mehraufwand genauere Approximationen an die gesuchte Größe 0 (siehe Theorem 6.28 unten). Der Ansatz des Extrapolationsverfahrens ist folgender: zu ausgewählten positiven Stützstellen h0 ; h1 ; : : : ; hn wird das eindeutig bestimmte Polynom P0;:::;n 2 …n mit

P0;:::;n .hj / D T .hj /;

j D 0; 1; : : : ; n;

herangezogen3 und der Wert

P0;:::;n . 0 /  T . 0 / als Approximation für T . 0 / verwendet. Im Zusammenhang mit der summierten Trapezregel wird diese Vorgehensweise als Romberg-Integration bezeichnet und geht auf Romberg [90] zurück. Beispiel 6.25. Die prinzipielle Vorgehensweise bei der Extrapolation ist für n D 3 in Abb. 6.8 dargestellt. M .... ........

T .h0 /

........................................................ .................... ............. .......... ........ ....... . . . . .

... ...... 0;:::;3 .... ... 1 ....... . ... ... ... ... ... . ... .. .................................... ... ............ ........ ... ........ ....... 2 ... ....... . . . . . . . . . . . ..... . ..... .... ..... .... .... ...... ..... ... ....... ....... 3 .......... ................................... . . . . . ... ...... ....... ....... ................................

T .h /

P

.h /

T .h /

T .h /

0 P0;:::;3 .0/

h3

h2

h1

...............................

h0

Abb. 6.8: Darstellung der Vorgehensweise bei der Extrapolation; es ist P0;:::;3 2 …3

6.7.2 Neville-Schema Der Wert P0;:::;n . 0 /  T . 0 / lässt sich mit dem Neville-Schema berechnen. Für positive, paarweise verschiedene Schrittweiten h0 ; h1 ; : : : sei hierzu Pk;:::;kCm 2 …m 3

Für ein Polynom P wird die Funktion h ! P . h / als Polynom in h bezeichnet.

149

Abschnitt 6.7 Extrapolationsverfahren

dasjenige Polynom mit

Pk;:::;kCm .hj / D T .hj /;

j D k; k C 1; : : : ; k C m;

(6.41)

und es bezeichne

Tk;:::;kCm WD Pk;:::;kCm . 0 /:

(6.42)

Die Werte Tk;:::;kCm lassen sich mit dem Neville-Schema (1.7) rekursiv berechnen: Theorem 6.26. Für die Werte Tk;:::;kCm aus (6.42) gilt Tk D T .hk / und

Tk;:::;kCm D TkC1;:::;kCm C

TkC1;:::;kCm hk hkCm

Tk;:::;kCm 

1

.m  1;

1

k  0 /:

Beweis. Mit der Darstellung (1.7) auf Seite 8 berechnet man leicht

Tk;:::;kCm D

hk TkC1;:::;kCm C hkCm Tk;:::;kCm

hkCm

h kCm

D TkC1;:::;kCm D

......

C

1

hk

TkC1;:::;kCm

Tk;:::;kCm

hkCm

TkC1;:::;kCm hk hkCm

1

hk

Tk;:::;kCm 

1

:

1

Beispiel 6.27. Die zur summierten Trapezregel T1 .h/ (hier gilt D 2) gehörenden Werte T0 ; T1 und T01 lauten für die Schrittweiten h0 D b a und h1 D b 2 a folgendermaßen,

 T0 D b 2 a f .a/ C f .b / ;

T01 D T1 C

T1

4

T0



f .a/ 2

 f .b / b Cf aC C ; 2 2

1

  f .b / aCb  b a b C f C C f aC 2 2 2 2 6 2   b D b 6 a f .a/ C 4f a C C f .b / ; 2

D

b

a



T1 D b 2 a

f .a/

f .b /

f .a/

2

2

so dass T01 der Simpson-Regel zur Approximation des Integrals spricht. M

Rb a



f .x / dx ent-

6.7.3 Verfahrensfehler bei der Extrapolation Die betrachteten Schrittweiten h0 ; h1 ; : : : seien nun so gewählt, dass bezüglich einer Grundschrittweite b h > 0 Folgendes gilt,

b hj D nh j

für j D 0; 1; : : : ;

mit 1  n0 < n1 < : : : :

(6.43)

150

Kapitel 6 Numerische Integration von Funktionen

Mit dem folgenden Theorem, das einen Spezialfall der in Bulirsch [8] betrachteten Situation darstellt, wird beschrieben, wie gut die Werte Tk;:::;kCm D Pk;:::;kCm . 0 / den gesuchten Wert 0 D limh!0C T .h/ approximieren. Theorem 6.28. Sei T .h/; h > 0, eine Funktion mit der asymptotischen Entwicklung (6.40), mit gewissen Zahlen > 0 und r 2 N. Für eine Folge h0 ; h1 ; : : : von Schrittweiten mit der Eigenschaft (6.43) erfülle das Polynom Pk;:::;kCm 2 …m die Interpolationsbedingung (6.41), und Tk;:::;kCm sei wie in (6.42). Dann gilt im Fall 0  m  r 1 die asymptotische Entwicklung

Tk;:::;kCm D 0 C . 1/m

mC1



nk    nkCm

b h.mC1 / C O b h.mC2 /



für b h ! 0:

Beweis. O. B. d. A. darf k D 0 angenommen werden. Gemäß der lagrangeschen Interpolationsformel gilt

P0;:::;m .h / D

m X

T .hj /

j D0

h Y m h

i

hs

hs

h sD0 j

s¤j

für h 2 R ;

und somit

T0;:::;m D P0;:::;m . 0 / D

m X

cm;j T .hj /;

j D0

mit cm;j WD

(6.44)

m Y

D

hj

s¤j

Nun gilt zum einen

T .hj / D

mC X1 kD0

m Y

hs

h sD0 s

sD0 s¤j

1 1

.ns =nj /

.mC2/ k hk /; j C O.hj

und außerdem gilt nach Aufgabe 1.5 aus Kapitel 1 Folgendes, m X

j D0

cm;j hk j D

8 ˆ < ˆ :

1 0

.

1 /m h

0 : : : hm

für k D 0;

für k D 1; : : : ; m;

für k D m C 1:

:

(6.45)

(6.46)

9 > = > ;

(6.47)

Die beiden Identitäten (6.46) und (6.47) eingesetzt in (6.44) ergeben dann

T0;:::;m D D

m X

cm;j

 mC X1

j D0 kD0 m mC X1  X kD0

j D0

k

.mC2/

k hj C O.hj

 cm;j hk k j

C

m X



cm;j O.hj.mC2/ /

j D0

D 0 C . 1 /m mC1 h0 : : : hm C

/

......



ƒ‚ … .mC2/ b D O. h /

unter Beachtung der Tatsache, dass die Koeffizienten cm;j aus (6.45) nicht von b h abhängen. Dies komplettiert den Beweis des Theorems.

151

Abschnitt 6.8 Gaußsche Quadraturformeln

Bemerkung 6.29. Prominente Unterteilungen sind: 



hj D

hj 2

1

für j D 1; 2; : : : mit h0 D b h

(Romberg-Folge)

b b b b b b b h h h0 D b h; h1 D 2h ; h2 D h3 ; h3 D 4h ; h4 D 6h ; h5 D 8h ; h6 D 12 ; h7 D 16 ;

b h h8 D 24 ; : : :,

mit der Notation aus (6.43) allgemein nj D 2nj



hj

1

b D jh für j D 1; 2; : : :

2

für j  4

(harmonische Folge)

(Bulirsch-Folge)

M

Beispiel 6.30. Speziell soll ausgehend von der Basisunterteilung b h D .b a/=N noch die Romberg-Folge hj D b h=2j für j D 0; 1; : : : genauer betrachtet werden. Hier ist die Bedingung (6.43) mit nj D 2j erfüllt, und unter den Bedingungen von Theorem 6.28 erhält man für n  r 1 die Identität

T0;:::;n D 0 C



. 1 /n

nC1 2n.nC1 / =2



 b h.nC1/ C O b h.nC2/ :

Zur Veranschaulichung soll das Resultat noch speziell für die summierte Trapezregel

T1 .h/ D

Z b a

f .x / dx C O.h2 /

betrachtet werden, mit n D 2. Mit der in Schema 6.1 angedeuteten Vorgehensweise erhält man so mit wenig Aufwand die sehr viel genauere Approximation

T012 D

Z b a

f .x / dx C

3 b6

64

h C O.b h8 /:

M

T1 .h0 / D T0

& T1 .h1 / D T1 ! T01 & & T1 .h2 / D T2 ! T12 ! T012 Schema 6.1: Neville-Schema zu Beispiel 6.30

6.8 Gaußsche Quadraturformeln 6.8.1 Einleitende Bemerkungen Thema des vorliegenden Abschnitts ist die möglichst genaue numerische Berechnung gewichteter Integrale

.f / WD

Z b a

f .x /%.x / dx;

(6.48)

152

Kapitel 6 Numerische Integration von Funktionen

wobei f W Œa; b  ! R eine vorgegebene Funktion und % eine gegebene Gewichtsfunktion ist, siehe die folgende Definition. Hierbei werden zur Vereinfachung der Notation endliche Intervalle betrachtet, 1 < a  b < 1. Die nachfolgenden Betrachtungen lassen sich jedoch auf unendliche Intervalle übertragen. Definition 6.31. Es wird

% W Œa; b  ! . 0; 1 

Gewichtsfunktion genannt, wenn sie auf dem offenen Intervall .a; b / stückweise stetig sowie über Œa; b  integrabel ist. Zur numerischen Berechnung des Integrals (6.48) werden wieder interpolatorische Quadraturformeln

n .f / D

n X

k f .k /;

(6.49)

kD1

herangezogen, wobei im Unterschied zur Formel (6.2) teils aus historischen Gründen hier jedoch 

die Stützstellen mit k bezeichnet werden,



die Summation bei k D 1 beginnt,



der Faktor b

a fehlt.

In diesem Abschnitt wird beschrieben, für welche Wahl der Stützstellen 1 ; 2 ; : : : ; n und Gewichte 1 ; 2 ; : : : ; n der Genauigkeitsgrad der zugehörigen interpolatorischen Quadraturformel einen möglichst hohen Wert annimmt. Die Begriffe interpolatorische Quadraturformel und Genauigkeitsgrad sind hierbei ganz kanonisch auf Integrale mit Gewichten zu übertragen (wobei allerdings in den nachfolgenden Betrachtungen auch der Fall %  1 von Interesse ist). Die resultierenden Formeln werden dann als gaußsche Quadraturformeln bezeichnet. Bei der Herleitung dieser Formeln werden orthogonale Polynome benötigt.

6.8.2 Orthogonale Polynome Definition 6.32. Zu gegebener Gewichtsfunktion % W Œa; b  ! . 0; 1  bezeichne

h p; qii D

Z b a

p.x /q.x /%.x / dx;

jjp jj D h p; pii1=2 für p; q 2 …:

Die Abbildung h ; ii W …  … ! R definiert ein Skalarprodukt auf dem Raum aller reellen Polynome …, insbesondere ist also h ; ii linear in jedem seiner Argumente bei jeweils festem anderem Argument, und es gilt h p; pii > 0 für 0 ¤ p 2 …. Wir führen noch die folgende Notation ein. Definition 6.33. 1. Zwei Polynome p; q 2 … heißen orthogonal zueinander, wenn h p; qii D 0 gilt. 2. Das orthogonale Komplement von …n  … ist gegeben durch

® ¯ …? n WD p 2 … W h p; qii D 0 8 q 2 …n ;

n D 0; 1; : : : :

153

Abschnitt 6.8 Gaußsche Quadraturformeln

Offensichtlich ist …? n ein linearer Unterraum von …. Eine spezielle Folge paarweise orthogonaler Polynome erhält man durch Gram-Schmidt-Orthogonalisierung der Monome 1; x; x 2 ; : : ::

p0 D 1 ; pn D x n

(6.50) nX1

mD0

h x n ; pm i pm ; jj pm jj2

n D 1; 2; : : : :

(6.51)

Nach Konstruktion ist also pn ein Polynom vom genauen Grad n mit führendem Koeffizienten eins, und es gilt

pn 2 … ? n 1:

(6.52)

Mit dem nachfolgenden Theorem wird eine Vorgehensweise vorgestellt, mit der sich diese Orthogonalpolynome effizient berechnen lassen. Theorem 6.34. Die Orthogonalpolynome in (6.50), (6.51) genügen der Drei-TermRekursion

p0 D 1 ; pnC1 D .x

p1 D x ˇn /pn

ˇ0 ; 2

n pn

(6.53) 1;

n D 1; 2; : : :;

(6.54)

mit den Koeffizienten

ˇn D

h xpn ; pn i jj pn jj2

für n D 1; 2; : : :;

n2 D

jj pn jj2 jj pn 1 jj2

für n D 1; 2; : : : :

Beweis. Offenbar ist die angegebene Darstellung richtig für p0 und p1 . Für n  1 setzen wir

qnC1 WD .x

n2 pn

ˇn /pn

1

und zeigen im Folgenden qnC1 D pnC1 . Dazu beobachtet man, dass qnC1 (ebenso wie pnC1 ) ein Polynom mit genauem Grad n C 1 ist und den führenden Koeffizienten eins besitzt, und somit gilt

r WD pnC1

qnC1 2 …n :

(6.55)

Wir zeigen nun, dass qnC1 (ebenso wie pnC1 ) im orthogonalen Komplement von …n liegt, so dass dann auch

r D pnC1

qnC1 2 …? n

(6.56)

gilt. Die Beziehungen (6.55) und (6.56) zusammen ergeben dann jjr jj2 D h r ; r i D 0 und damit wie behauptet pnC1 D qnC1 . Wie angekündigt wird nun

qnC1 2 …? n nachgewiesen. Aufgrund der Identität h pn ; pn

h qnC1 ; pn i D h xpn ; pn i

(6.57) 1i

D 0 und der Definition von ˇn gilt

ˇn jjpn jj2 D 0:

(6.58)

154

Kapitel 6 Numerische Integration von Funktionen

Weiter erhält man wieder wegen h pn ; pn

n Folgendes,

h qnC1 ; pn

1i

D h pn ; xpn

1i

n2 jjpn

1i

D 0 sowie aufgrund der Definition von 2 1 jj

D h pn ; xpn

1

pn i D 0 ;

(6.59)

wobei das letzte Gleichheitszeichen aus der Tatsache folgt, dass xpn 1 pn ein Polynom vom Grad  n 1 darstellt. Ferner ist qnC1 auch orthogonal zu jedem Polynom vom Grad  n 2, denn es gilt

h qnC1 ; qii D h pn ; xqii ˇn h pn ; qii n2 h pn 1 ; qii D 0 8 q 2 …n „ ƒ‚ … „ ƒ‚ … „ ƒ‚ … D0

D0

2:

(6.60)

D0

Wegen …n D span ¹pn ; pn 1 º ˚ …n 2 folgt aus (6.58)–(6.60) die nachzuweisende Eigenschaft (6.57), mit der man wie bereits beschrieben pnC1 D qnC1 erhält. Das folgende Theorem liefert Aussagen über die Nullstellen der betrachteten Orthogonalpolynome. Theorem 6.35. Die Nullstellen 1 ; 2 ; : : : ; n des n-ten Orthogonalpolynoms pn in (6.51) sind einfach und liegen alle im offenen Intervall .a; b /. Sie besitzen die Darstellung4

k D

h xLk ; Lk i ; jj Lk jj2

Lk .x / WD

n Y x s k s

sD1 s¤k

für k D 1; 2; : : : ; n:

(6.61)

Beweis. Es seien a < 1 <    < m < b . 0  m  n/ diejenigen Nullstellen von pn in dem offenen Intervall .a; b /, an denen pn sein Vorzeichen wechselt, also diejenigen Nullstellen von pn in .a; b / mit ungerader Vielfachheit. Im Folgenden wird m D n nachgewiesen. Wäre m  n 1, so hätte nämlich das Polynom

q.x / WD den Grad 0  m  n

m Y

.x

k /

kD1

1, so dass wegen (6.52)

h pn ; qii D 0

(6.62)

folgt. Nun ist aber das Polynom pn .x /q.x / nach Konstruktion von einem Vorzeichen auf Œa; b , so dass

h pn ; qii D

Z b a

pn .x /q.x /%.x / dx ¤ 0

gilt im Widerspruch zu (6.62). Um zur Darstellung (6.61) zu gelangen, faktorisiert man pn in der Form

pn .x / D .x 4

wobei L1 ; : : : ; Ln 2 …n darstellen

1

k /b q .x /;

die den Nullstellen 1 ; : : : ; n zugeordneten lagrangeschen Basispolynome

155

Abschnitt 6.8 Gaußsche Quadraturformeln

mit einem geeigneten Polynom b q 2 …n

1

und erhält daraus

0 D h pn ;b q i D h xb q ;b qi

Hieraus folgt wegen hb q ;b qi ¤ 0

h xb q;b qi

k D

jjb q jj2

D

k hb q ;b q i:

h xLk ; Lk i ; jj Lk jj2

wobei sich die letzte Gleichung daraus ergibt, dass die Polynome b q und Lk bis auf einen konstanten Faktor übereinstimmen. Beispiel 6.36. In Tabelle 6.1 sind für verschiedene Intervalle und Gewichtsfunktionen die Bezeichnungen der zugehörigen orthogonalen Polynome aufgelistet. Intervall

%.x /

zugehörige orthogonale Polynome

Œ 1; 1 

1

Legendre-Polynome

Œ 1; 1 

1

p

Œ 1; 1 

.1

. 1; 1/ . 1; 1/

Tschebyscheff-Polynome der ersten Art Tn

x2

1

x /˛ . 1 C x /ˇ ; ˛ > e

e

1; ˇ >

1

x2

x2 x ˛ ;

˛>

Jacobi-Polynome Hermite-Polynome

1

Laguerre-Polynome

Tabelle 6.1: Verschiedene Systeme von Orthogonalpolynomen Man beachte, dass in den beiden zuletzt genannten Beispielen anders als bisher angenommen unendliche Intervalle betrachtet werden; hierzu sei auf die Bemerkung eingangs dieses Abschnitts 6.8 verwiesen. M

6.8.3 Optimale Wahl der Stützstellen und Gewichte Das folgende Theorem beschreibt, unter welchen Bedingungen an n Stützstellen und Gewichte der Genauigkeitsgrad einer Quadraturformel 2n 1 beträgt. Theorem 6.37. Für ein n 2 N seien 1 ; : : : ; n 2 R paarweise verschiedene Zahlen, und weiter seien 1 ; : : : ; n 2 R beliebig. Dann und nur dann gilt

h p; 1 i D

n X

kD1

k p.k / für p 2 …2n

1;

(6.63)

wenn die folgenden Bedingungen a) und b) erfüllt sind, a) die Zahlen 1 ; : : : ; n 2 R stimmen mit den Nullstellen des n-ten orthogonalen Polynoms pn (siehe (6.61)) überein,

156

Kapitel 6 Numerische Integration von Funktionen

b) die Gewichte 1 ; 2 ; : : : ; n haben die Gestalt

k D h Lk ; 1 i für k D 1; 2; : : : ; n; wobei L1 ; L2 ; : : : ; Ln 2 …n 1 die den Zahlen 1 ; 2 ; : : : ; n zugeordneten lagrangeschen Basispolynome darstellen5 . Unter diesen Bedingungen gilt auch k D h Lk ; Lk i > 0 für k D 1; 2; : : : ; n: Beweis. “=)” Es gelte (6.63), und zum Beweis von a) setzen wir

q.x / WD .x

1 /    .x

n /

und weisen im Folgenden die Identität q D pn nach. Hierzu wendet man die Identität (6.63) auf das Polynom p.x / WD x m q.x / mit m 2 ¹ 0; 1; : : : ; n 1 º an und erhält

h q; x m i D h x mq; 1 i D was insgesamt

n X

k m k q.k / D 0 für m D 0; 1; : : : ; n „ƒ‚… kD1 D0

q 2 …? n

…? n 1

1;

1

und damit q pn 2 nach sich zieht. Außerdem ist q ein Polynom mit genauem Grad n und führendem Koeffizienten eins, so dass sich die Eigenschaft q pn 2 …n 1 ergibt, was schließlich (wie im Beweis des vorigen Theorems 6.34) q D pn liefert. Teil b) ergibt sich wegen Lj .k / D ıjk unmittelbar aus der Identität (6.63) angewandt mit p D Lj . “(= ” Es gelte nun a), b), und p 2 …2n 1 sei beliebig. Dann lässt sich das Polynom p in der Form6

p D qpn C r schreiben mit gewissen Polynomen q; r 2 …n

p.k / D r.k /;

1.

Wegen pn .k / D 0 gilt dann

k D 1; 2; : : : ; n;

und mit der lagrangeschen Interpolationsformel erhält man

r.x / D

n X

kD1

r.k /Lk .x / D

n X

p.k /Lk .x /:

kD1

Dies führt dann auf die angegebene Identität (6.63): n X

n X

h p; 1 i D h q; pn i Chh r ; 1 i D k p.k /: p.k /hh Lk ; 1 i D „ ƒ‚ … kD1 kD1 D0

Die angegebene Darstellung k D h Lk ; Lk i > 0 für die Gewichte ergibt sich aus der Darstellung (6.63) angewandt auf das Polynom p D L2k . 5 6

vergleiche (6.61) nach Polynomdivision mit Rest

157

Abschnitt 6.8 Gaußsche Quadraturformeln

Bemerkung 6.38. Man beachte, dass hier (im Unterschied zu den abgeschlossenen Newton-Cotes-Formeln) die Gewichte in jedem Fall positiv ausfallen7 . M Definition 6.39. Die Quadraturformel

n .f / WD

n X

kD1

k f .k / für f 2 C Œa; b ;

(6.64)

mit den Stützstellen 1 ; : : : ; n 2 R und Gewichten 1 ; : : : ; n wie in a) und b) aus Theorem 6.37 bezeichnet man als gaußsche Quadraturformel. Als eine unmittelbare Konsequenz aus Theorem 6.37 erhält man: Korollar 6.40. Die gaußsche Quadraturformel (6.64) ist interpolatorisch und besitzt mindestens den Genauigkeitsgrad r D 2n 1. Beweis. Zu einer gegebenen Funktion f 2 C Œa; b  sei Qn 1 2 …n 1 das interpolierende Polynom zu den Stützpunkten .1 ; f .1 //; .2 ; f .2 //; : : : ; .n ; f .n //. Aus der Eigenschaft (6.63) erhält man die erste Aussage, n X

kD1

k f .k / D

n X

 k Qn

1 .k /

kD1

D h Qn

1; 1 i;

und die angegebene untere Schranke für den Genauigkeitsgrad folgt ebenfalls unmittelbar aus (6.63). Mit dem folgenden Resultat wird die Fehleraussage aus Theorem 6.13 auf Seite 136 auf die vorliegende Situation der gewichteten Integrale übertragen. Theorem 6.41. Für den Fehler bei der Gaußquadratur (6.64) gilt unter der Voraussetzung f 2 C 2n Œa; b  die Darstellung

.f /

n .f / D



 Z b 1 2 .x / %.x / dx f .2n/ . / p n . 2n /Š a

. /2nC1 D b .a /

2n Š

mit tk WD

k a b a

Z 1  Y n 0

.t

kD1

 tk /2 %..b

(6.65)

 a/t C a/ dt f .2n/ . / (6.66)

für k D 1; 2; : : : ; n, und mit einer geeigneten Zwischenstelle  2 Œa; b .

Beweis. Der Genauigkeitsgrad bei der Gaußquadratur (6.64) ist nach Korollar 6.40 mindestens r D 2n 1. Wählt man zu den Stützstellen 1 ; 2 ; : : : ; n nun die weiteren Stützstellen nC1 D 1 ; : : : ; 2n D n , so ist 2n Y

kD1

.x

k / D

n Y

.x

kD1

k /2 D pn2 .x /

von einem Vorzeichen, und man erhält dann die Resultate (6.65)–(6.66) mit der gleichen Vorgehensweise wie in den Teilen 1 und 3 des Beweises von Theorem 6.13. 7

vergleiche hierzu die Anmerkungen vor Theorem 6.11

158

Kapitel 6 Numerische Integration von Funktionen

Bemerkung 6.42. 1. Als unmittelbare Konsequenz aus Theorem 6.41 ergibt sich, dass der Genauigkeitsgrad der gaußschen Quadraturformeln genau r D 2n 1 beträgt. Dies ist optimal; für die Situation % D 1 siehe hierzu Aufgabe 6.2. 2. Man kann auch summierte gaußsche Quadraturformeln betrachten und anwenden; die Resultate aus Abschnitt 6.5 lassen sich ganz kanonisch übertragen. M

6.8.4 Nullstellen von orthogonalen Polynomen als Eigenwerte Für größere Werte von n steht man noch vor dem Problem, die Nullstellen des n-ten orthogonalen Polynoms pn sowie die Gewichte 1 ; : : : ; n zu bestimmen. Dazu gehen wir im Folgenden davon aus, dass die Koeffizienten ˇj und j in der Rekursion

p0 D 1 ;

p1 D x

pj C1 D .x

ˇj /pj

ˇ0 ; 2

j pj

(6.67) 1;

j D 1; 2; : : :;

(6.68)

explizit bekannt sind und betrachten dann die symmetrische Matrix

0

B B B B B JDB B B B @

ˇ0

:: :

::

:

::

:

::: :: : :: : :: :

0

:::

0

n

1

1

0

ˇ1

2

2

0

::

:

0

C C C C C nn : 0 C2R C C

n 1 C A ˇn 1 :: :

1

1

(6.69)

Theorem 6.43. Die Nullstellen 1 ; 2 ; : : : ; n des n-ten Orthogonalpolynoms pn stimmen mit den Eigenwerten der Matrix J überein, und die Gewichte ergeben sich daraus folgendermaßen:

k D h 1 ; 1 i =

 nX1

j2 pj2 .k /

j D0



für k D 1; 2; : : : ; n;

(6.70)

mit den Zahlen

j WD

°

1

. 1 /j =. 1 2    j /

für j D 0; für j D 1; 2; : : : ; n

1:

Beweis. Es wird zunächst Folgendes nachgewiesen, Jv .k/ D k v .k/

für k D 1; 2; : : : ; n;

(6.71)

mit dem Vektor

v .k/ D 0 p0 .k /; 1 p1 .k /; : : : ; n „ ƒ‚ … D 1

1 pn 1 .k /

>

2 Rn:

159

Abschnitt 6.8 Gaußsche Quadraturformeln

Es ist

. Jv .k/ /1 D ˇ0  1

1 1 p1 .k / D ˇ0 C p1 .k / D ˇ0 C k

.k/

ˇ0 D k D k v1 ;

und weiter erhält man aus den Rekursionsformeln (6.68) mit x D k Folgendes (wobei in der nachfolgenden Situation j D n 1 noch n WD n WD 0 gesetzt wird und pn .k / D 0 zu beachten ist):

. Jv .k/ /j C1 D

j j .

1 /j

1 pj

1 .k /



D    j2 pj 1 j „ ƒ‚ … Dj

C ˇj j pj .k /

j C1 j C1 pj C1 .k /  . / C ˇ p . / C p . / 1 j j j C1 k k k .k/

D j k pj .k / D k vj C1 für j D 1; 2; : : : ; n

1;

und (6.71) ist damit bewiesen. Im Folgenden soll noch die Darstellung (6.70) nachgewiesen werden. Die Identität (6.71) bedeutet noch, dass v .k/ Eigenvektor zum Eigenwert k der Matrix J ist. Gemäß Theorem 6.35 sind diese Eigenwerte paarweise verschieden, und aus der Symmetrie der Matrix J erhält man dann >

v .k/ v .`/ D 0 für k ¤ `:

(6.72)

Aufgrund der paarweisen Orthogonalität der Polynome p0 ; p1 ; : : : sowie wegen Theorem 6.37 gilt

ıj 0 h 1; 1 i D h pj ; 1 i D

n X

`D1

` pj .` / für j D 0; 1; : : : ; n

1;

(6.73)

und Multiplikation von (6.73) mit j2 pj .k / sowie anschließende Summation über j liefert

h 1; 1 i D D

nX1 X n

j D0 `D1 n X

`D1

` j2 pj .k / pj .` / D

n X

`D1

`

nX1

j2 pj .k / pj .` /

j D0

` .v .k/ />v .`/ D k .v .k/ />v .k/ ;

wobei in der letzten Gleichheit noch die Orthogonalitätsbeziehung (6.72) eingeht. Dies liefert die Aussage (6.70). Bemerkung 6.44. Die gesuchten Eigenwerte der Matrix J aus (6.69) können für größere Werte von n nur numerisch berechnet werden. Entsprechende Methoden werden in Kapitel 13 vorgestellt. M

160

Kapitel 6 Numerische Integration von Funktionen

6.9 Nachtrag: Beweis der Asymptotik für die summierte Trapezregel 6.9.1 Bernoulli-Polynome Definition 6.45. Die Bernoulli-Polynome Bk sind rekursiv erklärt: B0 .x /  1; und für

k D 1; 2; : : : gilt

Bk .x / D Ak C k

Z x

Bk

0

1 .t / dt;

mit Ak WD

k

Z 1 Z x 0

0

x 2 Œ 0; 1 ;  Bk 1 .t / dt dx:

(6.74) (6.75)

Beispielsweise gilt 1 ; 2

B1 .x / D x

3 2 x 2

B3 .x / D x 3

x C 16 ;

B2 .x / D x 2 C 12 x;

B4 .x / D x 4

(6.76) 1 : 30

2x 3 C x 2

Theorem 6.46. Für die Bernoulli-Polynome Bk aus (6.74)–(6.75) gelten die folgenden Aussagen: a) (äquivalente Formulierung) Es gilt Bk 2 …k für k D 0; 1; : : :, und

Bk0 .x / D kBk b) Es gilt B1 . 0 / D

1 ; 2

1 .x /;

Z 1 0

Bk .x / dx D 0 für k D 1; 2; : : : :

(6.77)

B1 . 1 / D 12 , und

Ak D Bk . 0 / D Bk . 1 / für k D 2; 3; : : : : c) Die Funktion B2k ist gerade bezüglich x D x D 21 , es gilt also

B2k

1 2

B2kC1

1 2

 C x D B2k  Cx D

1 2

B2kC1

x 1 2

1 , 2



x

und B2kC1 ist ungerade bezüglich



für 0  x  ......

1 ; 2

I

d) B2kC1 . 0 / D B2kC1 .1/ D 0 für k D 1; 2; : : : . Beweis. “a)” gilt offensichtlich. “b)”: Die Aussage für B1 resultiert unmittelbar aus (6.76). Für k  2 folgt Ak D Bk . 0 / aus der Definition (6.74), und wegen der Mittelwerteigenschaft in (6.77) erhält man

Bk . 1 / D A k C k

Z 1 0

Bk

1 .x / dx

D Ak C k  0 D Ak :

161

Abschnitt 6.9 Beweis der Asymptotik für die summierte Trapezregel

“c)” wird mit vollständiger Induktion nachgewiesen. B0  1 ist eine gerade Funktion bezüglich x D 21 , und wir nehmen nun an, dass B2k eine bezüglich x D 12 gerade Funktion ist. Dann gilt

B2kC1 .x / D A2kC1 C . 2k C 1 /

Z x 0

B2k .t / dt

Z 1=2

Z x

D A2kC1 C . 2k C 1 / B2k .t / dt C. 2k C 1 / B2k .t / dt ; 0 1=2 „ ƒ‚ … „ ƒ‚ … DW Q.x / DW b A2kC1

Nun ist Q ungerade bezüglich x D

Q

1 2

 Z Cx D D

1=2Cx 1=2

Z 1=2 x 1=2

1 , 2

denn

B2k .t / dt D

Z x 0

B2k

B2k .t /. 1 / dt D

1 2

Q

Z x  B2k C t dt D 0

1 2

R1

 C x D A2kC2 C . 2k C 2 /

D A2kC2 C . 2k C 2 / D B2kC2

1 2

x



 x :

 t dt

0

vergleiche (6.77), ist b A2kC1 ungerade Funktion. Sofort ergibt sich nun, dass B2kC2 bezüglich x D 1 2

1 2

R Q.x / dx D 0, und wegen 01 B2kC1 .x / dx D 0, D 0 und somit B2kC1 D . 2k C 1 /Q eine bezüglich x D 12

Damit gilt aber notwendigerweise

B2kC2

0  x  1:

Z 1=2 x 0

Z 1=2Cx 0

1 2

eine gerade Funktion ist:

B2kC1 .t / dt

B2kC1 .t / dt C . 2k C 2 /

für 0  x 

1 : 2

Z 1=2Cx 1=2 x



B2kC1 .t / dt ƒ‚ … D0

“d)” Die erste Identität in d) ist schon in b) festgehalten, und die dritte Gleichheit ergibt sich aus der Tatsache, dass B2kC1 bezüglich x D 21 eine ungerade Funktion ist:

B2kC1 . 1 / D B2kC1

1 2

C

1 2

D

B2kC1

1 2

1 2

D

B2kC1 . 0 / D

B2kC1 . 1 /:

Definition 6.47. Die Werte B2k . 0 /; k D 0; 1; : : :; heißen bernoullische Zahlen. Die ersten bernoullischen Zahlen sind

B0 . 0 / D 1 ;

B2 . 0 / D 61 ;

B4 . 0 / D

1 ; 30

B6 . 0 / D

1 ; 42

B8 . 0 / D

1 : 30

Die bernoullischen Zahlen spielen beim Beweis von Theorem 6.24 eine Rolle.

6.9.2

Der Beweis von Theorem 6.24

Im Folgenden wird der Beweis von Theorem 6.24 geführt, und hierzu setzt man die Bernoulli-Polynome Bk von dem Intervall Œ 0; 1  ausgehend 1-periodisch fort,

Sk .x / WD Bk .x

m/ für m  x < m C 1;

m D 0; 1; : : : :

162

Kapitel 6 Numerische Integration von Funktionen

Es ist S0 eine Sägezahnfunktion, die Funktion S1 ist stückweise stetig differenzierbar, und für k  2 ist Sk stetig differenzierbar, und es gilt

Sk0 .x / D kSk

1 .x /

für m < x < m C 1;

m 2 N0

.k D 1; 2; : : :/:

Im weiteren Verlauf wird nachgewiesen, dass die Darstellung (6.38) richtig ist mit 0 wie in (6.39) und für

k WD RrC1 .h/ WD

B2k . 0 / . 2k /Š



f .2k

1/

.b /

f .2k

 .a/ ;

k D 1; 2; : : : ; r;

(6.78)

  S2rC2 x h a f .2rC2/ .x / dx h2rC2 : (6.79)

Z b 1 S2rC2 . 0 / . 2r C 2 /Š a

Aus (6.79) folgt dann

jRrC1 .h/j 

1/

2. b a / max jB2rC2 .y /j max jf .2rC2/ .x /jh2rC2 . 2r C 2 /Š y 2 Œ 0;1  x 2 Œa;b 

und damit die zweite Darstellung in (6.39). Zum Beweis der Darstellung (6.38) mit den Koeffizienten aus (6.39), (6.78) und (6.79) wird zur Vereinfachung zunächst die Intervall-Transformation Œa; b  ! Œ 0; N  vorgenommen: sei

g.t / WD f .a C th/;

0  t  N:

Die Identität (6.38) mit den Koeffizienten aus (6.39), (6.78) und (6.79) ist dann äquivalent zu der euler-maclaurinschen Summenformel g. 0 / 2

C g. 1 / C    C g.N

D

r X B2k . 0 / . 2k /Š

g

1/ C

.2k 1/

.N /

g

Z N

g. N / 2

0

.2k 1/

kD1

g.t / dt

 . 0 / C CrC1

mit dem Fehlerterm

CrC1 WD

Z N

1

. 2r C 2 /Š 0

S2rC2 . 0 /

denn

T1 .h/ D h Z b a

f .x / dx D h



g. 0 /

Z N 0

2

> ;

 S2rC2 .t / g .2rC2/ .t / dt;

C g. 1 / C    C g.N

g.t / dt;

9 > =

1/ C

g. N / 2



;

f .j / .a C th/hj D g .j / .t /;

0  t  N:

Es soll nun die Identität (6.80)–(6.81) nachgewiesen werden: 1 .g. 1 / C g. 0 // 2

Z 1 0

ˇt D1 g.t / dt D B1 .t /g.t /ˇ D

Z 1 0

t D0

Z 1 0

B1 .t /g 0 .t / dt D

B0 .t /g.t / dt Z 1 0

S1 .t /g 0 .t / dt;

(6.80)

(6.81)

163

Weitere Themen und Literaturhinweise

und analog gilt 1 .g.j 2

C 1 / C g.j //

Z j C1 j

g.t / dt D

Z j C1 j

S1 .t /g 0 .t / dt;

j D 0; 1; : : : ; N

1;

so dass man g. 0 / 2

C g. 1 / C    C g.N

1/ C

Z N

g. N / 2

g.t / dt D

0

Z N 0

S1 .t /g 0 .t / dt

erhält. Das letzte Integral wird weiter partiell integriert, Z N 0

Z N 1 2Š 0

ˇt DN S1 .t /g 0 .t / dt D 21Š S2 .t /g 0 .t /ˇ t D0 B2 . 0 / 0 .g .N / 2Š

D

S2 .t /g 00 .t / dt

Z N 1 2Š 0

g 0 . 0 //

S2 .t /g 00 .t / dt;

und partielle Integration des letzten Integrals liefert wiederum Z N 1 2Š 0

S2 .t /g 00 .t / dt D D

D

ˇt DN 1 00 ˇ S .t /g .t / 3 3Š t D0 B3 . 0 / .g 00 .N / 3Š

„ƒ‚…

C 31Š

Z N 0

S3 .t /g 000 .t / dt

g 00 . 0 // C 31Š

Z N 0

S3 .t /g 000 .t / dt

D0 Z N 1 S3 .t /g 000 .t / dt: 3Š 0

Wiederholte partielle Integration liefert schließlich die Identität (6.80) mit der folgenden Konstanten,

CrC1 D D D

1 . 2rC2 /Š

S2rC2 . 0 / g .2rC1/ .N /

1 . 2r C 2 /Š

1

S2rC2 . 0 / Z N

. 2r C 2 /Š 0

Z N 0

g .2rC1/ . 0 /

g .2rC2/ .t / dt

S2rC2 . 0 /



1

Z N

. 2rC2 /Š 0 Z N

1 . 2r C 2 /Š 0

S2rC2 .t /g .2rC2/ .t / dt

S2rC2 .t /g .2rC2/ .t / dt

 S2rC2 .t / g .2rC2/ .t / dt;

was mit der Setzung (6.81) übereinstimmt.

Weitere Themen und Literaturhinweise Eine Auswahl existierender Lehrbücher mit Abschnitten über numerische Integration bildet Freund/Hoppe [30], Hämmerlin/Hoffmann [51], Kress [63], Krommer/ Überhuber [64], Oevel [79] und Werner [112]. Insbesondere in [64] werden viele weitere Themen wie die numerische Berechnung uneigentlicher und mehrdimensionaler Integrale beziehungsweise die symbolische Integration behandelt. Orthogonale Polynome werden ausführlich in Hanke-Bourgeois [52] behandelt.

164

Kapitel 6 Numerische Integration von Funktionen

Übungsaufgaben Aufgabe 6.1. Gegeben sei eine Unterteilung  W a  x0 < x1 <    < xn  b des Intervalls Œa; b. Man zeige, dass es eindeutig bestimmte Zahlen a0 ; a1 ; : : : ; an 2 R gibt mit n X

kD0

ak P .xk / D

Z b a

P .x / dx für alle P 2 …n :

Aufgabe 6.2. Zu einer beliebigen Unterteilung a  x0 <    < xn  b des Intervalls Œa; b Pn bezeichne n .f / D .b a/ kD0 k f .xk / eine Quadraturformel. Man zeige, dass GenauR ihr b igkeitsgrad  2n C 1 ist, es gibt also ein Polynom P 2 …2nC2 mit n .P / ¤ a P .x / dx . Aufgabe 6.3. Man bestimme die Koeffizienten a0 ; a1 ; a2 2 R durch Taylorabgleich so, dass die Quadraturformel Qf D a0 f .a/ C a1 f . aCb / C a2 f .b/ zur näherungsweisen Berechnung 2 Rb des Integrals a f .x / dx einen möglichst hohen Genauigkeitsgrad besitzt. Aufgabe 6.4. Sei h D

b a 3

. Man bestimme den Genauigkeitsgrad der Quadraturformel

1 .f / WD 49 hf .a C h/ C 43 hf .b/ 

Z b a

f .x/ dx:

Handelt es sich um eine interpolatorische Quadraturformel? Aufgabe 6.5. Die Funktion f 2 C Œa; b sei konvex. Weisen Sie für die Trapezformel folgende Ungleichung nach:

1 .f /  Pn

Z b a

f .x/ dx:

Aufgabe 6.6. Es sei 1 .f / D .b a/ kD0 k f .xk / eine interpolatorische Quadraturformel mit n  1 und Genauigkeitsgrad r  n. Zeigen Sie: a) In der Situation des zweiten Teils von Theorem 6.13 der Fehlerdarstellung zur interpolatorischen Quadratur ist der Genauigkeitsgrad exakt gleich r . b) Im Fall x0 D a und xn D b gibt es n 1 Zahlen xnC1 ; xnC2 ; : : : ; x2n 1 , so dass das Produkt Q 2n 1 xk / von einem Vorzeichen auf dem Intervall Œa; b ist. kD0 .x c) Im Fall x0 D a und xn D b gilt r  2n 1. Aufgabe 6.7. Gegeben sei die Quadraturformel

1 .f / WD 14 f .0/ C 43 f . 23 / 

Z

1 0

f .x/ dx:

Bestimmen Sie die dazugehörige summierte Quadraturformel zur Approximation des InteRb grals a f .x/ dx mit a; b 2 R ; a < b . Geben Sie außerdem eine Fehlerdarstellung an.

Aufgabe 6.8. Zu einer periodischen stetigen Funktion f W R ! R und den Stützstellen xj D 2j=.N C 1 / mit j D 0; 1; : : : ; N für gerades N 2 N bezeichne Tf das interpolierende PN=2 A0 trigonometrische Polynom R 2von der Form .Tf /.x / D 2 C kD1 .Ak cos kx C Bk sin kx /. Weiter bezeichne Qf WD 0 .Tf /.x / dx . Man zeige, dass sich Qf schreiben lässt als Qf D

PN

kD0 ak f .xk /

mit (von f unabhängigen) positiven Gewichten ak > 0 für k D 0; 1; : : : ; N .

Aufgabe 6.9. Man weise mithilfe der euler-maclaurinschen Summenformel für N 2 N die folgende Identität nach, N X

kD1

k3 D



N.N C 1/ 2

2

:

165

Übungsaufgaben

Aufgabe 6.10. Berechnen Sie auf Papier durch Extrapolation der Trapezsummen mit den drei R Schrittweiten h0 D 6; h1 D 3 und h2 D 2 eine Näherung für das Integral 06 x 2 dx . Aufgabe 6.11 (Numerische Aufgabe). Man berechne die vier bestimmten Integrale Z 0: 5 0

1 16x 2 C 1

Z

dx;

2 0

e

x2

Z =2

dx;

0

cos

x 2 2

Z =2 p

sin 3x dx;

j cos 2x j dx;

0

numerisch durch Extrapolation der Trapezsummen T1 .hj / unter Anwendung der RombergSchrittweite h0 D b a und hj D hj 1 =2 für j D 1; 2; : : : . Genauer: mit den Bezeichnungen aus (6.41)–(6.42) mit T D T1 und D 2 berechne man für k D 0; 1; : : : die Werte

Tk

m;:::;k

für m D 0; 1; : : : ; min¹k; m º:

(6.82)

Man breche mit k DW k ab, falls

m C 1  k  11;

jTk

m ;:::;k

Tk

m C1;:::;k j

"

oder aber

k D 12

8

erfüllt ist (mit m D 4 und " D 10 ). Man gebe für jedes der vier zu berechnenden Integrale die Werte (6.82) für k D 0; 1; : : : ; k in einem Tableau aus, jeweils auf acht Nachkommastellen genau. Aufgabe 6.12. Das Funktionensystem .Un /n2N0 der Tschebyscheff-Polynome der zweiten Art p R1 2 dx ein Orthogonalsybildet bezüglich des Skalarprodukts h u; vii D u.x /v.x / 1 x 1 stem. Aufgabe 6.13. Für x 2 R betrachte man

q0 .x/ D 1;

q1 .x/ D x;

qnC1 .x/ D xqn .x/

1 q .x/ 4 n 1

für n D 1; 2; : : : :

Zeigen Sie Folgendes: a) Es ist qn ein Polynom vom (genauen) Grad n mit führendem Koeffizienten 1 .n D 0; 1; : : : /.

b) Es gilt

qn .cos / D

1 sin .n C 1/

2n

sin 

für 0 <  < 

.n D 0; 1; : : :/:

c) Es ist qn eine (un-)gerade Funktion, falls n (un-)gerade ist. d) Die Polynome q0 ; q1 ; : : : bilden bezüglich des Skalarprodukts

h u; vii D

Z

1 1

p u.x/v.x/ 1

x 2 dx

ein Orthogonalsystem. e) Es gilt jj qn jj2 D 24n ; n D 0; 1; : : :, wobei jj  jj die durch das in d) definierte Skalarprodukt induzierte Norm bezeichnet.

p

f) Die Polynome q0 ; q1 ; : : : stimmen mit den durch die Gewichtsfunktion %.x/ D 1 x 2 ; 1  x  1, definierten Orthogonalpolynomen p0 ; p1 ; : : : aus Abschnitt 6.8.2 überein.

g) Für die Koeffizienten aus der in Theorem 6.34 vorgestellten Rekursionsbeziehung für die Orthogonalpolynome p0 ; p1 ; : : : gilt ˇn D 0 für n D 0; 1; : : :, und n2 D 41 für n D 1; 2; : : : .

h) Für die Nullstellen 1 ; : : : ; n des n-ten Orthogonalpolynoms pn mit n 2 N0 gilt

k D cos

k  nC1

für k D 1; 2; : : : ; n:

166

Kapitel 6 Numerische Integration von Funktionen

i) Für die interpolatorische gewichtete Quadraturformel bezüglich des Intervalls Œ 1; 1 und den Stützstellen 1 ; : : : ; n gilt Folgendes:

.f /

n .f / D

 24n .2n/Š

f .2n/ ./;

wobei f 2 C 2n Œ 1; 1 angenommen sei und  2 Œ 1; 1 eine geeignete Zwischenstelle bezeichnet. Aufgabe 6.14. Auf dem unendlichen Intervall . 1; 1/ betrachte man die Gewichtsfunktion 2 %.x/ D e x und die Funktionen

qn .x/ D . 1/n

%.n/ .x/ ; %.x/

n D 0; 1; : : : :

Zeigen Sie Folgendes: a) Für die Ableitungen der Gewichtsfunktion gilt die Rekursionsformel

%.nC1/ .x/ D 2x%.n/ .x/

2n%.n

1/

.x/;

n D 1; 2; : : : :

b) Für x 2 R gilt

q0 .x/ D 1;

q1 .x/ D 2x;

qnC1 .x/ D 2xqn .x/

2nqn

1 .x/;

n D 1; 2; : : : :

c) Es ist qn ein Polynom vom (genauen) Grad n mit führendem Koeffizienten 2n für n D 0; 1; 2; : : : . d) Es ist qn eine (un-)gerade Funktion, falls n (un-)gerade ist. e) Die Polynome q0 ; q1 ; : : : bilden bezüglich des Skalarprodukts

h u; vii D

Z 1

1

x2

u.x/v.x/e

dx

ein Orthogonalsystem.

p

f) Es gilt jj qn jj2 D 2n nŠ ; n D 0; 1; : : : , wobei jj  jj die durch das in d) definierte Skalarprodukt induzierte Norm bezeichnet. g) Die Polynome 2 n qn für n D 0; 1; : : : stimmen mit den durch die betrachtete Gewichtsfunktion definierten Orthogonalpolynomen p0 ; p1 ; : : : aus Abschnitt 6.8.2 überein. h) Für die Koeffizienten aus der in Theorem 6.34 vorgestellten Rekursionsbeziehung für die Orthogonalpolynome p0 ; p1 ; : : : gelten die Identitäten ˇn D 0 für n D 0; 1; : : :, und

n2 D n2 für n D 1; 2; : : : . i) Für die interpolatorische und mit % gewichtete Quadraturformel bezüglich des unendlichen Intervalls . 1; 1/ und den Nullstellen von pn als Stützstellen gilt Folgendes: Z 1

1

f .x/e

x2

dx

n .f / D

wobei f 2 C 2n . 1; 1/ angenommen sei und stelle ist.

p

 2n nŠ .2n/ f ./; .2n/Š

1 <  < 1 eine geeignete Zwischen-

7

Explizite Einschrittverfahren für Anfangswertprobleme bei gewöhnlichen Differenzialgleichungen

Viele Anwendungen wie beispielsweise die Berechnung der Flugbahn eines Raumfahrzeugs beim Wiedereintritt in die Erdatmosphäre oder Räuber-Beute-Modelle führen auf Anfangswertprobleme für Systeme von gewöhnlichen Differenzialgleichungen; siehe auch Beispiele 7.2 und 7.3 unten. Ebenso resultieren gewisse Diskretisierungen von Anfangswertproblemen für partielle Differenzialgleichungen in Anfangswertproblemen für Systeme von gewöhnlichen Differenzialgleichungen. Ein konkretes Beispiel hierzu wird in Abschnitt 8.9.4 auf Seite 244 vorgestellt. Solche Anfangswertprobleme für Systeme von gewöhnlichen Differenzialgleichungen sind Gegenstand des vorliegenden und des nächsten Kapitels. Definition 7.1. Ein Anfangswertproblem für ein System von N gewöhnlichen Differenzialgleichungen 1. Ordnung ist von der Form

y 0 D f .t; y /;

t 2 Œa; b ;

y.a/ D y0 ;

(7.1) (7.2)

mit einem gegebenen endlichen Intervall Œa; b , einem Vektor y0 2 R N und einer Funktion

f W Œa; b   R N ! R N ;

(7.3)

und gesucht ist eine differenzierbare Funktion y W Œa; b  ! R N mit den Eigenschaften (7.1)–(7.2). Die Notation in (7.1) ist eine übliche Kurzform für y 0 .t / D f .t; y.t //; t 2 Œa; b . Differenzierbarkeit bedeutet hier komponentenweise Differenzierbarkeit, und es ist 0 .t //> 2 R N . y 0 .t / D .y10 .t /; : : : ; yN Beispiel 7.2. Wir betrachten hier das in Abb. 7.1 angegebene Stromnetzwerk mit drei ohmschen und zwei induktiven Widerständen verteilt auf zwei Maschen. Anwendung der beiden kirchhoffschen Regeln führt auf die folgenden Beziehungen:

I3 .t/ D I1 .t/ C I2 .t/; Ue .t/ D L2 I20 .t/ C R3 I.t/ C R2 I2 .t/; 0 D L2 I20 .t/ R2 I2 .t/ C L1 I10 .t/ C R1 I1 .t/;

(7.4) (7.5) (7.6)

jeweils für t  0. Dabei ergibt sich die erste Gleichung aus der Knotenregel (Summe der ein- ist gleich der Summe der ausfließenden Ströme). Die beiden anderen Gleichungen resultieren aus der auf den oberen beziehungsweise den unteren Stromkreis

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_7

168

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

R3 U

................................................................................................................... ... ... .. ... . .... ...... . . e .... .. .. ... ... ... 2 .. ...... ...... ...... ...... ..................................................... ........... .......... ........... ................................................ ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... 1 . ........................................................................................................................................ ....... ....... ...... ....... .......

L

L

R2

......................................... ... ... ... ... ... ... ... ... ... ... ... .. ......... ..... . 2 . . . . . . . ............. ............................ ..... ... ... ... ......... .... ... ... ... ... ... ... ... ... ... .........................................

I

I3 I1

R1

Abb. 7.1: Zweimaschiger Wechselstromkreis mit ohmschen Widerständen und Spulen angewendeten Maschenregel. Dabei gehen noch Gesetzmäßigkeiten für die zeitabhängigen Spannungsabfälle U1 .t/; U2 .t/; : : : ; U5 .t/ an den ohmschen und den induktiven Widerständen R1 ; R2 ; R3 ; L1 und L2 ein, die der Reihe nach so aussehen (wobei die entsprechenden Konstanten ebenfalls so bezeichnet sind):

U1 .t/ D R1 I1 .t/;

U2 .t/ D R2 I2 .t/;

U4 .t/ D L1 I1 .t/;

U5 .t/ D L2 I2 .t/:

0

0

U3 .t/ D R3 I3 .t/;

Löst man Gleichung (7.5) nach L2 I20 .t/ auf und verwendet dabei zur Elimination von I.t/ die Identität (7.4), so ergibt dies

L2 I20 .t/ D D

 R2 I2 .t/ C Ue .t/ R3 I1 .t/ C I2 .t/ R3 I1 .t/ .R2 C R3 /I2 .t/ C Ue .t/:

(7.7)

Auflösen der Identität (7.6) nach L1 I10 .t/ und Ersetzen von L2 I20 .t/ durch den Ausdruck auf der rechten Seite von (7.7) führt auf

L1 I10 .t/ D L2 I20 .t/ C R2 I2 .t/ R1 I1 .t/ D R3 I1 .t/ .R2 C R3 /I2 .t/ C Ue .t/ C R2 I2 .t/ D .R1 C R3 /I1 .t/ R3 I2 .t/ C Ue .t/:

R1 I1 .t/ (7.8)

Es stellt (7.7)–(7.8) ein inhomogenes lineares System von zwei Differenzialgleichungen für die beiden Ströme I1 und I2 dar. M Beispiel 7.3. Gegenstand dieses Beispiels ist die Beschreibung der Bewegung eines mathematische Pendels. Wir betrachten die zeitabhängige seitliche Auslenkung des Pendels aus der Ruhelage. Diese wird durch den vorzeichenbehafteten Winkel '.t/ 2 Œ  ;   im Bogenmaß angegeben, mit positiven und negativen Werten bei Ausschlag nach links beziehungsweise rechts. Der tangentiale Anteil der Beschleunigung entgegen dem Uhrzeigersinn ist gleich `' 00 .t/. Das stimmt mit dem Anteil g sin '.t/ der Erdbeschleunigung g in die gleiche Richtung überein. Die Situation ist für einen Wert von t mit der Notation ' D '.t/ in Abb. 7.2 dargestellt. Man beachte dabei, dass wegen des betrachteten Ausschlags nach links '.t/ < 0 gilt.

169

Abschnitt 7.1 Ein Existenz- und Eindeutigkeitssatz .... ...... ... ... ... .... . . .. .. ... ... ... ... ... ... ... ... . . . . ... ... ...................... ... ... . . .. .... . . ... ... ... . ..... . .. . .... . ... ... . . ... . . ... .. . . .. ..... . ........... . ........ ........ .. ......... . .... ....... . ...... ........ .... ... ....... .......... ........ . . . . . . . .................... ..... . . .... ... ........................................................................ ........ ... .. .... ... ... . .... . . ... ... ... ... ... ... ... .............. .... ... .... ... .... ... .... ....... ....

'

`

 g sin

'

g

'

Abb. 7.2: Darstellung des mathematischen Pendels Damit erfüllt der betrachtete Winkel die folgende nichtlineare gewöhnliche Differenzialgleichung zweiter Ordnung: g `

' 00 .t/ C sin '.t/ D 0 für t  0:

(7.9)

Anfangsbedingungen ergeben sich durch Vorgaben an die Anfangsauslenkung '.0/ und die Anfangsgeschwindigkeit ' 0 .0/. Mit den Setzungen y1 D ' und y2 D ' 0 erhält man dann schließlich ein Anfangswertproblem für ein gekoppeltes System von zwei Differenzialgleichungen für die zu bestimmenden Funktionen y1 und y2 . M

7.1 Ein Existenz- und Eindeutigkeitssatz Die Existenz und Eindeutigkeit der Lösung ist auch bei Anfangswertproblemen für Systeme von gewöhnlichen Differenzialgleichungen eine grundlegende Fragestellung. Diese ist Gegenstand des nächsten Theorems, wobei die folgende Lipschitzbedingung für Funktionen f von der Form (7.3) eine wesentliche Rolle spielt,

jjf .t; u/

f .t; v/ jj  Ljju

v jj;

t 2 Œa; b ;

u; v 2 R N ;

(7.10)

mit einer Konstanten L > 0, wobei hier und im Folgenden jj  jj W R N ! R eine beliebige Vektornorm bezeichnet. Neben der angesprochenen Existenz- und Eindeutigkeitsaussage für Anfangswertprobleme von der Form (7.1)–(7.2) liefert das folgende Theorem ein ebenso wichtiges Resultat zur stetigen Abhängigkeit von den Anfangswerten. Theorem 7.4. Es sei f W Œa; b   R N ! R N eine stetige Funktion, die die Lipschitzbedingung (7.10) erfülle. Dann gelten die beiden folgenden Aussagen: a) (Picard/Lindelöf) Das Anfangswertproblem (7.1)–(7.2) besitzt genau eine stetig differenzierbare Lösung y W Œa; b  ! R N .

170

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

b) Für differenzierbare Funktionen y; b y W Œa; b  ! R N mit

y 0 D f .t; y /;

b y0

t 2 Œa; b I

D f .t;b y /;

y.a/ D y0

b y .a/ D b y0

......

gilt die Abschätzung

jjy.t /

b y .t / jj  eL.t

a/

jjy0

b y 0 jj;

t 2 Œa; b :

(7.11)

Einen Beweis hierzu finden Sie beispielsweise in Heuser [54], Abschnitt 12. Auch unter anderen Voraussetzungen an die Funktion f sind Existenz- und Eindeutigkeitsaussagen für das Anfangswertproblem (7.1)–(7.2) möglich. Zur Vereinfachung der Notation wird Folgendes angenommen: In diesem und dem folgenden Kapitel 8 wird ohne weitere Spezifikation an die Funktion f angenommen, dass jedes der betrachteten Anfangswertprobleme von der Form (7.1)–(7.2) jeweils eine eindeutig bestimmte Lösung y W Œa; b  ! R N besitzt. An einigen Stellen erweist sich das folgende Resultat über die Glattheit der Lösung des Anfangswertproblems (7.1)–(7.2) als nützlich, das man mit der Kettenregel erhält. Theorem 7.5. Für eine p -mal stetig partiell differenzierbare Funktion f mit p  1 ist die Lösung des Anfangswertproblems (7.1)–(7.2) mindestens .p C 1 /-mal stetig partiell differenzierbar. Bemerkung 7.6. In der Situation von Theorem 7.5 lassen sich die höheren Ableitungen der Lösung angeben. Beispielsweise berechnet man im eindimensionalen Fall N D 1 sowie für p D 1 sofort Folgendes:

y 00 .t / D

@f @t

.t; y.t // C

@f @y

.t; y.t //y 0 .t / D

@f @t

C

@f @y

 f .t; y.t //:

M

(7.12)

In den meisten Fällen lässt sich die Lösung des Anfangswertproblems (7.1)–(7.2) nicht exakt berechnen, so dass man auf numerische Verfahren zurückgreift. Solche Verfahren werden in diesem und dem darauf folgenden Kapitel vorgestellt, wobei es die Zielsetzung der meisten dieser Verfahren ist, zu der Lösung y W Œa; b  ! R N des Anfangswertproblems (7.1)–(7.2) schrittweise für ` D 0; 1; : : : Approximationen

u`  y.t` /;

` D 0; 1; : : : ; n;

zu gewinnen auf einem noch nicht näher spezifizierten Gitter

 D ¹a D t0 < t1 <    < tn  b º; h` WD t`C1

t` für ` D 0; 1; : : : ; n

1:

(7.13)

171

Abschnitt 7.2 Theorie der Einschrittverfahren

7.2 Theorie der Einschrittverfahren Im Folgenden werden Einschrittverfahren einführend behandelt. Definition 7.7. Ein (explizites) Einschrittverfahren zur approximativen Bestimmung einer Lösung des Anfangswertproblems (7.1)–(7.2) ist von der Gestalt

u`C1 D u` C h` '.t` ; u` I h` /;

` D 0; 1; : : : ; n

1I

u0 WD y0

(7.14)

mit einer Verfahrensfunktion ' W Œa; b   R N  R C ! R N und einem noch nicht näher spezifizierten Gitter beziehungsweise Schrittweiten der Form (7.13). Bemerkung 7.8. 1) Die Approximation u` hängt von u` 1 nicht jedoch (unmittelbar) von u` 2 ; u` 3 ; : : : ab, was die Bezeichnung “Einschrittverfahren” rechtfertigt. Im anschließenden Kapitel 8 werden dann Mehrschrittverfahren behandelt. 2) Ein Einschrittverfahren ist durch seine Verfahrensfunktion ' festgelegt, die Schrittweiten hingegen sind noch frei wählbar. Zur Vereinfachung der Notation wird dennoch im Folgenden bei Einschrittverfahren auf die Verfahrensvorschrift (7.14) verwiesen, obwohl Eigenschaften von ' behandelt werden. 3) Ebenfalls zwecks einer vereinfachten Notation wird als Definitionsbereich einer Verfahrensfunktion ' immer Œa; b   R N  R C angegeben, obwohl bei den meisten noch vorzustellenden speziellen Einschrittverfahren der Ausdruck '.t; uI h/ lediglich für Schrittweiten h  b t wohldefiniert ist. 4) Eine wichtige Rolle spielen in der Praxis auch implizite Einschrittverfahren, die durch die Definition (7.14) nicht unmittelbar erfasst sind. Solche impliziten Einschrittverfahren werden gemeinsam mit den Mehrschrittverfahren in Kapitel 8 behandelt. M Die wichtigste Kennzahl eines Einschrittverfahrens ist seine Konvergenzordnung: Definition 7.9. Ein Einschrittverfahren (7.14) zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 besitzt die Konvergenzordnung p  1, falls sich der globale Verfahrensfehler abschätzen lässt in der Form max jju`

`D0;:::;n

y.t` / jj  C hp max ;

hmax WD

max

¹t`C1

`D0;:::;n 1

t` º;

mit einer von dem gewählten Gitter  unabhängigen Konstanten C  0. Für die Bestimmung der Konvergenzordnung eines Einschrittverfahrens spielt der folgende Begriff eine maßgebliche Rolle. Definition 7.10. Für ein Einschrittverfahren (7.14) zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 bezeichnet

.t; h/ WD y.t / C h'.t; y.t /I h/ y.t C h/ für t 2 Œa; b ; ƒ‚ … „

0hb

t;

Verfahrensvorschrift

den lokalen Verfahrensfehler im Punkt .t C h; y.t C h// bezüglich der Schrittweite h.

172

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

Andere sinnvolle Definitionen des lokalen Verfahrensfehlers sind ebenfalls möglich (siehe Aufgabe 7.4). Definition 7.11. Ein Einschrittverfahren (7.14) zur Lösung des Anfangswertproblems

y 0 D f .t; y /; y.a/ D y0 besitzt die Konsistenzordnung p  1, falls für den lokalen

Verfahrensfehler die Ungleichung

jj.t; h/ jj  C hpC1 für t 2 Œa; b ;

0hb

t;

(7.15)

erfüllt ist mit einer (von t und h unabhängigen) Konstanten C  0. Die Konsistenzordnung bezeichnet man oft nur kurz als Ordnung eines Einschrittverfahrens. Es wird nun die wesentliche Abschätzung für den bei Einschrittverfahren auftretenden globalen Verfahrensfehler vorgestellt, wofür die folgende Lipschitzbedingung an die Verfahrensfunktion benötigt wird,

j '.t; uI h/

'.t; vI h/jj  L' jju

v jj für t 2 Œa; b ;

0 0;

t` D a C `h für ` D 0; 1; : : : ; n;

mit 0 < n 

b

a h

:

(7.24)

Im Folgenden ist es von Vorteil, die Schrittweitenabhängigkeit der Approximationen des Einschrittverfahrens (7.14) explizit anzugeben. Dies geschieht durch die folgende Notation,

uh .t`C1 / WD uh .t` / C h'.t` ; uh .t` /I h/;

` D 0; : : : ; n

1I

uh .a/ WD y0 ;

(7.25)

mit t` D t` .h/ entsprechend (7.24). Es ist dann

uh .t / definiert für alle

a < t  b;

¯ ® h 2 H t WD t m a W m D 1; 2; : : : :

(7.26)

Die Funktion uh wird als Gitterfunktion bezeichnet. Besitzt das zugrunde liegende Einschrittverfahren die Konsistenzordnung p  1 und genügt die Verfahrensfunktion der Stabilitätsbedingung (7.16), so gilt nach Theorem 7.12 an jeder Stelle a < t  b

uh .t / D y.t / C O.hp / für H t 3 h ! 0:

(7.27)

In Abhängigkeit von der vorliegenden Konsistenzordnung und den Differenzierbarkeitseigenschaften der beteiligten Funktionen lässt sich die Darstellung (7.27) in Form einer asymptotischen Entwicklung präzisieren: Theorem 7.25. Bezüglich des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 besitze eine gegebene Verfahrensfunktion ' W Œa; b   R N  R C ! R N die Konsistenzordnung p  1 und genüge der Stabilitätsbedingung (7.16). Weiter seien die Funktionen f und ' jeweils .p C r /-mal stetig partiell differenzierbar. Für gewisse Koeffizientenfunktionen cpCj 2 C rC1 j .Œa; b ; R N / mit cpCj .a/ D 0 für j D 0; 1; : : : ; r 1 gilt dann die folgende asymptotische Entwicklung:

uh .t / D y.t / C cp .t /hp C cpC1 .t /hpC1 C    C cpCr

pCr 1

1 .t /h

µ C O.hpCr /;

t 2 Œa; b ;

h 2 Ht ;

(7.28)

wobei die angegebenen Konvergenzraten gleichmäßig in t auftreten. Hierbei bezeichnet C s .D; R N / die Menge der s -mal stetig partiell differenzierbaren Funktionen W D ! R N , wobei D  R M gelte für ein M  1. Auf der Basis solcher asymptotischer Entwicklungen lassen sich Verfahren höherer Ordnung gewinnen1 . Die Existenz einer solchen Asymptotik ist erstmals in Gragg [38] nachgewiesen worden. In den folgenden Abschnitten 7.5.2 und 7.5.3 wird eine später entwickelte, auf Hairer/Lubich [48] und Deuflhard/Bornemann [20] basierende Methode zur Herleitung für die genannte asymptotische Entwicklung (7.28) vorgestellt. 1

siehe Abschnitt 7.6 über Extrapolationsmethoden

180

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

7.5.2 Herleitung der asymptotischen Entwicklung des globalen Verfahrensfehlers, 1. Teil Eine asymptotische Entwicklung (7.28) erhält man mittels nur zu diesem Anlass konstruierter spezieller Einschrittverfahren höherer Ordnung. Grundlage dafür bildet die folgende Rekursionsvorschrift, bei der die Verfahrensfunktion  W Œa; b   R N  R C ! R N aus einer Verfahrensfunktion hervorgeht mittels 

.t; uI h/ WD

 hq cq .t /I h/ C cq .t C h/

.t; u

 cq .t / hq

1

;

(7.29)

mit einer Zahl q  1 und einer im Moment nicht näher spezifizierten Funktion cq W Œa; b  ! R N . Lemma 7.26. Bezüglich des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 besteht zwischen den zu den Verfahrensfunktionen und  gehörenden Gitterfunktionen  vh und vh der folgende Zusammenhang,

vh .t / D vh .t / C cq .t /hq ;

t 2 Œa; b ;

h 2 Ht:

Beweis. Offensichtlich gilt vh . 0 / D vh . 0 / D y0 , und dann erhält man induktiv für t D h; 2h; : : : ; die Aussage des Lemmas,

vh .t C h/ D vh .t / C h



.t; vh .t /I h/

 D vh .t / C hq cq .t / C h .t; vh .t /I h/ C cq .t C h/

 cq .t / hq

D vh .t / C h .t; vh .t /I h/ Ccq .t C h/hq : ƒ‚ … „ D vh .t C h/

Bemerkung 7.27. Lemma 7.26 lässt sich sukzessive auf die folgenden Verfahrensfunktionen anwenden (das Schema ist zeilenweise zu lesen)

D ';

♣♣ ♣

D 'Œ1; 1

' Œ 2  WD

q D p C 1;

♣♣ ♣

D ' Œr

' Œ 1  WD

q D p; ♣♣ ♣

;

♣♣ ♣

q DpCr

♣♣ ♣

1;

' Œr  WD

9 > > > > > =

 

♣♣ ♣

(7.30)

> > > > > ;



Mit der Notation u0;h D uh sowie us;h für die zu ' Œs  gehörende Gitterfunktion .s D 1; 2; : : :/ gilt nach Lemma 7.26

usC1;h .t / D us;h .t / C cpCs .t /hpCs ;

s D 0; 1; : : : ; r

1;

beziehungsweise

ur;h .t / D uh .t / C cp .t /hp C cpC1.t /hpC1 C    C cpCr

pCr 1

1 .t /h

:

(7.31)

Für die komplette Herleitung der asymptotischen Entwicklung (7.28) sind nun “lediglich” noch konkrete Funktionen cp ; : : : ; cpCr 1 zu ermitteln, so dass

ur;h .t /

y.t / D O.hpCr / für H t 3 h ! 0

(7.32)

181

Abschnitt 7.5 Asymptotische Entwicklung der Approximationen

gilt beziehungsweise die zugehörige Verfahrensfunktion ' Œr  aus dem Schema (7.30) die Konsistenzordnung p C r besitzt. M Die angestellten Bemerkungen legen es nahe, eine Funktion cq zu wählen, so dass mittels der Rekursionsvorschrift (7.29) aus einer Verfahrensfunktion mit der Konsistenzordnung q eine Verfahrensfunktion  erzeugt wird, die die Konsistenzordnung q C 1 besitzt. Die Einzelheiten dazu werden im Folgenden vorgestellt, wobei als Erstes eine Darstellung für den zu der zugrunde liegenden Verfahrensvorschrift ' gehörenden lokalen Verfahrensfehler geliefert wird: Lemma 7.28. Unter den in Theorem 7.25 genannten Bedingungen gilt für den zugrunde liegenden lokalen Verfahrensfehler die Entwicklung

y.t C h/

h'.t; y.t /I h/ D dpC1 .t /hpC1 C O.hpC2 / für h ! 0;

y.t /

mit einer Funktion dpC1 2 C r .Œa; b ; R N /, wobei die angegebenen Konvergenzraten gleichmäßig in t auftreten. Beweis. Die Behauptung folgt unmittelbar aus einer Taylorentwicklung der Funktion g.h/ D y.t C h/ y.t / h'.t; y.t /I h/ in h D 0,

y.t C h/

y.t /

h'.t; y.t /I h/ D

pC X1 `D0

d` .t /h` C O.hpC2 /

D dpC1 .t /hpC1 C O.hpC2 /; da wegen der vorliegenden Konsistenzordnung q notwendigerweise d0 .t / D    D

dp .t / D 0 gilt. Für die Funktion dpC1 gilt die Darstellung dpC1.t / D 1 @p ' pŠ @hp .t; y.t /I

y .pC1/ .t / . pC1 /Š

0 /.

7.5.3 Herleitung der asymptotischen Entwicklung des globalen Verfahrensfehlers, 2. Teil In Vorbereitung auf das nächste Lemma sei W Œa; b   R N  R C ! R N eine beliebige Verfahrensfunktion, die bezüglich des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 die Konsistenzordnung q  1 besitzt mit der folgenden Darstellung für den lokalen Verfahrensfehler,

y.t C h/

y.t /

h .t; y.t /I h/ D dqC1 .t /hqC1 C O.hqC2 / für h ! 0;

(7.33)

mit einer Funktion dqC1 W Œa; b  ! R N , wobei die angegebenen Konvergenzraten gleichmäßig in t auftreten. Des Weiteren wird die Konsistenzbedingung

.t; uI 0 / D f .t; u/ für .t; u/ 2 Œa; b   R N

(7.34)

vorausgesetzt. In allen praxisrelevanten Fällen liegt die vorausgesetzte Konsistenzordnung in der verallgemeinerten Form der Aufgabe 7.4 auf Seite 192 vor, so dass dann (7.34) automatisch erfüllt ist.

182

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

In den weiteren Überlegungen spielt das folgende Anfangswertproblem für ein inhomogenes lineares System gewöhnlicher Differenzialgleichungen eine technische Rolle,

cq0 .t / D Dy f .t; y.t //cq .t / C dqC1 .t /;

t 2 Œa; b ;

cq .a/ D 0:

(7.35)

N

@f

Hierbei bezeichnet Dy f .t; u/ D . @y i .t; u//i;j D1 2 R N N die Funktionalmatrix der j Abbildung y ! f .t; y / an der Stelle u 2 R N . Entsprechend wird diese Notation im Folgenden für Verfahrensfunktionen verwendet. Mit dieser Wahl der Funktion cq erhält man unter hinreichend guten Differenzierbarkeitseigenschaften der beteiligten Funktionen durch die Rekursionsvorschrift (7.29) eine Verfahrensfunktion  mit der Konsistenzordnung q C 1. Lemma 7.29. Eine Verfahrensfunktion 2 C 3 .Œa; b   R N  R C ; R N / besitze die Konsistenzordnung q  1 mit einem lokalen Verfahrensfehler von der Form (7.33), und die Konsistenzbedingung (7.34) sei erfüllt. Weiter sei dqC1 2 C s .Œa; b ; R N / für @2

@2

ein s  1 erfüllt, und die Abbildungen t ֏ @[email protected] .t; y.t /I 0 / und t ֏ @y @y .t; y.t /I 0 / j i j seien für alle Indizes i; j mindestens .s 1 /-mal stetig partiell differenzierbar auf Œa; b . Unter diesen Voraussetzungen besitzt die Verfahrensfunktion  aus (7.29) mit cq 2 C sC1 .Œa; b ; R N / aus (7.35) die Konsistenzordnung2 q C 1. Im Fall s  2 besitzt der zugehörige lokale Verfahrensfehler  die Darstellung

 .t; h/ D dqC2 .t /hqC2 C O.hqC3 / für h ! 0 gleichmäßig in t , mit einer Funktion3 dqC2 2 C s

1

Beweis. Der lokale Verfahrensfehler bezüglich



 .t; h/ WD y.t C h/ D D

......

......



y.t /

h



.Œa; b ; R N /. besitzt die folgende Form,

.t; y.t /I h/

h .t; y.t /

hq cq .t /I h/

h .t; y.t /I h/ ƒ‚ …

D .t;h/

hR.t; h/; mit R.t; h/ WD



.t; y.t /



cq .t C h/ ......

hq cq .t /I h/

 cq .t / hq  .t; y.t /I h/ :

Es soll zunächst der Fall q  2 behandelt werden. Taylorentwicklungen liefern D O.hqC2 /

R.t; h/ D cq .t C h/ 2 3

‚ …„ ƒ Dy .t; y.t /I h/hq cq .t / C O.h2q / ;

cq .t / D hcq0 .t / C 12 cq00 .t /h2 C O.h3 / für h ! 0;

bezüglich des gleichen Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 Die spezielle Form von dqC2 ist im Beweis angegeben.

(7.36)

183

Abschnitt 7.5 Asymptotische Entwicklung der Approximationen

und zur Bearbeitung der Identität (7.36) verwendet man eine weitere Taylorentwicklung, @Dy

Dy .t; y.t /I h/ D Dy .t; y.t /I 0 / C @h .t; y.t /I 0 /h C O.h2 / für h ! 0; „ ƒ‚ … D Dy f .t; y.t // mit der Matrix

@Dy @h

.t; y.t /I 0 / D .

@2 i @[email protected]

N

.t; y.t /I h//i;j D1 2 R N N , wobei

Komponente der vektorwertigen Funktion

 @Dy

.t; y.t /I 0 /cq .t / @h ƒ‚ „ DW dqC2 .t /

die i -te

bezeichnet. Insgesamt erhält man

D 0 ‚ …„    .t; h/ D dqC1 .t / C Dy f .t; y.t //cq .t / C

i

ƒ 

cq0 .t /

1 00 c .t / 2 q





hqC1

hqC2 C O.hqC3 / für h ! 0;

wobei die angegebenen Konvergenzraten gleichmäßig in t auftreten. Im Fall q D 1 verwendet man anstelle (7.36) die folgende Taylorentwicklung zweiter Ordnung,

R.t; h/ D

Dy .t; y.t /I h/hc1 .t / C .c1 .t /> Dy2 „ DDy2

i .t; y.t /I

ƒ‚

N

h/ c1 .t //iD1 h2 C O.h3 / …

i .t;y.t /I 0 /CO.h/

@2

N

für h ! 0, mit der Hessematrix Dy2 i .t; y.t /I h/ D . @y @yi .t; y.t /I h//k;lD1 , wobei k l bezeichnet. Man erhält so die Darstellung i die i -te Komponente von



 .t; h/ D

‚ 

>

2

c1 .t / Dy

DW d3 .t / …„ N @Dy C @h .t; y.t /I 0 /c1.t / i .t; y.t /I 0 /c1 .t / iD1

ƒ 

1 00 c .t / 2 1

h3

C O.h4 / für h ! 0;

wobei die angegebenen Konvergenzraten gleichmäßig in t auftreten. Es sind nun alle Hilfsmittel zur Komplettierung des Beweises des Theorems über die asymptotische Entwicklung des globalen Verfahrensfehlers zusammengestellt: Beweis von Theorem 7.25. Die Aussage des Theorems folgt unmittelbar aus den in Bemerkung 7.27 angestellten Vorüberlegungen, wobei noch für jede Anwendung von Lemma 7.29 dessen Voraussetzungen nachzuprüfen sind, was im Folgenden geschieht. Es ist so, dass mit der Verfahrensfunktion ' auch jede der in (7.30) betrachteten Funktionen ' Œs  der Stabilitätsbedingung (7.16) genügt. Weiter gelten die Identitäten

f .t; u/ D '.t; uI 0 / D ' Œ 1  .t; uI 0 / D    D ' Œr



.t; uI 0 /

184

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

sowie @2 ' Œr 1  .t; uI 0 / @[email protected]

@2 ' Œ 1 

D    D @[email protected] .t; uI 0 / j 8 2 @ ' ˆ ; falls p  2; ˆ < @[email protected] .t; uI 0 / N D X @2 ' ˆ ........ ˆ ...... .t; uI 0 /; p D 1; : @yi @yj iD1

so dass Lemma 7.29 tatsächlich jeweils anwendbar ist. Theorem 7.25 ist damit vollständig bewiesen.

7.5.4 Asymptotische Entwicklungen des lokalen Verfahrensfehlers Es werden nun die vorgestellten asymptotische Entwicklungen des globalen Verfahrensfehlers zur Gewinnung von Verfahren höherer Ordnung eingesetzt. Zuvor wird noch eine asymptotische Entwicklung für den lokalen Verfahrensfehler angegeben, die sich bei der Konstruktion von Schrittweitensteuerungen verwenden lässt: Theorem 7.30. Unter den Bedingungen von Theorem 7.25 gilt für jede fixierte Zahl

` 2 N die folgende Entwicklung für den lokalen Verfahrensfehler4 : D u` ‚ …„ ƒ uh .a C `h/

D y.a C `h/ C bpC1hpC1 C bpC2 hpC2 C    C bpCr

pCr 1

1h

C O.hpCr / (7.37)

für h > 0, mit gewissen von der Zahl ` abhängenden vektoriellen Koeffizienten bpC1 ; : : : ; bpCr 1 2 R N . Beweis. Aus Theorem 7.25 erhält man unter Verwendung der Taylorentwicklungen

cpCj .a C `h/ D

r X j 1 kD1

.k/

.`h/k

cpCj .a/ kŠ C O.hr

j

/ für j D 0; 1; : : : ; r

1

unmittelbar die Aussage des Theorems,

uh .a C `h/ D y.a C `h/ C D y.a C `h/ C

4

rX1

j D0

cpCj .a C `h/hpCj C O.hpCr /

rX1  X s

sD1

kD1



.k/

cpCs

.a/ k

ƒ‚ DW bpCs

`k  pCs h C O.hpCr /: kŠ …

Anders als bei der asymptotischen Entwicklung des globalen Verfahrensfehlers hängt die betrachte Stelle hier von h ab.

185

Abschnitt 7.6 Extrapolationsmethoden für Einschrittverfahren

7.6 Extrapolationsmethoden für Einschrittverfahren Im Folgenden wird ein Einschrittverfahren (7.25)5 mit der Konsistenzordnung p  1 und einer asymptotischen Entwicklung von der Form6 uh .t / D y.t / C cp .t /hp C cpC1 .t /hpC1 C  CcpCr 1 .t /hpCr 1 CO.hpCr / herangezogen. Bei fixiertem t 2 Œa; b  werden Extrapolationsverfahren für h ! 0 betrachtet mit dem Ziel der Gewinnung von Verfahren höherer Ordnung. Zur Approximation von y.t / betrachte man für eine feste Stelle t 2 Œa; b  zu Schrittweiten hŒ0 > hŒ1 > : : : aus H t (siehe (7.26)) und einer Zahl 0  m  r das vektorwertige Polynom P0;:::;m von der Form

P0;:::;m .h/ D d0 C dp hp C dpC1 hpC1 C    C dpCm

pCm 1

1h

; h 2 R;

(7.38)

mit vektoriellen Koeffizienten d0 ; dp ; dpC1 ; : : : ; dpCm 1 2 R N , wobei diese m C 1 Koeffizienten so zu bestimmen sind, dass die m C 1 Interpolationsbedingungen

P0;:::;m .hŒk / D uhŒk .t / für k D 0; 1; : : : ; m;

(7.39)

erfüllt sind. Die betrachteten Schrittweiten seien dabei so gewählt, dass bezüglich einer Grundschrittweite h 2 H t Folgendes gilt,

hŒk D nh k

für k D 0; 1; : : : ;

mit 1  n0 < n1 < : : : :

(7.40)

Als Näherung für y.t / wird P0;:::;m . 0 / herangezogen. Durch diese Extrapolation nach h ! 0 erhält man ein Verfahren der Ordnung p C m, es gilt P0;:::;m . 0 / D y.t / C O.hpCm /. Die genauen Approximationseigenschaften sind in dem folgenden Theorem angegeben. Theorem 7.31. Gegeben sei ein Einschrittverfahren (7.25)5 mit einer asymptotischen Entwicklung von der Form (7.28). In der Situation (7.40) gilt für das (existierende und eindeutig bestimmte) Polynom P0;:::;m von der Form (7.38) mit der Interpolationseigenschaft (7.39) die folgende Fehlerdarstellung

P0;:::;m . 0 / D y.t / C

pCr X1

sDpCm

Bs cs .t /hs C O.hpCr /;

mit von t und h unabhängigen Matrizen BpCm ; : : : ; BpCr

1

(7.41)

2 R N N .

Beweis. Der Beweis wird zunächst für den eindimensionalen Fall ( N D 1) geführt. Die Menge der Polynome von der Form (7.38) stimmt (für N D 1) überein mit ¹P 2 …pCm 1 W P ./ . 0 / D 0 für  D 1; 2; : : : ; p 1 º, und die angegebene Existenz und Eindeutigkeit folgt dann aus der des hermiteschen Interpolationsproblems, vergleiche Aufgabe 1.4 auf Seite 20. Im Folgenden wird die angegebene Fehlerdarstellung für P0;:::;m . 0 / y.t / D d0 y.t / hergeleitet. Hierzu schreibt man die Interpola5 6

zur approximativen Bestimmung der Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 siehe (7.28)

186

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

tionsbedingungen (7.39) in Form eines linearen Gleichungssystems

0

B1

p

1=n0

pC1

1=n0

♣ ♣ ♣ 1=npCm 0

B B B 1 1=np 1=npC1 ♣ ♣ ♣ 1=npCm B 1 1 1 B B♣ ♣♣ ♣♣ ♣♣ B♣ ♣ ♣ ♣ B♣ B @ p pC1 ♣ ♣ ♣ pCm 1 1=nm 1=nm 1=nm ƒ‚ „ DW Am 2 R .mC1/.mC1/

1

10

CB CB CB 1C B CB CB CB CB CB CB [email protected] 1

1

d0 hp dp hpC1 dpC1 ♣♣ ♣

hpCm

1

dpCm

1



0 1 C uhŒ0 .t / C B C C B C C B C C B uhŒ1 .t / C CDB C; C B C ♣♣ C B C ♣ C B C C @ A A uhŒm .t /

(7.42)

wobei die auftretende Matrix wegen der Eindeutigkeit des Polynoms P0;:::;m regulär ist (siehe auch Aufgabe 7.15). Auf der anderen Seite führt eine Auswertung der asymptotischen Entwicklung (7.28) an den Stellen hŒ0 ; hŒ1 ; : : : ; hŒm in Matrix-VektorDarstellung auf Folgendes,

‚ 0

p

D Am …„ pC1

♣ ♣ ♣ 1=npCm

B 1 1=n0 1=n0 0 B B B 1 1=np 1=npC1 ♣ ♣ ♣ 1=npCm B 1 1 1 B B♣ ♣ ♣ ♣♣ B♣ ♣♣ ♣♣ ♣ B♣ B @ p pC1 pCm 1 1=nm 1=nm ♣ ♣ ♣ 1=nm

1

ƒ 10

CB CB CB 1C B CB CB CB CB CB CB [email protected] 1

1

0 1 C uhŒ0 .t / C B C C B C cp .t /hp C B C C B uhŒ1 .t / C C B C pC 1 D cpC1 .t /h C B C ♣♣ C B C ♣ ♣♣ C B C ♣ C @ A A u .t / hŒm cpCm 1.t /hpCmC1 y.t /

mit rh .t / WD

pCr X1

sDpCm

0

1=ns0

rh .t /; (7.43)

1

B 1=ns1 C B ♣ C cs .t /hs C O.hpCr /; @ ♣♣ A 1=nsm

mit der gleichen Matrix wie in (7.42). Subtrahiert man nun das System (7.43) von dem Gleichungssystem (7.42), so führt dies auf

0

p

pC1

♣ ♣ ♣ 1=npCm

B 1 1=n0 1=n0 0 B B B 1 1=np 1=npC1 ♣ ♣ ♣ 1=npCm B 1 1 1 B B♣ ♣ ♣ ♣♣ B♣ ♣♣ ♣♣ ♣ B♣ B @ p pC1 pCm 1 1=nm 1=nm ♣ ♣ ♣ 1=nm ƒ‚ „ D Am

1

10

CB CB CB 1C B CB CB CB CB CB CB [email protected]

1



d0 .dp .dpC1

1

y.t / cp

.t //hp

cpC1.t //hpC1 ♣♣ ♣

.dpCm

1

cpCm

pCmC1

1 .t //h

C C C C C C D rh .t /: (7.44) C C C C A

Multipliziert man noch Am1 auf beiden Seiten, so führt eine Betrachtung der ersten Gleichung des entstehenden Systems für den eindimensionalen Fall N D 1 auf die

187

Abschnitt 7.6 Extrapolationsmethoden für Einschrittverfahren

Behauptung (unter Beachtung der Unabhängigkeit der Matrix Am von h und t ). Im allgemeinen Fall N  1 sind in der Matrix Am und in den in rh auftretenden Vektoren q q die skalaren Einträge 1=nj 2 R jeweils durch die Matrizen . 1=nj /I 2 R N N zu ersetzen, ansonsten bleibt die Argumentation die Gleiche. Bemerkung 7.32. a) Im Fall einer Konsistenzordnung p D 1 und der eindimensionalen Situation N D 1 ist die Aussage von Theorem 7.31 eine unmittelbare Konsequenz aus Theorem 6.28 in Kapitel 6 über numerische Integration. b) Die in dem genannten Kapitel 6 angegebenen speziellen Unterteilungsfolgen lassen sich auch als Schrittweiten hŒ0 > hŒ1 > : : : verwenden. M Beispiel 7.33. Mit den genannten Bezeichnungen wird nun der Spezialfall der Konsistenzordnung p D 1 und die Schrittweiten hŒ0 D h; hŒ1 D h2 ; hŒ2 D h4 betrachtet mit der typischerweise kleinen Grundschrittweite h > 0. Man erhält dann die Fehlerdarstellung

P012 . 0 / D y.t / C O.h3 /; mit einem kubisch in h fallenden Fehler. Der erforderliche Aufwand zur Berechnung von P012 .0/ entsprechend dem Neville-Schema (1.7) auf Seite 8 dagegen beträgt n C 2n C 4n D 7n D O. h1 / Schritte des vorliegenden Einschrittverfahrens, so dass der dafür erforderliche Aufwand lediglich linear in n D O. h1 / wächst.

M

Beispiel 7.34. In der speziellen Situation uh .t / D y.t / C cp .t /hp C cpC1 .t /hpC1 C O.hpC2 / für h ! 0 und hŒ0 D h; hŒ1 D nh berechnet sich der Wert P01 . 0 / zu 1

P01 . 0 / D uh=n1 .t / C

uh=n1 .t / p

n1

uh .t / 1

;

was man wahlweise mit dem Neville-Schema (1.7) oder über das Gleichungssystem (7.42) im Beweis von Theorem 7.31 erhält. Das Gleichungssystem (7.44) aus dem angesprochenen Beweis liefert die Fehlerdarstellung

P01 . 0 / D y.t /

ˇcpC1.t /hpC1 C O.hpC2 / p

mit dem Koeffizienten ˇ WD . 1 n1 /=.n1 1 /, Details werden hier nicht ausgeführt 1 (Aufgabe 7.14 auf Seite 195). Für die nachfolgenden Betrachtungen über Schrittweitensteuerungen wird hier noch der Spezialfall t D a C `h mit fixiertem ` 2 N genauer untersucht. Eine Taylorentwicklung der Funktion cpC1 im Punkt t D a liefert wegen der Identität cpC1 .a/ D 0 die Abschätzung cpC1 .a C `h/ D O.h/ und somit

P01 . 0 / D y.a C `h/ C O.hpC2 / für h ! 0:

M

188

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

7.7 Schrittweitensteuerung 7.7.1 Verfahrensvorschrift Zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 wird für eine gegebene Verfahrensfunktion ' W Œa; b   R N  R C ! R N mit der Konsistenzordnung p  1 die folgende Vorschrift herangezogen,

w D u` C

u`C1 D w C

h` 2

h` 2

'.t` ; u` I

'.t` C

h` 2

h` 2

/;

; wI

h` 2

/;

t`C1 WD t` C h` ;

` D 0; 1; : : : :

µ

(7.45)

Im Folgenden wird eine adaptive Wahl der Schrittweiten h` vorgestellt mit dem Ziel einer effizienten Fehlerkontrolle. Einführende Erläuterungen hierzu findet man im folgenden Abschnitt 7.7.2, und in den nachfolgenden Abschnitten 7.7.3 und 7.7.4 wird die genaue Vorgehensweise zur Wahl der Schrittweiten h` beschrieben. Bemerkung 7.35. Der Schritt .t` ; u` / ! .t`C1 ; u`C1 / in der Verfahrensvorschrift (7.45) entspricht zwei Schritten .t` ; u` / ! .t`C1=2 ; u`C1=2 / ! .t`C1 ; u`C1 / des Einschrittverfahrens (7.14) mit jeweils halber Schrittweite h` =2. Diese Approximation u`C1  y.t`C1 / 2 R N wird für eine Fehlerschätzung benötigt, daher kann man auch gleich die Verfahrensvorschrift (7.45) anstelle des ursprünglichen Einschrittverfahrens (7.14) verwenden. M

7.7.2 Problemstellung Im Folgenden soll ausgehend von einer gegebenen Stelle t` 2 Œa; b  und einer gegebenen Approximation u`  y.t` / 2 R N eine Schrittweite h` > 0 bestimmt werden, für die

jju`C1

z.t` C h` / jj  "

(7.46)

erfüllt ist, wobei u`C1 2 R N aus einem Schritt des gegenwärtig betrachteten Verfahrens (7.45) hervorgeht und " > 0 eine vorgegebene Fehlerschranke darstellt, und z W Œt` ; b  ! R N bezeichnet die Lösung des Anfangswertproblems

z 0 D f .t; z/;

t 2 Œt` ; b I

z.t` / D u` :

(7.47)

Weiter bezeichnet jj  jj in (7.46) eine nicht näher spezifizierte Vektornorm. Bemerkung 7.36. a) Die Forderung (7.46) zeigt, dass die noch zu beschreibende Schrittweitensteuerung auf einer Vorgabe des lokalen Verfahrensfehlers beruht. Damit erhofft man sich ein vernünftiges Verhalten des globalen Verfahrensfehlers. b) Die Forderung (7.46) stellt man aus den folgenden Gründen: 

der lokale Verfahrensfehler jju`C1 z.t` C h` / jj soll die vorgegebene Schranke " nicht übersteigen. Dies wird durch die Wahl einer hinreichend kleinen Schrittweite h` erreicht.

189

Abschnitt 7.7 Schrittweitensteuerung



Aus Effizienzgründen und zur Vermeidung der Akkumulation von Rundungsfehlern wird man die Schrittweite h` jedoch nicht so klein wählen wollen, dass jju`C1 z.t` C h` / jj  " gilt.

c) Zu beachten ist zudem, dass die Lösung des Anfangswertproblems (7.47) nicht bekannt ist und erst noch numerisch zu bestimmen ist. M Zur Vereinfachung der Notation führen wir die folgende Bezeichnung für einen von dem Punkt .t` ; u` / ausgehenden Schritt der Verfahrensvorschrift (7.45) mit Länge h ein,

u2h=2 WD w C h2 '.t` C h2 ; wI h2 / mit w D u` C h2 '.t` ; u` I h2 /:

(7.48)

Zur Bestimmung einer Schrittweite h` , für die die Forderung (7.46) ungefähr erfüllt ist, wird ausgehend von einer nicht zu kleinen Startschrittweite h.0/ für k D 0; 1 : : :, so vorgegangen:  



Zunächst berechnet man u2h.k/ =2 .

Anschließend ermittelt man eine Schätzung für den Fehler jju2h.k/ =2 z.t` Ch.k/ /jj und bricht den Iterationsprozess mit k" WD k ab, falls diese Schätzung kleiner gleich " ausfällt. Andernfalls, falls diese Schätzung größer als " ist, wird eine neue Testschrittweite

h.kC1/ < h.k/ bestimmt. Abschließend verfährt man mit h` D h.k" / und t`C1 D t` C h.k" / fort. Einzelheiten zu der genannten Fehlerschätzung und der Bestimmung einer neuen Testschrittweite werden in den nachfolgenden Abschnitten 7.7.3–7.7.4 beschrieben.

7.7.3 Vorgehensweise bei gegebener Testschrittweite h.k/ Für eine Testschrittweite h.k/ > 0; k 2 N0 , bestimmt man entsprechend einem Schritt der Verfahrensvorschrift (7.48) den Vektor u2h.k/ =2 2 R N . Anschließend wird zur Überprüfung der Eigenschaft j u2h.k/ =2

durch zh.k/ 2 R N geschätzt, wobei

zh WD u2h=2

vh 2p

u2h=2 1

z.t` C h.k/ /jj  " der Wert z.t` C h.k/ /

mit vh WD u` C h'.t` ; u` I h/;

h > 0:

(7.49)

Dabei erhält man die Approximation (7.49) mittels lokaler Extrapolation entsprechend Beispiel 7.34 mit n1 D 2. Der Fehler jju2h.k/ =2 z.t` C h.k/ /jj berechnet sich dann näherungsweise zu

ı .k/ WD jju2h.k/ =2

zh.k/ jj D

jjvh.k/

2p

u2h.k/ =2 jj 1

:

(7.50)

Ist dann die Abschätzung ı .k/  " erfüllt, so gibt man sich (vergleiche (7.46) mit t`C1 D t` C h.k/ ) mit der Schrittweite h` D h.k/ zufrieden und verfährt wie in Abschnitt 7.7.2 beschrieben fort (mit ` um eins erhöht). Die vorliegende Situation ist in Abb. 7.6 veranschaulicht.

190

Kapitel 7 Einschrittverfahren für Anfangswertprobleme .... ......... ....

.......... ..................... .................. ............... .............. ............ . . . . . . . . . . ........... .......... ......... ......... h.k 1/ ......... ........ . . . . . . .k/ ...... . . . . . h . ....... ....... ....... ...... ...... ...... . . . . ... ...... ...... 2h.k/ =2 ..... ..... 2h.k ..... . . . . .... . . . . ..... . . . ....

z.t /

z

"j " #j

z

u

u

1/ =2

u`

t`C1 D t` Ch.k/

t`

t` Ch.k

1/

..........................

Abb. 7.6: Illustration zur Schrittweitensteuerung

7.7.4 Bestimmung einer neuen Testschrittweite h.kC1/ im Fall ı .k/ > " Gilt mit der Notation aus (7.50) jedoch ı .k/ > ", so wiederholt man die in Abschnitt 7.7.3 vorgestellte Vorgehensweise mit k um eins erhöht, mit einer neuen Testschrittweite h.kC1/ < h.k/ . Bei der Festlegung einer solchen neuen Testschrittweite h.kC1/ bedient man sich einer näherungsweisen Darstellung des Fehlers u2h=2 z.t` C h/: Lemma 7.37. Mit den Notationen (7.47)–(7.50) gilt unter den Bedingungen von Theorem 7.25 über die Asymptotik des globalen Verfahrensfehlers (dort für r D 2) Folgendes,

jju2h=2

z.t` C h/jj D

h pC1

h.k/

 ı .k/ C O .h.k/ /pC2 ;

0 < h  h.k/ :

(7.51)

Gilt also h.k/  "1=.pC2/ , so gewinnt man aus der Darstellung (7.51) unter Vernachlässigung des Restglieds die neue Testschrittweite

h.kC1/ WD

" 1=.pC1/ .k/ h ı .k/

(7.52)

und wiederholt damit die Vorgehensweise in Abschnitt 7.7.3, mit k um eins erhöht. Beweis von Lemma 7.37. Gemäß Theorem 7.30 existiert ein von h unabhängiger Vektor bpC1 2 R N mit

u2h=2

z.t` C h/ D bpC1 hpC1 C O.hpC2 /;

h > 0;

(7.53)

und im Folgenden wird eine Approximation für bpC1 geliefert. Mithilfe von Beispiel 7.34 erhält man mit zh aus (7.49) Folgendes,

zh

z.t` C h/ D O.hpC2 /;

und dies eingesetzt in (7.53) führt auf

u2h=2

zh D bpC1 hpC1 C O.hpC2 /:

(7.54)

191

Abschnitt 7.7 Schrittweitensteuerung

Wegen der Identität ı .k/ D j u2h.k/ =2

sondere jjbpC1

jj.h.k/ /pC1

D

ı .k/

zh.k/ j bedeutet die Darstellung (7.54) insbeC O..h.k/ /pC2 / beziehungsweise

jjbpC1 jj D

ı .k/ C O.h.k/ /: .h.k/ /pC1

(7.55)

Die Darstellung (7.55) eingesetzt in (7.53) liefert die Aussage des Lemmas,

jju2h=2

z.t` C h/jj D

h pC1

h.k/

D

ı .k/ C O.h.k/ /hpC1 C O.hpC2 /

......

C O..h.k/ /pC2 /;

0 < h  h.k/ :

Bemerkung 7.38. 1) Für den Startschritt empfiehlt sich eine Wahl h.0/ D "q mit 1 einer Konstanten 1 < q < pC . 2 2) Zur der in diesem Abschnitt 7.7 vorgestellten Schrittweitenstrategie existieren Alternativen. Ebenfalls sinnvoll ist zum Beispiel ein Abbruchkriterium der Form c1 "  ı .k" /  c2 ". Ist diese Bedingung etwa für ein k noch nicht erfüllt, so setzt man h.kC1/ entsprechend (7.52), wobei hier eine Schrittweitenvergrößerung h.kC1/ > h.k/ eintreten kann. 3) Nicht behandelt wird hier die Frage, ob das in diesem Abschnitt 7.7 beschriebene Abbruchkriterium nach einer endlichen Wahl von Versuchsschrittweiten abbricht oder nicht (beziehungsweise ob k" < 1 gilt). M

7.7.5 Pseudocode zur Schrittweitensteuerung Die in Abschnitt 7.7 beschriebene Vorgehensweise wird abschließend in Form eines Pseudocodes zusammengefasst, wobei wieder ' W Œa; b   R N  R C ! R N eine Verfahrensfunktion der Konsistenzordnung p  1 zur Lösung des Anfangswertproblems (7.1)–(7.2) ist. Algorithmus 7.39. Seien repeat

t0 D a;

u0 D y0 ;

h.0/ > 0;

` D 0;

" > 0.

k D 0;

repeat if k D 0

then h D h.0/

w D u` C h2 '.t` ; u` I h2 /; v D u` C h'.t` ; u` I h/;

" 1=.pC1/ h ı

else h D

end;

u`C1 D w C h2 '.t` C h2 ; wI h2 /; ıD

jjv

2p

u`C1 jj 1

;

k D k C 1;

until ı  ";

t`C1 D t` C h; until t`  b ;

` D ` C 1; M

192

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

Weitere Themen und Literaturhinweise Die Theorie der Anfangswertprobleme für gewöhnliche Differenzialgleichungssysteme wird beispielsweise in Heuser [54] und in Dallmann/Elster [14] einführend behandelt, und eine Auswahl existierender Literatur über Einschrittverfahren zur numerischen Lösung solcher Probleme bildet Deuflhard/Bornemann [20], Grigorieff [41], Hairer/Nørsett/Wanner [49], Kress [63], Reinhardt [86], Strehmel/Weiner [103], Freund/Hoppe [31] und Weller [111]. Insbesondere in [20, 49, 103] findet man auch weitergehende Ausführungen über die hier nur beiläufig behandelten Runge-KuttaVerfahren. In März [74] und in [103] findet man Einführungen über die hier nicht behandelten Algebro-Differenzialgleichungssysteme, bei denen es sich um spezielle implizite Differenzialgleichungssysteme von der Form f .t; y.t /; y 0 .t // D 0 handelt.

Übungsaufgaben Aufgabe 7.1. Man forme das Anfangswertproblem

y100 D t 2

y10

y22 ;

y200 D t C y20 C y13 ; y1 . 0 / D 0;

y2 . 0 / D 1;

y10 . 0 / D 1;

y20 . 0 / D 0

in ein Anfangswertproblem für ein System erster Ordnung um. Aufgabe 7.2. a) Für das Anfangswertproblem

y0 D

1 1 C jy j

auf Œ 0; b;

y. 0 / D y0 ;

(7.56)

weise man Existenz und Eindeutigkeit der Lösung nach. b) Seien y und v Lösungen der Differenzialgleichung in (7.56) mit den Anfangswerten y. 0 / D y0 beziehungsweise v. 0 / D v0 . Man weise Folgendes nach,

jy.t /

v.t /j  e t jy0

v0 j für t 2 Œ 0; b:

Aufgabe 7.3. Man betrachte für 0  p  1 das Anfangswertproblem

y0 D yp ;

t  0;

y.0/ D 0:

a) Überprüfen Sie, ob die gegebene Differenzialgleichung eine globale Lipschitzbedingung auf RC erfüllt.

b) Stellen Sie fest, ob das gegebene Anfangswertproblem eine Lösung besitzt und diese eindeutig ist. Falls eine Lösung existiert und diese eindeutig ist, geben Sie diese an. Falls mehr als zwei Lösung existieren, geben Sie mindestens zwei davon an. Aufgabe 7.4. Für ein Einschrittverfahren (7.14) zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 lässt sich der lokale Verfahrensfehler allgemeiner auch für beliebige Punkte .t; y / 2 Œa; b  R N definieren,

.t; h/ WD y C h'.t; y I h/

z.t C h/;

0hb

t;

193

Übungsaufgaben

wobei z W Œt ; b ! R N die Lösung des Anfangswertproblems z 0 D f .s; z /; s 2 Œt ; b mit Anfangswert z.t / D y bezeichnet. Entsprechend lässt sich der Begriff Konsistenzordnung p  1 aus Definition 7.11 für beliebige Punkte .t; y / 2 Œa; b  R N verallgemeinern. Man zeige: Für jedes Einschrittverfahren (7.14) zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 mit einer verallgemeinerten Konsistenzordnung p  1 gilt die Konsistenzbedingung '.t; y I 0 / D f .t; y / für .t; y / 2 Œa; b  R N : Aufgabe 7.5. Für eine gegebene stetige Funktion f W Œa; b  R N ! R N betrachten wir das Anfangswertproblem y 0 D f .t; y /; a  t  b; y.a/ D y0 , das eine Lösung y W Œa; b ! R N besitze. Gegeben sei ein Einschrittverfahren mit Verfahrensfunktion ' . Zeigen Sie: a) Falls

.t; h/ D O.h/ für h ! 0 gleichmäßig für a  t < b

(7.57)

erfüllt ist und die Verfahrensfunktion ' bezüglich des zweiten Arguments einer globalen Lipschitzbedingung genügt, so gilt max`D0;:::;n jj u` y.t` / jj ! 0 für h ! 0. Dabei bezeichnet jj  jj W R N ! R eine beliebige Vektornorm, und es gilt t` D a C `h; h D b n a . b) Es ist (7.57) äquivalent zu '.t; y.t/I h/ ! f .t; y.t// für h ! 0 gleichmäßig in a  t < b .

c) Es erfüllen das Euler-Verfahren und das Vefahren von Heun jeweils die Bedingung (7.57).

Aufgabe 7.6. Man betrachte das Anfangswertproblem

y 0 D g.t /;

t 2 Œa; b;

y.a/ D 0;

(7.58)

mit einer gegebenen hinreichend glatten Funktion g W Œa; b ! R. Wendet man das EulerVerfahren mit konstanter Schrittweite h D b n a auf R b das Anfangswertproblem (7.58) an, so erhält man eine Näherungsformel für das Integral a g.t / dt . Gleiches gilt für das Verfahren von Heun. Man gebe beide Nährungsformeln für das Integral sowie jeweils obere Schranken für den von der Zahl h abhängenden Integrationsfehler an. Aufgabe 7.7. Gegeben sei das Anfangswertproblem

y0 D t

t 3;

y. 0 / D 0:

Zur Schrittweite h sollen mit dem Euler-Verfahren Näherungswerte u` für y.t` /; t` D `h, berechnet werden. Man gebe y.t` / und u` explizit an und zeige, dass an jeder Stelle t der Fehler eh .t / D uh .t / y.t / für h D nt ! 0 gegen null konvergiert. Aufgabe 7.8. Gegeben sei das Anfangswertproblem

y 0 D 3t 2 ;

t  0;

y.0/ D 0:

Zur Schrittweite h sollen mit dem Euler-Verfahren Näherungswerte un für y.tn /; tn D nh, für n D 0; 1; : : : berechnet werden. a) Man gebe y.tn / und un explizit an (n D 0; 1; : : :).

b) Zeigen Sie, dass für den Fehler en D un y.tn / an jeder festen Stelle t > 0 die Identität en D ch C O.h2 / für h D nt ! 0 erfüllt ist mit einer geeigneten Konstanten 0 ¤ c D c.t/ 2 R. Aufgabe 7.9 (Numerische Aufgabe). Man löse die van der Pol’sche Differenzialgleichung

y 00

. 1

y 2 /y 0 C y D 0;

y. 0 / D 2;

y 0.0/ D 0

194

Kapitel 7 Einschrittverfahren für Anfangswertprobleme

für  D 0 und  D 12 numerisch jeweils mit dem Euler-Verfahren, dem modifizierten EulerVerfahren sowie dem klassischen Runge-Kutta-Verfahren. Dabei verwende man jeweils einmal die konstante Schrittweite h D 0:025 und einmal die konstante Schrittweite h D 0:0025 und gebe tabellarisch die Näherungswerte an den Gitterpunkten t D 0:5; 1:0; 1:5; : : : ; 15; an.

Aufgabe 7.10 (Taylor-Verfahren). Für eine p -fach differenzierbare Funktion f W Œa; b  R ! R mit p 2 N sei f .0/ WD f und

f Œs  WD

@f Œs @t



C

@f Œs @y



f

für s D 1; 2; : : : ; p:

Zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 ist dann über die Verfahrensfunktion

'.t; y I h/ WD

p X hs 1 Œ s f sŠ



.t; y /

(7.59)

sD1

ein Einschrittverfahren u`C1 D u` C h'.t` ; u` I h/ definiert. a) Weisen Sie für die Lösung y des gegebenen Anfangswertproblems die folgende Identität nach:

y .sC1/ D f Œs  .t; y/;

at b

.s D 0; 1; : : : ; p/:

b) Weisen Sie nach, dass das betrachtete Einschrittverfahren (7.59) die Ordnung p besitzt. c) Für die spezielle Differenzialgleichung

y0 D y

auf Œ 0; b;

y.0/ D 1;

bestimme man für jedes p 2 N die zugehörige Verfahrensfunktion ' aus (7.59).

d) Für das Anfangswertproblem aus c) weise man für das zu (7.59) gehörende Einschrittverfahren mit äquidistanter Schrittweite h folgende Fehlerabschätzung nach:

jun

y.t/j 

te t hp .p C 1/Š

für t D nh  b; h  1:

Aufgabe 7.11. Zeigen Sie anhand der Testgleichung y 0 D y; t  0; y.0/ D 1, dass das Einschrittverfahren (7.19) auf Seite 174 für keine Wahl der Koeffizienten aj ; bj 2 R die Ordnung p D 3 besitzt. Aufgabe 7.12. Man zeige, dass das durch die Verfahrensfunktion

'.t; y I h/ D 61 .k1 C 4k2 C k3 /; k1 D f .t; y /;

k2 D f .t C h2 ; y C h2 k1 /;

k3 D f .t C h; y C h. k1 C 2k2 //;

gegebene Einschrittverfahren (einfache Kutta-Regel ) die Konvergenzordnung p D 3 besitzt. Aufgabe 7.13. Zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 sei für jedes p > 0 ein Einschrittverfahren p -ter Ordnung gegeben, welches für jeden Schritt die Rechenzeit pT0 benötigt und in t D b den Wert der gesuchten Funktion approximiert mit einem Fehler Khp . Die Konstanten K und T0 sollen vom jeweiligen Verfahren unabhängig sein. Man bestimme für p und einen vorgeschriebenen Fehler "  K in t D b die größtmögliche Schrittweite h D h.p; "/ und die zugehörige Gesamtrechenzeit T D T .p; "/. Wie verhält sich T in Abhängigkeit von p und welches ist die optimale Konsistenzordnung popt D popt ."/? Wie verhält sich popt in Abhängigkeit von "? Der Einfachheit halber sei angenommen, dass die Zahlen p und n (wobei der Zusammenhang h D b n a besteht) reell gewählt werden dürfen.

195

Übungsaufgaben Aufgabe 7.14. Man weise die in Beispiel 7.34 getroffenen Aussagen nach.

Aufgabe 7.15. Weisen Sie für p 2 N; m 2 N0 sowie für reelle Zahlen 0 < a0 < a1 <    < am die Regularität der folgenden Matrix nach:

0

B B B B B ADB B B B @

1

a0p

a0pC1

1

p

a1

pC1

:: :

:: :

:: :

1

p am

pC1 am

a1

::: :::

a0pCm

1

pCm 1

a1

:: : :::

pCm am

1

1

C C C C C C: C C C A

Aufgabe 7.16 (Numerische Aufgabe). Man löse numerisch die Differenzialgleichung

y0 D

200 t y 2 ;

t  3;

y. 3 / D 1 ; 901

mit dem Standard-Runge-Kutta-Verfahren der Ordnung p D 4 unter Verwendung der in Abschnitt 7.7 beschriebenen Schrittweitensteuerung. Zur Berechnung jeder neuen Schrittweite h` starte man mit h.0/ D h` 1 (beziehungsweise im Fall k D 0 mit h.0/ WD 0:02) und korrigiere gemäß Abschnitt 7.7 solange, bis (siehe Bemerkung 7.38) 3"  ı .k/  3" oder k D 20 erfüllt ist, wobei " D 10 7 gilt. Für ` D 1; 2; : : : ; 50 gebe man jeweils die Näherungswerte in t` sowie y.t` /; h` 1 und die Anzahl der Versuche k zur Bestimmung der Schrittweite h` an.

8

Mehrschrittverfahren für Anfangswertprobleme bei gewöhnlichen Differenzialgleichungen

Mit den in diesem Kapitel behandelten Mehrschrittverfahren zur näherungsweisen Bestimmung einer Lösung des Anfangswertproblems (7.1)–(7.2) (in Kurzschreibweise y 0 D f .t; y /; y.a/ D y0 ) erhält man auf einfache Weise Verfahren höherer Konvergenzordnung.

8.1 Grundlegende Begriffe 8.1.1 Mehrschrittverfahren Definition 8.1. Ein m-Schrittverfahren zur näherungsweisen Bestimmung einer Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 besitzt auf einem äquidistantem Gitter die Form m X

j D0

˛j u`Cj D h'.t` ; u` ; : : : ; u`Cm I h/;

` D 0; 1; : : : ; n

m;

(8.1)

mit 

Koeffizienten ˛j 2 R mit ˛m ¤ 0 und einer Funktion

' W Œa; b   . R N /mC1  R C ! R N ; 

Gitterpunkten beziehungsweise Schrittweiten

t` D a C `h für ` D 0; 1; : : : ; n; 

(8.2)

mit h D

nicht näher spezifizierten Startwerten u0 ; : : : ; um

1

b

a n

;

(8.3)

2 RN .

Ein m-Schrittverfahren bezeichnet man allgemeiner auch als Mehrschrittverfahren. Bemerkung 8.2. a) Üblicherweise setzt man u0 WD y0 , und die weiteren Startwerte u1 ; u2 ; : : : ; um 1 2 R N sind in einer Anlaufrechnung zu ermitteln.

b) Nach der Anlaufrechnung wird für jedes ` 2 ¹ 0; 1; : : : ; n mº so verfahren, dass aus den dann bereits bestimmten Näherungen u` ; : : : ; u`Cm 1 2 R N gemäß der Verfahrensvorschrift (8.1) die Näherung u`Cm 2 R N berechnet wird mit der Zielsetzung

u`Cm  y.t`Cm /: Hier bezeichnet y W Œa; b  ! R N die Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 .

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_8

198

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

c) Wie schon bei den Einschrittverfahren wird zwecks einer vereinfachten Notation der Definitionsbereich einer Funktion ' immer wie in (8.2) angegeben, obwohl bei den meisten noch vorzustellenden speziellen m-Schrittverfahren der Ausdruck '.t; v0 ; : : : ; vm 1 I h/ lediglich für Schrittweiten h  bmt wohldefiniert ist. d) Hängt in der Verfahrensvorschrift (8.1) die rechte Seite tatsächlich von der Unbekannten u`Cm ab, so spricht man von einem impliziten m-Schrittverfahren. Ist andererseits die Funktion ' unabhängig von u`Cm , so liegt ein explizites m-Schrittverfahren vor. e) Auf variablen Gittern, die hier nicht weiter behandelt werden, sind m-Schrittverfahren von der Form m X

j D0

 ˛j u`Cj D h`Cm ' t` ; : : : ; t`Cm ; u` ; : : : ; u`Cm I h`Cm ;

` D 0; 1; : : : ; n

m:

f) Ist in der Verfahrensvorschrift (8.1) die Funktion ' von der speziellen Form

'.t; v0 ; : : : ; vm I h/ D

m X

j D0

ˇj f .t C j h; vj /;

so wird (8.1) als lineares m-Schrittverfahren bezeichnet.

M

Beispiel 8.3. Ein spezielles lineares 2-Schrittverfahren ist die Mittelpunktregel,

u`C2 D u` C 2hf .t`C1 ; u`C1 /;

` D 0; 1; : : : ; n

2:

Ausführlich werden spezielle Mehrschrittverfahren in Abschnitt 8.3 behandelt.

(8.4) M

8.1.2 Konvergenz- und Konsistenzordnung Die Approximationseigenschaften eines Mehrschrittverfahrens werden durch seine Konvergenzordnung beschrieben. Definition 8.4. Ein Mehrschrittverfahren von der Form (8.1) zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 besitzt die Konvergenzordnung p  1, falls sich zu jeder Konstanten c  0 und beliebigen Startwerten u0 ; : : : ; um 1 2 R N mit jjuk y.tk / jj  chp für k D 0; 1; : : : ; m 1 der globale Verfahrensfehler in der Form max `Dm;:::;n

jju`

y.t` / jj  Khp

abschätzen lässt mit einer von der Schrittweite h unabhängigen Konstanten K  0. Hier und im Folgenden bezeichnet jj  jj W R N ! R eine nicht näher spezifizierte Vektornorm. In Analogie zu den Einschrittverfahren spielen bei der Bestimmung der Konvergenzordnung eines Mehrschrittverfahrens die folgenden Begriffe eine wichtige Rolle.

199

Abschnitt 8.1 Grundlegende Begriffe

Definition 8.5. Für ein Mehrschrittverfahren (8.1) zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 bezeichnet

.t; h/ WD

m X

j D0

˛j y.t C j h/



9 = h'.t; y.t /; y.t C h/; : : : ; y.t C mh/I h/; > > 0 0 der lokale Verfahrensfehler die folgende Abschätzung erfüllt,

jj.t; h/ jj  C hpC1 ;

a  t  b;

0  h  H:

Die Konsistenzordnung wird oft nur kurz als Ordnung eines Mehrschrittverfahrens bezeichnet.

8.1.3 Nullstabilität, Lipschitzbedingung Bei der Behandlung der Konvergenzordnung eines Mehrschrittverfahrens wird auch die folgende Lipschitzbedingung an die Funktion ' W Œa; b   . R N /mC1  R C ! R N aus der Verfahrensvorschrift (8.1) eine Rolle spielen,

j '.t; v0 ; : : : ; vm I h/

'.t; w0 ; : : : ; wm I h/jj  L'

m X

j D0

jjvj

wj jj .vj ; wj 2 R N /: (8.6)

Bemerkung 8.7. a) Falls f W Œa; b   R N ! R N eine stetige Funktion ist, die die Lipschitzbedingung (7.10) erfüllt, so ist für lineare Mehrschrittverfahren die Lipschitzbedingung (8.6) erfüllt mit der Lipschitzkonstanten L' D L maxj D0;:::;m jˇj j. b) Falls die Lipschitzbedingung (8.6) erfüllt ist, so ist für hinreichend kleine Schrittweiten h die Existenz und Eindeutigkeit der Approximationen des m-Schrittverfahrens (8.1) gewährleistet, da man die Bestimmungsgleichung für u`Cm als Fixpunktgleichung schreiben kann, die für 0 < h < ˛ 1L einer Kontraktionsbedingung gem ' nügt. M Schließlich ist bei den Konvergenzbetrachtungen für Mehrschrittverfahren die folgende Eigenschaft von Bedeutung. Definition 8.8. Ein m-Schrittverfahren (8.1) zur Lösung von y 0 D f .t; y /; y.a/ D y0 heißt nullstabil, falls für das erzeugende Polynom

. / WD ˛m  m C ˛m

1

m 1

C    C ˛0 2 … m

(8.7)

200

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

die folgende dahlquistsche Wurzelbedingung erfüllt ist,

. / D 0 =) j j  1I . / D 0;

j j D 1 =)  ist einfache Nullstelle von :

8.1.4 Übersicht Die nächsten Abschnitte des vorliegenden Kapitels behandeln die folgenden wichtigen Themen: 

Kriterien zur Bestimmung der Konvergenzordnung von allgemeinen Mehrschrittverfahren,



Kriterien zur Bestimmung der Konsistenzordnung sowie Überprüfung der Nullstabilität allgemeiner Mehrschrittverfahren,



Behandlung spezieller Mehrschrittverfahren.

8.2 Der globale Verfahrensfehler bei Mehrschrittverfahren 8.2.1 Das Konvergenztheorem Es wird nun das wesentliche Konvergenzresultat für Mehrschrittverfahren vorgestellt. Theorem 8.9. Ein m-Schrittverfahren (8.1) für das Anfangswertproblem y 0 D f .t; y /; y.a/ D y0 sei nullstabil und die Funktion ' genüge der Lipschitzbedingung (8.6). Dann existieren Konstanten K  0 und H > 0, so dass für 0 < h D b n a  H die folgende Abschätzung gilt, max jju`

`D0;:::;n

y.t` / jj  K

h

max kD0;:::;m 1

jjuk

y.tk / jj C



max at b mh

 i jj.t; h/ jj =h : (8.8)

Beweis. Zur Vereinfachung der Notation nehmen wir im Folgenden ˛m D 1 an und betrachten den skalaren Fall N D 1. Mit den Setzungen

e` D u`

y` ;

` D .t` ; h/; gelten für ` D 0; : : : ; n

y` WD y.t` /;

` D 0; 1; : : : ; n; ` D 0; 1; : : : ; n

m die folgenden Darstellungen

m X

˛j y`Cj D h'.t; y` ; : : : ; y`Cm I h/ C ` ;

m X

˛j u`Cj D h'.t` ; u` ; : : : ; u`Cm I h/;

j D0

j D0

m;

201

Abschnitt 8.2 Der globale Verfahrensfehler bei Mehrschrittverfahren

und daher m X

  ˛j e`Cj D h '.t` ; u` ; : : : ; u`Cm I h/ '.t; y` ; : : : ; y`Cm I h/ „ ƒ‚ … j D0 DW ı`

` :

(8.9)

Das lässt sich folgendermaßen schreiben,

0

e`C1

1

0

0

1

C B B C B B ♣♣ ♣♣ B B e`C2 C ♣ ♣ C B B D B B : C B B : C 0 1 B B : C A @ @ e`Cm ˛0 ♣ ♣ ♣ ♣ ♣ ♣ ˛m „ ƒ‚ … „ ƒ‚ DW E`C1 DW A

10

e`

1

0

0

1

C B B C C B B C B e`C1 C B ::: C C B B C CC B B : C C B B : C C B 0 C B : A @ @ A e`Cm 1 ı` ` 1 … „ ƒ‚ … „ ƒ‚ … DW E` DW F` C C C C C C C A

(8.10)

mit der Matrix A 2 R mm und den Vektoren E` ; F` 2 R m . Aus der Darstellung (8.10) erhält man mittels vollständiger Induktion die Beziehung

E ` D A` E 0 C

`X1

A`

1 

F ;

` D 0; 1; : : : ; n

D0

m C 1:

(8.11)

Zur Abschätzung der rechten Seite von (8.11) beobachtet man, dass die Wurzeln des erzeugenden Polynoms  mit den Eigenwerten der Matrix A übereinstimmen1 , und aufgrund der Nullstabilität erhält man aus dem nachzutragenden Lemma 8.15 die Beschränktheit der Potenzen der Matrix A, das heißt,

jjAk jj1  C;

k D 0; 1; : : : ;

(8.12)

mit einer Konstanten C > 0. Aus (8.11)–(8.12) resultiert die Abschätzung `X1   jjE` jj1  C jjE0 jj1 C jjF jj1 ; D0

` D 0; 1; : : : ; n

m C 1:

(8.13)

Wegen (8.9) und (8.10) gilt

jjF jj1 D jı

 j  j j C hL' 

max

j D0;:::;n m

m X

j D0

jeCj j

jj j C hL' mjjE jj1 C hL' jjEC1 jj1 ;

und Summation ergibt `X1

D0

1

jjF jj1  n



max

j D0;:::;n m

`X1  jj j C hc1 jjE jj1 C hL' jjE` jj1 D0

mit c1 WD L' .m C 1 /:

Details hierzu findet man im Beweis von Lemma 5.22 im Kapitel über nichtlineare Gleichungssysteme.

202

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Dies eingesetzt in (8.13) führt für 0 < h  H mit einer Konstanten H < 1=.CL' / auf folgende Abschätzung,

jjE` jj1 

C CL' H

1



jjE0 jj1 C n



max

j D0;:::;n m

jj j



C

`X1 C c1 jjE jj1 ; h 1 CL' H D0

` D 1; 2; : : : ; n

m C 1:

Das ebenfalls noch nachzutragende diskrete Lemma von Gronwall 8.14 liefert dann die Behauptung, wenn man noch

jjE0 jj1 D

max

`D0;:::;m 1

ju`

y.t` /j;

ju`

y.t` /j  jjE` jj1 ;

berücksichtigt. Bemerkung 8.10. Dem Beweis von Theorem 8.9 entnimmt man noch, dass im Falle expliziter Verfahren H D 1 als obere Schranke für die Schrittweiten gewählt werden kann und die wesentliche Fehlerabschätzung (8.8) für jede Schrittweite h D b n a formal richtig ist. Es ist jedoch zu beachten, dass bei den noch zu behandelnden steifen Differenzialgleichungen (siehe Kapitel 8.9) der Fehler bei expliziten Verfahren erst für kleine Schrittweiten h > 0 klein ausfällt, was wegen der dort typischerweise großen Lipschitzkonstanten nicht im Widerspruch zur Fehlerabschätzung (8.8) steht. Hier ist der Einsatz impliziter Verfahren sinnvoller. Einzelheiten dazu werden in Abschnitt 8.9 vorgestellt. M Als unmittelbare Folgerung aus Theorem 8.9 erhält man das folgende Korollar. Korollar 8.11. Ein nullstabiles m-Schrittverfahren (8.1) mit der Konsistenzordnung p  1 und einer der Lipschitzbedingung (8.6) genügenden Funktion ' besitzt die Konvergenzordnung p . Es folgt ein Resultat über fehlerbehaftete Mehrschrittverfahren. Korollar 8.12 (Rundungs- und Verfahrensfehleranalyse). Ein m-Schrittverfahren (8.1) zur Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 besitze die Konsistenzordnung p  1 und sei nullstabil, und die Funktion ' genüge der Lipschitzbedingung (8.6). Für die Startwerte sei max

`D0;:::;m 1

jjv`

y.t` / jj  chp C ı1

erfüllt mit einer von h unabhängigen Konstanten c  0. Für die Lösung der Gleichungen m X

j D0

˛j v`Cj D h'.t` ; v` ; : : : ; v`Cm I h/ C ` ; jj` jj  ı2 ;

` D 0; 1; : : : ; n ......

m; ;

203

Abschnitt 8.2 Der globale Verfahrensfehler bei Mehrschrittverfahren

gilt dann die Fehlerabschätzung max jjv`

`D0;:::;n

ı

y.t` / jj  K hp C ı1 C h2

 1=.pC1/

mit einer von h unabhängigen Konstanten K  0. Mit der Wahl h D ı2 man max jjv`

`D0;:::;n

erhält

 y.t` / jj  K 2ı2p=.pC1/ C ı1 :

Beweis. Verläuft wie der Beweis von Theorem 8.9. Man hat dort nur ` D .t` ; h` /C` zu setzen.

8.2.2 Hilfsresultat 1: Das Lemma von Gronwall Als erster Nachtrag zum Beweis von Theorem 8.9 wird in diesem Abschnitt das diskrete Lemma von Gronwall vorgestellt. Vorbereitend hierzu wird die folgende kontinuierliche Fassung betrachtet. Lemma 8.13 (Gronwall). Für die riemann-integrierbare Funktion ˆ W Œ 0; T  ! R sowie für Konstanten ˛; ˇ 2 R mit ˇ > 0 sei

ˆ.t /  ˛ C ˇ

Z t 0

ˆ.s/ ds;

t 2 Œ 0; T ;

erfüllt. Dann gilt

ˆ.t /  ˛e ˇ t ;

t 2 Œ 0; T :

(8.14)

Beweis. Mit der Notation

M WD sup ˆ.t / 0t T

wird im Folgenden per Induktion über n D 0; 1; : : : die folgende Abschätzung bewiesen,

ˆ.t /  ˛

n X . ˇt /` `Š

`D0

. ˇt /nC1

CM.

n C 1 /Š

;

t 2 Œ 0; T :

(8.15)

Der Grenzübergang n ! 1 in (8.15) liefert dann die Abschätzung (8.14). Die Abschätzung (8.15) ist richtig für n D 0,

ˆ.t /  ˛ C ˇ

Z t 0

ˆ.s/ ds  ˛ C ˇ

Z t 0

M ds D ˛ C Mˇt;

t 2 Œ 0; T :

204

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Wir nehmen nun an, dass für ein n 2 N die Abschätzung (8.15) richtig ist mit n anstelle n. Dann gilt

ˆ.t /  ˛ C ˇ ˛C˛ D˛

Z t 0

 nX1 ˇ ` ˆ.s/ ds  ˛ C ˇ ˛ `Š `D0

Z t 0

s ` ds C M

ˇn nŠ

Z t 0

s n ds

1



nX1

n X ˇ `C1 t `C1 ˇ nC1 t nC1 .ˇt/nC1 .ˇt/` CM D˛C˛ CM `Š ` C 1 nŠ n C 1 `Š .n C 1/Š `D0 `D1

n X

.ˇt/nC1 .ˇt/` CM ; `Š .n C 1/Š `D0

t 2 Œ 0; T ;

was den Beweis des Gronwall-Lemmas komplettiert. Eine unmittelbare Konsequenz aus dem Lemma von Gronwall ist das Resultat (7.11) über die stetige Abhängigkeit von den Anfangswerten bei einem Anfangswertproblem y 0 D f .t; y /; y.a/ D y0 . Hier soll das Lemma von Gronwall zum Beweis der folgenden diskreten Variante verwendet werden. Lemma 8.14 (Diskrete Variante des Lemmas von Gronwall). Es seien positive Zahlen h0 ; : : : ; hr 1 > 0 sowie Konstanten ˛  0 und ˇ  0 gegeben. Für Zahlen v0 ; : : : ; vr 2 R seien die folgenden Ungleichungen erfüllt,

jv0 j  ˛;

jv` j  ˛ C ˇ

`X1

j D0

hj jvj j für ` D 1; 2; : : : ; r:

Dann gilt die folgende Abschätzung,

 `X1  hj ; jv` j  ˛ exp ˇ j D0

` D 0; 1; : : : ; r:

Beweis. Es soll Lemma 8.13 angewandt werden, und hierzu betrachtet man mit der Notation x0 WD 0 und x`C1 WD x` C h` für ` D 0; 1; : : : ; r 1 die Treppenfunktion

ˆ WD

rX1

`D0

jv` jŒ x` ;x`C1 / C jvr j¹xr º W Œ 0; T  ! R

.T WD xr /;

wobei M die charakteristische Funktion bezüglich einer gegebenen Menge M bezeichnet, es gilt also M  1 auf M und  0 außerhalb von M . Für beliebige ` 2 ¹ 0; 1; : : : ; r 1 º und t 2 Œ x` ; x`C1 /, sowie auch für ` D r und t D xr gilt dann

ˆ.t / D jv` j  ˛ C ˇ D˛Cˇ

Z x ` 0

`X1

j D0

hj jvj j D ˛ C ˇ

ˆ.s/ ds  ˛ C ˇ

Z t 0

`X1 Z x j C1

j D0

xj

ˆ.s/ ds:

ˆ.s/ ds

Abschnitt 8.2 Der globale Verfahrensfehler bei Mehrschrittverfahren

205

Das Lemma von Gronwall liefert nun

 `X1  hj jv` j D ˆ.x` /  ˛e ˇ x` D ˛ exp ˇ j D0

für ` D 0; 1; : : : ; r:

Dies komplettiert den Nachweis der Aussage der diskreten Variante des Lemmas von Gronwall.

8.2.3 Beschränktheit der Matrixfolge A; A 2 ; A 3 ; : : : Das nachfolgende Lemma liefert den zweiten und letzten Nachtrag zum Beweis von Theorem 8.9. Zuvor führen wir noch die folgende Notation ein: einem Eigenwert  2 C einer Matrix A 2 R N N entsprechen nur lineare Elementarteiler, falls die geometrische Vielfachheit von  mit der algebraischen Vielfachheit übereinstimmt. Äquivalent dazu ist, dass alle zu  gehörenden Jordanblöcke trivial sind. Lemma 8.15. Für eine gegebene Matrix A 2 R N N ist die Folge der Matrizen A; A2 ; A3 ; : : : beschränkt genau dann, (i) wenn der Spektralradius von A kleiner gleich eins ausfällt, r .A/  1;

(ii) und wenn jedem Eigenwert  2 C von A mit jj D 1 nur lineare Elementarteiler entsprechen. Beweis. Für den Nachweis der Äquivalenz wird eine zu A ähnliche Matrix J 2 CN N in jordanscher Normalform herangezogen,

0

B J [email protected]

1

J1 ♣♣



Jr

C A;

Pr

0

B B J` D B @

1

` 1 ♣♣



♣♣



♣♣



C C C 2 CN` N` ; 1A

` D 1; 2; : : : ; r;

`

wobei N`  1 und `D1 N` D N gilt. Im Fall N` D 1 bedeutet diese Notation J` D .` / 2 C11 . Seien nun zuerst die Bedingungen (i) und (ii) erfüllt, es gilt also

j` j  1I

im Fall j` j D 1 sei N` D 1

.` D 1; 2; : : : ; r /:

(8.16)

Man wählt nun " > 0 so klein, dass für jedes ` 2 ¹ 1; 2; : : : ; r º im Fall N`  2 die Ungleichung j` j C "  1 erfüllt ist, was aufgrund von (8.16) möglich ist. Dann betrachtet man

b J DD

1

JD;

D D diag . 1; "; "2 ; : : : ; "N

1

/ 2 R N N ;

und erhält unter Beachtung von b J D ."k j Jjk / Folgendes,

0

B b J [email protected]

b J1

♣♣



b Jr

1

C A;

0

B B b J` D B @

` " ♣♣



1

C C C 2 CN` N` ; ` D 1; 2; : : : ; r; (8.17) ♣♣ ♣ "A `

♣♣



206

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

beziehungsweise b J ` D .` / 2 C11 im Fall N` D 1. Aufgrund der Konstruktion gilt

jj b J jj1 D max jj b J ` jj1  1 `D1;:::;r

und daher

jj b J  jj1  1;

 D 1; 2; : : : :

Die Ähnlichkeit der Matrizen A und J impliziert A D T Matrix T 2 CN N , und damit gilt

A D T1 1 b J  T1 ;

 D 0; 1; : : : ;

1

J T mit einer regulären

mit T1 WD D

1

T:

Daher ist also auch die Matrixfolge A1 ; A2 ; : : : beschränkt. Wir nehmen nun umgekehrt an, dass eine der beiden Bedingungen (i), (ii) nicht erfüllt ist. Wenn die Bedingung (i) nicht erfüllt ist, so gilt für ein 1  `  r die Ungleichung j` j > 1, und dann betrachte man im Fall N`  2 etwa die Vektorfolge

0 B B B @

1 0 1

` 1 ♣♣



1

♣♣



♣♣



C C C 1A

0

B0C B B C B B ♣♣ C D B @ ♣A @

`

0

`

1 C

0C ♣♣ C ; ♣ A 0

 D 0; 1; : : :;

und für N` D 1 gilt J` D .` / 2 C11 . Falls (ii) nicht erfüllt ist, so gilt für ein 1  `  r sowohl j` j D 1 als auch N`  2, und hier betrachte man beispielsweise

0 B B B @

`

1

`

0  1 0 0 1 ` B ` 1C ♣♣ C B C B ♣ C B B C B0C ♣♣ C D B 0♣ ♣ 1A B @ ♣♣♣ A B @ ♣♣ ` 0 0

1

1

C C C C; C A

 D 0; 1; : : : :

In jedem Fall ist wegen

0

B J D @

J1 ♣♣



Jr

1

C A;

 D 0; 1; : : :;

dann die Matrix J und damit auch die zu J ähnliche Matrix A nicht potenzbeschränkt. Die Aussage des Lemmas ist damit vollständig nachgewiesen.

8.2.4 Die Konsistenzordnung linearer Mehrschrittverfahren Zum Abschluss der allgemeinen Betrachtungen über Mehrschrittverfahren wird in dem folgenden Lemma ein einfaches Kriterium zur Bestimmung der Konsistenzordnung eines linearen Mehrschrittverfahrens vorgestellt.

207

Abschnitt 8.2 Der globale Verfahrensfehler bei Mehrschrittverfahren

Lemma 8.16. Sind für das lineare m-Schrittverfahren m X

j D0

˛j u`Cj D h

m X

ˇj f .t`Cj ; u`Cj /;

j D0

` D 0; 1; : : : ; n

m;

mit einer p -mal stetig partiell differenzierbaren Funktion f W Œa; b   R N ! R N (für eine Zahl p  1) die Gleichungen m X

j D0

®

j  ˛j

j 

1

¯ ˇj D 0;

 D 0; 1; : : : ; p;

(8.18)

erfüllt, so ist das m-Schrittverfahren konsistent von der Ordnung p . Für eine .p C 1 /mal stetig partiell differenzierbare Funktion f gilt mehr noch die Darstellung

9 > > =

.t; h/ D CpC1 y .pC1/ .t /hpC1 C O.hpC2 / für h ! 0; m  pC1 X j p ˇj  j ˛j : mit CpC1 WD . / pŠ j D0

(8.19)

> > ;

pC1 Š

Beweis. Die Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 ist nach Theorem 7.5 .p C 1 /-mal stetig partiell differenzierbar. Taylorentwicklung der Funktionen y und y 0 in dem Punkt t 2 Œa; b mh ergibt

y.t C j h/ D y 0 .t C j h/ D

p X y ./ .t /   j h Š

C O.hpC1 /;

D0

pX1 D0

y .C1/ .t /   j h Š

C O.hp / D

p X

D0



y ./ .t /  j Š

1  1

h

C O.hp /:

Für den lokalen Verfahrensfehler folgt daraus

.t; h/ D D D

m X

˛j y.t C j h/

m X



j D0

j D0 p X

D0

h

j D0

˛j y.t C j h/

m  X

j D0



j  ˛j

m X

hˇj y 0 .t C j h/

j 

ƒ‚ D0

ˇj f .t C j h; y.t C j h//

1

ˇj …

 y ./ .t / Š



h C O.hpC1 /;

0 0. Dann besitzt das zu gegebenen Vektoren g0 ; g1 ; : : : ; gr 2 R N gehörende eindeutig bestimmte (vektorwertige) interpolierende Polynom P 2 …N r die Darstellung

P .xr C sh/ D

r X

s

. 1 /k k

kD0

r k gr ;

s 2 R:

(8.22)

Hierbei gelten die folgenden Identitäten, s k

D

. s/. s

1/    . s



k C 1/

D

. 1/k s.s kŠ

C 1 /    .s C k

und es bezeichnet r ® X ak t k ; …N r WD P .t / D kD0

¯

mit ak 2 R N :

1 /;

(8.23)

210

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Beweis von Lemma 8.20. Für die newtonsche Darstellung des Polynoms P erhält man unter Verwendung von (8.23) und den Resultaten aus Abschnitt 1.5 Folgendes,

P .xr C sh/ D a0 C a1 .xr C sh D D

kY1

r X

ak

r X

ak hk

j D0

kD0

.xr C sh

kY1

j D0

kD0

xr / C    C ar .xr C sh xr

.s C j / D

j/ r X

D

r X

ak

kY1

j D0

kD0

xr /    .xr C sh

.xr C sh



j h//

s

ak hk . 1 /k kŠ k

kD0

mit den dividierten Differenzen

ak D g Πxr ; : : : ; xr

.xr

2 RN ;

x1 /

(8.24)

k D 0; 1; : : : ; r:

(8.25)

Die Aussage des Lemmas erhält man nun aus (8.24)–(8.25) zusammen mit der folgenden Darstellung für die dividierten Differenzen,

g Πx` ; : : : ; x`



D

r k g` ; kŠhk

0  k  `  r;

die man mittels vollständiger Induktion über k D 0; 1; : : : ; r erhält:

g Œ x `  D g` D r 0 g` ;

g Πx` ; : : : ; x`



D D

g Πx` ; : : : ; x`

` D 0; 1; : : : ; rI

g Πx`

kC1 

1 ; : : : ; x` k 

kh r k g` r k 1 g` r k 1 g` 1 D ; ..k 1 /Šhk 1 /kh kŠhk

` D k; k C 1; : : : ; r:

Lemma 8.21. Zu einer gegebenen Funktion g 2 C rC1 .Œc; d ; R N / und zu den äquidistanten Stützstellen x` D x0 C `h 2 Œc; d  für ` D 0; 1; : : : ; r bezeichne P 2 …N r das zugehörige (vektorwertige) interpolierende Polynom. Der Interpolationsfehler in xr C sh 2 Œc; d  besitzt die Darstellung

g.xr C sh/

9 =

 P .xr C sh/ D . 1 /rC1 r Cs 1 F .s/hrC1 ; .rC1/

F .s/ D .gj

.j .s///j D1;:::;N 2 R N ; ;

(8.26)

mit geeigneten Zwischenstellen j .s/ 2 Œc; d  für j D 1; 2; : : : ; N .

Beweis. Aus Abschnitt 1.6 ist die folgende Fehlerdarstellung bekannt, .rC1/

gj .xr C sh/

Pj .xr C sh/ D

!.xr C sh/gj

.j .s //

. r C 1 /Š

;

mit !.x / D .x x0 /    .x xr /, und Pj bezeichnet die j -te Komponente des vektorwertigen Polynoms P . Die Aussage des Lemmas folgt dann mit der Darstellung (8.23),

!.xr C sh/ D

r Y

j D0

.xr C sh

.xr

j h// D hrC1

 D hrC1 . 1/rC1 r Cs 1 .r C 1 /Š :

r Y

j D0

.s C j /

211

Abschnitt 8.4 Adams-Verfahren

8.4 Adams-Verfahren 8.4.1 Der Ansatz Zur Herleitung der ersten Klasse von Mehrschrittverfahren beobachtet man, dass die Lösung y W Œa; b  ! R N des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 auch der folgenden Integralrelation genügt,

y.t`Cm /

y.t`Cm

1/

D

Z t `Cm t`Cm

f .t; y.t // dt;

` D 0; 1; : : : ; n

1

m;

(8.27)

was man durch Integration der Differenzialgleichung y 0 D f .t; y.t // von t`Cm 1 bis t`Cm erhält. Adams-Verfahren gewinnt man nun durch Ersetzen des Integranden durch geeignete Polynome P ,

u`Cm

u`Cm

1

D

Z t `Cm t`Cm

P .t / dt;

` D 0; 1; : : : ; n

1

m:

(8.28)

Je nach der speziellen Wahl von P erhält man explizite beziehungsweise implizite Verfahren. Im Folgenden werden Einzelheiten hierzu vorgestellt.

8.4.2 Adams-Bashfort-Verfahren Definition 8.22. Für m  1 erhält man das m-schrittige Adams-Bashfort-Verfahren durch den Ansatz (8.28) mit

P 2 …N m

1;

P.tj / D fj ;

j D `; ` C 1; : : : ; ` C m

fj WD f .tj ; uj /;

.......

1;

:

µ

(8.29)

Die vorliegende Situation ist in Abb. 8.1 veranschaulicht.

f`Cm

. .... .. ..

f`Cm

... .................. ..... ....... ....... ...... ...... ...........................................

....................... .. .................... ... .................... ... .............................. ... .............................. . . ........................... 2... .............................. ............. ....... .......... ...... ....... ... .............................. ..... ...... .... .......... .... ..... .............................. ` 1 ..`......... ..... ..... . .................... . . . . . . . . . . ........................... .......... .... . . . .............................. . ..... .................... . . . . . .......... ...... . . . . .............................. . . . . ................... .................... .......... .............................. .......... .............................. .................... .......... .............................. .................... ..........

f`C1

f

f

t`

1

t`

t`C1

P.t /

.. . . . . . . . ..................... 1 ......................

f`Cm

:::

t`Cm

1

........ ....

t

t`Cm

Abb. 8.1: Vorgehensweise des m-schrittigen Adams-Bashfort-Verfahrens im eindimensionalen Fall Das folgende Theorem liefert eine explizite Darstellung für das Adams-BashfortVerfahren:

212

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Theorem 8.23. Das m-schrittige Adams-Bashfort-Verfahren hat die Gestalt

u`Cm

u`Cm

1

Dh

m X1 kD0

k r k f`Cm

1;

` D 0; 1; : : : ; n

m;

(8.30)

mit den von m unabhängigen Koeffizienten Z 1

k WD . 1 /k

s k

0

die sich rekursiv berechnen durch 1

kC1

ds;

0 C k1 1 C k 1 1 2 C    C 12 k

k D 0; 1; : : :;

1

(8.31)

C k D 1 für k D 0; 1; : : : :

(8.32)

Beweis. Die Darstellung (8.30)–(8.31) folgt umgehend aus Lemma 8.20 mit xj D t`Cj für j D 0; 1; : : : ; m 1, Z t `Cm t`Cm

P.t / dt D h

1

Z 1 0

P.t`Cm

1

m X1

Z 1

s

. –1 /k k 0 kD0 „ ƒ‚

k

C sh/ ds D h

ds r k f`Cm …

1 : (8.33)

Bei dem Nachweis der Rekursionsformel (8.32) für die Koeffizienten k bedient man sich der erzeugenden Funktion

G.t / WD

1 X

k t k D

1 X

kD0

D

kD0 Z 1

.1

t/

D

.1

t t / ln. 1

0

s

. t /k

s k

0

1 .1 ln . 1 t /

ds D t/

Z 1

;

./

ds D

Z 1 X 1 0

kD0

ˇsD1 t / sˇ

s k .

 t /k ds

sD0

1 < t < 1:

(8.34)

Hier folgt ./ durch Vertauschen von Reihenentwicklung und Integration, was aufP1 s grund der bei festem 1 < t < 1 gleichmäßigen Konvergenz von . t /k kD0 k s 2 bezüglich s 2 Œ 0; 1  (in unserer Situation gilt j k j  1) zulässig ist. Die Darstellung (8.34) für G.t / liefert

G.t /

ln.1

t/

t

D

1 1

t

;

jt j < 1;

beziehungsweise in Potenzreihenschreibweise

0 C 1 t C 2 t 2 C   



1C

t 2

 2 C t3 C    D 1 C t C t 2 C    ;

(8.35)

und ein Vergleich der Koeffizienten von t 0 ; t 1 ; t 2 ; : : : auf den beiden Seiten der Gleichung (8.35) ergibt die Aussage (8.32). 2

siehe (8.23)

213

Abschnitt 8.4 Adams-Verfahren

Bemerkung 8.24. a) Das m-schrittige Adams-Bashfort-Verfahren (8.30) lässt sich in eindeutiger Weise in der Form

u`Cm

u`Cm

1

Dh

m X1

ˇm;j f`Cj ;

` D 0; 1; : : : ; n

j D0

m;

(8.36)

schreiben mit den von der Zahl m abhängigen Koeffizienten ˇm;0 ; ˇm;1 ; : : : ; ˇm;m R, denn (8.21) ergibt unmittelbar m X1 kD0

k r k f`Cm

1

D

m k X1 X

D

m X1 

kD0 j D0

j D0

 . 1 /j jk k f`Cm

. 1 /j „

m X1 kDj

ƒ‚ DW ˇm;m

k j k 1 j





1

2

1 j

f`Cm

1 j:

b) Aus der Rekursionsformel (8.32) berechnen sich die ersten vier Koeffizienten

0 ; : : : ; 3 2 R zu

0 D 1;

1 D 12 ;

2 D

5 ; 12

3 D 38 :

Für m D 1; : : : ; 4 lauten die m-schrittigen Adams-Bashfort-Verfahren in der klassischen Darstellung eines linearen Mehrschrittverfahrens folgendermaßen,

m D 1 W u`C1 D u` C hf` ;

m D 2 W u`C2 D u`C1 C h2 . 3f`C1

f` /;

h . 23f`C2 m D 3 W u`C3 D u`C2 C 12

16f`C1 C 5f` /;

h m D 4 W u`C4 D u`C3 C 24 . 55f`C3

59f`C2 C 37f`C1

9f` /;

` D 0; : : : ; n

1I

......

n

2I

......

n

3I

......

n

4:

Insbesondere erhält man im Fall m D 1 das klassische Euler-Verfahren.

M

Das folgende Theorem stellt die wesentlichen Eigenschaften der Adams-BashfortVerfahren heraus: Theorem 8.25. Das m-schrittige Adams-Bashfort-Verfahren ist nullstabil. Im Fall f 2 C m .Œa; b   R N ; R N / besitzt es die Konsistenzordnung p D m, und die Fehlerkonstante lautet m . Beweis. Das zugehörige erzeugende Polynom ist

. / D  m

1

.

1 /;

214

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

so dass die dahlquistsche Wurzelbedingung offensichtlich erfüllt ist. Für den Nachweis der Konsistenzordnung betrachtet man den lokalen Verfahrensfehler, ./

.t; h/ D y.t C mh/

y.t C .m

1 /h/

./

D

h h

......

m X1

j D0 m X1 kD0

Z t Cmh

./

D

t C.m 1/h

y 0 . /

ˇm;j y 0 .t C j h/

k r k y 0 .t C .m

1 /h/

P. / d ;

mit

P 2 …N m

P.t C j h/ D y 0 .t C j h/ für j D 0; 1; : : : ; m

1;

1;

wobei r k y 0 .t C .m

1 /h/ die Rückwärtsdifferenzen bezüglich der Folge y 0 .t /; y 0 .t C C .m 1 /h/ bezeichnen. Die Identitäten ./ und ./ resultieren dabei unmittelbar aus der Verfahrensdarstellung (8.36) sowie der daran anschließenden Begründung, und die Identität ./ folgt mit Lemma 8.20 (siehe auch (8.33) im Beweis von Theorem 8.23). Mit der Darstellung (8.26) für den Interpolationsfehler erhält man dann

h/; : : : ; y 0 .t

.t; h/ D h

Z 1 0

y 0 .t C .m

D hmC1 . 1 /m

Z 1

1 C s/h/

s m

P.t C .m

1 C s/h/ ds

F .s/ ds D O.hmC1 / für h ! 0;  .mC1/ mit F .s/ D yj .j .s// j D1;::;N ; j .s/ 2 Œt ; t C mh: 0

Im Fall f 2 C mC1 .Œa; b   R N ; R N / verwendet man

yj.mC1/ .j .s// D yj.mC1/ .t / C O.h/ für h ! 0 und folgert mit der Definition (8.31) für m die folgende Darstellung für den lokalen Verfahrensfehler,

.t; h/ D m y .mC1/ .t /hmC1 C O.hmC2 / für h ! 0: Wegen  0 . 1 / D 1 ist m die Fehlerkonstante.

8.4.3 Adams-Moulton-Verfahren Definition 8.26. Für m  1 erhält man das m-schrittige Adams-Moulton-Verfahren durch den Ansatz (8.28) mit

P 2 …N m;

P.tj / D fj ;

fj WD f .tj ; uj /;

j D `; ` C 1; : : : ; ` C m; .......

:

µ

(8.37)

215

Abschnitt 8.4 Adams-Verfahren . .... .. ..

f

.. ................... `Cm .......... ....... ....... ....... .. ................... ...................... .................... 1 ......................................... . . .. . . . . . . . . . ... .................... ... .............................. ... .................... `C1 ... ........................................ . . . . . . . . . . . . . . . . . . . . . . . . ........... .......... `Cm .2 . ........... ....... .............................. ... ....... ...... .................... ... ...... ..... .......... ... .... .............................. ` 1 ...`......... ...... ...... .......... ...... . . . . . . . . . . . .............................. . . . . . ................. .... .................... . . . . .......... ..... . . . .............................. . . ... .................... ........................... .......... .............................. .................... .......... .............................. .......... .............................. .................... .......... ....................

f`Cm

f

f

f

f

t`

1

P.t /

t`

t`C1

:::

t`Cm

1

........ ....

t

t`Cm

Abb. 8.2: Vorgehensweise des m-schrittigen Adams-Moulton-Verfahrens im eindimensionalen Fall Die folgenden Resultate über das Adams-Moulton-Verfahren lassen sich genauso wie die Resultate über die Adams-Bashfort-Verfahren erzielen. Daher wird hier auf die jeweiligen Nachweise verzichtet; siehe Aufgabe 8.14. Theorem 8.27. Das m-schrittige Adams-Moulton-Verfahren hat die Gestalt

u`Cm

u`Cm

Dh

1

m X

kD0

k r k f`Cm ;

` D 0; 1; : : : ; n

m;

mit den von m unabhängigen Koeffizienten Z 0

k WD . 1 /k

s k

1

ds für k D 0; 1; : : :;

die sich rekursiv berechnen durch 0 D 1 und 1

kC1

0 C k1 1 C k 1 1 2 C    C 12 k

1

C k D 0 für k D 1; 2; : : : :

(8.38)

Bemerkung 8.28. a) Das m-schrittige Adams-Moulton-Verfahren lässt sich in eindeutiger Weise in der Form

u`Cm

u`Cm

1

Dh

m X

 ˇm;j f`Cj ;

j D0

` D 0; 1; : : : ; n

m;

schreiben mit den von der Zahl m abhängigen Koeffizienten  ˇm;m

j

D . 1 /j

m X

kDj

k  j k ;

j D 0; 1; : : : ; m:

b) Aus der Rekursionsformel (8.38) berechnen sich die ersten vier Koeffizienten

0 ; : : : ; 3 zu

0 D 1;

1 D

1 ; 2

2 D

1 ; 12

3 D

1 : 24

216

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Für m D 1; 2; 3 lauten die m-schrittigen Adams-Moulton-Verfahren in der klassischen Darstellung eines linearen Mehrschrittverfahrens folgendermaßen (siehe Aufgabe 8.14):

m D 1 W u`C1 D u` C h2 .f`C1 C f` /; h m D 2 W u`C2 D u`C1 C 12 . 5f`C2 C 8f`C1 h m D 3 W u`C3 D u`C2 C 24 . 9f`C3 C 19f`C2

` D 0; : : : ; n

1I

......

n

2I

......

n

3:

f` /; 5f`C1 C f` /;

M

Das für m D 1 gewonnene Verfahren wird als Trapezregel bezeichnet.

Das folgende Resultat stellt die wesentlichen Eigenschaften der Adams-MoultonVerfahren heraus: Theorem 8.29. Das m-schrittige Adams-Moulton-Verfahren ist nullstabil. Im Fall f 2 C mC1 .Œa; b   R N ; R N / besitzt es die Konsistenzordnung p D m C 1, und die Fehler konstante lautet mC 1. Bemerkung 8.30. Ein m-schrittiges Adams-Moulton-Verfahren besitzt demnach eine höhere Konvergenzordnung als ein m-schrittiges Adams-Bashfort-Verfahren. Der dafür zu zahlende Preis besteht in der numerischen Lösung eines nichtlinearen Gleichungssystems für die Näherung u`Cm 2 R N . Approximationen hierfür lassen sich mittels gewisser Fixpunktiterationen gewinnen, die in Abschnitt 8.7 vorgestellt werden. M

8.5 Nyström- und Milne-Simpson-Verfahren 8.5.1 Der Ansatz Zur Herleitung einer zweiten Klasse von Mehrschrittverfahren integriert man die Differenzialgleichung y 0 D f .t; y.t // von t`Cm 2 bis t`Cm ,

y.t`Cm /

y.t`Cm

2/

D

Z t `Cm t`Cm

f .t; y.t // dt; 2

` D 0; 1; : : : ; n

m;

(8.39)

und spezielle Verfahren gewinnt man nun durch Ersetzen des Integranden durch geeignete Polynome P ,

u`Cm

u`Cm

2

D

Z t `Cm t`Cm

P.t / dt; 2

` D 0; 1; : : : ; n

m:

(8.40)

Je nach der speziellen Wahl von P erhält man explizite beziehungsweise implizite Verfahren. Einzelheiten hierzu werden im Verlauf des vorliegenden Abschnitts 8.5 vorgestellt.

217

Abschnitt 8.5 Nyström- und Milne-Simpson-Verfahren

8.5.2 Nyström-Verfahren Definition 8.31. Für m  2 erhält man das m-schrittige Nyström-Verfahren durch den Ansatz (8.40) mit

P 2 …N m

1;

P.tj / D fj ;

j D `; ` C 1; : : : ; ` C m

fj WD f .tj ; uj /;

1;

:

......

f`Cm

. .... .. ..

f`Cm

1

..................................... .................................. ....................................... . .......................................................... ..... ....................................................... ............................ . . . ..................................... ....................................... ......... `Cm .2................................................................................. ...... ...... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..... . .. ........................................... .... .... ` 1 ...` ...... .... ........................................ .... ........................... ................................................................................ ... ........................................ ..... ........................................ ..... . . . . . .................... ...... ............................................................ ........................... ........................................ .................... ............................................................ .................... ............................................................ ........................................ .................... ............................................................ ........................................ ....................

f`C1

f

f

f

t`

1

t`

t`C1

::: t`Cm

P.t /

t

........ ....

t`Cm

2

Abb. 8.3: Vorgehensweise des m-schrittigen Nyström-Verfahrens im eindimensionalen Fall Die folgenden Resultate für die Nyström-Verfahren lassen sich genauso wie die Resultate über die Adams-Bashfort-Verfahren herleiten. Auf die jeweiligen Nachweise wird daher wiederum verzichtet. Theorem 8.32. Das m-schrittige Nyström-Verfahren hat die Gestalt

u`Cm

u`Cm

2

Dh

m X1 kD0

~k r k f`Cm

1;

` D 0; 1; : : : ; n

m;

mit den von m unabhängigen Koeffizienten

~k WD . 1 /k

Z 1

1

s k

ds;

k D 0; 1; : : :;

die sich rekursiv berechnen durch ~0 D 2 und 1

kC1

~0 C k1 ~1 C k 1 1 ~2 C    C 21 ~k

1

C ~k D 1 für k D 1; 2; : : : :

(8.41)

Bemerkung 8.33. a) Das m-schrittige Nyström-Verfahren lässt sich in eindeutiger Weise in der Form

u`Cm

u`Cm

2

Dh

m X1 j D0

ˇm;j f`Cj ;

` D 0; 1; : : : ; n

m;

218

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

schreiben mit den von der Zahl m abhängigen Koeffizienten

ˇm;m

1 j

D . 1 /j

m X1 kDj

k j ~k ;

j D 0; 1; : : : ; m

1:

b) Aus (8.41) berechnen sich die ersten fünf Koeffizienten ~0 ; : : : ; ~4 zu

~ 0 D 2;

~2 D 31 ;

~ 1 D 0;

~3 D 13 ;

~4 D

29 : 30

Für m D 2; 3; 4 lauten die m-schrittigen Nyström-Verfahren in der klassischen Darstellung eines linearen Mehrschrittverfahrens folgendermaßen,

m D 2 W u`C2 D u` C 2hf`C1 ;

m D 3 W u`C3 D u`C1 C h3 . 7f`C2

2f`C1 C f` /;

m D 4 W u`C4 D u`C2 C h3 . 8f`C3

5f`C2 C 4f`C1

` D 0; : : : ; n

2I

.......

n

2I

......

n

4:

f` /;

M

Für m D 2 erhält man also die Mittelpunktregel.

Das folgende Resultat stellt die wesentlichen Eigenschaften der Nyström-Verfahren heraus: Theorem 8.34. Das m-schrittige Nyström-Verfahren ist nullstabil. Für f 2 C m .Œa; b   R N ; R N / besitzt es die Konsistenzordnung p D m. Die Fehlerkonstante lautet ~m . 2

8.5.3 Milne-Simpson-Verfahren Definition 8.35. Für m  2 erhält man das m-schrittige Milne-Simpson-Verfahren durch den Ansatz (8.40) mit

P 2 …N m;

P.tj / D fj ; fj WD f .tj ; uj /;

j D `; ` C 1; : : : ; ` C m; ....... :

Die folgenden Resultate für die Milne-Simpson-Verfahren ergeben sich genauso wie die Resultate über die Adams-Bashfort-Verfahren. Auf die einzelnen Beweisführungen wird daher auch hier verzichtet. Theorem 8.36. Für m  2 hat das m-schrittige Milne-Simpson-Verfahren die Gestalt

u`Cm

u`Cm

2

Dh

m X

kD0

~k r k f`Cm ;

` D 0; 1; : : : ; n

mit den von der Zahl m unabhängigen Koeffizienten

~k WD . 1 /k

Z 0

2

s k

ds;

k D 0; 1; : : :;

m;

219

Abschnitt 8.5 Nyström- und Milne-Simpson-Verfahren

.... ... ..

f`Cm

1

f

........................ ................................ ................................... `Cm .................................... . ........................................... ..... ...................................................... ........................... . . .............................. ...................................... ........... ........ `Cm .2.................................................................................. ....... . . . . . . . . ..... ... .......................................... .... ..... ........................................... ... ` 1 ..` .... .... ........................................ ...... .. .......................... ............................................................ ..... .................... ..... . . ............................................................ . . . .. .................... ....... ............................................................ ........................... ........................................ .................... ............................................................ ........................................ .................... ............................................................ ........................................ .................... ............................................................ ....................

f`C1

f

f

f

t`

1

t`

t`C1

::: t`Cm

P.t /

t

........ ....

t`Cm

2

Abb. 8.4: Vorgehensweise des m-schrittigen Milne-Simpson-Verfahrens im eindimensionalen Fall die sich rekursiv berechnen durch ~0 D 2; ~1 D 1

kC1

~0 C k1 ~1 C k 1 1 ~2 C    C 12 ~k

1

2 und

C ~k D 0 für k D 2; 3; : : : :

(8.42)

Bemerkung 8.37. a) Das m-schrittige Milne-Simpson-Verfahren (8.42) lässt sich in eindeutiger Weise in der Form

u`Cm

u`Cm

2

Dh

m X

 ˇm;j f`Cj ;

j D0

` D 0; 1; : : : ; n

m;

schreiben mit den von der Zahl m abhängigen Koeffizienten  ˇm;m

j

D . 1 /j

m X

kDj

k  j ~j ;

j D 0; 1; : : : ; m

1:

b) Aus (8.41) berechnen sich die ersten fünf Koeffizienten ~0 ; : : : ; ~4 zu

~0 D 2;

~1 D

2;

~2 D 13 ;

~3 D 0;

~4 D

1 : 90

Für m D 2 beziehungsweise m D 4 lauten die m-schrittigen Milne-Simpson-Verfahren in der klassischen Darstellung eines linearen Mehrschrittverfahrens folgendermaßen,

m D 2 W u`C2 D u` C 3h .f`C2 C 4f`C1 C f` /;

0`n

2I

h . 29f`C4 C 124f`C3 C 24f`C2 C 4f`C1 m D 4 W u`C4 D u`C2 C 90

f` /; 0`n

4:

Für m D 2 erhält man das Verfahren von Milne, das der Simpson-Regel zur numerischen Integration entspricht. M

220

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Theorem 8.38. Für m  2 ist das m-schrittige Milne-Simpson-Verfahren nullstabil. Wir unterscheiden nun die Fälle m D 2 und m  4:3

a) Für eine hinreichend glatte Funktion f besitzt das (zweischrittige) Verfahren von 1 . Milne die Konsistenzordnung p D 4, und die Fehlerkonstante lautet 180

b) Für m  4 und eine hinreichend glatte Funktion f besitzt das m-schrittige Milne– Simpson-Verfahren die Konsistenzordnung p D m C 1, und die Fehlerkonstante lautet  ~mC 1

2

.

Bemerkung 8.39. Ganz allgemein erhält man für jede Zahl q  3 weitere Klassen von Mehrschrittverfahren durch Integration der Differenzialgleichung y 0 D f .t; y / von t`Cm q bis t`Cm ,

y.t`Cm /

y.t`Cm

q/

D

Z t `Cm t`Cm

f .t; y.t // dt; q

` D 0; 1; : : : ; n

m;

sowie durch anschließendes Ersetzen des Integranden durch geeignete Polynome P ,

u`Cm

u`Cm

q

D

Z t `Cm t`Cm

P.t / dt; q

` D 0; 1; : : : ; n

m:

(8.43)

Bei allen auf solchen Ansätzen (mit q  1) beruhenden Ein- und Mehrschrittverfahren wird für jeden Index ` die Vorgehensweise in (8.43) als Integrationsschritt bezeichnet. M

8.6 BDF-Verfahren Im Folgenden werden die (impliziten) rückwärtigen Differenziationsformeln behandelt, die kurz als BDF-Verfahren (backward differentiation formulas) bezeichnet werden.

8.6.1 Der Ansatz Definition 8.40. Für m  1 ist die Vorgehensweise bei dem m-schrittigen BDF-Verfahren für ` D 0; 1; : : : ; n m folgendermaßen: ausgehend von den schon berechneten Approximationen uj  y.tj / für j D `; : : : ; ` C m 1, bestimmt man die Näherung u`Cm  y.t`Cm / dahingehend, dass für das Interpolationspolynom

P 2 …N m;

P.tj / D uj ;

j D `; ` C 1; : : : ; ` C m;

(8.44)

Folgendes erfüllt ist, Š

P 0 .t`Cm / D f`Cm ;

mit f`Cm WD f .t`Cm ; u`Cm /:

(8.45)

Der Vektor u`Cm 2 R N wird also durch die zusätzliche Bedingung (8.45) festgelegt. Die vorliegende Situation ist in Abb. 8.5 veranschaulicht. 3

Für m D 3 erhält man das gleiche Verfahren wie für m D 2.

221

Abschnitt 8.6 BDF-Verfahren ..... .. ..

u

u`Cm

. ............ `Cm ......... ....... .............. .......................... ..... .

. ... ... ... .. `C1 . . `Cm 2...... ............................................ ........ ...... .. ...... ..... ... ..... .... ... ` 1 ` .... . . . ..... . . ...... ...... . ... . . . . . . . . . . . . . . . . ............... ... ..... ...... ....... ...........................

u

u

u

u

f`Cm

1

t`

1

t`

P.t /

1........

t`C1

:::

t`Cm

1

........ ....

t`Cm

t

Abb. 8.5: Vorgehensweise des m-schrittigen BDF-Verfahrens im eindimensionalen Fall Theorem 8.41. Das m-schrittige BDF-Verfahren hat die Gestalt m X 1 k r u`Cm k

kD1

D hf`Cm ;

` D 0; 1; : : : ; n

m:

(8.46)

Beweis. Für das Polynom P aus (8.44) erhält man nach Lemma 8.20 auf Seite 209 die folgende Darstellung,

P.t`Cm C sh/ D

m X

s

. 1 /k k

kD0

r k u`Cm ;

s 2 R;

(8.47)

mit noch freiem u`Cm 2 R N . Zur Anpassung an die Bedingung (8.45) wird (8.47) differenziert,

P 0 .t`Cm / D und wegen d ds

s

1 d

h ds

ˇ P.t`Cm C sh/ ˇ

sD0

D

m 1 X

h

. 1 /k d

kD0

ds

s k k jsD0 r u`Cm ;

D 1 sowie4

0

s k jsD0

d . s/. s D ds

D . 1/

1/    . s



k 1  2    .k

1/



D

k C 1/

jsD0 D

. 1 /. 2 /    . k C 1 / kŠ

. 1 /k k

für k  1 erhält man die Äquivalenz der Aussagen (8.44)–(8.45) beziehungsweise (8.46). Bemerkung 8.42. a) Das m-schrittige BDF-Verfahren (8.46) lässt sich in eindeutiger Weise in der Form m X

j D0 4

siehe (8.23)

˛m;j u`Cj D hf`Cm ;

` D 0; 1; : : : ; n

m;

222

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

schreiben mit den von der Zahl m abhängigen Koeffizienten ˛m;0 ; : : : ; ˛m;m 2 R, denn die Darstellung (8.21) liefert m X 1 k r u`Cm k

kD1

D

m k X 1 X k . 1 /j j u`Cm j k

kD1

j D0

D

m X

j D0



. 1 /j

m X

kDmax¹j;1º

ƒ‚ DW ˛m;m



1 k

k j



j



u`Cm

j:

b) Für m D 1; 2; : : : ; 5 lauten die m-schrittigen BDF-Verfahren in der klassischen Darstellung eines linearen Mehrschrittverfahrens folgendermaßen (jeweils für `  n m ):

mD1W

u`C1 1 . 3u`C2 2

mD2W 1 . 11u`C3 6

mD3W 1 12

mD4W mD5W

1 60

137u`C5

25u`C4

300u`C4 C 300u`C3

4u`C1 C u` / D hf`C2 I

18u`C2 C 9u`C1

48u`C3 C 36u`C2

u` D hf`C1 I 2u` / D hf`C3 I



16u`C1 C 3u` D hf`C4 I

200u`C2 C 75u`C1



12u` D hf`C5 :

Insbesondere erhält man im Fall m D 1 das implizite Euler-Verfahren.

M

Man kann Folgendes nachweisen (siehe etwa Abschnitt III.3 in Hairer/Nørsett/Wanner [49]): Theorem 8.43. Das m-schrittige BDF-Verfahren ist genau für 1  m  6 nullstabil. Für hinreichend glatte Funktionen f besitzt es die Konsistenzordnung p D m, und die 1 Fehlerkonstante lautet mC . 1

8.6.2 Tabellarische Übersicht über spezielle Mehrschrittverfahren

Mehrschrittverfahren

Ordnung

Fehlerkonstante

m-schrittige Adams-Bashfort-Verfahren, m  1

m

m

mC1



mC 1

......

Adams-Moulton-Verfahren, m  1

......

Nyström-Verfahren, m  2

......

Milne-Simpson-Verfahren, m  4

........

BDF-Verfahren, 1  m  6

m mC1 m

~m 2

 ~mC 1

2 1

mC1

Tabelle 8.1: Übersicht der Konsistenzordnungen und Fehlerkonstanten für spezielle nullstabile m-Schrittverfahren

223

Abschnitt 8.7 Prädiktor-Korrektor-Verfahren

8.7 Prädiktor-Korrektor-Verfahren Implizite m-Schrittverfahren von der Form (8.1) mit ˛m D 1 implementiert man in der Form eines Prädiktor-Korrektor-Schemas. Bei im Folgenden fixiertem ` geht man dabei folgendermaßen vor: 

mittels einer Fixpunktiteration (dem Korrektor, engl. corrector) bestimmt man Œ1

ŒM 1

u`Cm ; : : : ; u`Cm 

Œ0

ŒM 

2 R N und schließlich u`Cm WD u`Cm 2 R N ;

den Startwert u`Cm 2 R N verschafft man sich durch ein zunächst nicht näher spezifiziertes explizites m-Schrittverfahren (den sogenannten Prädiktor, engl. predictor).

Die folgende Definition präzisiert dieses Vorgehen. Definition 8.44. Gegeben seien  

ein implizites m-Schrittverfahren von der Form (8.1) mit ˛m D 1 (der Korrektor);  ein explizites m-Schrittverfahren (der Prädiktor) mit Koeffizienten ˛0 ; ˛1 ; : : : ; ˛m sowie der Funktion

1

' W Œa; b   . R N /m  Œ 0; H  ! R N : Bei dem zugehörigen Prädiktor-Korrektor-Verfahren geht man für ` D 0; : : : ; n m so Œ0 ŒM 1 ŒM  vor: für fixiertes ` bestimmt man u`Cm ; : : : ; u`Cm ; u`Cm DW u`Cm 2 R N entsprechend der folgenden Bestimmungsgleichungen, Œ0

u`Cm C Œ

u`Cm C

m X1

˛j u`Cj D h' t` ; u` ; : : : ; u`Cm

m X1

˛j u`Cj D h' t` ; u` ; : : : ; u`Cm

j D0

j D0

1I

 h ;

(8.48-a)

Œ 1 1 ; u`Cm I

ŒM 

u`Cm D u`Cm :

 h ;  D 1; 2; : : : ; M; (8.48-b) .0/

Hier setzt man u0 D y0 , und die übrigen Startwerte u` D u`  y.t` /; ` D 1; 2; : : : ; m 1; hat man in einer (an dieser Stelle nicht näher spezifizierten) Anlaufrechnung zu bestimmen. M Das folgende Lemma macht deutlich, dass sich das vorgestellte Prädiktor-KorrektorVerfahren als nichtlineares explizites m-Schrittverfahren von der Form (8.1) darstellen lässt. Lemma 8.45. Gegeben sei ein Prädiktor-Korrektor-Verfahren entsprechend Definition 8.44. Für die gewonnenen Approximationen u`  y.t` / 2 R N eines PrädiktorKorrektor-Verfahrens gilt die Darstellung

u`Cm C

m X1 j D0

˛j u`Cj D h

ŒM 

.t` ; u` ; : : : ; u`Cm

1I

h/;

` D 0; 1; : : : ; n

m; (8.49)

224

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

wobei die Funktion ist, Œ

ŒM 

.t; v0 ; : : : ; vm

1I

W Œa; b   . R N /m  Œ 0; H  ! R N wie folgt rekursiv definiert h/ D '.t; v0 ; : : : ; vm

Œ 1

1 ; vm

I h/;

 D 1; : : : ; M;

(8.50)

mit Œ0 vm

D

Œ 1

vm

Dh

h' .t; v0 ; : : : ; vm Œ 1 .

1 I h/

/

......

m X1

j D0 m X1

9 > > > =

˛j vj ; ˛j vj ;

j D0

> >  D 2; : : : ; M: > ;

(8.51)

Beweis. Für den Nachweis der Darstellung (8.49) setzt man in (8.50)–(8.51)

v0 WD u` ;

v1 WD u`C1 ; : : : ; vm

1

WD u`Cm

1;

und durch Vergleich von (8.48) und (8.51) erkennt man mittels vollständiger Induktion leicht Œ

Œ vm D u`Cm ; ŒM 

wobei vm Œ

 D 0; 1; : : : ; M;

entsprechend (8.51) definiert sei. Dies bedeutet nichts anderes als

u`Cm C

m X1 j D0

˛j u`Cj D h

Œ

.t` ; u` ; : : : ; u`Cm

1I

h/;

 D 1; 2; : : : ; M:

(8.52)

Für  D M erhält man aus (8.52) schließlich die Darstellung (8.49). Gegenstand des folgenden Theorems sind die Konsistenzordnung und Nullstabilität von Prädiktor-Korrektor-Verfahren. Theorem 8.46. Gegeben sei ein Prädiktor-Korrektor-Verfahren von der Form in Definition 8.44, welches die folgenden Eigenschaften besitze: 

der Prädiktor besitze die Konsistenzordnung p  1, und die Funktion ' genüge einer Lipschitzbedingung der Form (8.6);



der Korrektor sei nullstabil und besitze die Konsistenzordnung p  p C M , und die Funktion ' genüge einer Lipschitzbedingung der Form (8.6).

Dann ist das Prädiktor-Korrektor-Verfahren nullstabil und besitzt die Konsistenzordnung p CM , und die zugehörige Funktion ŒM  genügt der Lipschitzbedingung (8.6). Beweis. Die zu den Funktionen ' beziehungsweise ' gehörenden Lipschitzkonstanten seien mit L beziehungsweise L bezeichnet. a) Die Nullstabilität folgt unmittelbar aus der Darstellung (8.49).

225

Abschnitt 8.7 Prädiktor-Korrektor-Verfahren

b) Wir zeigen im Folgenden für  D 1; 2; : : : ; M induktiv, dass die Funktion Œ aus (8.50) einer Lipschitzbedingung der Form (8.6) genügt mit einer gewissen LipschitzŒ Œ konstanten LŒ . Tatsächlich erhält man für wm entsprechend vm aus (8.50), (8.51) Folgendes (für 0 < h  H ), Œ1

Œ1 .t; v0 ; : : : ; vm 1 I h/ .t; w0 ; : : : ; wm   m 1   X Œ0 Œ0 wm L jjvj wj jj C j vm j

jj

j D0

h  mX1 jjvj L

wj jj

j D0



1C

max

j D0;:::;m 1

C hjj ' .t; v0 ; : : : ; vm

1I

h/

1I

j˛j j

h/ jj



' .t; w0 ; : : : ; wm

1I

 wj jj ;

   mX1  L 1 C max j˛j j C HL jjvj j D0;:::;m 1 „ ƒ‚ … j D0 Œ1

i h/jj

DW L

und genauso erhält man für  D 2; 3; : : : ; M :

j

Œ

Œ .t; v0 ; : : : ; vm 1 I h/ .t; w0 ; : : : ; wm 1 I h/jj     mX1 jjvj wj jj 1 C max j˛j j L j D0;:::;m 1

j D0

C hjj

Œ 1

.t; v0 ; : : : ; vm

1I

Œ 1

h/

  L 1 C max j˛j j C HLŒ j D0;:::;m 1 ƒ‚ „ Œ

DW L



  mX1



j D0

.t; w0 ; : : : ; wm

jjvj

 wj jj :

1I

h/jj



c) Für den Nachweis der angegebenen Konsistenzordnung definiert man

 .t; h/ Dy.t C mh/ C

m X1

j D0 m X1

Œ .t; h/Dy.t C mh/ C

˛j y.t C j h/

˛j y.t C j h/

h' .t; y.t/; : : : ; y.t C .m h

Œ

.

......

j D0

 D 1; 2; : : : ; M;

9

> 1 /h//;> > > > > =

(8.53) /;> >

> > > > ;

womit  der lokale Verfahrensfehler des Prädiktors ist, und ŒM  .t; h/ stellt den lokalen Verfahrensfehler des Prädiktor-Korrektor-Verfahrens dar. Im Folgenden wird mittels vollständiger Induktion Folgendes gezeigt,

jjŒ .t; h/ jj D O.hp CC1 / für h ! 0

. D 1; 2; : : : ; M /;

(8.54)

226

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

und für  D M erhält man die angegebene Konsistenzordnung für das PrädiktorKorrektor-Verfahren. Für den Nachweis von (8.54) zieht man für  D 1; 2; : : : ; M die Definition (8.50) von Œ heran, Œ

t; y.t /; y.t C h/; : : : ; y.t C .m

1/h/I h



Π1 /h/; vm

D ' t; y.t /; y.t C h/; : : : ; y.t C .m



mit Œ0 vm D h' t; y.t /; : : : ; y.t C .m .8:53/

D y.t C mh/

Πvm

1 1

D h

Œ 1

1 /h/

 .t; h/;

t; y.t /; : : : ; y.t C .m

.8:53/

D y.t C mh/

Œ





.t; h/:

m X1

˛j y.t C j h/



m X1

j D0

1 /h/

 Ih ;

j D0

(8.55)

˛j y.t C j h/

Dies eingesetzt in (8.55) ergibt unter Verwendung der Notation Œ0 D  Œ

.t; y.t /; : : : ; y.t C .m

1 /h/I h/

D '.t; y.t /; : : : ; y.t C .m

1 /h/; y.t C mh/

D '.; y.t C mh/I h/  C '.; y.t C mh/

Œ



.t; h/I h/

Œ



.t; h/I h/

'.; y.t C mh/I h/



wobei  für “t; y.t /; : : : ; y.t C .m 1 /h/” steht. Bezeichnet noch .t; h/ den lokalen Verfahrensfehler des Korrektors, so erhält man aus der letzten Darstellung zusammen mit (8.53) die folgenden Abschätzungen,

jjŒ1 .t; h/ jj  jj.t; h/ jj C hLjj .t; h/ jj; jjŒ .t; h/ jj 

......

C hLjjŒ



.t; h/ jj;

 D 2; 3; : : : ; M;

beziehungsweise mit vollständiger Induktion

jjŒ .t; h/ jj D O.hpC1 / C hO.hp C / D O.hp CC1 / für h ! 0 . D 1; 2; : : : ; M /; was mit der Aussage (8.54) übereinstimmt. Bemerkung 8.47. In der typischen Situation p 1 D p D m ist nach Theorem 8.46 ein Korrektorschritt ausreichend, man wählt also M D 1. M

227

Abschnitt 8.7 Prädiktor-Korrektor-Verfahren

8.7.1 Linearer Prädiktor/Linearer Korrektor Typischerweise sind sowohl Prädiktor als auch Korrektor lineare Mehrschrittverfahren, es gilt also

' .t; v0 ; : : : ; vm

1I

h/ D

'.t; v0 ; : : : ; vm I h/ D

m X

m X1

j D0

j D0

ˇj f .t C j h; vj /;

ˇj f .t C j h; vj /:

In dieser speziellen Situation wird das Prädiktor-Korrektor-Verfahren in Form eines Pseudocodes dargestellt.

Algorithmus 8.48. Für ein gegebenes lineares implizites m-Schrittverfahren von der Form (8.1) mit ˛m D 1 (der Korrektor) sowie ein explizites lineares m-Schrittverfahren mit Koeffizienten ˛j ; ˇj ; j D 0; : : : ; m 1 (der Prädiktor) nimmt das zugehörige Prädiktor-Korrektor-Verfahren die folgende Gestalt an: for ` D 0; 1; : : : ; n Œ0

P u`Cm C

m X1 j D0

m

˛j u`Cj D h

for  D 1; : : : ; M W Œ 1

m X1 j D0

ˇj f`Cj I

Œ 1

f`Cm D f .t`Cm ; u`Cm / m  mX1  X1 Œ 1 Œ ˛j u`Cj D h ˇj f`Cj C hˇm f`Cm u`Cm C

C

j D0

j D0

ŒM 

u`Cm D u`Cm

E

ŒM 

E f`Cm D f .t`Cm ; u`Cm / Wie üblich ist hier u0 WD y0 , und die weiteren Startwerte u1 ; : : : ; u` 2 R N sind in einer nicht näher spezifizierten Anlaufrechnung zu berechnen, und schließlich setzt man f` WD f .t` ; u` / für ` D 0; 1; : : : ; m 1. Das resultierende Verfahren bezeichnet man als P.EC/M E-Verfahren, wobei E für “evaluate” steht. M

Bemerkung 8.49. Zur Einsparung einer Funktionsauswertung kann man in AlgorithŒM  ŒM 1 mus 8.48 die Setzung f`Cm D f .t`Cm ; u`Cm / zu f`Cm WD f`Cm modifizieren. Das resultierende Gesamtverfahren bezeichnet man als P.EC/M -Verfahren, welches hier nicht weiter diskutiert werden soll und auch nicht als Mehrschrittverfahren von der Form (8.1) darstellbar ist. M

228

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

8.8 Lineare homogene Differenzengleichungen 8.8.1 Die Testgleichung In diesem Abschnitt soll das Verhalten spezieller Mehrschrittverfahren zu Illustrationszwecken anhand der Testgleichung

y 0 .t / D y.t /;

t 0

. 2 R /;

untersucht werden. Ein allgemeines lineares m-Schrittverfahren nimmt hier die Form m X

j D0

j u`Cj D 0;

` D 0; 1; : : :;

(8.56)

an mit j D ˛j hˇj für j D 0; 1; : : : ; m. Im Folgenden wird beschrieben, wie man die Lösungen .u` /`2N0 der Differenzengleichung (8.56) erhält.

8.8.2 Existenz und Eindeutigkeit bei linearen homogenen Differenzengleichungen Definition 8.50. Im Folgenden bezeichne

® ¯ s. K / D u D .u` /`2N0 j u` 2 K

(8.57)

den Raum der Folgen, mit K D C oder K D R. Eine Abbildung L W s. K / ! s. K / von der Form

.Lu/` D

m X

j u`Cj ;

j D0

` D 0; 1; : : :

(8.58)

mit gegebenen Koeffizienten 0 ; 1 ; : : : ; m 2 R ; m ¤ 0, bezeichnet man als linearen Differenzenoperator m-ter Ordnung. Die Gleichung Lu D 0 nennt man zugehörige homogene Differenzengleichung. Schließlich bezeichnet

® ¯ N .L/ D u D .u` /`2N0 2 s. K / j Lu D 0

(8.59)

den Nullraum von L.

Bemerkung 8.51. Mit den natürlichen Verknüpfungen bildet s. K / einen linearen Vektorraum über K, und eine Abbildung L W s. K / ! s. K / von der Form (8.58) ist linear. M .0/

Theorem 8.52. Zu gegebenem Differenzenoperator (8.58) und Startwerten u0 ; : : : ;

.0/ um 1

2 K gibt es genau eine Folge u 2 s. K / mit Lu D 0;

.0/

u` D u`

für ` D 0; 1; : : : ; m

1:

(8.60)

229

Abschnitt 8.8 Lineare homogene Differenzengleichungen

Beweis. Für eine Folge u 2 s. K / bedeutet Lu D 0 Folgendes,

 mX1

u`Cm D

j D0



j u`Cj = m ;

` D 0; 1; : : :;

(8.61)

woraus unmittelbar Existenz und Eindeutigkeit einer Folge .u` /`2N0 2 s. K / mit der Eigenschaft (8.60) resultieren. Theorem 8.53. Für jeden linearen Differenzenoperator L der Ordnung m gilt die Identität dim N .L/ D m. Beweis. Für  D 1; 2; : : : ; m sei die Folge uŒ 2 s. K / folgendermaßen definiert,

uŒ D `

LuŒ D 0;

²

für ` D 

1

1;

für ` 2 ¹ 0; : : : ; m

0

1 ºn¹

1 º:

Diese m Folgen bilden eine Basis von N .L/, wie im Folgenden nachgewiesen wird. (i) Die Folgen uŒ1 ; : : : ; uŒm sind linear unabhängig, denn für gegebene Koeffizienten c1 ; c2 ; : : : ; cm 2 K gilt: m X

D1

c uŒ D 0 Ý 0 D

X m

c uŒ

D1



`

D

m X

D1

Œ

c u` D c`C1 ;

` D 0; : : : ; m

1:

(ii) Andererseits gilt

N .L/  span ¹uŒ1 ; : : : ; uŒm º; denn für eine beliebige Folge u 2 N .L/ gelten mit c WD u Identitäten

X m

D1

c uŒ



`

beziehungsweise u D

D

m X

D1

Pm

Œ

c u` D c`C1 D u` ;

Œ D1 c u

1

für  D 1; 2; : : : ; m die

` D 0; 1; : : : ; m

1;

aufgrund von Theorem 8.52.

8.8.3 Die komplexwertige allgemeine Lösung der homogenen Differenzengleichung Lu D 0 Zur Bestimmung einer Basis des m-dimensionalen Raums der komplexwertigen Lösungsfolgen der Gleichung Lu D 0 mit gegebenem Differenzenoperator L der Form (8.58) macht man zunächst den Ansatz u D . ` /`2N0 mit  2 C und erhält

.Lu/` D

m X

j D0

./

j  `Cj D  `

m X

j  j ;

j D0

` D 0; 1; : : :;

so dass die Gleichung Lu D 0 erfüllt ist, falls  2 C eine Nullstelle des charakteristischen Polynoms

. / D m  m C m

1

m 1

C    C 0

(8.62)

230

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

ist. Diese Aussage (und insbesondere die Identität ./ ) ist auch wahr für  D 0, wobei der genannte Ansatz hier u D . 1; 0; 0; : : :/ 2 s. C / bedeutet. Im Falle einer s -fachen Nullstelle  2 C mit s  2 ist dieser Ansatz jedoch nicht hinreichend allgemein. Es stellt sich Folgendes heraus: 



gilt  ¤ 0, so ist für jedes 0    s Lu D 0.

1 auch u D .`  ` /`2N0 Lösung der Gleichung  mal

‚ …„ ƒ Gilt andererseits  D 0, so ist für jedes 0    s 1 auch u D .0; : : : ; 0; 1; 0; 0; : : :/ 2 s. C / Lösung der Gleichung Lu D 0.

Das allgemeine Resultat hierzu ist in dem folgenden Theorem festgehalten.

Theorem 8.54. Zu gegebenem Differenzenoperator L der Form (8.58) seien 1 ; : : : ; r 2 C die paarweise verschiedenen Nullstellen des charakteristischen Polynoms (8.62) mit den jeweiligen Vielfachheiten m1 ; : : : ; mr 2 N. Für beliebige Polynome Pk 2 …mk 1 ; k D 1; 2; : : : ; r (mit komplexen Koeffizienten) sowie gegebenenfalls Zahlen aj 2 C; j D 0; 1; : : : ; mk 1 , ist je nach der Situation (i) k ¤ 0 für k D 1; : : : ; rI

(ii) k D 0 für ein 1  k  rI

durch (i) u` D (ii) u` D

r X

Pk .`/k` ;

kD1

m k

r X

......

kD1 k¤k

C

X1

aj ıj ` ;

j D0

9 > ` D 0; 1; : : : ; .k ¤ 0 für alle k/ > > > > = .k D 0 für ein k /> > > > > ;

......

(8.63)

eine Folge u 2 s. C / mit Lu D 0 definiert. Umgekehrt lässt sich jede Lösung u 2 s. C / der Gleichung Lu D 0 in der Form (8.63) darstellen. Beweis. Im Folgenden verwenden wir die Notation

! .x / WD x.x

1 /    .x

 C 1/ D

Y1

.x

s/;

sD0

x 2 R;

so dass ! ein Polynom vom genauen Grad  mit den Nullstellen 0; 1; : : : ;  1 ist. Weiter sei noch festgehalten, dass für k D 1; 2; : : : ; r die Eigenschaft ./ .k / D 0 für  D 0; 1; : : : ; mk 1 gleichbedeutend mit m X

j D

j 

j ! .j /k

D 0;

 D 0 ; 1 ; : : : ; mk

1;

(8.64)

ist. Dies gilt mit der Konvention 00 D 1 auch für den Fall k D 0 und bedeutet hier nichts anderes als 0 D 1 D    D mk 1 D 0. Im Folgenden soll das spezielle System

.uŒk;  /kD1;:::;r D0;:::;mk 1

 s. C /

231

Abschnitt 8.8 Lineare homogene Differenzengleichungen

definiert durch

uŒk;  D .! .`/k`



/`2N0 für

k 2 ¹ 1; : : : ; r º;  2 ¹ 0 ; : : : ; mk

(8.65) 1º

betrachtet werden, wobei diese spezielle Wahl von uŒk;  einen kurzen Beweis der linearen Unabhängigkeit ermöglicht. Die Elemente uŒk;  2 s. C / lassen sich folgendermaßen darstellen: 

Für k ¤ 0 gilt die Identität

uŒk;  D k  .! .`/k` /`0 ; „ƒ‚…

(8.66)

const.

Œk; 



und aufgrund der speziellen Form von ! gilt u` D 0 für ` D 0; 1; : : : ;  1. Mit der Konvention 0  1 D 0 bedeutet die Darstellung (8.65) im Falle k D 0 Folgendes,

uŒk ;  D Š.ı` /`0 ;

 D 0; 1; : : : ; mk

1:

(8.67)

Die Tatsache dim N .L/ D m ist aufgrund von Theorem 8.53 bereits bekannt, und Pr weiter gilt kD1 mk D m. Im Folgenden wird nachgewiesen, dass das System (8.65) eine Basis von N .L/ bildet. Mit den Darstellungen (8.66)–(8.67) für dieses System erhält man die Darstellungen (8.63), wenn man noch berücksichtigt, dass sich jedes Pn Polynom P 2 …n in eindeutiger Weise in der Form P.x / D sD0 as !s .x / darstellen lässt. Für den Nachweis der Basiseigenschaften des Systems (8.65) wird als Erstes für fixierte k 2 ¹ 1; 2; : : : ; r º und  2 ¹ 0; 1; : : : ; mk 1 º die Identität LuŒk;  D 0 nachgewiesen. Hierzu beobachtet man, dass für festes ` die Funktion C ! C; j ֏ ! .`Cj / ein Polynom  -ten Grades in j darstellt, so dass es Koeffizienten a;`;s 2 C für s D 0; 1; : : : ;  gibt mit

! .` C j / D

 X

a;`;s !s .j /;

m X

j ! .` C j /k

j D 0; 1; : : : :

sD0

Damit gilt

.LuŒk;  /` D D

m X

j D0



j

m X

j D0

Œk; 

j u`Cj D

X 

sD0

j D0

`Cj 

 `Cj a;`;s !s .j / k



D k`

 X

sD0



a;`;s

 X m

j D0



j 

j !s .j /k ƒ‚

.8:64/

D

0





D 0:

Es ist nun noch die lineare Unabhängigkeit der Familie (8.65) nachzuweisen. Hierzu seien .ck /kD1;:::;r  C Koeffizienten mit D0;:::;mk 1

X

kD1;:::;r D0;:::;mk 1

ck uŒk;  D 0:

232

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Dies bedeutet 0D

X

kD1;:::;r D0;:::;mk 1

 ck uŒk; D `

X

ck ! .`/k`



;

` D 0; 1; : : : ; m

kD1;:::;r D0;:::;mk 1

1;

beziehungsweise in Matrixschreibweise

Bc D

r X

kD1

Bk c k D 0

mit Matrizen und Vektoren

0

B B B B DB B B1 B @

1 :::

Br

C C C C 2 Cmm ; C C A

Bk

1

B c1 C B C B C B C B C c D B ♣♣♣ C 2 Cm ; B C B C B C @ A cr

wobei Bk 2 Cmmk und ck 2 Cmk wie folgt erklärt sind,

0

0

1

!0 . 0 / 0 ♣♣♣ 0 C B C B C B ♣ ♣♣ C B 1 ♣ !0 . 1 /k !1 . 1 / ♣ ♣ C B C B C B ♣♣ C B ♣♣♣ ♣ 0 C B C; B D B C C B mk 1 ♣♣♣ ♣♣♣ !mk 1 .mk 1 / C B !0 .mk 1 /k C B C B ♣♣ ♣♣ C B C B ♣ ♣ C B A @ m m k !0 .m 1 /km 1 ♣ ♣ ♣ ♣ ♣ ♣ !mk 1 .m 1 /k „ ƒ‚ … .! .`/k`  /`D0;:::;m 1

0

B ck D @

1

ck 0 ♣♣ ♣

ck;mk

1

C A:

D0;:::;mk 1

Die lineare Unabhängigkeit der Familie (8.65) ergibt sich nun aus der Regularität der Matrix B 2 Cmm , die im Folgenden nachgewiesen wird. Hierzu beobachtet man, dass für ein Polynom

p. / D

m X1

dj  j

j D0

mit den paarweise verschiedenen Nullstellen 1 ; : : : ; r 2 C und den jeweiligen Vielfachheiten m1 ; : : : ; mr 2 N nur5 p  0 beziehungsweise d0 D    D dm 1 D 0 gelten 5

siehe beispielsweise Fischer/Springborn [27, Abschnitt 2.3.11]

233

Abschnitt 8.8 Lineare homogene Differenzengleichungen

Pr

kann, denn wegen kD1 mk D m besitzt das Polynom p 2 …m Nullstellen (entsprechend ihren Vielfachheiten gezählt). Wegen

p ./ .k / D

m X1

d` ! .`/k`



;

`D

 D 0 ; 1 ; : : : ; mk

1;

1

mindestens m

k D 1; 2; : : : ; r;

ist dies gleichbedeutend damit, dass das Gleichungssystem Ad D 0 nur die triviale Lösung besitzen kann, wobei

0

1 A 1 B C B C B C ♣♣ ADB C 2 Cmm ; ♣ B C @ A Ar

und die Matrix Ak 2 Cmk m ist folgendermaßen erklärt,

0

B B B B Ak D B B B B @

mk 1

!0 . 0 / !0 . 1 /k1 ♣ ♣ ♣ !0 .mk 0

!1 . 1 /

♣♣ ♣

♣♣



♣♣

0

♣♣♣

0



! mk

1 /k

♣♣♣

♣♣ ♣

♣♣ ♣

♣♣ ♣

♣♣ ♣

1 .mk

1/

♣ ♣ ♣ ! mk

ƒ‚



1 /km

!0 .m

1 .mk

1

m mk

1 /k

.! .`/k`  /D0;:::;mk 1 `D0;:::;m 1

1

C C C C C : C C C A …

Dies zieht die Regularität der Matrix A nach sich. Wegen der Eigenschaft B D A> folgt daraus die behauptete Regularität der Matrix B . Eine erste Konsequenz aus Theorem 8.54 ist die folgende Aussage: Korollar 8.55. Sei L ein Differenzenoperator der Form (8.58). Genau dann hat jede Lösung u 2 s. C / der Gleichung Lu D 0 die Eigenschaft sup`D0;1;::: ju` j < 1, wenn für die paarweise verschiedenen Nullstellen 1 ; : : : ; r 2 C des charakteristischen Polynoms (8.62) Folgendes gilt,

jk j < 1 oder

´

jk j D 1; k einfache Nullstelle

µ

.k D 1; 2; : : : ; r /:

8.8.4 Die reellwertige allgemeine Lösung der homogenen Differenzengleichung Lu D 0 In erster Linie ist man an den reellen Lösungen der Differenzengleichung Lu D 0 interessiert. Hierzu bedient man sich für  2 C der Polarkoordinatendarstellung

234

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

 D e i' 2 C;  > 0; ' 2 Œ 0; 2 /; und erhält unmittelbar die Darstellung ` D ` e i`' D ` . cos.`' / C isin .`' //;

` D 0; 1; : : : :

Berücksichtigt man noch, dass aufgrund der reellen Koeffizienten von . / D m  m C m 1  m 1 C    C 0 mit jeder Nullstelle  2 C von auch ./ D 0 gilt, erhält man als zweite Konsequenz aus Theorem 8.54 die allgemeine Form der reellen Lösungsfolgen der Gleichung Lu D 0: Theorem 8.56. Zu gegebenem Differenzenoperator L von der Form (8.58) seien 1 ; : : : ; r1 2 R sowie 1 ; 1 ; : : :, r2 ; r2 2 CnR die paarweise verschiedenen Nullstellen des charakteristischen Polynoms (8.62), mit den jeweiligen Vielfachheiten m1 ; : : : ; mr1 und n1 ; : : : ; nr2 2 N, sowie den Polarkoordinatendarstellungen k D k e i'k 2 C, mit k > 0; 'k 2 .0; 2/: Für beliebige Polynome

Pk 2 … mk

1

für k D 1; : : : ; r1 ;

sowie gegebenenfalls Zahlen a0 ; : : : ; amk (i) k ¤ 0

für k D 1; : : : ; r1 I

b k 2 …n Qk ; Q k

1

1

für k D 1; : : : ; r2 ;

2 R ist je nach der Situation

(ii) k D 0 für ein 1  k  r1 I

durch

(i) u D (ii) u D

r1 X

kD1

Pk .`/k` C

r1 X

kD1 k¤k

......

r2 X

kD1

  b k .`/ sin Œ `'k  k` Qk .`/ cos.`'k / C Q

C



`

m k 1

C

......

X

j D0

aj ıj `



`

eine Folge u 2 s. R / mit Lu D 0 definiert. Umgekehrt lässt sich jede Lösung u 2 s. R / der Gleichung Lu D 0 in der Form (i) beziehungsweise (ii) darstellen.

8.8.5 Eine spezielle Differenzengleichung Zur näherungsweisen Lösung des Anfangswertproblems y 0 D f .t; y /; y.a/ D y0 wird im Folgenden zu Testzwecken das Zweischrittverfahren

u`C2

4u`C1 C 3u` D

2hf .t` ; u` /;

` D 0; 1; : : : ; n

2;

(8.68)

untersucht. Theorem 8.57. a) Das Verfahren (8.68) besitzt unter den üblichen Glattheitsvoraussetzungen an die Funktion f die Konsistenzordnung p D 2. Es ist jedoch nicht nullstabil.

235

Abschnitt 8.8 Lineare homogene Differenzengleichungen

b) Die Anwendung des Verfahrens (8.68) auf die Testgleichung

y 0 .t / D

y.t /;

t 2 Œ 0; b ;

y. 0 / D 1;

(8.69)

b mit der Schrittweite h D n > 0 sowie den Startwerten u0 D 1 und u1 D e h liefert Folgendes,

u` D

 3 e t` C h e t` =3 3` . 1 C O.h// für h ! 0; „ƒ‚… 6 y.t` /

` D 0; 1; : : : ; n;

(8.70)

wobei (8.70) gleichmäßig in ` gilt, es hängt also O.h/ nicht von ` ab. Wegen der fehlenden Nullstabilität ist also keine Konvergenz des Verfahrens (8.68) zu erwarten, und anhand der Testgleichung lässt sich das genaue Divergenzverhalten beobachten: an jeder festen Stelle t D `h verhält sich u` für ` D t= h ! 1 wie t 3 e t =3 3` =. 6`3 /. Für die feste Schrittweite h D 0:01 sind die durch das Verfahren (8.68) gelieferten Resultate in Tabelle 8.2 vorgestellt.

`

t`

2 3

0:02 0:03

:: :

7 8

:: :

:: : 0:07 0:08 :: :

13 14

0:13 0:14

:: :

20 21

:: :

:: : 0:20 0:21 :: :

30 31

0:30 0:31

:: :

100

:: : 1:00

y.t` /

u`

9:802  10 9:704  10

1

9:324  10 9:231  10

1

8:781  10 8:694  10

1

8:187  10 8:106  10

1

7:408  10 7:334  10

1

3:679  10

1

1

:: :

e

9:802  10 9:704  10

1

9:328  10 9:242  10

1

1

:: :

1

:: : :: :

1

:: : :: :

6

e t` =3 3`

9:802  10 9:704  10

1

9:328  10 9:242  10

1

1

1

:: :

1:156  100 1:705  100

6:050  102 1:819  103

6:22  102 1:871  103

3:688  107 1:110  108

3:792  107 1:142  108

1:164  1041

1:199  1041

:: :

1

h3

1:148  100 1:682  100

:: :

1

C

:: :

:: :

1

t`

:: :

:: : :: : :: :

Tabelle 8.2: Illustration des Differenzenverfahrens (8.68), mit der Schrittweite h D 0:01 angewandt auf die Testgleichung (8.69) für b D 1 Beweis von Theorem 8.57. a) Die angegebene Konsistenzordnung ergibt sich unmittelbar aus Lemma 8.16. Das zu dem Verfahren (8.68)pgehörende erzeugende Polynom ist . / D  2 4 C 3 mit den Wurzeln 1=2 D 2 ˙ 4 3 D 2 ˙ 1 beziehungsweise 1 D 3; 2 D 1, so dass also keine Nullstabilität vorliegt.

236

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

b) Anwendung des Verfahrens (8.68) auf die Testgleichung y 0 D Differenzengleichung

u`C2

4u`C1 C . 3

2h/u` D 0;

` D 0; 1; : : : ; n

y führt auf die

2:

(8.71)

Das zugehörige charakteristische Polynom lautet

. / D  2

4 C 3

2h;

 2 C;

mit den Nullstellen

1=2 D 2 ˙

p

.3

4

2h/ D 2 ˙

Die allgemeine Lösung von (8.71) ist demnach

u` D c1 1` C c2 2` ;

p

1 C 2h:

` D 0; 1; : : : :

(8.72)

Anpassung dieser allgemeinen Lösung an die exakten Anfangsbedingungen u0 D 1; u1 D e h ergibt u0 D c1 C c2 D 1; u1 D c1 1 C c2 2 D e h beziehungsweise

2 e h ; 2 1

c1 D

c2 D

e h 1 : 2 1

(8.73)

Zur Beschreibung des Verhaltens von u` aus (8.72) mit Koeffizienten wie in (8.73) verwendet man

p

1 C x D 1 C 12 x

1 2 x 8

C

1 3 x 16

C O.x 4 / für x ! 0

und erhält für die Nullstellen die folgenden Taylorentwicklungen,

1 D 2 C .1 C h C O.h2 // D 3 C h C O.h2 / für h ! 0

(8.74)

beziehungsweise

2 D 2

D1 De

.1 C h h

h C 12 h2 1 3 h 3

1 2 h C 21 h3 C O.h4 // 2 1 3 h C O.h4 / 2 4

C O.h / für h ! 0:

9 > =

(8.75)

> ;

Für die Koeffizienten c1 ; c2 aus (8.73) erhält man mit den Darstellungen (8.74)–(8.75) und wegen 2 1 D 2 C O.h/ Folgendes, 1 3 h 3

c1 D c2 D

2

C O.h4 / D 61 h3 C O.h4 / für h ! 0; 2 C O.h/ 1 C O.h3 / D 1 C O.h3 / für h ! 0: 2 1

Die Lösungsfolge u 2 s. R / der Differenzengleichung (8.71) mit u0 D 1; u1 D e h nimmt somit folgende Gestalt an,

u` D 61 h3 . 1 C O.h//. 3 C h C O.h2 //` C . 1 C O.h3 //.e

h

C O.h3 //`

(8.76)

237

Abschnitt 8.9 Steife Differenzialgleichungen

für h ! 0. Zur Behandlung des zweiten Summanden der rechten Seite in (8.76) berechnet man noch

Œe

h

C O.h3 /` D e

t`

./

Œ 1 C O.h3 /e h ` D e

t`

Œ 1 C O.h2 / für h ! 0;

wobei sich ./ unter Berücksichtigung von ln. 1 C x / D O.x / und e x D 1 C O.x / für x ! 0 aus

 ` ln 1 C O.h3 /e h D `O.h3 /e h D O.h2 / für h ! 0

(8.77)

ergibt. Den ersten Summanden der rechten Seite in (8.76) behandelt man ganz ähnlich,



`  `  D 3` 1 C 31 h C O.h2 / D 3` e h=3 C O.h2 /  ` ./ ` t =3   D 3` e t` =3 1 C O.h2 /e h=3 D 3 e` 1 C O.h/ für h ! 0;

3 C h C O.h2 /

`

wobei man ./ genauso wie (8.77) erhält. Daraus resultiert die Darstellung (8.70),

. 1 C O.h2 // C 16 h3 e t` =3 3` . 1 C O.h//  D e t` C 16 h3 e t` =3 3` . 1 C O.h// für h ! 0; „ƒ‚… D y.t` /

u` D e

t`

` D 0; 1; : : : ; n:

Dies komplettiert den Beweis.

8.9 Steife Differenzialgleichungen 8.9.1 Einführende Bemerkungen In vielen Anwendungen wie etwa der chemischen Reaktionskinetik treten Anfangswertprobleme für spezielle Differenzialgleichungen y 0 D f .t; y /; t 2 Œa; b  auf, bei denen ein Gleichgewichtszustand W Œa; b  ! R N existiert, dem sich jede Lösung N y W Œa; b  ! R der Differenzialgleichung unabhängig von der Lage des Anfangswerts schnell annähert, das heißt, außerhalb eines kleinen Intervalls Œa; a C " gilt y  . Solche Differenzialgleichungen werden als “steif” bezeichnet und erfordern eine besondere numerische Behandlung, wie sich herausstellen wird. Im Folgenden wird zunächst der Begriff “steife Differenzialgleichung” etwas präzisiert. Definition 8.58. Ein Anfangswertproblem y 0 D f .t; y /; y.a/ D y0 genügt einer oberen Lipschitzbedingung bezüglich eines gegebenen Skalarprodukts h ; ii W R N  R N ! R, wenn es eine stetige Funktion M W Œa; b  ! R gibt mit

h f .t; u/

f .t; v/; u

vii  M.t /jju

v jj2 ;

u; v 2 R N :

(8.78)

Gilt M.t /  0 für jede Zahl t 2 Œa; b , so bezeichnet man das gegebene Anfangswertproblem als dissipativ.

238

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Hier und im Folgenden bezeichnet jj  jj W R N ! R die durch das Skalarprodukt induzierte Norm. Im weiteren Verlauf sollen Anfangswertprobleme y 0 D f .t; y /; y.a/ D y0 betrachtet werden, die

a) zum einen dissipativ sind oder zumindest einer oberen Lipschitzbedingung genügen mit M.t / von moderater positiver Größe, beispielsweise M.t /  1; b) zum anderen die folgende Eigenschaft besitzen,

m.t / WD

inf

u;v 2 R N

h f .t; u/

u¤v

f .t; v/; u jju v jj2

vii

 0 für t 2 Œa; b :

(8.79)

Eine Anfangswertproblem y 0 D f .t; y /; y.a/ D y0 mit den in a) und b) beschriebenen Eigenschaften bezeichnet man als steif. Bemerkung 8.59. Bei steifen Differenzialgleichungen kann aufgrund der Abschätzung

jhhf .t; u/

jju

f .t; v/; u v jj2

viij



jjf .t; u/ jju

f .t; v/ jj v jj

die Funktion f W Œa; b   R N ! R N die Lipschitzbedingung (7.10) höchstens noch mit einer groß ausfallenden Lipschitzkonstanten L  jm.t /j erfüllen, so dass die Konvergenzsätze 7.12 und 8.9 für Einschritt- beziehungsweise Mehrschrittverfahren wegen der auftretenden großen Konstanten erst für kleine Schrittweiten h > 0 sinnvolle Resultate liefern. M In dem folgenden Beispiel wird anhand einer einfachen steifen Differenzialgleichung das Verhalten sowohl des expliziten als auch des impliziten Euler-Verfahrens getestet. Wie sich zeigt, liefert das explizite Euler-Verfahren erst für sehr kleine Integrationsschritte vernünftige Ergebnisse, was aufgrund der vorigen Bemerkung 8.59 auch nicht sonderlich überraschend ist. Beispiel 8.60. Das Anfangswertproblem

y 0 D y

. 1 C /e t ;

t 2 Œ 0; 1 ;

y. 0 / D y0 ;

(8.80)

besitzt die Lösung

y.t / D e

t

C .y0

1 /e t ; t

t 2 Œ 0; 1 :

Für  2 R ;   0 gilt demnach y.t /  e bereits für kleine Werte 0 < t  1. Tatsächlich ist das Anfangswertproblem (8.80) für  2 R mit   0 steif, mit M.t /  m.t /  jj. Im Folgenden werden für die beiden Werte  D 10 (das Anfangswertproblem (8.80) ist in dieser Situation nicht steif) und  D 1000 (dann ist das Anfangswertproblem (8.80) steif) jeweils sowohl für das explizite als auch das implizite EulerVerfahren numerische Ergebnisse präsentiert. In allen vier Fällen werden gleichabständige Gitter unterschiedlicher Feinheit verwendet, und zwar solche mit den Knotenabständen h D 2 k für k D 2j; j D 2; 3; : : : ; 6:

239

Abschnitt 8.9 Steife Differenzialgleichungen

Die Resultate sind in Tabelle 8.3 wiedergegeben. Der Anfangswert ist jeweils y0 D 1, und die Lösung des Anfangswertproblems (8.80) ist dann unabhängig von  und lautet y.t / D e t für t 2 Œ 0; 1 . Man beachte, dass im Falle des expliziten EulerVerfahrens der Fehler an der Stelle t D 1 für kleiner gewählte Schrittweiten zunächst über alle Schranken hinauswächst. Für die Schrittweiten h D 2 10 und h D 2 12 werden vernünftige Ergebnisse erzielt. M

D h

uh . 1 /

D

10

y. 1 /

uh . 1 /

y. 1 /

h

expl. Euler-Verf. impl. Euler-Verf.

uh . 1 /

1000

y. 1 /

uh . 1 /

y. 1 /

expl. Euler-Verf. impl. Euler-Verf.

0:0625

1:247  10

3

1:308  10

3

0:0625

1:283  1024

1:175  10

5

0:0156

3:174  10

4

3:212  10

4

0:0156

2:865  1069

2:892  10

6

0:039

7:971  10

5

7:994  10

5

0:039

8:014  10112

7:202  10

7

0:010

1:995  10

5

1:996  10

5

0:010

1:797  10

7

1:799  10

7

0:002

4:989  10

6

4:990  10

6

0:002

4:495  10

8

4:496  10

8

Tabelle 8.3: Numerische Ergebnisse für das explizite/implizite EulerVerfahren. Dabei bezeichnet uh .1/ jeweils die gewonnenen Approximationen für y.1/.

Wie sich in Beispiel 8.60 gezeigt hat, liefert das implizite Euler-Verfahren hier trotz der in Bemerkung 8.59 angestellten Beobachtungen für kleine Schrittweiten h > 0 vernünftige Ergebnisse. Dieses Verhalten ist kein Zufall, wie sich in Abschnitt 8.9.3 herausstellen wird.

8.9.2 Existenz und Eindeutigkeit der Lösung bei Anfangswertproblemen für Differenzialgleichungen mit oberer Lipschitzeigenschaft Für Anfangswertprobleme bei gewöhnlichen Differenzialgleichungen mit oberer Lipschitzeigenschaft sollen zunächst die Fragen “Existenz und Eindeutigkeit einer Lösung” sowie die “stetige Abhängigkeit von den Anfangswerten” diskutiert werden. Zwar kann unter diesen Voraussetzungen nicht auf Theorem 7.4 von Picard/Lindelöf auf Seite 170 zurückgegriffen werden, eine stetige Abhängigkeit von den Anfangswerten (und damit insbesondere die Eindeutigkeit der Lösung) liegt dennoch vor: Theorem 8.61. Die Funktion f W Œa; b   R N ! R N genüge der oberen Lipschitzbedingung (8.78) bezüglich eines gegebenen Skalarprodukts h ; ii und einer gegebenen Funktion M . Dann gilt für differenzierbare Funktionen y; b y W Œa; b  ! R N mit

y 0 D f .t; y /; t 2 Œa; b ;

b y0

D f .t;b y /;

......

y.a/ D y0 ;

b y .a/ D b y0;

240

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

die Abschätzung

jjy.t /

b y .t / jj  exp

Z t a

 M.s/ ds jjy0

b y 0 jj;

t 2 Œa; b :

(8.81)

Beweis. Die Funktion

ˆ.t / D jj.y

b y /.t / jj2 ;

t 2 Œa; b ;

ist differenzierbar auf dem Intervall Œa; b , und es gilt ./

ˆ0 .t / D 2h .y

b y /0 .t /; .y

 2M.t / jj.y

b y /.t /ii D 2h f .t; y.t //

b y /.t / jj2 D 2M.t /ˆ.t /;

f .t;b y .t //; .y

t 2 Œa; b ;

µ b y /.t /ii

(8.82)

wobei die letzte Abschätzung aus der oberen Lipschitzbedingung (8.78) resultiert. Die Identität ./ folgt unmittelbar aus dem nachfolgenden Lemma 8.62. Die Abschätzung (8.82) zusammen mit der weiter unten nachzutragenden Variante des GronwallLemmas liefert die Behauptung (8.81). Es sind noch zwei Hilfsresultate nachzutragen. Lemma 8.62. Es seien h ; ii W R N  R N ! R ein Skalarprodukt mit induzierter Norm jj  jj W R N ! R und u W Œa; b  ! R N eine differenzierbare Funktion. Dann ist die Funktion

ˆ.t / D jju.t / jj2 ;

t 2 Œa; b ;

differenzierbar auf dem Intervall Œa; b , mit

ˆ0 .t / D 2h u0 .t /; u.t /ii;

t 2 Œa; b :

Beweis. Die Aussage ergibt sich zum Beispiel folgendermaßen,

ˆ.t C h/ h

ˆ.t /

jju.t C h/ jj2 jju.t / jj2 h h u.t C h/; u.t C h/ u.t /ii h u.t C h/ u.t /; u.t /ii C D h h 0 ! 2h u .t /; u.t /ii für h ! 0: D

Das folgende Resultat stellt eine Variante des Gronwall-Lemmas dar: Lemma 8.63. Für die differenzierbare Funktion ˆ W Œa; b  ! R sei

ˆ0 .t /  c.t /ˆ.t /;

t 2 Œa; b ;

erfüllt mit der stetigen Funktion c W Œa; b  ! R. Dann gilt

ˆ.t /  exp

Z

t

a

 c.s/ ds ˆ.a/;

t 2 Œa; b :

(8.83)

241

Abschnitt 8.9 Steife Differenzialgleichungen

Beweis. Mit der Notation

ˇ.t / WD exp



Z t a

 c.s/ ds ;

t 2 Œa; b ;

erhält man auf dem Intervall Œa; b  Folgendes,

.ˆˇ/0 D ˆ0 ˇ C ˆˇ 0 D ˆ0 ˇ

cˆˇ D ˇ.ˆ0

cˆ/  0;

so dass die Funktion ˆˇ auf dem Intervall Œa; b  monoton fallend ist und damit insbesondere ˆ.t /ˇ.t /  ˆ.a/ gilt für t 2 Œa; b , was gerade die Aussage (8.83) darstellt. In gewissen Situationen gewährleistet auch die obere Lipschitzeigenschaft (8.78) die Existenz der Lösungen der zugehörigen Anfangswertprobleme, so zum Beispiel bei Anfangswertproblemen für autonome Differenzialgleichungen

y 0 D f .y /;

t 2 Œa; b ;

y.a/ D y0 ;

(8.84)

was in dem folgenden Theorem ohne Beweis festgehalten wird (siehe Strehmel/Weiner [103]). Theorem 8.64. Genügt die (von t unabhängige) Funktion f W R N ! R N einer oberen Lipschitzbedingung (8.78), gilt also

h f .u/

f .v/; u

vii  M jju

u; v 2 R N ;

v jj2 ;

(8.85)

mit einer Konstanten M 2 R, so besitzt das Anfangswertproblem (8.84) genau eine Lösung. Beispiel 8.65. Das autonome Anfangswertproblem

y0 D

y 3;

t 2 Œa; b ;

y.a/ D y0 2 R ;

ist dissipativ (bezüglich des Skalarprodukts h u; vii D uv für u; v 2 R) und besitzt nach Theorem 8.64 eine eindeutige Lösung. Man beachte, dass Theorem 7.4 hier nicht anwendbar ist, denn die Funktion f .y / D y 3 für y 2 R genügt keiner globalen Lipschitzbedingung von der Form (7.10). M Zum Abschluss dieses einführenden Abschnitts werden untere und obere Lipschitzschranken für stetig partiell differenzierbare Funktionen angegeben. Lemma 8.66. Die Funktion f W Œa; b  R N ! R N sei stetig partiell differenzierbar.

a) Mit der Notation aus (8.79) gilt

m.t / D

inf

0¤w2R N u2R N

h Dy f .t; u/w; wii jjw jj2

für t 2 Œa; b :

(8.86)

b) Die Funktion f genügt bezüglich einer gegebenen Funktion M W Œa; b  ! R der oberen Lipschitzbedingung (8.78) genau dann, wenn Folgendes gilt,

h Dy f .t; u/w; wii  M.t /jjw jj2 für t 2 Œa; b ;

u; w 2 R N :

242

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Beweis. Der Mittelwertsatz für vektorwertige Funktionen bedeutet

f .t; u/

f .t; v/ D

beziehungsweise

h f .t; u/

f .t; v/; u

vii D

Auf der anderen Seite gilt 1 h!0 h

Dy f .t; u/w D lim

Z

˝ Z

1 0

1 0

Dy f .t; v C s.u

Dy f .t; v C s.u

v// ds

.u

 v// ds .u

 f .t; u/ ;

f .t; u C hw/



v/

v/; u

u; w 2 R N ;

v

˛

: (8.87)

t 2 Œa; b : (8.88)

Aus den Darstellungen (8.87) und (8.88) erhält man unmittelbar die Aussagen a) und b) des Lemmas.

8.9.3 Das implizite Euler-Verfahren für steife Differenzialgleichungen In diesem Abschnitt wird für das in Beispiel 8.60 auftretende günstige Verhalten des impliziten Euler-Verfahrens bei der Lösung steifer Anfangswertprobleme eine mathematische Erklärung geliefert. Das folgende Lemma dient dabei als Vorbereitung. Lemma 8.67. Die Funktion f W Œa; b   R N ! R N genüge der oberen Lipschitzbedingung (8.78) mit M.t /  M . Je nach der Situation (i) M  0 beziehungsweise (ii) M > 0 gilt dann für beliebige u; v 2 R N sowie t 2 Œa; b  die folgende Abschätzung, (i) M  0 W jju

(ii) M > 0 W

v jj  ......

jju

v

h.f .t; u/

 . 1 C ~h/

f .t; v//jj 8 h > 0;

8 0 < h  H;

.......

1 und der Konstanten ~ WD mit der Zahl 0 < H < M

µ

M 1 HM

(8.89)

in der Situation (ii).

Beweis. Nach Voraussetzung gilt

hhhf .t; u/

f .t; v/; u

vii  hM jju

v jj2

beziehungsweise

.1

hM /jju

v jj2  h u

v; u

vii

hhhf .t; u/

D hu

v

h f .t; u/

 jju

v

h f .t; u/

f .t; v/; u vii  f .t; v/ ; u vii  f .t; v/ jj jju v jj:

Die Behauptung im Fall M  0 folgt daraus unmittelbar, und im Fall M > 0 ergibt sie sich nach der weiteren Rechnung D~

‚ …„ ƒ M 1 M D 1C h1C h: 1 hM 1 hM 1 HM

243

Abschnitt 8.9 Steife Differenzialgleichungen

Für gleichabständige Knoten t` D a C `h; ` D 0; 1; : : : ; n, mit h D b n a ist das implizite Euler-Verfahren zur Lösung von y 0 D f .t; y /; y.a/ D y0 von der Form (vergleiche Bemerkung 8.42)

u`C1 D u` C hf .t`C1 ; u`C1 /;

` D 0; 1; : : : ; n

1;

u0 WD y0 ;

(8.90)

und besitzt für eine hinreichend glatte Funktion f die Konsistenzordnung p D 1, das heißt, für den lokalen Verfahrensfehler (vergleiche (8.5) auf Seite 199)

.t; h/ D y.t C h/

y.t /

hf .t C h; y.t C h//;

0 0. mit der Einschränkung 0 < h  H < M

a/; falls M  0  ....... M >0 1 ;

µ

Beweis. Mit den Setzungen

e` D u` y` ; ` D .t` ; h/; gilt für ` D 0; 1; : : : ; n

y` WD y.t` /;

` D 0; 1; : : : ; n; ` D 0; 1; : : : ; n 1;

1

y`C1 D y` C hf .t`C1 ; y`C1 / C ` ; u`C1 D u` C hf .t`C1 ; u`C1 /; und daher

e`C1

 h f .t`C1 ; u`C1 /

 f .t`C1 ; y`C1 / D e`

` :

(8.92)

Im Fall M  0 erhält man aus (8.89) und (8.92)

jje`C1 jj  jje`C1

h f .t`C1 ; u`C1 / 2

 f .t`C1 ; y`C1 / j D jje`

 jje` jj C jj` jj  jje` jj C C h :

` jj

244

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Wegen e0 D 0 erhält man mittels vollständiger Induktion die angegebene Abschätzung (8.91) für den Fall M  0. Für M > 0 geht man vergleichbar vor: wiederum aus (8.89) und (8.92) erhält man mit ~ WD 1 M MH die folgenden Abschätzungen,

 h f .t`C1 ; u`C1 / f .t`C1 ; y`C1 / j  1  . 1 C ~h/ jje` jj C jj` jj  . 1 C ~h/jje` jj C 1 MH jj` jj;

jje`C1 jj  . 1 C ~h/jj e`C1

und mit Lemma 7.14 erhält man die Abschätzung (8.91) auch für den Fall M > 0. Dies komplettiert den Beweis des Theorems.

8.9.4 Steife Differenzialgleichungen in den Anwendungen Die Linienmethode bei der Wärmeleitungsgleichung Ein Anfangsrandwertproblem für die räumlich eindimensionale Wärmeleitungsgleichung ist gegeben durch @u @t

2 D @ u2 ;

0 < x < L;

@x

0 < t < T;

u. 0; t / D u.L; t / D 0;

0  t  T;

u.x; 0 / D f .x/;

0  x  L;

wobei f W Œ 0; L ! R eine gegebene Funktion ist. Die Funktion u W Œ 0; L  Œ 0; T  ! R soll numerisch bestimmt werden. Für äquidistante Gitterpunkte

xj D jx;

j D 1; 2; : : : ; N

1

L /; .x D N 2

und eine hinreichend glatte Funktionen u ergibt eine Approximation von @@xu2 .xj ; t /; 1  j  N 1, durch zentrale Differenzenquotienten 2. Ordnung Folgendes (Details werden später vorgestellt, siehe Lemma 9.7): @2 u .xj ; t / @x 2

D

u.xj C1 ; t /

2u.xj ; t / C u.xj

.x /2

1; t /

C O..x /2 /:

Vernachlässigung des Terms O..x /2 / führt auf das folgende gekoppelte System von N 1 gewöhnlichen Differenzialgleichungen für yj .t /  u.xj ; t/,

yj0 .t / D

1

.x/

yj C1 .t /

2

2yj .t / C yj

yj .0/ D f .xj /;

1 .t /



;

0 < t < T;

j D 1; 2; : : : ; N

(mit y0 .t / WD yN .t / WD 0) beziehungsweise in kompakter Form

y 0 .t / D

Ay.t /;

0 < t < T;

y.0/ D w0 ;

1;

µ

(8.93)

245

Weitere Themen und Literaturhinweise

mit

y.t / D y1 .t /; : : : ; yN 0 2

B B 1 B 1 AD B .x/2 B @

1 .t /

1 ♣♣ ♣ ♣♣ ♣

>

♣♣



♣♣



;

1

w0 D f .x1 /; : : : ; f .xN 1

C C C C 2 R .N 1C A

1/.N

1/

1/

>

;

:

2

Die vorgestellte Vorgehensweise, die Wärmeleitungsgleichung durch ein System gewöhnlicher Differenzialgleichungen bezüglich der Zeit t mittels Diskretisierung in Ortsrichtung x zu approximieren, wird als Linienmethode bezeichnet. Die Eigenwerte k der symmetrischen Matrix A lassen sich explizit berechnen (eine Herleitung wird in Lemma 9.13 nachgereicht),

k D

4

.x/2

sin 2

k 2N



> 0 für k D 1; 2; : : : ; N

1;

so dass das System (8.93) bezüglich des Skalarprodukts h u; vii D pativ ist. Wegen

N

1



4

PN

1

j D1

uj vj dissi-

.x /2

ist es für kleine Ortsschrittweiten x sehr steif.

Weitere Themen und Literaturhinweise Die auf Seite 192 genannten Lehrbücher zum Thema Einschrittverfahren enthalten allesamt auch Einführungen über Mehrschrittverfahren zur numerischen Lösung nichtsteifer Anfangswertprobleme. Im Folgenden werden einige weitere Themenkreise ansatzweise vorgestellt. a) Asymptotische Entwicklungen des globalen Verfahrensfehlers existieren auch für Mehrschrittverfahren. Wie sich herausstellt, liegen für spezielle Mehrschrittverfahren wie etwa die implizite Trapezregel oder das explizite Zweischrittverfahren von Gragg [38] asymptotische Entwicklungen in h2 vor, bei denen man wie schon bei der summierten Trapezregel angepasste Extrapolationsverfahren verwendet, etwa das Gragg-Bulirsch-Stoer-Verfahren aus Bulirsch/Stoer [9]. Es besteht auch die Möglichkeit einer simultanen Anwendung von Extrapolationsverfahren und Schrittweitensteuerungsstrategien. Einzelheiten hierzu findet man beispielsweise in Deuflhard [17, 18] und in Hairer/Nørsett/Wanner [49]. b) Für stetig partiell differenzierbare Funktionen f lässt sich eine obere Lipschitzbedingung auch noch sinnvoll definieren, falls die zugrunde liegende Vektornorm jj  jj W R N ! R C nicht durch ein Skalarprodukt induziert ist. Hierzu bedient man sich der logarithmischen Norm Œ W R N N ! R, die folgendermaßen definiert ist,

jjI C hA jj h h!0C

ŒA WD lim

1

;

A 2 R N N ;

(8.94)

246

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

wobei jj  jj W R N N ! R C die durch die zugrunde liegende Vektornorm induzierte Matrixnorm bezeichnet. Die logarithmische Norm ist unabhängig voneinander von Dahlquist [13] und Lozinski [67] eingeführt worden. Deren allgemeine Eigenschaften sowie konkrete Darstellungen für einige durch geläufige Vektornormen induzierte logarithmische Normen werden in den Aufgaben 8.22–8.28 vorgestellt. Mithilfe logarithmischer Normen lassen sich zum Beispiel Aussagen über die stetige Abhängigkeit von den Anfangswerten treffen. Gilt etwa bezüglich einer gegebenen Funktion M W Œa; b  ! R eine verallgemeinerte obere Lipschitzbedingung von der Form

ŒDy f .t; u/  M.t / für t 2 Œa; b ;

u 2 RN ;

so behält die Fehlerabschätzung (8.81) über die stetige Abhängigkeit von den Anfangswerten ihre Gültigkeit (Dekker/Verwer [15]). c) Neben dem impliziten Euler-Verfahren eignen sich viele andere implizite Ein- und Mehrschrittverfahren zur numerischen Lösung steifer Anfangswertprobleme. Ausführliche Behandlungen dieses Themas findet man beispielsweise in Deuflhard/Bornemann [20], Hairer/Wanner [50] oder Strehmel/Weiner [103].

Übungsaufgaben Aufgabe 8.1. Man zeige, dass ein lineares m-Schrittverfahren genau dann für alle Anfangswertprobleme mit hinreichend glatten Funktionen f W Œa; b  R N ! R N die Konsistenzordnung p besitzt, wenn mit der Notation

LŒy.t /; h WD

m  X

j D0

˛j y.t C j h/

hˇj y 0 .t C j h/



die Beziehungen LŒt 0 ; h D LŒt 1 ; h D    D LŒt p ; h D 0 erfüllt sind. Aufgabe 8.2. Man bestimme mithilfe des Gleichungssystems (8.18) die (genaue) Konsistenzordnung des Zweischrittverfahrens

u`C2

 u` D 3h f .t`C2 ; u`C2 / C 4f .t`C1 ; u`C1 / C f .t` ; u` / :

Für das Mehrschrittverfahren

u`C3 C .u`C2

u`C1 /

u` D h

3C 2

f .t`C2 ; u`C2 / C f .t`C1 ; u`C1 /



bestimme man die von 2 R abhängige Konsistenzordnung p . Für welche Werte von 2 R ist das Verfahren nullstabil? Aufgabe 8.3. Betrachte das Mehrschrittverfahren

u`C3

u`C2 C u`C1

u` D h.ˇ2 f .t`C2 ; u`C2 / C ˇ1 f .t`C1 ; u`C1 //;

` D 0; 1; : : : ; n

3:

a) Man bestimme für festes 2 R die Koeffizienten ˇ1 2 R und ˇ2 2 R so, dass die Konsistenzordnung p D p. / maximal wird. Bestimmen Sie auch jeweils p. /.

b) Für welche Wahl des Parameters wird die Ordnung p. / maximal? Ist das Verfahren dann nullstabil?

247

Übungsaufgaben

Aufgabe 8.4. Man beweise: ein lineares Mehrschrittverfahren besitzt genau dann die Konsistenzordnung p , wenn

%.e h /

h.e h / D O.hpC1 / für h ! 0

erfüllt ist, wobei ./ WD ˇm  m C ˇm

1

m 1

C    C ˇ0 .

Aufgabe 8.5. Man bestimme für die beiden folgenden Mehrschrittverfahren jeweils diejenigen Werte 2 R, für die das Verfahren nullstabil ist: a) u`C3

u`C2 C u`C1 u`C1

u` D h'.t` ; u` ; : : : ; u`C3 I h/,

u` D h'.t` ; u` ; : : : ; u`C3 I h/.

b) u`C3 C u`C2

Aufgabe 8.6. Man zeige, dass für jede Zahl m 2 N (bis auf Normierung) genau ein m-schrittiges lineares Verfahren m m X X j D0

˛j u`Cj D h

ˇj f .t`Cj ; u`Cj /

j D0

mit der Konsistenzordnung 2m existiert, aber keines mit der Konsistenzordnung 2m C 1. Hinweis: Für p D 2m und p D 2m C 1 betrachte man jeweils das Konsistenz-Gleichungssystem (8.18) für die Unbekannten ˛j ; j D 0; 1; : : : ; m, und ˇj ; j D 0; 1; : : : ; m, und argumentiere wie zum Ende des Beweises von Theorem 8.54 auf Seite 230. Aufgabe 8.7. Zu den vier Stützstellen x` D x0 C`h für ` D 0; 1; 2; 3 sowie den dazugehörigen Stützwerten         1 0 2 1 ; ; ; ; 0 1 1 2 bestimme man das interpolierende Polynom P 2 …23 in der Darstellung P .x3 C sh/ unter Verwendung von Rückwärtsdifferenzen. Aufgabe 8.8. a) Für die homogene Differenzengleichung

u`C3

4u`C2 C 5u`C1

2u` D 0;

` D 0; 1; : : :

gebe man die allgemeine Lösung an. b) Man löse folgende Differenzengleichungen:

u`C2

u`C2

2u`C1

3u` D 0;

u0 D 0;

`

u`C1

u` D 2 ;

u`C1

u` D `;

u0 D 0;

2tu`C1 C u` D 0;

u0 D 1;

u1 D 1;

u0 D 0; u1 D t 2 . 1; 1 /:

Aufgabe 8.9. a) Für die beiden homogenen Differenzengleichungen

u`C3

5u`C2 C 8u`C1

u`C3

u`C2 C u`C1

4u` D 0;

u` D 0;

` D 0; 1; : : : ;

` D 0; 1; : : : ;

gebe man jeweils die allgemeine reelle Lösung an. b) Man löse folgende Differenzengleichung:

u`C2

u`C1

u` D 0;

` D 0; 1; : : : ;

u0 D 0;

u1 D 1:

248

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Aufgabe 8.10. Gegeben sei das folgende Anfangswertproblem für ein System von linearen Differenzialgleichungen:

y 0 .t/ D Ay.t/ für t  0;

y.0/ D y0

mit 0 ¤ A 2 RN N symmetrisch, positiv semidefinit und y0 2 RN . Zeigen Sie: a) Das explizite und das implizite Euler-Verfahren lassen sich in der Form u`C1 D C u` schreiben mit einer jeweils geeigneten Matrix C D C.h/ 2 RN N .

b) Für die zum expliziten Einschrittverfahren gehörende Matrix C gilt für 0 < h  Ungleichung jjC jj2  1.

2

j Ajj2

die

c) Die Matrix C aus dem impliziten Einschrittverfahren erfüllt für jedes h > 0 die Abschätzung jjC jj2  1.

Aufgabe 8.11. a) Man zeige, dass jede Lösung y.t / der skalaren Differenzialgleichung 2. Ordnung

y 00 D f .t; y /;

t 2 Œa; b;

(8.95)

der folgenden Identität genügt (für t; t ˙ h 2 Œa; b ):

y. t C h/ D h2

Z

1 0

2y . t / C y . t

.1

h/

s / f .t C sh; y . t C sh / / C f .t

sh; y . t

 sh / / ds:

(8.96)

b) Zur numerischen Lösung einer Anfangswertaufgabe für (8.95) setze man in (8.96) t D 1 und ersetze die Funktion f .s; y.s // durch dasjenige Polynom P 2 …m 1 , welches die Stützpunkte .t`Cj ; f`Cj /; j D 0; 1; : : : ; m 1 interpoliert, wobei die übliche Notation f`Cj D f .t`Cj ; u`Cj / verwendet wird. Daraus leite man die expliziten linearen StörmerVerfahren

t`Cm

u`Cm

2u`Cm

C u`Cm

1

2

m X1

D h2

mit den Koeffizienten

k D . 1 /k

Z

kD0

k r k f`Cm 1 ;

1 0

.1

s/

` D 0; 1; : : : ; n

m

s  s ds k C k

her. Für m D 2 und m D 3 gebe man die Verfahren an.

Aufgabe 8.12. Gegenstand dieser Aufgabe ist die skalare Differenzialgleichung 2. Ordnung (8.95). a) Zeigen Sie: Betrachtung der Identität (8.96) mit t D t`Cm 1 und gleichzeitiges Ersetzen der Funktion f .s; y.s// durch das Polynom P 2 …m , welches die Stützpunkte .t`Cj ; f`Cj / für j D 0; 1; : : : ; m interpoliert, wobei die übliche Notation f`Cj D f .t`Cj ; u`Cj / verwendet wird, führt auf das implizite Störmer-Verfahren

u`Cm

2u`Cm

1

C u`Cm

2

D h2

mit den Koeffizienten

k D . 1/k

Z

m X

kD0

0 1

. s/

k r k f`Cm für ` D 0; 1; : : : ; n s s C 2  ds: k C k

m

b) Für m D 2 gebe man das Verfahren in der Form eines linearen Mehrschrittverfahrens an.

249

Übungsaufgaben

Aufgabe 8.13. Man beweise: Für ein nullstabiles lineares Mehrschrittverfahren der Konsistenzordnung p gilt 1 .h/ D e h C O.hpC1 / für h ! 0; wobei 1 .h/ die Nullstelle des Polynoms

Q.; h/ D . /

h. /

mit 1 .h/ ! 1 .0/ D 1 für h ! 0 bezeichnet. Hier ist  das erzeugende Polynom, und . / WD ˇm  m C    C ˇ0 2 …m . Aufgabe 8.14. a) Weisen Sie die Aussagen von Theorem 8.27 auf Seite 215 über das mschrittige Adams-Moulton-Verfahren nach. Geben Sie außerdem die dazugehörige erzeugende Funktion G.t/ an. b) Weisen Sie für die Fälle m D 1 und m D 2 die auf Seite 215 angegebenen klassischen Darstellungen des m-schrittigen Adams-Moulton-Verfahrens nach. Aufgabe 8.15. Für die Fälle m D 1; 2; 3 rechne man die auf Seite 222 angegebenen expliziten Darstellungen der BDF-Formeln nach und und überprüfe jeweils die Nullstabilität. Aufgabe 8.16. Das zweischrittige Verfahren

u`C2 C 4u`C1

5u` D h 4f .t`C1 ; u`C1 / C 2f .t` ; u` /



(8.97)

besitzt unter den üblichen Glattheitsvoraussetzungen die Konsistenzordnung p D 3. Ist es nullstabil? Man wende es mit der Schrittweite h > 0 und Startwerten u0 D 1 und u1 D e h auf die Testgleichung y 0 D y; y. 0 / D 1 an und zeige, dass mit t ¤ 0 und h D h` D `t für ` ! 1 Folgendes gilt:

u` D . 1 C O.h4 // e

t =`

C O.h4 /

`

1 h4 . 1 216

C O.h//. 5

3h C O.h2 //` ;

und dabei der erste Summand für ` ! 1 gegen e t konvergiert und der zweite Summand sich für große ` verhält wie t 4 . 5 /` 3 t = 5

e

`4

216

:

Aufgabe 8.17. Gegenstand dieser Aufgabe ist das zweischrittige Verfahren

u`C2

3u`C1 C 2u` D

hf .t` ; u` /:

a) Bestimmen Sie die genaue Konsistenzordnung p (hinreichende Glattheit von f sei vorausgesetzt). b) Ist das Verfahren nullstabil? c) Man wende es mit der Schrittweite h > 0 und Startwerten u0 D 1 und u1 D e h auf die Testgleichung y 0 D y; y.0/ D 1, an und zeige, dass für fest gewähltes t > 0 und h D h` D `t für ` ! 1 Folgendes gilt:

u` D . 1 C O.h//.e

h

C O.h2 //`

h2 2

. 1 C O.h//. 2 C h C O.h2 //` :

d) Zeigen Sie, dass der erste Summand in c) für ` ! 1 gegen e Summand sich für große ` wie t 2 2` t =2 2 `2 verhält.

e

t

konvergiert und der zweite

250

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Aufgabe 8.18 (Numerische Aufgabe). Man löse das Anfangswertproblem

y 0 D y;

y.0/ D 1;

numerisch mit dem 



zweischrittigen Verfahren (8.97), einmal mit den Startwerten p u0 D 1; u1 D e auch mit den Startwerten u0 D 1; u1 D 1 WD 2 3h C 9 C 6h C 4h2 ;

h

und dann

und für D 0 und D 9 mit dem dreischrittigen Verfahren

u`C3 C .u`C2

u`C1 /

u` D h

3C 2

f .t`C2 ; u`C2 / C f .t`C1 ; u`C1 / h

(vergleiche Aufgabe 8.2) mit den Startwerten u0 D 1; u1 D e

und u2 D e

2h



.

Die Schrittweite sei jeweils h D 0:01. Geben Sie tabellarisch zu den Gitterpunkten t D t` D `h; ` D 2; 3; : : : ; 100 die exakte Lösung y.t /, die Näherung uh .t /, den Fehler uh .t / y.t / t 4 . 5 /` 3 t = 5 e `4

und im Falle des ersten Verfahrens

216

an.

Aufgabe 8.19 (Numerische Aufgabe). Man löse das Anfangswertproblem

y 0 .t / D y.t /; für  D

0  t  15;

y.0/ D 1;

1 und  D 1 jeweils mit den beiden folgenden Prädiktor-Korrektor-Verfahren:

1. Das Verfahren von Milne besitzt Prädiktor und Korrektor .0 / u`C4 D u` C 43 h 2f`C3

f`C2 C 2f`C1



 .C1/ ./ u`C4 D u`C2 C 31 h f`C4 C 4f`C3 C f`C2 ;

 D 0; 1; : : : :

2. Das Verfahren von Hamming besitzt den gleichen Prädiktor wie das Verfahren von Milne, und der Korrektor ist hier .C1/ u`C 4

9 u 8 `C3

./ C 81 u`C1 D 3 h f`C C 2f`C3 4

8

./

./

 f`C2 :

Hierbei bedeutet f` D f .t` ; u` / und f`C4 D f .t`C4 ; u`C4 /. Für die Anlaufrechnung verwende man das klassische Runge-Kutta-Verfahren und für die Korrektoriteration das Abbruchkriterium .C1/

ju`C4

./

u`C4 j

ju./ `C4 j

 10 5 :

Man verwende jeweils die Schrittweite h D 0:1 und gebe tabellarisch zu den Gitterpunkten t D 0:1; 0:2; 0:3; : : : ; 1:0; 2:0; 3:0; : : : ; 15; die exakte Lösung y.t /, die Näherung uh .t /, den Fehler uh .t / y.t / und die Anzahl der durchgeführten Iterationsschritte an. Aufgabe 8.20. Bestimmen Sie für das autonome Anfangswertproblem

y0 D

y5;

t 2 Œa; b;

y.a/ D y0 2 R ;

bezüglich des Skalarprodukts h u; vii D uv für u; v 2 R bestmögliche Schranken m und M (siehe (8.78) und (8.79)). Ist die Differenzialgleichung dissipativ? Genügt die Differenzialgleichung einer globalen Lipschitzbedingung?

251

Übungsaufgaben

Aufgabe 8.21. Gegeben sei folgendes Anfangswertproblem für ein System von N Differenzialgleichungen erster Ordnung:

y 0 .t/ D

tAy.t/;

a  t  b;

y.a/ D y0 ;

mit 0 < a < b und einer symmetrischen, positiv definiten Matrix A 2 RN N . Die Eigenwerte der Matrix A seien mit 0 < 1  2      N bezeichnet. Bestimmen Sie für diesen Fall zur euklidischen Norm die Lipschitzkonstante L zur Differenzialgleichung sowie die Größen m.t/ und M.t/ aus Abschnitt 8.9. Aufgabe 8.22. Für die Matrix

AD

10 12 12

20

!

2 R 22

berechne man die logarithmischen Normen 1 ŒA; 1 ŒA und 2 ŒA. Aufgabe 8.23. Diskretisierung der Wärmeleitungsgleichung mit Neumann-Randbedingungen 2 @u D @ u2 C f .x; t /; @t @x

0  x  1;

a  t  b;

@u . 0; t / D @u . 1; t / D 0; @x @x

.......

u.x; 0 / D g.x /;

;

0  x  1;

führt mithilfe zentraler Differenzenquotienten erster und zweiter Ordnung (bei äquidistanter Ortsschrittweite x D N1 ) auf ein Anfangswertproblem für ein System von N C 1 gewöhnlichen Differenzialgleichungen

y 0 .t / D Ay.t / C z.t /;

y.a/ D z0

mit einer geeigneten Matrix A 2 R .N C1/.N C1/ . Man gebe eine Matrixnorm an, so dass für die zugehörige logarithmische Norm ŒA  0 gilt. Aufgabe 8.24. Es sei jj  jj eine durch eine Vektornorm induzierte Matrixnorm auf RN N . Man weise für die logarithmische Norm  Folgendes nach: für jedes A 2 RN N existiert in R der einseitige Grenzwert

ŒA D lim

h!0C

und es gilt

jj I C hA jj h

1

;

jj A jj  ŒA  jj A jj.

Aufgabe 8.25. Man weise

ŒA D lim

h!C0

ln jj e hA jj

h

für A 2 R N N

nach. Hinweis: Zunächst zeige man

jj e hA jj h h!C0

ŒA D lim

1

:

Aufgabe 8.26. Man weise nach, dass für Matrizen A; B 2 R N N und nichtnegative Zahlen c 2 R ; c  0 Folgendes gilt,

ŒcA D cŒA;

ŒA C B   ŒA C ŒB :

252

Kapitel 8 Mehrschrittverfahren für Anfangswertprobleme

Aufgabe 8.27. Man zeige: a) Ist die Norm jj  jj W KN ! R durch ein Skalarprodukt h ; ii W KN  KN ! R induziert, so gilt für die zugehörige logarithmische Norm die Darstellung

ŒA D

max

x2K N W j x j D1

Re h Ax; x i für A 2 KN N ;

wobei man im reellen Fall K D R den Ausdruck Re h Ax; x i durch h Ax; x i ersetzen kann. (Die Definition (8.94) für logarithmische Normen auf Seite 245 lässt sich auch für komplexe Matrizen beziehungsweise für Normen auf komplexen Räumen verwenden.) b) Für eine durch eine Vektornorm jj  jj W CN ! R induzierte logarithmische Norm Œ W CN N ! R gilt die Ungleichung

ŒA  max Re  für A 2 CN N : 2.A/

Gilt hier im Allgemeinen Gleichheit? Aufgabe 8.28. Sei 1 Œ W R N N ! R die zur Maximumnorm jj  jj1 W R N ! R gehörende logarithmische Norm. Man weise für 0 ¤ A 2 R N N die folgende Äquivalenz nach:

1 ŒA  0 ” jj I C A jj1  1 8 0 <   jj A jj1 : Aufgabe 8.29. Man weise nach, dass für jede Matrix A 2 R N N folgende Identität erfüllt ist:

1 ŒA D max

kD1;:::;N

®

akk C

N X

j D1 j ¤k

¯ jajk j ;

wobei 1 Œ die durch die Summennorm jj  jj1 W R N ! RC induzierte logarithmische Norm bezeichnet. Geben Sie eine Matrix A 2 R22 mit 1 ŒA < 0 an.

9

Randwertprobleme bei gewöhnlichen Differenzialgleichungen

9.1 Problemstellung, Existenz, Eindeutigkeit 9.1.1 Problemstellung Viele praxisrelevante Fragestellungen führen auf Randwertprobleme für gewöhnliche Differenzialgleichungen. Beispiel 9.1. Die stationäre Temperaturverteilung in einem dünnen Metallstab wird beschrieben durch das folgende Randwertproblem:

cu00 .x/ D f .x /;

a < x < b;

u.a/ D ˛;

u.b / D ˇ;

wobei f W Œa; b  ! R eine gegebene Funktion ist, die anliegende, zeitlich unabhängige Wärmequellen darstellt. Die Funktion u W Œa; b  ! R beschreibt die zeitlich unabhängige Temperaturverteilung in dem Stab und ist gesucht. Die Temperaturen (hier mit ˛ beziehungsweise ˇ bezeichnet) an den beiden Rändern sind vorgegeben, und c > 0 stellt eine Materialkonstante dar. M Beispiel 9.2. Der Verlauf eines an beiden Enden befestigten homogenen Kabels mit konstantem Querschnitt sei als ortsabhängige Höhe u.x/; a  x  a, über Grund angegeben. Eine Darstellung der vorliegenden Situation finden Sie in Abb. 9.1. .... .... ..... ...... .... ..... ......... ....... . . . . ....................................................................................................... . ............... ............. ....... ............... .......... .............. ........ ......... .... .... .. .. ......... ........... ......... ........ ........... .............. ........................................................... ............... ............ ....... ...... ........ ....... ..... ..... ..... ..... ... ....... ... ... ....... ... ....... ....... ....... ....... ....... ....... ....... ....... . ... . . ... .. ..... .. .. ..... ... ...... ...... ...... ...... ....... ...... ....... ...... .... ........... ... .... ........... ... . . .. . ..... ....... ...... ...... ........ ...... ...... .... ... ........... ... ... .......... ... ........... ......... ........... .......... ....... ....... ....... ......... ... .............. ... ... ............ .. .. .......... .. ... ..................... ......... ........... ..... . ............ . .... ... .... ... ................ ... ... ....... ....... ... ... ........... .. ... ...................... ........... ............ ...... . ............ . ... .. .... .. ................ ... ... .................. ... ... .................. .. ... ................. .. ..............................................................................................................................................................................................................................

H

a

a

0 Abb. 9.1: Kettenlinie

Der Verlauf lässt sich mithilfe des folgenden Randwertproblems beschreiben,

p u00 D k 1 C .u0 /2 ;

a  x  a;

u. a/ D u1 ; u.a/ D u2 ;

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_9

(9.1)

254

Kapitel 9 Randwertprobleme

mit einem konstanten Parameter k > 0, der unter anderem von der Masse pro Kabellänge abhängt. Die Randwerte u1 ; u2 2 R geben die Höhen an den beiden Rändern an. Es handelt sich bei (9.1) um ein Randwertproblem für eine Differenzialgleichung zweiter Ordnung. M Die numerische Lösung von Randwertproblemen für gewöhnliche Differenzialgleichungen ist Gegenstand des vorliegenden Kapitels. Definition 9.3. Ein Randwertproblem für eine gewöhnliche Differenzialgleichung zweiter Ordnung mit separierten Randbedingungen ist von der Form

u00 D f .x; u; u0 /; u.a/ D ˛;

x 2 Œa; b ;

(9.2)

u.b / D ˇ;

(9.3)

auf einem endlichen Intervall Œa; b  und mit gegebenen Zahlen ˛; ˇ 2 R sowie einer Funktion f W Œa; b   R 2 ! R, und gesucht ist eine zweimal stetig differenzierbare Funktion u W Œa; b  ! R mit den Eigenschaften (9.2)–(9.3). Die Notation in (9.2) ist eine übliche Kurzform für u00 .x / D f .x; u.x /; u0 .x //; x 2 Œa; b . Oft werden solche Randwertprobleme auch in abgeschwächter Form betrachtet, bei der eine stetige Lösung u W Œa; b  ! R der Differenzialgleichung u00 D f .x; u; u0 / lediglich auf dem offenen Intervall .a; b / gesucht wird (und die zweimalige stetige Differenzierbarkeit von u lediglich dort gefordert wird). Zur Vereinfachung der Situation werden Randwertprobleme im weiteren Verlauf in der spezielleren Fassung (9.2)–(9.3) betrachtet.

Bemerkung 9.4. In den Anwendungen treten auch Randwertprobleme für gewöhnliche Differenzialgleichungen höherer Ordnung und für Systeme von gewöhnlichen Differenzialgleichungen auf: Ein Randwertproblem für eine gewöhnliche Differenzialgleichung n-ter Ordnung mit linearen Randbedingungen ist von der Form



u.n/ D f .x; u; u0 ; : : : ; u.n nX1

kD0

1/

/;

x 2 Œa; b ;

 cjk u.k/ .a/ C djk u.k/ .b / D ˛j ;

j D 0; 1; : : : ; n

(9.4) 1

(9.5)

mit einer gegebenen Funktion f W Œa; b   R n ! R und gegebenen reellen Koeffizienten cjk ; djk und ˛j 2 R sowie einer zu bestimmenden n-mal stetig differenzierbaren Funktion u W Œa; b  ! R.

Ein Randwertproblem für ein System von n gewöhnlichen Differenzialgleichungen erster Ordnung mit linearen Randbedingungen ist von der Form



U 0 D F .x; U /;

x 2 Œa; b ;

AU.a/ C BU.b / D U0

(9.6) (9.7)

mit einer gegebenen Funktion F W Œa; b   R n ! R n und Matrizen A; B 2 R nn und einem Vektor U0 2 R n , und mit einer zu bestimmenden differenzierbaren vektorwertigen Funktion U W Œa; b  ! R n .

255

Abschnitt 9.1 Problemstellung, Existenz, Eindeutigkeit

Jedes Randwertproblem von der Form (9.4)–(9.5) lässt sich mit den Setzungen U1 D 1/ in ein Randwertproblem für ein System von n gewöhnlichen Differenzialgleichungen erster Ordnung von der Form (9.6)–(9.7) überführen.

u; U2 D u0 ; : : : ; Un D u.n

M

Die folgenden Betrachtungen beschränken sich auf die in (9.2)–(9.3) betrachteten Randwertprobleme für gewöhnliche Differenzialgleichungen zweiter Ordnung.

9.1.2 Existenz und Eindeutigkeit der Lösung Wie schon bei Anfangswertproblemen für gewöhnliche Differenzialgleichungen ist auch bei Randwertproblemen zunächst die Frage der Existenz und Eindeutigkeit der Lösung zu behandeln. Beispiel 9.5. Die homogene lineare gewöhnliche Differenzialgleichung zweiter Ordnung

u00 .x / C u.x / D 0;

a < x < b;

besitzt die allgemeine Lösung u.x / D c1 sin x C c2 cos x für x 2 Œa; b , mit Koeffizienten c1 ; c2 2 R, wobei aus der Theorie der gewöhnlichen Differenzialgleichungen bekannt ist, dass hierfür keine weiteren Lösungen existieren. Im Folgenden sollen verschiedene Randbedingungen (auf unterschiedlichen Grundintervallen) betrachtet werden. a) Das Randwertproblem

u00 C u D 0 auf Œ 0; 2 ;

u. 0 / D 0;

u. 2 / D 1;

besitzt die eindeutige Lösung u.x / D sin x; x 2 Œ 0; 2 . b) Bei dem Randwertproblem

u00 C u D 0 auf Œ 0;  ;

u. 0 / D 0;

u. / D 0;

stellt jede Funktion von der Gestalt u.x / D c1 sin x; x 2 Œ 0;  , mit c1 2 R eine Lösung dar. c) Schließlich existiert für das Randwertproblem

u00 C u D 0 auf Œ 0;  ; keine Lösung.

u. 0 / D 0;

u. / D 1;

M

Durch das vorangegangene Beispiel 9.5 wird deutlich, dass es bei Randwertproblemen für gewöhnliche Differenzialgleichungen keine so allgemein gültige Existenz– und Eindeutigkeitsaussage wie bei Anfangswertproblemen gibt. Unter gewissen Zusatzbedingungen lassen sich jedoch Existenz und Eindeutigkeit nachweisen. Ein entsprechendes Resultat für die in (9.6)–(9.7) beschriebene allgemeine Situation bei Systemen von gewöhnlichen Differenzialgleichungen erster Ordnung findet man bei-

256

Kapitel 9 Randwertprobleme

spielsweise in Freund/Hoppe [31]. Es wird nun noch ein Spezialfall des Randwertproblems (9.2)–(9.3) bei gewöhnlichen Differenzialgleichungen zweiter Ordnung betrachtet. Es handelt sich hierbei um das folgende sturm-liouvillesche Randwertproblem mit homogenen Randbedingungen,

u00 .x / C r.x /u.x / D '.x /;

a  x  b;

(9.8)

u.a/ D u.b / D 0;

(9.9)

wobei r; ' W Œa; b  ! R vorgegebene stetige Funktionen sind. Hier gilt die folgende Aussage: Theorem 9.6. Das Randwertproblem (9.8)–(9.9) besitzt für stetige Funktionen r; ' W Œa; b  ! R eine eindeutig bestimmte Lösung u 2 C 2 Œa; b , falls r nicht-negativ ist, r.x /  0 für x 2 Œa; b . Beweis. Siehe Kress [63], Theorem 11.4. Zur numerischen Lösung von solchen Randwertproblemen (9.8)–(9.9) und allgemeiner von Randwertproblemen von der Form (9.2)–(9.3) werden im Folgenden Differenzenverfahren, Variationsmethoden (Galerkin-Verfahren) und Einfachschießverfahren vorgestellt.

9.2 Differenzenverfahren 9.2.1 Numerische Differenziation In dem folgenden Lemma wird der später benötigte zentrale Differenzenquotient zweiter Ordnung (zur Approximation der zweiten Ableitung einer Funktion von einer Veränderlichen) definiert und seine Approximationseigenschaften behandelt. Bei dieser Gelegenheit werden gleich noch die gängigen Differenzenquotienten zur Approximation der ersten Ableitung vorgestellt. Lemma 9.7. a) Für u 2 C 2 Œa; b  gelten mit geeigneten Zahlen 1 ; 2 2 Œ 0; 1  die Beziehungen u. x C h / h u. x /

u. x /

u. x h

h/

D u0 .x / C u00 .x C 1 h/ h2 . vorwärts gerichteter Differenzenquotient / D u0 .x /

u00 .x

2 h/ 2h . rückwärts

.......

/:

b) Für u 2 C 3 Œa; b  gilt mit einer geeigneten Zahl  2 Œ 1; 1  Folgendes, u. x C h /

u. x

h/

2h

2

D u0 .x / C u.3/ .x C h/ h6 (zentraler Differenzenquotient 1. Ordnung):

c) Für u 2 C 4 Œa; b  gilt mit einer geeigneten Zahl  2 Œ 1; 1  Folgendes, u. x C h /

2u . x / C u . x

h2

h/

2

h D u00 .x / C u.4/ .x C h/ 12

(zentraler Differenzenquotient 2. Ordnung):

257

Abschnitt 9.2 Differenzenverfahren

Die rechts vorgestellten Bezeichnungen beziehen sich auf die linke Seite der jeweiligen Gleichung. Beweis. Die Aussagen erhält man mittels geeigneter Taylorentwicklungen der Funktion u in x . a) Hier verwendet man 2

u.x ˙ h/ D u.x / ˙ u0 .x /h C u00 .x ˙ 1=2 h/ h2 : b) Eine weitere Taylorentwicklung der Funktion u in x liefert mit geeigneten Zahlen 1 ; 2 2 Œ 0 ; 1  2

3

u.x ˙ h/ D u.x / ˙ u0 .x /h C u00 .x / h2 ˙ u.3/ .x ˙ 1=2 h/ h6 ; und eine Subtraktion führt auf die angegebene Darstellung, u. x C h /

u. x

2h

h/

 h2 2 h/ 12

D 0 C u0 .x / C 0 C u.3/ .x C 1 h/ C u.3/ .x 2

./

D u0 .x / C u.3/ .x C h/ h6 ;

mit einer Zahl  2 Œ 1; 1 , wobei man die Identität ./ mithilfe des Zwischenwertsatzes erhält. c) Ganz entsprechend erhält man mit geeigneten Zahlen 1 ; 2 2 Œ 0; 1  auch 2

3

4

h ; u.x ˙ h/ D u.x / ˙ u0 .x /h C u00 .x / h2 ˙ u.3/ .x / h6 C u.4/ .x ˙ 1=2 h/ 24

und daraus erhält man für eine Zahl  2 Œ 1; 1  die folgende Identität, u. x C h /

2u . x / C u . x

h2

h/

 h2 D 0 C u00 .x / C 0 C u.4/ .x ˙ 1 h/ C u.4/ .x ˙ 2 h/ 24 2

h : D u00 .x / C u.4/ .x C h/ 12

9.2.2 Der Ansatz für Differenzenverfahren Im Folgenden wird der Ansatz für Differenzenverfahren vorgestellt, wobei dies anhand des speziellen Randwertproblems u00 C ru D '; u.a/ D u.b / D 0 mit der nichtnegativen Funktion r  0 geschieht1 . Das zugrunde liegende Intervall Œa; b  wird mit Gitterpunkten versehen, die hier äquidistant gewählt seien,

xj D a C j h;

j D 0; 1; : : : ; N

mit h D

b

a N

:

(9.10)

Eine Betrachtung des genannten Randwertproblems u00 C ru D '; u.a/ D u.b / D 0 an diesen Gitterpunkten bei einer gleichzeitigen Approximation der Werte u00 .x1 /; 1

vergleiche (9.8)– (9.9)

258

Kapitel 9 Randwertprobleme

: : : ; u00 .xN

1 / durch jeweils entsprechende zentrale Differenzenquotienten 2. Ordnung führt auf das folgende gekoppelte System von N 1 linearen Gleichungen,

vj C 1 C 2vj

vj

1

2

h

C r.xj /vj D '.xj /;

j D 1; 2; : : : ; N

1;

.v0 D vN D 0 / für die Approximationen vj  u.xj /; j D 1; 2; : : : ; N

rj D r.xj /;

'j D '.xj /;

µ

(9.11)

1. Setzt man noch

j D 1; 2; : : : ; N

1;

so erhält man für das Gleichungssystem (9.11) die folgende Matrix-Vektor-Darstellung,

0

10

2

1 B 2 C r1 h B B B 1 2 C r2 h2 1 B B h2 B B ♣♣ ♣ B B @



♣♣



♣♣



ƒ‚ DW A 2 R .N

1 1 2 C rN 1/.N

1/

1

1

0

C B v1 C B '1 C CB C B C CB C C B CB v C B ' C CB 2 C B 2 C N CB C C B CB ♣ C D B ♣ C 2 R CB ♣ C B ♣ C CB ♣ C B ♣ C CB C C B [email protected] A A @ 2 vN 1 'N 1 1h …

1

:

(9.12)

Daraus erhält man unmittelbar die folgende Fehlerdarstellung:

Theorem 9.8. Für das Differenzenschema (9.11) zur Lösung des Randwertproblems (9.8)–(9.9) mit r  0 gilt mit der Notation uj WD u.xj / und der Matrix A aus (9.12) die Fehlerdarstellung 1

h2

0

B [email protected]

v1

1

u1

C AD

♣♣♣

vN

1

uN

1

2

h

12

0 B @

1

u.4/ .x1 C 1 h/ ♣♣♣

u.4/ .x

N 1

C N

1 h/

C A:

(9.13)

Beweis. Die Aussage folgt unmittelbar aus der zu (9.11) äquivalenten Darstellung (9.12) und der aus Teil c) in Lemma 9.7 resultierenden Identität 1

h2

0

B [email protected]

1

u1 ♣♣ ♣

uN

1

0

C B [email protected]

1

'1 ♣♣ ♣

'N

1

0

C h B A C 12 @ 2

u.4/ .x1 C 1 h/ ♣♣ ♣

u.4/ .xN

1

C N

1 h/

1

C A:

Für den Nachweis der eindeutigen Lösbarkeit des Gleichungssystems (9.11) und die gleichzeitige Herleitung einer Normabschätzung des Fehlers in (9.13) wird im Folgenden  

die Regularität der Matrix A 2 R .N 2

eine Abschätzung der Form h jjA unabhängigen Konstanten C > 0.

1/.N 1

1/

nachgewiesen sowie

jj1  C geliefert mit einer von der Zahl N

Hierzu sind ein paar Vorbereitungen erforderlich.

259

Abschnitt 9.2 Differenzenverfahren

9.2.3 Das Konvergenzresultat für Differenzenverfahren Definition 9.9. Für zwei Matrizen S D .sjk /; T D .tjk / 2 R N N schreibt man

S  T W” sjk  tjk für j; k D 1; 2; : : : ; N; beziehungsweise äquivalent dazu T  S . Eine Matrix S 2 R N N heißt nichtnegativ, wenn S  0 gilt. Im Folgenden werden die unmittelbar erforderlichen Resultate über nichtnegative Matrizen geliefert. Weitere Eigenschaften solcher Matrizen werden in Abschnitt 9.2.4 vorgestellt. Lemma 9.10. Für gegebene Matrizen S; T 2 R N N gelten die folgenden Implikationen, 0  S  T =) jjS jj1  jjT jj1 I

(9.14)

ˇˇ  1  ˇˇ ˇˇ ♣ ˇˇ D ˇˇˇˇ T ♣♣ ˇˇˇˇ

T  0 =) jjT jj1

1

:

(9.15)

1

Beweis. Mit den Notationen S D .sjk /; T D .tjk / 2 R N N erhält man die Aussage (9.14) folgendermaßen,

jjS jj1 D D

j D1;:::;N

N X

kD1

jsjk j D

max

N X

jtjk j D jjT jj1 :

max

j D1;:::;N

kD1

max

j D1;:::;N

N X

kD1

sjk 

max

j D1;:::;N

N X

tjk

kD1

Aus den letzten beiden Identitäten resultiert dann auch die Aussage (9.15). Das folgende Theorem liefert die wesentlichen Hilfsmittel für den Beweis der nachfolgenden Fehlerabschätzung bei Differenzenverfahren zur Lösung von Randwertproblemen. Der Beweis von Teil a) dieses Theorems wird in Abschnitt 9.2.4 nachgereicht. Theorem 9.11. a) Die Matrix A 2 R .N 1/.N nungssinn gilt (vergleiche Definition 9.9)

0A b) es gilt

1

 A0 1 ;

0

1 B 1 ♣♣♣ B A0 WD B ♣♣ @ ♣

jjA

1



♣♣



aus (9.12) ist regulär, und im Ord-

1

2

♣♣

1/

C C C 2 R .N 1A

1/.N

1/

ist regulärI

(9.16)

1 2

jj1  jjA0 1 jj1 

a/2

.b

8

h

2

:

(9.17)

260

Kapitel 9 Randwertprobleme

Beweis. Der Beweis von Teil a) wird nachgetragen, hier wird nur der Nachweis für Teil b) geführt. Das spezielle Randwertproblem

z 00 .x / D 1;

a < x < b;

z.a/ D z.b / D 0;

besitzt die Lösung

z.x / D 12 .x

a/.b

x /;

a  x  b;

so dass insbesondere z 2 C 4 Œa; b  und z .4/  0 gilt. Aus der Fehlerdarstellung für den zentralen Differenzenquotienten 2. Ordnung erhält man deshalb

A0

1

1 ♣♣ ♣ 1

!

D

z1 ! ♣♣ ♣

1

h2

zN

;

(9.18)

1

mit der Notation zj D z.xj /. Die zweite Abschätzung in (9.17) folgt nun unmittelbar aus (9.15) sowie Teil a) dieses Theorems, und die erste Abschätzung in (9.17) erhält man sofort aus (9.14) sowie wiederum aus Teil a) dieses Theorems. Die vorherige Aussage ermöglicht die Herleitung der folgenden Fehlerabschätzung für Differenzenverfahren zur Lösung von Randwertproblemen. Theorem 9.12. Gegeben sei das Randwertproblem (9.8)–(9.9) mit r  0, für dessen Lösung u 2 C 4 Œa; b  erfüllt sei. Dann gilt max

j D0;:::;N

mit der Konstanten M WD

a /2

.b

96

jvj

u.xj /j  M h2 ;

jju.4/ jj1 und den Notationen aus (9.10) und (9.11).

Beweis. Die Aussage folgt unmittelbar aus den Theoremen 9.8 und 9.11.

9.2.4 Vorbereitungen für den Beweis von Teil a) des Theorems 9.11 Die Regularität der Matrix A0 aus (9.16) ist eine unmittelbare Konsequenz aus der Tatsache, dass die Eigenwerte von Tridiagonalmatrizen mit konstanten Einträgen entlang der Haupt- und der Nebendiagonalen direkt angegeben werden können: Lemma 9.13. Eine Tridiagonalmatrix

0

a b

1

:: B : C Bc a C ADB : C 2 R .N @ :: ::: bA c a

1/.N

1/

mit Zahlen a; b; c 2 R ; b  c > 0, besitzt die folgenden Eigenwerte,

 k  p ; k D a C 2sgn.c / bc cos N

k D 1; 2; : : : ; N

Die zugehörigen Eigenvektoren sind im Beweis angegeben.

1:

261

Abschnitt 9.2 Differenzenverfahren

Beweis. Zur Vereinfachung der Notation wird im Folgenden der Fall a D 0 betrachtet. (Die Aussage in der allgemeinen Situation erhält man danach durch Betrachten der Matrix A aI .) Mit den Setzungen

M WD bc

 ; D WD N Œk

1=2

1 N x Œk WD .x` /N `D1 2 R

; Œk

1

mit x`

WD M ` sin .k`D/

erhält man unter Verwendung der Darstellung ` Œk x` D M2i e ik`D

für j D 1; 2; : : : ; N

.Ax Œk /j D

D

Mj h 2i

1h

2i

ik`D

e

1 Folgendes,

cM j

cM

1 i.j

1/kD

e

cM j 1

e

ikD

1

e



;

` D 1; 2; : : : ; N

1;

C bM j C1 e i.j C1/kD

i.j

1/kD

C bM j C1 e

 C bMe ikD e ijkD

cM

i.j C1/kD

1 ikD

e

i

C bMe

(9.19)

ikD



e

ijkD

i

;

wobei diese Vorgehensweise auch in den Fällen j D 1 und j D N 1 zulässig ist, da die rechte Seite der Gleichung in (9.19) für ` D 0 und ` D N verschwindet. Wegen p cM 1 D bM D sgn.c / bc berechnet man daraus mit der Abkürzung  D sgn.c / Folgendes,

.Ax Œk /j D

Mj  2i

p  bce

ikD

p  C  bce ikD e ijkD

Mj  p D  bc e ikD C e

ikD

2i



e ijkD

e

p  bce ijkD



ikD

p  C  bce ikD e

p  Œk D 2 bc cos.kD/ xj :

ijkD



Für Matrizen A, deren Eigenwerte allesamt im offenen Einheitskreis liegen, lässt sich die Inverse der Matrix I A als neumannsche Reihe darstellen. Genauer gilt Folgendes: Theorem 9.14. Für eine Matrix A 2 R N N sind folgende Aussagen äquivalent: a)  .A/  ¹ 2 C W jj < 1 º;

b) Es existiert eine Vektornorm jj  jj W R N ! R, so dass für die zugehörige Matrixnorm gilt jjA jj < 1; c) Die Reihe

d) Es gilt

A

P1

D0 A



ist konvergent;

! 0 für  ! 1.

Wenn eine der (und damit alle) Bedingungen erfüllt ist, so gilt

.I

A/

1

D

1 X

D0

A :

(9.20)

262

Kapitel 9 Randwertprobleme

Beweis. a/ =) b/: Für jede Zahl " > 0 existiert2 eine verallgemeinerte Jordan-Faktorisierung der Form A D T 1 b J T mit einer regulären Matrix T 2 CN N sowie

0

B b J DB @

b J1

♣♣

0

1



b Jr

B B b Jk D B @

C C; A

Pr

k " ♣♣



♣♣ ♣♣

1

C C C 2 CNk Nk ; ♣ " A k ♣

k D 1; 2; : : : ; r;

11 b mit Nk  1; . Hier kD1 Nk D N . Im Fall Nk D 1 bedeutet dies J k D Œk  2 C sei nun " > 0 hinreichend klein gewählt, so dass für jeden Index k 2 ¹ 1; 2; : : : ; r º die Ungleichung jk j C " < 1 erfüllt ist, was wegen Voraussetzung a) möglich ist. Aufgrund der Konstruktion gilt

jj b J jj1 D max jj b J k jj1 < 1: kD1;:::;r

Man setzt dann

jjx jjT WD jjT x jj1 ;

x 2 RN ;

und weist leicht nach, dass jj  jjT eine Norm auf R N darstellt. Für die zugehörige Matrixnorm ist dann tatsächlich jjA jjT < 1 erfüllt, denn für jeden Vektor x 2 R N gilt

jjAx jjT D jjTAx jj1 D jj b J T x jj1  jj b J jj1 jjT x jj1 D jj b J jj1 jjx jjT :

b/ =) c/: Die Behauptung folgt unmittelbar aus der absoluten Konvergenz, 1 X

D0

jjA jj 

1 X

D0

jjA jj < 1:

c/ =) d /: InP jedem mit einer Norm versehenen Vektorraum folgt aus der Konvergenz 1 einer Reihe j D0 xj die Konvergenz seiner Summanden gegen null, xj ! 0 .j ! 1/. d / =) a/: Wenn  2 C ein Eigenwert von A mit jj  1 ist, so erhält man mit einem zugehörigen Eigenvektor x 2 CN und für jede Vektornorm jj  jj W CN ! R jjA x jj D jj x jj D jj jjx jj  jjx jj beziehungsweise jjA jj  1 für  D 1; 2; : : : im Widerspruch zur Annahme d). Schließlich gilt unter den Bedingungen a)–d)

.I

A/

nX1

D0

A D

n X

.A

D0

AC1 / D I

woraus man die Darstellung (9.20) erhält. 2

siehe den Beweis von Lemma 8.15

An ! I

für n ! 1;

263

Abschnitt 9.2 Differenzenverfahren

Weitere Eigenschaften nichtnegativer Matrizen Es folgen einige Aussagen über nichtnegative Matrizen. Lemma 9.15. Für nichtnegative Matrizen S; T 2 R N N sind sowohl S C T 2 R N N als auch S T 2 R N N nichtnegative Matrizen. Weiter gilt für Matrizen S1 ; S2 2 R N N und T1 ; T2 2 R N N mit 0  S1  S2 und 0  T1  T2 auch 0  S1 T1  S2 T2 . Konvergente Folgen nichtnegativer Matrizen besitzen nichtnegative Grenzwerte. Beweis. Ist elementar und wird hier nicht geführt. Theorem 9.16. Für Matrizen S; T 2 R N N und  2 R gilt die folgende Implikation,

²

0  S  T;

 > r .T /

³

=)

²

 > r .S /; 0  .I S /

1

 .I

T/

1

:

³

(9.21)

P1

 Beweis. Zunächst wird der Spezialfall  D 1 > r .T / betrachtet. Es ist D0 S konvergent, denn unter Anwendung der Lemmata 9.10 und 9.15 sowie Theorem 9.14 erhält man

j

n1 X

Dn0

S j1  j

n1 X

Dn0

T  j 1 ! 0 für n0  n1 ;

n0 ; n1 ! 1:

Wiederum nach Theorem 9.14 folgt daraus 1 > r .S / sowie die Darstellbarkeit der P  Inversen der Matrix I S als neumannsche Reihe, .I S / 1 D 1 D0 S . Daraus resultiert schließlich der zweite Teil der Aussage (9.21) für den Spezialfall  D 1,

.I

S/

1

D

1 X

D0

S 

1 X

D0

T  D .I

T/

1

:

Die Aussage für die allgemeine Situation  > r .T / erhält man durch Betrachtung von  1 S und  1 T : es gilt  1 S   1 T sowie 1 > r . 1 T /, mit der schon bewiesenen Aussage (9.21) für den Spezialfall  D 1 erhält man die Regularität der Matrix I  1S sowie .I  1S / 1  .I  1 T / 1 und daraus wiederum unmittelbar die Aussage (9.21) in ihrer ganzen Allgemeinheit. Als unmittelbare Konsequenz erhält man das folgende Resultat. Theorem 9.17. Für Matrizen A; B 2 R N N mit 0  A  B gilt r .A/  r .B /. Beweis. Diese Aussage erhält man unmittelbar durch Anwendung von Theorem 9.16 für  D r .A/ C " mit " > 0; " ! 0. Das folgende Resultat für nichtnegative Matrizen wird im nachfolgenden Kapitel 10 benötigt.

264

Kapitel 9 Randwertprobleme

Theorem 9.18. Für jede Matrix B 2 R N N mit B  0 und jede Zahl  > 0 gilt die folgende Äquivalenz,

 > r .B / ”

²

I

B ist regulär;

.I

B/

1

 0:

³

(9.22)

Beweis. Die Implikation “=)” folgt unmittelbar aus Theorem 9.16 angewandt mit S D 0. Für den Nachweis der Implikation “(= ” wird zunächst der Spezialfall  D 1 betrachtet. Ist die Matrix I B regulär und gilt .I B / 1  0, so folgt 0

nX1

D0

D .I

B D

nX1

B  .I

B /.I

1

B/

D0

B n / .I B / 1  .I „ƒ‚… „ ƒ‚ … 0

B/

D 1

nX1

.B 

B C1 /.I

B/

1

D0

;

0

beziehungsweise insbesondere 0

Pn

nX1

D0

B   .I

B/

1

;

n D 1; 2; : : : :

Pn

1

P1

   Wegen D0 B  D0 B für n D 1; 2; : : : ist also D0 B notwendigerweise 3 konvergent und damit gilt die Ungleichung r .B / < 1. Die allgemeine Situation  > 0 für die Implikation “(= ” in der Aussage (9.22) lässt sich auf den Fall  D 1 zurückführen,

 > r .B / ” 1 > r . I

B regulär; .I

B/

1

0 ” I



1

1

B /;

B regulär; .I



1

B/

1

 0:

Dies komplettiert den Beweis des Theorems. Als Konsequenz aus Theorem 9.18 erhält man das folgende klassische Resultat. Theorem 9.19 (Satz von Perron). Für jede Matrix A 2 R N N mit A  0 ist die Zahl  D r .A/ ein Eigenwert von A. Beweis. Wäre die Matrix I ./

0  .. C "/I

A regulär, so ergäbe sich A/

1 ./

! .I

A/

1

für 0 < " ! 0;

wobei die Ungleichung ./ aus Theorem 9.18 resultiert, und ./ folgt mit Korollar 4.52 über die Stetigkeit der Matrixinversion. Daraus erhält man .I A/ 1  0 im Widerspruch zur Aussage von Theorem 9.18. 3

vergleiche Theorem 9.14

265

Abschnitt 9.3 Galerkin-Verfahren

9.2.5 Nachweis der Aussage in Teil a) von Theorem 9.11 Für den Nachweis der Aussage (9.16) betrachtet man die folgenden Matrizen D; D0 ; S und S0 2 R .N 1/.N 1/ ,

D D 2I C h2 diag .r1 ; : : : ; rN 0 1 B 0 B 2 C r1 h2 B B B 1 ♣♣ ♣♣ B ♣ ♣ B B 2 C r2 h2 B S DB B ♣♣ B ♣ 0 B B B B @ 1

1 /;

C C C C C C C C C; C 1 C C 2 2 C rN 2 h C C C C A

0

0

B B1 B S0 D B 2 B @

1 2

♣♣



♣♣



♣♣



♣♣



1 2

1

C C C C 1C 2A

0

0

2 1h

2 C rN

D0 D 2I; 1

und erhält damit die Darstellungen

A D D.I

S /;

A0 D D0 .I

S0 /:

¯

 ¹x W

Mit Lemma 9.13 erhält man

 .S0 / D

®

cos

k N



W k D 1; 2; : : : ; N

1

1 < x < 1 º;

und offensichtlich gilt 0  S  S0 , so dass nach Theorem 9.16 die Matrizen I und I S regulär sind und mehr noch 0  .I

S/

1

 .I

S0 /

1

gilt. Weiterhin sind die Matrizen D und D0 offensichtlich regulär mit D Insgesamt erhält man also die Regularität der Matrix A sowie 0A

1

D .I

S/

1

D

1

 .I

S0 /

S0

1

1

 D0 1 .

D0 1 D A0 1 ;

was den Beweis von Teil a) des Theorems 9.11 komplettiert. Bemerkung 9.20. Der vorgestellte Beweis lässt sich noch kompakter führen mithilfe der im anschließenden Kapitel behandelten Theorie der M-Matrizen (siehe insbesondere Aufgabe 10.7). M

9.3 Galerkin-Verfahren In dem vorliegenden Abschnitt werden Galerkin-Verfahren behandelt, die bei speziellen Problemstellungen und bei Verwendung geeigneter Ansatzräume bessere Approximationseigenschaften als Differenzenverfahren besitzen.

266

Kapitel 9 Randwertprobleme

9.3.1 Einführende Bemerkungen Im Folgenden wird der Ansatz für Galerkin-Verfahren zur approximativen Lösung von Randwertproblemen vorgestellt. Exemplarisch soll dies zunächst anhand des speziellen sturm-liouvilleschen Randwertproblems u00 C ru D '; u.a/ D u.b / D 0, mit der nichtnegativen Funktion r W Œa; b  ! R C geschehen4 . Hierzu wird dieses Randwertproblem als Operatorgleichung Lu D ' geschrieben mit

L W C Œa; b   DL ! C Œa; b ;

u ֏

u00 C ru;

DL D ¹u 2 C 2 Œa; b  W u.a/ D u.b / D 0 º;

µ

(9.23)

und im weiteren Verlauf bezeichne noch

h u; vii2 WD

Z b a

u.x /v.x / dx;

u; v 2 C Œa; b ;

(9.24)

das L2 -Skalarprodukt, und S  DL sei ein linearer Unterraum mit dim S < 1. Als Raum S kann hier beispielsweise der Raum der kubischen Splines mit natürlichen Randbedingungen verwendet werden. In der vorliegenden speziellen Situation ist die Galerkin-Approximation b s 2 S folgendermaßen erklärt5 :

b s 2 S;

h Lb s;

i 2 D h ';

i 2 für alle

2 S:

(9.25)

Interessiert ist man an der Verwendung von solchen Räumen S , für die einerseits der Fehler b s u bezüglich der L2 -Norm jj  jj2 oder anderer gängiger Normen möglichst klein ausfällt, und andererseits soll die zugehörige Galerkin-Approximation mit möglichst wenig Aufwand bestimmt werden können. Im weiteren Verlauf werden die folgenden Themen abgehandelt: 

Galerkin-Verfahren werden in einer allgemeinen Form und für eine große Klasse von Problemstellungen definiert sowie ihre Konvergenzeigenschaften behandelt (übernächster Abschnitt 9.3.3).



Die Bedeutung der in Abschnitt 9.3.3 erzielten Konvergenzresultate sollen anhand des sturm-liouvilleschen Differenzialoperators Lu D u00 Cru aus (9.23) erläutert werden. Die dafür benötigten Eigenschaften von L werden in dem nachfolgenden Abschnitt 9.3.2 hergeleitet.

9.3.2 Eigenschaften des Differenzialoperators Lu D

u00 C ru

Im Folgenden werden einige Eigenschaften des Differenzialoperators Lu D u00 C ru aus (9.23) vorgestellt. Als Erstes geht es darum, das anhand des Modellbeispiels aus (9.23) betrachtete Galerkin-Verfahren dahingehend sinnvoll zu verallgemeinern, dass eine Verwendung des Raums S der linearen Splinefunktionen infrage kommt, der aufgrund der fehlenden Differenzierbarkeitseigenschaften nicht in dem Definitionsbereich DL des sturm-liouvilleschen Differenzialoperators enthalten ist. Dabei ist 4 5

vergleiche (9.8)– (9.9) Die konkrete Art der Berechnung wird in Abschnitt 9.3.4 behandelt.

267

Abschnitt 9.3 Galerkin-Verfahren

die folgende symmetrische Bilinearform hilfreich,

ŒŒu; v WD

Z b a

.u0 v 0 C ruv/.x / dx;

u; v 2 C1 Œa; b ;

C1 Œa; b  D ¹u W Œa; b  ! R W u ist stückweise stetig differenzierbar º:

µ

(9.26)

Hierbei heißt eine Funktion u W Œa; b  ! R stückweise stetig differenzierbar, falls sie auf dem Intervall Œa; b  stetig ist und eine Zerlegung  D ¹a D x0 < x1 <    < xN D b º existiert, so dass auf jedem der offenen Teilintervalle .x0 ; x1 /; .x1 ; x2 /; : : : ; .xN 1 ; xN / die Ableitung der Funktion u existiert und dort eine stetige Funktion 1 darstellt. Das Symbol  in C Œa; b  bezieht sich nicht auf eine vorab festgelegte Zerlegung. Die Bedeutung des in (9.26) auftretenden Integrals mit stückweise stetig differenzierbaren Funktionen u; v wird klar mit der folgenden Setzung, Z b a

u0 .x /v 0 .x / dx D

M Z z X k

kD1

zk

u0 .x /v 0 .x / dx;

(9.27)

1

wobei die Zahlen a D z0 < z1 <    < zM D b so gewählt sind, dass die Funktion u0 v 0 auf jedem der offenen Teilintervalle .z0 ; z1 /; .z1 ; z2 /; : : : ; .zM 1 ; zM / definiert und stetig ist. Wegen der fehlenden Setzung der Funktion u0 v 0 an den Stellen z0 ; : : : ; zM sind die Integrale auf der rechten Seite von (9.27) als uneigentliche Integrale zu verstehen. Entsprechend istRfür stückweise stetig differenzierbare Funktionen u W Œa; b  ! R der Wert jju0 jj2 D . ab u0 .x /2 dx /1=2 zu verstehen. Mit dem folgenden Lemma wird der Zusammenhang zwischen der angegebenen Bilinearform und dem sturm-liouvilleschen Differenzialoperator L beschrieben: Lemma 9.21. Es gilt

ŒŒu; v D h Lu; vii2 für u 2 DL ;

®

v 2 D;

¯

(9.28)

1 mit D D u 2 C Œa; b  W u.a/ D u.b / D 0 :

Beweis. Auch für stückweise stetig differenzierbare Funktionen sind die Regeln der partiellen Integration anwendbar, und so erhält man

h Lu; vii2 D

Z b a

. u00 C ru/.x / v.x /dx D

D 0C

Z b a

b

.u0 v/.x /ja C

Z b a

.u0 v 0 C ruv/.x / dx

.u0 v 0 C ruv/.x / dx D ŒŒu; v:

Bemerkung 9.22. Man beachte, dass der Ausdruck ŒŒu; v auch für Funktionen u 2 DnDL definiert ist. Aufgrund der Identität (9.28) stellt die Bilinearform ŒŒ;  somit bezüglich des ersten Eingangs eine Fortsetzung der Bilinearform h L; ii2 dar. Diese

Eigenschaft ermöglicht die Erweiterung des in (9.25) anhand des sturm-liouvilleschen Differenzialoperators Lu D u00 Cru eingeführten Galerkin-Verfahrens auch auf solche Ansatzräume S  D , die nicht in DL enthalten sind (vergleiche Definition 9.29 unten). M

268

Kapitel 9 Randwertprobleme

Als unmittelbare Konsequenz aus Theorem 9.21 und der Symmetrie der Bilinearform ŒŒ;  erhält man die Symmetrie des sturm-liouvilleschen Differenzialoperators L. Korollar 9.23. Der sturm-liouvillesche Differenzialoperator L in (9.23) ist symmetrisch, es gilt also

h Lu; vii2 D h u; Lvii2 für u; v 2 DL : Beweis. Die Behauptung folgt unmittelbar aus Lemma 9.21,

h Lu; vii2 D ŒŒu; v D ŒŒv; u D h Lv; uii2 D h u; Lvii2 : In dem nächsten Theorem werden die (später benötigte) positive Definitheit der Abbildung u ֏ ŒŒu; u nachgewiesen und gängige obere und untere Schranken für ŒŒu; u hergeleitet. (Diese Schranken ermöglichen die Herleitung konkreter Fehlerabschätzungen für die Galerkin-Approximation.) Das folgende Lemma liefert hierfür die technischen Hilfsmittel. 1=2

Lemma 9.24. Mit der Notation jjujj2 D h u; uii2

gilt die friedrichsche Ungleichung

a/jju0 jj2 für u 2 C1 Œa; b  mit u.a/ D 0:

jjujj2  .b

(9.29)

Beweis. Aufgrund der Eigenschaft u.a/ D 0 gilt

u.x / D

Z x a

u0 .t / dt für x 2 Œa; b ;

(9.30)

da der Haupsatz der Differenzial- und Integralrechnung auch für stückweise stetig differenzierbare Funktionen gültig ist. Ausgehend von (9.30) liefert eine Anwendung der cauchy-schwarzschen Ungleichung die folgende Abschätzung,

u.x /2 

Z x a

12 dt 

Z x a

u0 .t /2 dt D .x

a/

Z x a

u0 .t /2 dt  .b

a/



D jju0 jj22 …„ ƒ

Z b a

u0 .t /2 dt

für x 2 Œa; b ; und die angegebene Ungleichung (9.29) resultiert nun unmittelbar aus der trivialen R Abschätzung jjv jj2 D . ab v.s/2 ds/1=2  .b a/1=2 jjv jj1 für v 2 C Œa; b .

Mithilfe des vorhergehenden Lemmas lassen sich obere und untere Schranken für ŒŒu; u herleiten, die die Grundlage für nachfolgende konkrete Fehlerabschätzungen darstellen. Theorem 9.25. Es gelten die Ungleichungen

jju0 jj22  ŒŒu; u  1 jju0 jj22 mit der Konstanten 1 D 1 C jjr jj1 .b

1 für u 2 C Œa; b  mit u.a/ D 0;

a/2.

(9.31)

269

Abschnitt 9.3 Galerkin-Verfahren

Beweis. Die angegebenen Ungleichungen erhält man folgendermaßen,

ŒŒu; u D ......

D

Z b a

./ Z b

..u0 /2 C ru2 /.s/ ds 

a

u0 .s/2 ds D jju0 jj22 ; ./

......

 jju0 jj22 C jjr jj1 jjujj22  1 jju0 jj22 ;

wobei die Abschätzungen ./ und ./ aus der Nichtnegativität r  0 beziehungsweise der friedrichschen Ungleichung resultieren. Die später benötigten Eigenschaften des speziellen Differenzialoperators Lu D C ru stehen nun allesamt zur Verfügung.

u00

9.3.3 Galerkin-Verfahren – ein allgemeiner Ansatz Galerkin-Verfahren lassen sich in den unterschiedlichsten Situationen einsetzen und werden hier daher in genügender Allgemeinheit betrachtet. Zunächst werden die entsprechenden Annahmen zusammengetragen. Voraussetzungen 9.26. a) In einem reellen Vektorraum V wird die lineare Gleichung

Lu D ' mit L W V  DL ! V linear;

'2V

betrachtet, wobei DL ein linearer Unterraum von V ist. Diese Gleichung Lu D ' besitze eine Lösung u 2 DL . Weiter sei h ; ii W V  V ! R eine Bilinearform auf V . b) Es bezeichne ŒŒ;  W D D ! R eine zweite Bilinearform auf einem linearen Unterraum D  V , wobei D eine Obermenge des Definitionsbereichs DL der Abbildung L darstellt, DL  D . Diese zweite Bilinearform ŒŒ;  sei positiv definit,

ŒŒu; u > 0 für 0 ¤ u 2 D; und zwischen den beiden genannten Bilinearformen bestehe der folgende Zusammenhang,

ŒŒu; v D h Lu; vii für u 2 DL ;

v 2 D:

(9.32)

Beispiel 9.27. Der im vorangegangenen Abschnitt 9.3.2 betrachtete Differenzialoperator Lu D u00 C ru erfüllt mit den in dem dortigen Zusammenhang betrachteten Bilinearformen die in Voraussetzung 9.26 genannten Bedingungen (mit den Notationen V D C Œa; b  und h ; ii D h ;  i 2 ). M Bemerkung 9.28. a) Unter den in Voraussetzung 9.26 genannten Bedingungen ist der Operator L notwendigerweise injektiv. Falls nämlich Lu D 0 erfüllt ist für eine Funktion u 2 DL , so gilt 0 D h Lu; uii D ŒŒu; u Ý u D 0:

270

Kapitel 9 Randwertprobleme

b) Die Abbildung D 3 u ֏ ŒŒu; u1=2 bezeichnet man als Energienorm. Tatsächlich erfüllt sie die Normeigenschaften, was offensichtlich ist im Fall einer symmetrischen Bilinearform ŒŒ; , die dann ein Skalarprodukt darstellt. Man kann aber auch für den nichtsymmetrischen Fall die Normeigenschaften der Energienorm nachweisen (Aufgabe 9.11). c) Die Eigenschaft (9.32) dient in den nachfolgenden Betrachtungen lediglich dazu, Galerkin-Verfahren in einer relativ allgemeinen Form zu erklären. Es existiert jedoch ein weiterer Anwendungsbereich, der hier kurz angesprochen werden soll. Aufgrund der Eigenschaft (9.32) stellt die Lösung u 2 DL der Operatorgleichung Lu D ' auch eine Lösung der Variationsgleichung finde u 2 D

mit ŒŒu; v D h '; vii

für alle v 2 D

(9.33)

dar. Diese Variationsgleichung (9.33) erlangt in denjenigen Anwendungen eine eigenständige Bedeutung, bei denen die Gleichung Lu D ' entgegen der Voraussetzung 9.26 nicht in D lösbar ist, die Variationsgleichung (9.33) jedoch eine Lösung u 2 D besitzt. Solche Lösungen bezeichnet man dann als verallgemeinerte oder schwache Lösung von Lu D ' . Die nachfolgenden Resultate gelten auch für schwache Lösungen. M Definition 9.29. Es seien die in Voraussetzung 9.26 genannten Bedingungen erfüllt. Zur approximativen Lösung der Gleichung Lu D ' ist für einen gegebenen linearen Unterraum S  D mit dim S < 1 die Galerkin-Approximation b s 2 S wie folgt erklärt,

b s 2 S;

ŒŒb s;

 D h ';

i für alle

2 S:

(9.34)

Dieses Verfahren wird als Galerkin-Verfahren beziehungsweise im Falle der Symmetrie der Bilinearform ŒŒ;  auch als Ritz-Verfahren bezeichnet. Bemerkung 9.30. a) Wenn S  DL gilt, so kann man (9.34) in der folgenden klassischen und der (aus dem in (9.25) angegebenen Beispiel) bereits bekannten Form schreiben,

b s 2 S;

h Lb s;

i D h ';

i für alle

2 S:

b) Die Galerkin-Approximation ist eindeutig bestimmt. Sind nämlich b s; s 2 S zwei Galerkin-Approximationen, so gilt insbesondere b s s 2 S und dann ŒŒb s s;b s s D 0, so dass aufgrund von Teil b) der Annahme 9.26 notwendigerweise b s D s gilt.

c) Wenn u 2 DL die Lösung der Gleichung Lu D ' bezeichnet, so gilt für jedes Element b s 2 S:

b s ist Galerkin-Approximation ” Œb s

u ;

 D 0 für alle

Dies folgt unmittelbar aus den Darstellungen (9.33) und (9.34).

2 S:

(9.35)

271

Abschnitt 9.3 Galerkin-Verfahren

d) Allgemeiner als in (9.34) kann man für lineare Räume S1  D und S2  V mit dim S1 D dim S2 < 1 Approximationen b s 2 S1 von der folgenden Form betrachten,

b s 2 S1 ;

ŒŒb s;

 D h ';

i für

2 S2 :

(9.36)

In diesem Zusammenhang wird S1 als Ansatzraum und S2 als Testraum bezeichnet. Bei Galerkin-Verfahren stimmen demnach Ansatz- und Testraum überein. M

Die folgende Minimaleigenschaft der Galerkin-Approximation bildet die Grundlage für die Herleitung konkreter Fehlerabschätzungen bei Galerkin-Verfahren. Man beachte, dass hier die Symmetrie der Bilinearform ŒŒ;  benötigt wird. Theorem 9.31. Es seien die in Voraussetzung 9.26 genannten Bedingungen erfüllt, und zusätzlich sei die Bilinearform ŒŒ;  W D  D ! R symmetrisch. Dann minimiert die Galerkin-Approximation b s 2 S in dem Raum S  D den Fehler bezüglich der Energienorm, es gilt also

Œb s

u ; b s

u  D min Œ s s2S

u ; s

u :

(9.37)

Beweis. Die Aussage erhält man durch folgende Rechnung, bei der s 2 S beliebig gewählt ist, D0 nach .9:35/

Œb s

u ; b s

u  D Œ s D Œs

u ; b s

u ; s

D

......



......

‚ s u  C Œb

u  C Œ s

:

Œb s „

…„ ƒ s; b s u  u ; b s



s; b s s  C Œb s ƒ‚ … „  0

u ; b s ƒ‚ D0

s …

Die in Theorem 9.31 vorgestellte Minimaleigenschaft der Galerkin-Approximation bezüglich der Energienorm ist ein erster Schritt zur Herleitung konkreter Fehlerabschätzungen für das Galerkin-Verfahren. Ausgangspunkt weiterer Fehlerabschätzungen ist das folgende triviale Resultat, das man in den Anwendungen typischerweise mit speziellen Normen jjj  jjj W D ! R C einsetzt. Theorem 9.32. Es seien die in Voraussetzung 9.26 genannten Bedingungen erfüllt mit einer symmetrischen Bilinearform ŒŒ; , und bezüglich einer nichtnegativen Abbildung jjj  jjj W D ! R C gelte

c1 jjjujjj2  ŒŒu; u  c2 jjjujjj2 für alle u 2 D

mit gewissen Konstanten c2  c1 > 0. Dann gilt

jjjb s

u jjj  c min jjjs s2S

u jjj mit c D

r

c2 : c1

(9.38)

(9.39)

272

Kapitel 9 Randwertprobleme

Beweis. Die Aussage folgt unmittelbar aus der Eigenschaft (9.37). In der Situation (9.39) nennt man das Galerkin-Verfahren quasioptimal bezüglich jjjjjj, da die Galerkin-Approximation bis auf einen konstanten Faktor aus dem Raum S die optimale Approximation an u darstellt. Auch für nichtsymmetrische Bilinearformen ŒŒ;  erhält man unter vergleichbaren Bedingungen die Quasioptimalität der Galerkin-Approximation. Theorem 9.33 (Lemma von Céa). Es seien die in Voraussetzung 9.26 genannten Bedingungen erfüllt und bezüglich einer Abbildung jjj  jjj W D ! R C gelte

c1 jjjujjj2  ŒŒu; u für u 2 D;

ŒŒu; v  c2 jjjujjjjjjvjjj für u; v 2 D

mit gewissen Konstanten c2  c1 > 0. Dann gilt jjjb s u jjj  c mins2S jjjs c2 , das Galerkin-Verfahren ist also quasioptimal bezüglich jjj  jjj. c

cD

(9.40)

u jjj mit

1

Beweis. Die Aussage erhält man durch folgende Rechnung, bei der s 2 S beliebig gewählt ist, ./

u jjj2  Œb s

c1 jjjb s

D Œb s

./

u ; b s

u ; s

 c2 jjjb s

u  u  C Œb s „

u jjjjjjs

u jjj;

u ; b s ƒ‚ D0

s …

wobei man die Abschätzungen ./ und ./ jeweils unmittelbar aus den Bedingungen in (9.40) erhält. Eine Division durch jjjb s u jjj liefert nun (im Fall jjjb s u jjj ¤ 0, andernfalls ist die Aussage sowieso trivial) die Quasioptimalität. Bemerkung 9.34. Typischerweise ist in Theorem 9.33 die Abbildung jjj  jjj eine Norm, und die erste der beiden Bedingungen in (9.40) wird dann als Koerzivität der Bilinearform ŒŒ;  bezüglich jjj  jjj bezeichnet. Die zweite Bedingung in (9.40) stellt eine Beschränktheitsbedingung an die Bilinearform ŒŒ;  dar. M

9.3.4 Systemmatrix Zur konkreten Berechnung der Galerkin-Approximation benötigt man noch eine Basis für den Raum S : Lemma 9.35. Es seien die in Voraussetzung 9.26 genannten Bedingungen erfüllt und PN das System s1 ; : : : ; sN 2 S bilde eine Basis von S . Es ist das Element s D kD1 ck sk 2 S mit den Koeffizienten c1 ; : : : ; cN 2 R genau dann Galerkin-Approximation, wenn die Koeffizienten c1 ; : : : ; cN 2 R dem folgenden linearen Gleichungssystem genügen,

0 B B B B B @

ŒŒs1 ; s1  ♣ ♣ ♣ ŒŒsN ; s1 

10

c1

1

0

h '; s1 i

1

CB C B C CB C B C ♣ ♣ C B C B C ♣♣ ♣♣ C B ♣♣ C D B C: ♣ CB C B C [email protected] A @ A ŒŒs1 ; sN  ♣ ♣ ♣ ŒŒsN ; sN  cN h '; sN i ♣♣ ♣

♣ ♣♣

(9.41)

273

Abschnitt 9.3 Galerkin-Verfahren

Beweis. Nach Definition (9.34) ist mit der gegebenen Basis von S ein Element s 2 S genau dann Galerkin-Approximation, wenn s 2 S und ŒŒs; sj  D h '; sj i für j D 1; 2;

: : : ; N gilt. Mit dem Ansatz s D N X

kD1

PN

kD1 ck sk

2 S ist dies gleichbedeutend mit

ŒŒsk ; sj ck D h '; sj i ;

j D 1; 2; : : : ; N:

Die Matrixversion hierzu ist identisch mit (9.41).

Bemerkung 9.36. a) Die in (9.41) auftretende Matrix wird als Systemmatrix oder auch als Steifigkeitsmatrix bezeichnet und ist regulär aufgrund der Eindeutigkeit der Galerkin-Approximation (siehe Teil b) von Bemerkung 9.30). Daraus erhält man auch unmittelbar die Existenz der Galerkin-Approximation. b) Das Gleichungssystem (9.41) stellt lediglich eine “Halbdiskretsierung” der gegebenen Operatorgleichung Lu D ' dar, denn sowohl die Einträge in der Systemmatrix als auch die Komponenten des Vektors auf der rechten Seite des Gleichungssystems sind in der Regel nicht exakt bekannt und müssen numerisch berechnet werden. Im Fall der beiden speziellen Bilinearformen aus Voraussetzung 9.26 kann dies beispielsweise mittels Quadraturformeln geschehen. Allgemein bezeichnet man solche Verfahren, bei denen die Einträge in der Systemmatrix beziehungsweise der rechten Seite des Gleichungssystems (9.41) durch exakt auswertbare Näherungsformeln approximiert werden, als volldiskrete GalerkinVerfahren. M

9.3.5 Finite-Elemente-Methode In der Praxis ist der zugrunde liegende Raum V typischerweise ein Funktionenraum und man verwendet als Basis des zum Galerkin-Verfahren gehörenden Raums S oft Funktionen s1 ; : : : ; sN 2 S mit einem jeweils kleinen Träger, es gilt also sk D 0 außerhalb einer vom jeweiligen Index k abhängenden Menge und sk  sj D 0 für einen Großteil der Indizes. In diesem Fall wird das zugehörige Galerkin-Verfahren auch als Finite-Elemente-Methode bezeichnet.

Beispiel 9.37. Zu der Zerlegung  D ¹a D x0 < x1 <    < xN D b º eines Intervalls Œa; b  sei S der Raum der linearen Splines, S D S;1 . Eine Basis dieses .N C 1 /dimensionalen Vektorraums erhält man durch Hutfunktionen (lineare B-Splines), die folgendermaßen erklärt sind,

8 1 .x xj 1 /; falls x 2 Œxj 1 ; xj ; ˆ ˆ < hj 1 1 sj .x / D .xj C1 x /; falls x 2 Œxj ; xj C1 ; hj ˆ ˆ : 0

sonst

9 > > = > > ;

j D 0; 1; : : : ; N;

(9.42)

274

Kapitel 9 Randwertprobleme

wobei hj D xj C1 xj ; j D 0; 1; : : : ; N 1 die Knotenabstände bezeichnet. In (9.42) sind in den Fällen “j D 0” beziehungsweise “j D N ” die Situationen “x 2 Œx 1 ; x0 ” beziehungsweise “x 2 ŒxN ; xN C1 ” ohne Relevanz. Die vorliegende Situation ist in Abb. 9.2 veranschaulicht.

1

0

..... ........ .... .. ...

s0.

s1

s2

s3

s4

s5

.... .... ... .... ........ ....... .... ... ... ... .... .... .. .... .............. ....... ... ....... ... .... ..... ....... ... ... ... ...... .... ........ ... ....... ... ... .... .... .... .... ....... .... .... ....... .... ... ... ... ... ... ....... ... ....... . .... ...... . . . . . . . . . . . . . . . . . . . . . . .... ....... ....... ....... ..... ....... . . .... .......... ..... ..... ........ ....... .............. .... ...... ... .. ... ... .... ....... ....... ....... .... .... .. ... .. ... ....... ....... .... .... .... .... ... .... .... .... ........ ....... ... . . . . . ... . . . . . . . . . . . . . . . . . . ... .. ....... ... ... ... ... .. . .. .... .. ....... .... ............. ...... ........ .... .................................... ... ...... ... . . ...

a D x0

x1

x2 x3

x4

x

x5 D b

Abb. 9.2: Darstellung der Hutfunktionen an einem Beispiel

Für das Referenzbeispiel (9.23) mit den homogenen Randbedingungen verwendet man sinnvollerweise Räume S mit in den Randpunkten a und b verschwindenden Funktionen, beispielsweise also den Raum der linearen Splines S;1 mit Nullrandbedingungen, S D ¹s 2 S;1 W s.a/ D s.b / D 0 º. Eine Basis dieses .N 1 /-dimensionalen Vektorraums bilden die Hutfunktionen s1 ; : : : ; sN 1 . M

Beispiel 9.38. Mit der Notation xj D a C j h 2 R für j D 3; 2; : : : ; N C 3 mit h D bN a sei S der Raum der kubischen Splines zur äquidistanten Zerlegung  D ¹a D x0 < x1 <    < xN D b º des Intervalls Œa; b . Eine Basis dieses .N C 3 /dimensionalen Vektorraums S D S;3 erhält man beispielsweise, indem man hilfs-

b D ¹x 3 < x 2 <    < weise auf dem Intervall Œx 3 ; xN C3  und zur Zerlegung  xN C3 º die eindeutig bestimmten kubischen Splinefunktionen s 1 ; s0 ; : : : ; sN ; sN C1 2 1 2 Sb ; 3 mit natürlichen Randbedingungen und den Werten sj .xj / D 3 ; sj .xj ˙1 / D 6 und sj .x` / D 0 in den restlichen Knoten heranzieht. Bei diesen Funktionen handelt es sich um spezielle kubische B-Splines, deren explizite Form beispielsweise in Oevel [79] angegeben ist. Durch Einschränkung der Definitionsbereiche dieser B-Splines auf das Intervall Œa; b  erhält man eine Familie von Funktionen, die eine Basis von S D S;3 darstellt. Die vorliegende Situation ist in Abb. 9.3 veranschaulicht. Ist bei Verwendung der Finite-Elemente-Methode der zugrunde liegende Operator L ein Differenzialoperator, so besitzt die zugehörige Systemmatrix bei richtiger Anordnung der Basiselemente typischerweise eine Bandstruktur, so dass sich das entsprechende Gleichungssystem (9.41) mit verhältnismäßig geringem Aufwand lösen lässt. Die Situation wird im nachfolgenden Abschnitt verdeutlicht.

275

Abschnitt 9.3 Galerkin-Verfahren

2=3

s0

...... ....... ..

1=6

s

0

x

1

s1

s3

s2

s4

s5

.......... ..... ......... ......... ........................ .......... ........ ............ ..... ....... ........... ....... ........... ..... ..... .... .... .... ..... .... .... .... ... ... .... .... .... .... ... ... .... .... .... ... ..... ... ..... ... ..... ... ..... ... ..... ... ... ... .. ... ... ... ... . . . . . . . . .... ..... .... ... .... .... ...... ...... ...... ...... .. .... ... ..... ... ..... ... ..... ... ..... ... ..... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... . . . . ... . . . . . . . ... . ... ... ... . . . . . ... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .. ... .. ... . . ... .... . . . . . ... ... .. ... .. ... .. ... ... .. ... . . . . . . . . . . . . . ..... ..... ..... ..... . ..... . . . . . . . . . . . . . ... . . . . . . ..... ... ........ .. ........ ... ....... ... ....... .... . . . . . . . . . ..... . . . . . . . . . . ...... ...... ...... ...... .... .... .... . ..... . . . . . 1 ............. ............... . . . . . . . ....... . . . . . . . . . . . . . . . . . . . . ........ ........ ........ ........ ........ ........ ..................... .................. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..................................... ..................................... ................... ..................................... .................................... ...................

s6

x0 D a

x1

x2

x3

x4

x5 D b

..................

x

x6

Abb. 9.3: Darstellung von kubischen B-Splines anhand eines Beispiels (N D 5)

9.3.6 Anwendungen Im Folgenden wird nun wieder das spezielle sturm-liouvillesche Randwertproblem aus Abschnitt 9.3.1 betrachtet: Es bezeichne L W C Œa; b   DL ! C Œa; b  den speziellen Differenzialoperator aus (9.23). Weiter bezeichnet h ; ii2 das L2 -Skalarprodukt (siehe 1 Œa; b   C1 Œa; b  ! R sei die Bilinearform (9.26). Die (9.24)), und ŒŒ;  W C Gleichung Lu D ' besitze eine Lösung u 2 DL .

(9.43)

Ausgehend von der in (9.43) beschriebenen Situation werden nun die Approximationseigenschaften des Galerkin-Verfahrens bezüglich spezieller Ansatzräume S vorgestellt. Vorbereitend wird die folgende allgemeine Abschätzung festgehalten, die eine unmittelbare Konsequenz aus den bereits gewonnenen Resultaten ist. Korollar 9.39. Ausgehend von der in (9.43) beschriebenen Situation sei zu einem vor1 gegebenen Ansatzraum S  D D ¹u 2 C Œa; b  W u.a/ D u.b / D 0 º die zugehörige Galerkin-Approximation mit b s 2 S bezeichnet. Hier gilt die folgende Fehlerabschätzung,

jjb s0

mit  D . 1 C jjr jj1 .b

u0 jj2   min jjs 0 s2S

u0 jj2

(9.44)

a/2 /1=2 .

Beweis. Die Aussage folgt unmittelbar aus den Theoremen 9.25, 9.31 und 9.32. Im Folgenden werden für S lineare beziehungsweise kubische Splineräume mit Nullrandbedingungen herangezogen. Für die Abschätzung der rechten Seite von (9.44) lassen sich in dieser Situation die bereits bekannten Schranken für den jeweils bei der Interpolation auftretenden Fehler verwenden. Korollar 9.40. Zu einer gegebenen Zerlegung  D ¹a D x0 < x1 <    < xN D b º bezeichne S den Raum der linearen Splinefunktion mit Nullrandbedingungen,

S D ¹s 2 S;1 W s.a/ D s.b / D 0 º:

(9.45)

276

Kapitel 9 Randwertprobleme

Mit den Notationen aus (9.43) gilt für die zugehörige Galerkin-Approximation b s 2S die folgende Abschätzung,

jjb s0

u0 jj2  chmax jju00 jj1

mit einer Konstanten c  0, wobei u 2 C 2 Œa; b  angenommen wird. Beweis. Dieses Resultat erhält man als unmittelbare Konsequenz aus Korollar 9.39 unter Berücksichtigung von Aufgabe 2.10. Bemerkung 9.41. In der Situation von Korollar 9.40 ist man auch an Abschätzungen für den Fehler b s u interessiert, die aber mit den in diesem Abschnitt hergeleiteten Techniken nicht mit der optimalen Ordnung hergeleitet werden können. Mit einer etwas genaueren Wahl der zugrunde liegenden Räume und mit einer verfeinerten Technik (die als Dualitäts- oder Aubin-Nitsche-Trick bezeichnet wird) lässt sich aber für das Galerkin-Verfahren mit dem Ansatzraum aus (9.45) zur Lösung des sturmliouvilleschen Randwertproblems mit homogenen Randbedingungen (9.8)–(9.9) die M Abschätzung jjb s u jj2 D O.h2max / nachweisen. In der vorliegenden Situation (9.43), (9.45) mit den Hutfunktionen s1 ; : : : ; sN 1 (siehe Beispiel 9.37) als Basis von S soll noch die zugehörige Systemmatrix betrachtet werden. Wegen sk sj D 0 für jk j j  2 gilt auch

ŒŒsk ; sj  D 0 für jk

j j  2;

so dass die zugehörige Systemmatrix eine Tridiagonalmatrix darstellt, deren Einträge folgendes Aussehen besitzen:

ŒŒsj ; sj

1 

D ŒŒsj

1 ; sj

D h j ŒŒsj ; sj  D

1

hj

1

C

C mit hj D xj C1

2

1

1

hj



1

1

1

1 2

hj

1

Z x j xj

Z x j xj

Z x j C1

h2j xj

.x

xj

1 /.xj

x /r.x / dx; j D 2; 3; : : : ; N

1

.x

xj

1

.xj C1

1/

2

r.x / dx C

x /2 r.x / dx;

xj für j D 0; 1; : : : ; N

1;

1

hj

j D 1; 2; : : : ; N

1;

1.

Beispiel 9.42. Für die spezielle Situation (9.23)–(9.26) werde zu der Zerlegung  D ¹a D x0 < x1 <    < xN D b º der Raum S der kubischen Splines mit Nullrandbedingungen betrachtet,

® ¯ S D s 2 S;3 W s.a/ D s.b / D 0 :

Mit der Notation hj D xj C1 xj für j D 0; 1; : : : ; N max

j D0;:::;N 1

hj  K

min

1 sei die Uniformitätsbedingung

j D0;:::;N 1

hj

277

Abschnitt 9.3 Galerkin-Verfahren

erfüllt mit einer Konstanten K  0 von moderater Größe. Dann gilt für die zugehörige Galerkin-Approximation b s 2 S die folgende Abschätzung,

jjb s0

.4/

u0 jj2  ch3max jju jj1

.hmax WD

max

j D0;:::;N 1

hj /;

mit der Konstanten c D . 1 C jjr jj1 .b a//1=2 2K , wobei u 2 C 4 Œa; b  und u00 .a/ D u00 .b / D 0 vorausgesetzt wird. Dieses Resultat ist eine unmittelbare Konsequenz aus Korollar 9.39 und Theorem 2.16, wobei man in (9.44) den die Funktion u interpolierenden kubischen Spline s mit natürlichen Randbedingungen betrachtet. M Bemerkung 9.43. Auch in der Situation von Beispiel 9.42 ist man an Abschätzungen für den Fehler b s u interessiert. Unter leicht modifizierten Bedingungen lässt sich auch hier mit dem bereits angesprochenen Aubin-Nitsche-Trick die Abschätzung jjb s u jj2 D O.h4max / nachweisen. M

9.3.7 Das Energiefunktional Als Ergänzung zu der in der Voraussetzung 9.26 beschriebenen allgemeinen Situation wird im Folgenden das Energiefunktional vorgestellt, mit dem sich einerseits die Lösung der Gleichung Lu D ' und andererseits die zugehörige Galerkin-Approximation charakterisieren lassen. Definition 9.44. In der Situation von Voraussetzung 9.26 ist das zugehörige Energiefunktional J W D ! R folgendermaßen erklärt,

J.u/ D 12 ŒŒu; u

h u; ' i für u 2 D:

Das folgende Theorem zeigt, dass sich der Wert des Energiefunktionals nur um eine Konstante von dem Fehler in der Energienorm unterscheidet. Theorem 9.45. Es seien die in Voraussetzung 9.26 genannten Bedingungen erfüllt mit einer symmetrischen Bilinearform ŒŒ; . Dann gilt

J.u/ D

1 2

ŒŒu

u ; u

u 

ŒŒu ; u 



für u 2 D;

wobei wieder u 2 DL die Lösung der Gleichung Lu D ' bezeichnet. Beweis. Man erhält die Aussage des Theorems durch folgende Rechnung, 2J.u/ D ŒŒu; u

D ŒŒu; u D Œu

2h u; ' i D ŒŒu; u

2h u; Lu i D ŒŒu; u

2ŒŒu; u  C ŒŒu ; u 

u ; u

u 

ŒŒu ; u ;



2ŒŒu; u 

ŒŒu ; u  u 2 D:

Als unmittelbare Konsequenz der Theoreme 9.31 und 9.45 erhält man die folgende Minimaleigenschaft.

278

Kapitel 9 Randwertprobleme

Korollar 9.46. In der Situation von Theorem 9.45 gilt

J.u / D min J.u/ D u2D

1 ŒŒu ; u ; 2

J.b s / D min J.s/; s2S

wobei b s 2 S die Galerkin-Approximation zu einem gegebenem Ansatzraum S bezeichnet.

Bemerkung 9.47. Die Ergebnisse in Theorem 9.45 und Korollar 9.46 behalten ihre Gültigkeit für den Fall, dass die Gleichung Lu D ' entgegen der Annahme 9.26 nicht in DL lösbar ist, jedoch eine verallgemeinerte Lösung u 2 D existiert. Demnach ist ein Element u 2 D genau dann verallgemeinerte Lösung der Gleichung Lu D ' , wenn es das Energiefunktional minimiert. M

9.4 Einfachschießverfahren Eine weitere Möglichkeit zur Lösung von Randwertproblemen bei gewöhnlichen Differenzialgleichungen bietet das im Folgenden vorgestellte Einfachschießverfahren, das anhand des allgemeinen Randwertproblems u00 D f .x; u; u0 /; u.a/ D ˛; u.b / D ˇ betrachtet wird6 . Im Folgenden wird ohne weitere Spezifikation an die Funktion f beziehungsweise an die Randbedingungen angenommen, dass für das vorliegende Randwertproblem eine eindeutig bestimmte Lösung u W Œa; b  ! R existiert. Ausgangspunkt des Einfachschießverfahrens ist die Betrachtung korrespondierender Anfangswertprobleme für die vorliegende gewöhnliche Differenzialgleichung 2. Ordnung,

u00 D f .x; u; u0 /; u.a/ D ˛;

0

x 2 Œa; b ;

u .a/ D s;

(9.46) (9.47)

deren Lösung für jede Zahl s 2 R existiere und mit

u.; s/ W Œa; b  ! R

(9.48)

bezeichnet wird. Dabei ist s D s 2 R so zu bestimmen, dass u.b ; s / D ˇ gilt und damit die Funktion u.; s / W Œa; b  ! R die Lösung des vorgegebenen Randwertproblems u00 D f .x; u; u0 /; u.a/ D ˛; u.b / D ˇ darstellt, also u.; s / D u./ auf dem Intervall Œa; b  erfüllt ist. Diese Bestimmung von s erfolgt typischerweise iterativ, was die Bezeichnung Einfachschießverfahren begründet und in Abb. 9.4 illustriert ist. Die nach dem vorliegenden Ansatz entstandene Problemstellung ist äquivalent zu einer Bestimmung der (eindeutig bestimmten) Nullstelle s 2 R der nichtlinearen Funktion

F .s/ WD u.b ; s/ 6

vergleiche (9.2)–(9.3) auf Seite 254

ˇ;

s 2 R:

(9.49)

279

Abschnitt 9.4 Einfachschießverfahren

u .... ........ ...

˛ ˇ

u.; 1 /

........................ ..... ....... .... .... .... ... ............................................. ... ................................. ............. . . ... .......... ............... . ......... ... . ........ ............................................... ... . ....... ..... ............... .. . . . . . . . . .. ...... .... ......... . .. . . . . . . . . . ...... ... .. ... ...... ... .. ..... ... .. . ..... ... .. ..... ... ..... ... ..... .. . . . . .. .. ........ . .. .. ........ .. . .. ... .. .. ..

u.; 0:5 /

u.; s /Du./ .........................................

a

x

b

Abb. 9.4: Veranschaulichung der Situation beim Einfachschießverfahren Zur näherungsweisen Lösung dieses Nullstellenproblems lassen sich die in Kapitel 5 vorgestellten Iterationsverfahren einsetzen, von denen im Folgenden zwei Verfahren genauer betrachtet werden.

9.4.1 Numerische Realisierung des Einfachschießverfahrens mit dem Newton-Verfahren Eine Möglichkeit zur numerischen Realisierung des Einfachschießverfahrens besteht in der Anwendung des Newton-Verfahrens,

snC1 D sn

F . sn / ; F 0 . sn /

n D 0; 1; : : : :

(9.50)

Dabei sind in jedem Schritt des Newton-Verfahrens (9.50) zum einen eine Auswertung der Funktion F und damit das Lösen eines Anfangswertproblems der Form (9.46)–(9.47) erforderlich, was wiederum numerisch mit einem der in den Kapiteln 7 und 8 vorgestellten Ein- beziehungsweise Mehrschrittverfahren geschieht. Des Weiteren fällt in jedem Schritt des Newton-Verfahrens (9.50) eine Auswertung der Ableitung

F 0 .s/ D @u .b ; s/; @s

s 2 R;

an. An jeder Stelle s erhält man eine solche Ableitung F 0 .s/ als die Lösung eines Anfangswertproblems für eine (von s abhängende) gewöhnliche Differenzialgleichung 2. Ordnung: Lemma 9.48. Bei hinreichend guten Differenzierbarkeitseigenschaften der beteiligten Funktionen stellt für jeden Wert s 2 R die Funktion

v WD @u .; s/ W Œa; b  ! R @s die Lösung eines Anfangswertproblems für eine spezielle lineare gewöhnliche Differenzialgleichung 2. Ordnung dar,

v 00 .x / D g1 .x; s/v.x / C g2 .x; s/v 0 .x /; v.a/ D 0;

x 2 Œa; b ;

v 0 .a/ D 1:

(9.51)

280

Kapitel 9 Randwertprobleme

Die spezielle Form der Funktionen g1 .; s/; g2 .; s/ W Œa; b  ! R ist im Beweis angegeben. Beweis. Die Aussage erhält man unter Anwendung der Kettenregel,

 d @3 u .x ; s/ D f x; u.x ; s/; @u .x ; s/ 2 @x ds @[email protected]   0 @f @f @u .x ; s/ D @u x; u.x ; s/; @x .x ; s/ v.x / C 0 x; u.x ; s/; @u v .x /; x 2 Œa; b ; @x @u ƒ‚ … „ „ ƒ‚ … DW g1 .x; s/ DW g2 .x; s/

v 00 .x / D

beziehungsweise

u.a; /  ˛ Ý v.a/ D 0;

@u .a; s/ @x

D s Ý v 0 .a/ D 1:

Zu beachten ist noch, dass die im Anschluss von (9.50) beschriebene Anwendung spezieller Ein- oder Mehrschrittverfahren zur numerischen Berechnung von F .s/ .; s/ auf einem Gitgleichzeitig Approximationen für die Funktionen u.; s/ und @u @x ter a D x0 < x1 <    < xm D b liefert. Damit sind auch die Werte der Funktionen g1 .; s/ und g2 .; s/ an den genannten Gitterpunkten näherungsweise bekannt, was die approximative Lösung des Anfangswertproblems (9.51) mittels spezieller Einoder Mehrschrittverfahren bezüglich des gleichen Gitters ermöglicht.

9.4.2 Numerische Realisierung des Einfachschießverfahrens mit einer Fixpunktiteration Eine weitere Möglichkeit zur numerische Realisierung des Einfachschießverfahrens besteht in der Anwendung einer Fixpunktiteration,

snC1 D sn

F .sn /;

n D 0; 1; : : : ;

(9.52)

mit einem Startwert s0 2 R und einem Parameter > 0. In Aufgabe 9.14 sind Bedingungen angegeben, die eine Kontraktionseigenschaft und damit Konvergenz der Fixpunktiteration (9.52) gewährleisten.

Weitere Themen und Literaturhinweise Die Theorie der Randwertprobleme für gewöhnliche Differenzialgleichungssysteme wird beispielsweise in Heuser [54] und in Dallmann/Elster [14] einführend behandelt. Dort findet man auch zahlreiche Beispiele für spezielle Randwertprobleme. Eine Auswahl existierender Lehrbücher mit Abschnitten über die numerische Lösung von Randwertproblemen bildet Emmrich [23], Golub/Ortega [37], Kress [63], Schwarz/Köckler [97], Freund/Hoppe [31] und Weller [111]. Ausführliche Erläuterungen über die Finite-Elemente-Methode in mehreren Raumdimensionen zur Lösung von Randwertproblemen für partielle Differenzialgleichungen findet man beispielsweise in Bärwolff [11], Braess [6], Goering/Roos/Tobiska [33], Großmann/Roos [43],

281

Übungsaufgaben

Hanke-Bourgeois [52], Knabner/Angermann [61], Jung/Langer [59], Suttmeier [105] und in Schwetlick/Kretzschmar [99]. Den Aubin-Nitsche-Trick zur Herleitung von Fehlerabschätzungen für das Galerkin-Verfahren findet man in [6] oder Finckenstein [25], Band 2. Die Theorie der nichtnegativen Matrizen wird beispielsweise in Berman /Plemmons [3] und in Horn/Johnson [58] behandelt. Einfachschießverfahren lassen sich problemlos auf allgemeinere Randwertprobleme (etwa mit nichtlinearen Randbedingungen) übertragen. Gelegentlich stellen sich bei Einfachschießverfahren jedoch Instabilitäten gegenüber Datenstörungen ein (dieser Effekt wird in Aufgabe 9.15 anhand eines Randwertproblems für eine einfache lineare Differenzialgleichung 2. Ordnung demonstriert), weswegen in der Praxis auch Mehrfachschießverfahren eingesetzt werden, die hier jedoch nicht weiter behandelt werden. Eine Einführung hierzu findet man etwa [31], wo auch ein Vergleich der einzelnen zur Lösung von Randwertproblemen bei gewöhnlichen Differenzialgleichungen verwendeten Verfahren angestellt wird.

Übungsaufgaben Aufgabe 9.1. Bestimmen Sie Zahlen ˛; ˇ 2 R, so dass für u 2 C 5 Œa; b Folgendes gilt:

u000 .x/ D 1 3 u.x C 2h/

ˇu.x C h/ C ˇu.x

˛h

h/

u.x



2h/ C O.h2 /

für a < x < b und für h > 0 hinreichend klein. Aufgabe 9.2. Im Folgenden wird das Randwertproblem

u00 . x / C p . x /u0 . x / C r . x /u. x / D ' . x /; u. a / D ˛;

x 2 Œa; b;

u. b / D ˇ;

betrachtet mit Zahlen ˛; ˇ 2 R und Funktionen p; r; ' 2 C Œa; b mit r . x /  0 für x 2 Œa; b. Approximation der Ableitungen u0 und u00 durch zentrale Differenzenquotienten erster beziehungsweise zweiter Ordnung auf einem äquidistanten Gitter xj D a C j . b a /=N für j D 1; 2; : : : ; N 1 führt mit einer gewissen Matrix A 2 R .N 1/.N 1/ und einem gewissen Vektor N 1 b2R auf ein lineares Gleichungssystem Av D b für v D .v1 ; v2 ; : : : ; vN 1 /> 2 R N 1 , mit den Näherungen vj  u. xj /. Man gebe A und b an und zeige, dass das Gleichungssystem für hinreichend kleine Werte von h eindeutig lösbar ist. Aufgabe 9.3. Für eine Matrix A 2 R N N sei eine reguläre Zerlegung gegeben, also eine Zerlegung der Form

ADB

B; P 2 R N N ;

P;

B regulär;

B

1

 0;

P  0:

Dann gilt die folgende Äquivalenz:

A regulär;

A

1

0 ” I

B

1

P regulär;

Ist eine dieser beiden Bedingungen erfüllt, so gilt r .B

1

.I

B

1

P/

1

 0:

P / < 1.

N N

Aufgabe 9.4. Eine Matrix A 2 R sei regulär mit einer nichtnegativen Inversen, A Man zeige: für jede reguläre Zerlegung A D B P der Matrix A gilt

r .B

1

P/D

r .A 1 P / : 1P /

1 C r .A

1

 0.

282

Kapitel 9 Randwertprobleme

Aufgabe 9.5. Gegeben sei eine reguläre Matrix A 2 R N N mit A 1  0 und zwei regulären Zerlegungen A D B1 P1 D B2 P2 , wobei P1  P2 gelte. Man weise die Ungleichungen r .B1 1 P1 /  r .B2 1 P2 / < 1 nach. Aufgabe 9.6. Für eine Funktion ' 2 C Œ 0; 1  betrachte man das Randwertproblem

u00 D ' . x /;

u. 0 / D u. 1 / D 0:

(9.53)

a) Man zeige, dass sich die Lösung von (9.53) in der Form

u. x / D

Z

1 0

G.x;  /'. / d ;

x 2 Œ 0; 1 ;

schreiben lässt mit der greenschen Funktion

G.x;  / D

²

.x x.

1 /; 1 /;

falls   x; sonst.

b) Die Funktionen u beziehungsweise u C u seien Lösungen des Randwertproblems (9.53) beziehungsweise der fehlerbehafteten Version

.u C u/00 D ' C ' auf Œ 0; 1 ;

.u C u/. 0 / D .u C u/. 1 / D 0;

mit ' 2 C Œ 0; 1 ; j' . x / j  " für x 2 Œ 0; 1 . Man zeige ju. x / j 

" 2

x. 1

x / für x 2 Œ 0; 1 .

c) Das Differenzenverfahren mit zentralen Differenzenquotienten zweiter Ordnung liefert als Lösung eines lineares Gleichungssystems A0 v D b Näherungswerte vj für u. xj / mit xj D j 1: Für die fehlerbehaftete Variante N ; j D 1; 2; : : : ; N

A0 .v C v/ D b C b mit b 2 R N

1

;

jj b jj1  "

weise man Folgendes nach,

jvj j  2" xj . 1

xj / für j D 1; 2; : : : ; N

Aufgabe 9.7. Die lineare Abbildung  W R N C1 ! R N

.v/j WD bj vj

1

1

aj vj C cj vj C1 ;

1:

sei definiert durch

j D 1; 2; : : : ; N

mit Koeffizienten bj > 0; cj > 0 und aj  bj C cj für j D 1; 2; : : : ; N

1; 1.

a) Man beweise das folgende diskrete Maximumprinzip: Wenn für den Vektor v D .v0 ; : : : ;

vN /> 2 R N C1 mit v  0 die folgende Bedingung erfüllt ist, vj D max vj j D0;:::;N

für ein 1  j  N

so gilt v0 D v1 D    D vN .

b) Man beweise die inverse Monotonie der Abbildung R .j D 0; : : : ; N / die Bedingungen

u  erfüllt sind, so gilt u  v:

v;

u0  v0 ;

1;

: Wenn für Zahlen uj und vj 2 uN  vN ;

283

Übungsaufgaben

Aufgabe 9.8. Gegeben sei eine Zerlegung  D ¹a D x0 < x1 <    < xN D bº des Intervalls Œa; b, und hmax D maxj D0;:::;N 1 ¹xj C1 xj º bezeichne den maximalen Knotenabstand. Man 1 zeige: für jede Funktion f 2 C Œa; b mit f .x0 / D f .x1 / D    D f .xN / D 0 gilt die 0 Abschätzung jj f jj2  hmax jj f jj2 : Aufgabe 9.9. Gegeben sei der Differenzialoperator

L W C Œa; b  DL ! C Œa; b; u ֏ .pu0 /0 C ru; ® ¯ DL D u 2 C 2 Œa; b W u.a/ D ˛u.b/ C u0 .b/ D 0 ;

mit p 2 C 1 Œa; b; r 2 C Œa; b; p.x /  p0 > 0; r.x /  0 für x 2 Œa; b und mit ˛  0. Die 1 Bilinearform ŒŒ;  auf C Œa; b sei durch

ŒŒu; v D

Z b a

Œpu0 v 0 C ruv dx C ˛.puv/.b/;

1 u; v 2 C Œa; b;

definiert, und h ; ii2 sei das L2 -Skalarprodukt auf C Œa; b. Man zeige Folgendes: a) Die Bilinearform ŒŒ;  stellt eine Fortsetzung der Abbildung h L; ii2 dar, und bezüglich des Skalarprodukts h ; ii2 ist die Abbildung L symmetrisch.

1 b) Man zeige c1 jj u jj21  ŒŒu; u  c2 jj u0 jj21 für u 2 C Œa; b mit u.a/ D 0, mit geeigneten Konstanten c1 und c2 .

Aufgabe 9.10. Gegeben sei der folgende Differenzialoperator vierter Ordnung,

L W C Œa; b  DL ! C Œa; b; u ֏ .pu00 /00 C ru; ® ¯ DL D u 2 C 4 Œa; b W u.a/ D u0 .a/ D u00 .b/ D u000 .b/ D 0 ;

mit p 2 C 2 Œa; b; r 2 C Œa; b; p.x /  p0 > 0; r.x /  0 für x 2 Œa; b, und h ; ii2 sei das L2 -Skalarprodukt auf C Œa; b. a) Man zeige, dass die Abbildung L symmetrisch und positiv definit bezüglich h ; ii2 ist.

2 b) Auf dem Raum C Œa; b D ¹u 2 C 1 Œa; b W u0 stückweise stetig differenzierbar º bestimme man eine Bilinearform ŒŒ; , die eine Fortsetzung der Abbildung h L; ii2 darstellt und für 2 Œa; b mit die Abschätzungen von der Form c1 jj u jj21  ŒŒu; u  c2 jj u00 jj21 gelten für u 2 C 0 u.a/ D u .a/ D 0.

Aufgabe 9.11. Man zeige: Für eine positiv definite Bilinearform ŒŒ;  W D  D ! R auf einem reellen Vektorraum D gilt die verallgemeinerte cauchy-schwarzsche Ungleichung,

jŒŒu; v C ŒŒv; uj  2ŒŒu; u1=2 ŒŒv; v1=2 für u; v 2 D: Daraus leite man die Dreiecksungleichung für die zugehörige Norm D 3 u ֏ ŒŒu; u1=2 her. Aufgabe 9.12 (Fehlerquadratmethode). Es seien V und W reelle Vektorräume, die Abbildung L W V ! W sei injektiv und linear, und h ; ii sei ein Skalarprodukt auf W mit der zugehörigen Norm jj  jj. Außerdem seien u 2 V und ' 2 W . Man weise die Äquivalenz der folgenden drei Aussagen nach:

(i) u löst die Minimierungsaufgabe jj Lu

' jj ! min für u 2 V:

(ii) Es gilt h Lu ; Lvii D h '; Lvii für jedes v 2 V .

(iii) Es gilt Lu lich h ; ii.

' 2 R.L/? , dem orthogonalen Komplement des Bildraums von L bezüg-

284

Kapitel 9 Randwertprobleme

Ist weiter PN der Vektorraum V endlich-dimensional mit Basis v1 ; : : : ; vN und gilt die Identität kD1 ck vk mit gewissen Koeffizienten c1 ; : : : ; cN , so ist jede der Eigenschaften (i), (ii) und (iii) äquivalent zu der Eigenschaft Ac D b mit den Notationen

u D

A D .hh Lvj ; Lvk i /N j;kD1 ;

b D .hh '; Lvj i /N j D1 ;

c D .c1 ; : : : ; cN />:

Aufgabe 9.13. Gegeben sei das Randwertproblem

Lu D u00 C xu D x 3 C x 2 C 2;

x 2 Œ 0; 1 ;

u.0/ D u.1/ D 0:

Wie lautet das ritzsche Gleichungssystem, wenn als Ansatzfunktionen trigonometrische Pop lynome von der Form vk .x / D 2sin kx; k D 1; 2; : : : ; N verwendet werden? Aufgabe 9.14. Man betrachte das Randwertproblem u00 D f .x; u; u0 /; u.a/ D ˛; u.b/ D ˇ mit einer stetig partiell differenzierbaren Funktion f W Œa; b  R 2 ! R, die die folgenden Bedingungen erfülle, 0
0 beliebig ist. Ist in diesem Fall das Einfachschießverfahren eine geeignete Methode zur Lösung des vorliegenden Randwertproblems? Aufgabe 9.16 (Numerische Aufgabe). Man löse numerisch das Randwertproblem

u00 . x / C 6x. 1

x /u0 . x / C u. x /2 D x 4 C 10x 3

u. 0 / D u. 1 / D 0;

17x 2 C 6x

2;

x 2 Œ 0; 1 ;

Übungsaufgaben

285

mit dem Einfachschießverfahren. Zur Nullstellensuche verwende man das Newton-Verfahren einmal mit Startwert s .0/ D 1 und einmal mit s .0/ D 20. Die jeweiligen Anfangswertprobleme 1 . Man gebe löse man numerisch mit dem expliziten Eulerverfahren mit Schrittweite h D 30 die Näherungen vj zu den Gitterpunkten xj D j h; j D 0; 1; : : : ; 30, tabellarisch an.

10

Gesamtschritt-, Einzelschritt- und Relaxationsverfahren zur Lösung linearer Gleichungssysteme

10.1 Iterationsverfahren zur Lösung linearer Gleichungssysteme Zur Lösung linearer Gleichungssysteme

Ax D b

A 2 R N N regulär;

b 2 RN



(10.1)

mit der eindeutigen Lösung x D A 1 b 2 R N werden in den beiden folgenden Kapiteln 10 und 11 einige spezielle Iterationsverfahren vorgestellt. Dabei hat man sich unter einem Iterationsverfahren ganz allgemein ein Verfahren vorzustellen, bei dem – ausgehend von einem beliebigen Startvektor x .0/ 2 R N – sukzessive Vektoren x .1/ ; x .2/ ; : : : 2 R N berechnet werden gemäß der zum jeweiligen Verfahren gehörenden Iterationsvorschrift.

10.1.1 Hintergrund zum Einsatz iterativer Verfahren bei linearen Gleichungssystemen Iterative Verfahren werden unter anderem zur schnellen approximativen Lösung linearer Gleichungssysteme (10.1) eingesetzt. Im Vergleich dazu benötigen die in Kapitel 4 vorgestellten direkten Verfahren zur Lösung eines Gleichungssystems von der Form (10.1) im Allgemeinen1 cN 3 C O.N 2 / arithmetische Operationen mit einer gewissen Konstanten c > 0. Demgegenüber setzt sich bei jedem der vorzustellenden Iterationsverfahren ein einzelner Iterationsschritt typischerweise wie folgt zusammen: 



es treten ein oder zwei Matrix-Vektor-Multiplikationen auf, die mit jeweils N 2 Multiplikationen zu Buche schlagen, zudem sind mehrere kleine Operationen notwendig wie etwa die Berechnung von Skalarprodukten oder Summen von Vektoren, bei denen insgesamt O.N / arithmetische Operationen anfallen.

Insgesamt erfordert die Durchführung eines Iterationsschrittes also O.N 2 / arithmetische Operationen. Liefert nun das Iterationsverfahren nach einer vertretbaren Anzahl von n  N Iterationsschritten hinreichend gute Approximationen x .n/  x , so beträgt der Gesamtaufwand insgesamt also deutlich weniger als die oben genannten cN 3 C O.N 2 / arithmetischen Operationen. Weitere zu beachtende Aspekte im Zusammenhang mit dem Einsatz iterativer Verfahren sind in der nachfolgenden Bemerkung aufgeführt. 1

also bei voll besetzter Matrix A ohne spezielle Struktur

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_10

288

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

Bemerkung 10.1. a) Bereits bei der numerischen Lösung nichtlinearer Gleichungssysteme in Kapitel 5 sind einige Iterationsverfahren vorgestellt worden, dort vor dem Hintergrund fehlender direkter Methoden. Natürlich lassen sich einige der dort vorgestellten Resultate – so zum Beispiel der banachsche Fixpunktsatz (Theorem 5.12) – zur approximativen Lösung linearer Gleichungssysteme verwenden. In den beiden folgenden Kapiteln 10–11 wird sich jedoch Folgendes herausstellen: 



Für gewisse Fixpunktiterationen lassen sich auch bei fehlender Kontraktionseigenschaft noch Konvergenzresultate nachweisen, und dies größtenteils bei beliebiger Wahl des Startwerts x .0/ 2 R N . Für Gleichungssysteme Ax D b mit speziellen Eigenschaften – etwa Monotonie oder Symmetrie von A – lassen sich besonders effiziente Methoden einsetzen.

b) In den Anwendungen treten häufig Fragestellungen auf, deren Modellierung und anschließende Diskretisierung auf große lineare Gleichungssysteme Ax D b mit schwach besetzten (ein Großteil der N 2 Einträge ist also identisch null) Matrizen A 2 R N N führen. Ein Modellbeispiel hierzu ist in Abschnitt 10.2.1 angegeben. Die bereits getroffenen Aussagen über direkte und iterative Löser lassen sich mit entsprechenden Modifikationen bezüglich des Aufwands übertragen. M

10.2 Lineare Fixpunktiteration Eine Klasse von Iterationsverfahren zur approximativen Bestimmung der Lösung x der Gleichung (10.1) gewinnt man durch Umformulierung von Ax D b in eine Fixpunktgleichung der Form

x D H x C z;

(10.2)

mit einer geeigneten zunächst nicht näher spezifizierten Iterationsmatrix H 2 R N N sowie einem geeigneten Vektor z 2 R N . Es sei nur angenommen, dass die Lösung x 2 R N der Gleichung (10.1) zugleich einziger Fixpunkt von (10.2) ist. Die zur Fixpunktgleichung (10.2) gehörende lineare Fixpunktiteration lautet dann

x .nC1/ D H x .n/ C z;

n D 0; 1; : : :;

(10.3)

wobei x .0/ 2 R N ein frei wählbarer Startvektor ist. Im Folgenden werden für lineare Fixpunktiterationen der Form (10.3) Resultate für (globale) Konvergenz im Sinne der folgenden Definition geliefert. Definition 10.2. Das Verfahren (10.3) zur Bestimmung von x 2 R N heißt konvergent, wenn für jeden Startwert x .0/ 2 R N Folgendes gilt,

jjx .n/

x jj ! 0 für n ! 1:

(10.4)

Hier bezeichnet jj  jj W R N ! R eine nicht näher spezifizierte Vektornorm. Ein nicht konvergentes Verfahren (10.3) nennt man divergent.

Abschnitt 10.2

289

Lineare Fixpunktiteration

Theorem 10.3. Das stationäre Iterationsverfahren (10.3) ist konvergent genau dann, wenn die Ungleichung r .H / < 1 erfüllt ist. Beweis. Nach Voraussetzung gilt x D H x C z , und somit gelten die Fehlerdarstellungen x .nC1/ x D H .x .n/ x / beziehungsweise

x .n/

x D H n .x .0/

x /;

n D 0; 1; : : : :

(10.5)

Konvergenz ist demnach gleichbedeutend mit H n ! 0 für n ! 1. Dies wiederum ist nach Theorem 9.14 äquivalent zur Eigenschaft r .H / < 1. Bemerkung 10.4. Ebenfalls nach Theorem 9.14 ist das stationäre Iterationsverfahren (10.3) konvergent genau dann, wenn eine Vektornorm jj  jj W R N ! R existiert, so dass für die zugehörige Matrixnorm die Ungleichung jjH jj < 1 erfüllt ist. Für spezielle Matrizen A und spezielle Verfahren (10.3) ist es jedoch häufig so, dass dieses Kriterium für gängige und leicht zu berechnende Normen nicht erfüllt ist, obwohl die (oft auch nachweisbare) Ungleichung r .H / < 1 erfüllt ist und somit Konvergenz vorliegt. M Die Konvergenz der linearen Fixpunktiteration (10.3) ist umso besser, je kleiner der Spektralradius r .H / ausfällt: Theorem 10.5. Zu einer beliebigen Matrix H 2 R N N und jeder Zahl " > 0 existiert eine Vektornorm jj  jj W R N ! R, mit der für das stationäre Iterationsverfahren (10.3) die folgende Abschätzung gilt,

j x .n/

x j  .r .H / C "/n jjx .0/

x j ;

n D 0; 1; : : : :

Beweis. Die Aussage ist eine unmittelbare Konsequenz aus der Darstellung (10.5) und dem folgenden Lemma. Lemma 10.6. Zu jeder Matrix H 2 R N N und jeder Zahl " > 0 existiert eine Vektornorm jj  jj W R N ! R, so dass für die zugehörige Matrixnorm die folgende Ungleichung gilt:

jjH jj  r .H / C ": Beweis. Mit der Notation a WD 1=.r .H / C "/ erhält man r .aH / D ar .H / < 1, und Theorem 9.14 liefert dann die Existenz einer Vektornorm jj  jj W R N ! R, so dass für die zugehörige Matrixnorm die Ungleichung jjaH jj < 1 erfüllt ist. Daraus erhält man unmittelbar die Aussage des Lemmas. Als unmittelbare Konsequenz aus Lemma 10.6 erhält man Folgendes: Korollar 10.7. Für jede Matrix H 2 R N N gilt

® ¯ r .H / D inf jjH jj W die Matrixnorm ist durch eine reelle Vektornorm induziert :(10.6)

In Aufgabe 10.1 wird ein Kriterium dafür angegeben, wann in (10.6) das Minimum angenommen wird.

290

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

10.2.1 Ein Modellbeispiel Problemstellung Im Folgenden wird ein Beispiel vorgestellt, bei dem die noch vorzustellenden iterativen Verfahren sinnvoll angewendet werden können2 . Es handelt sich hierbei um ein dirichletsches Randwertproblem für die Poisson-Gleichung, @2 u @x 2

@2 u @y 2

auf  WD . 0; 1 /2 ;

(10.7)

u D 0 auf € WD Rand von Œ 0; 1 2 ;

(10.8)

Df

wobei f W Œ 0; 1 2 ! R eine gegebene stetige Funktion ist, und die Funktion u W Œ 0; 1 2 ! R ist zu bestimmen. Im Folgenden wird vorausgesetzt, dass das Randwertproblem (10.7)–(10.8) eine eindeutig bestimmte stetige und im Inneren von Œ 0; 1 2 zweimal stetig differenzierbare Lösung u W Œ 0; 1 2 ! R besitzt.3 Der Ansatz für Differenzenverfahren Zur numerischen Lösung des Randwertproblems (10.7)–(10.8) mittels Differenzenverfahren wird das zugrunde liegende Intervall Œ 0; 1 2 mit Gitterpunkten versehen, die hier äquidistant gewählt seien,

xj D j h;

yk D kh;

j; k D 0; 1; : : : ; M

.h D

1

M

/:

(10.9)

Die inneren Gitterpunkte sind in Abb. 10.1 dargestellt. 1

.M .M

1/h 2/h

:: : :: :

2h

h 0

.................................................................................................................................................................................... ... ... .. ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..

0 h 2h

::: :::

.M

1/h

Abb. 10.1: Darstellung des gegebenen Gitters Bezüglich dieses Gitters (10.9) wird das Randwertproblem (10.7)–(10.8) in zweierlei Hinsicht diskretisiert: die Poisson-Gleichung (10.7) wird lediglich an den inneren 2 3

vergleiche Bemerkung 10.1 Unter zusätzlichen Voraussetzungen an f ist diese Annahme erfüllt (Hackbusch [47, Kapitel 3]).

Abschnitt 10.2

291

Lineare Fixpunktiteration

Gitterpunkten .xj ; yk /; 1  j; k  M 1, betrachtet, und die partiellen Ableitungen werden dort jeweils durch zentrale Differenzenquotienten 2. Ordnung approximiert, @2 u .xj ; yk / @x 2

D

@2 u .xj ; yk / @y 2

D

u.xj

1 ; yk /

C 2u.xj ; yk / h2 1 / C 2u.xj ; yk / h2

u.xj ; yk

u.xj C1 ; yk / u.xj ; ykC1 /

9 > C O.h2 /; > > > > =

C O.h2 /; > > > > > j; k D 1; 2; : : : ; M 1; ;

(10.10)

wobei hier u 2 C 4 .Œ 0; 1 2 / angenommen wird. Vernachlässigung des Restglieds in (10.10) führt auf das folgende gekoppelte System von N D .M 1 /2 linearen Gleichungen,

Uj

1;k

Uj;k

1

C 4Uj;k h2

Uj;kC1

Uj C1;k

D fj;k ; j; k D 1; : : : ; M

1; (10.11)

für die Approximationen

Uj;k  u.xj ; yk /;

j; k D 1; 2; : : : ; M

1;

j; k D 1; 2; : : : ; M

1;

wobei in (10.11) noch

Uj;0 D U0;k D 0; fj;k D f .xj ; yk /;

......

gesetzt ist. Zu jedem Gitterpunkt .xj ; yk / korrespondiert in natürlicher Weise sowohl die Unbekannte Uj;k als auch eine Gleichung aus (10.11). Ordnet man in Abb. 10.1 diese Gitterpunkte beziehungsweise die entsprechenden Unbekannten und Gleichungen zeilenweise (von links nach rechts) und dann aufwärts an, so erhält man die folgende Matrixdarstellung für die Gleichungen (10.11), 0 1 0 1 10 1 U 1; 1 4 1 f1;1 ♣♣ ♣♣ B C B C CB ♣ ♣ ♣♣ B 1 ♣♣ ♣♣ C B C CB ♣ ♣ ♣ B B C C C B ♣ ♣ ♣♣ ♣♣ ♣♣ B B C C C B ♣ ♣ ♣ ♣ ♣ 1 ♣ ♣ B C B C CB B C B C CB B C B UM 1;1 C B fM 1;1 C 1 4 1 B C B C CB ♣♣ B C B C CB ♣ 4 1 B 1 C B U1;2 C B f1;2 C B C B C CB ♣ ♣ ♣ ♣ ♣ ♣ ♣♣ ♣♣ B C B C CB 1 ♣♣ ♣♣ ♣♣ ♣♣ B C B C CB ♣♣ ♣♣ B C B C CB ♣♣ ♣♣ ♣♣ ♣♣ B C B C CB ♣ ♣ ♣ ♣ ♣ 1 ♣ B C B C CB ♣ B B C C C B ♣ 1 1 4 U f ♣ 1 B C B M 1; 2 C B M 1; 2 C B CDB C CB ♣♣ ♣♣ ♣ ♣ 2 ♣ ♣ C B C CB h B ♣ ♣ 1 ♣ ♣ B C C CB B ♣♣ ♣♣ ♣♣ ♣♣ ♣♣ B C B C CB ♣ ♣ ♣ ♣ ♣ B C B C CB B B C C C B ♣ ♣ ♣♣ ♣♣ ♣♣ ♣♣ ♣♣ B C B C CB ♣ ♣ ♣ B C B C CB ♣ ♣ B B C C C B ♣ ♣ ♣♣ ♣♣ ♣♣ ♣♣ B C B C 1C B B C B C CB B B C C C B 1 4 1 B C B U1;M 1 C B f1;M 1 C B C C CB B ♣ ♣ ♣ ♣ ♣ ♣♣ ♣♣ ♣♣ B C B C CB 1 ♣♣ ♣♣ B C B C CB ♣ ♣ B C B C CB ♣♣ ♣♣ ♣♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ 1A @ @ A @ A 1



ƒ‚ DWA

UM

1 4



1;M

1

fM

1;M

1

292

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

Die zugrunde liegende Matrix A 2 R N N mit N D .M 1 /2 ist schwach besetzt und dient im Folgenden als ein Referenzbeispiel für die vorzustellenden speziellen Klassen von Matrizen. Bemerkung 10.8. In dem Differenzenschema (10.11) treten auf der linken Seite der Gleichung für jeden Index .j; k/ die Näherungen zum Gitterpunkt .xj ; yk / und seinen vier Nachbarn auf, weshalb man hier von einer Fünfpunkteformel oder auch von einem Fünfpunktestern spricht. Die zur Gewinnung der Matrixdarstellung angegebene Reihung der Gitterpunkte wird als lexikografische Anordnung bezeichnet. M

10.3 Einige spezielle Klassen von Matrizen und ihre Eigenschaften In Vorbereitung auf die nachfolgenden Abschnitte 10.4 und 10.5 über das Gesamtund das Einzelschrittverfahren sollen zunächst einige spezielle Klassen von Matrizen betrachtet werden.

10.3.1 Irreduzible Matrizen Auch im Folgenden liegt das Hauptaugenmerk auf reellen Matrizen. Aus technischen Gründen wie etwa anstehenden Spektralbetrachtungen werden nun jedoch auch komplexe Matrizen und Normen zugelassen. Definition 10.9. Eine Matrix B D .bjk / 2 CN N heißt reduzibel, falls Mengen J; K  ¹ 1; 2; : : : ; N º mit folgenden Eigenschaften existieren:

J ¤ ¿;

K ¤ ¿;

J \ K D ¿;

J [ K D ¹ 1; 2; : : : ; N º; (10.12)

bjk D 0 8j 2 J; k 2 K: Andernfalls heißt die Matrix irreduzibel. Beispiel 10.10. Die Matrix

0

1 2 0

1

C B @ 1 1 0A 3 0 1

ist reduzibel: man betrachte J D ¹ 1; 2 º und K D ¹ 3 º.

M

Die Bezeichnung “reduzibel” begründet sich in der folgenden Eigenschaft: Bemerkung 10.11. Die Lösung eines gegebenen nichtsingulären Gleichungssystems Ax D b mit einer reduziblen Matrix A D .ajk / 2 CN N lässt sich in zwei kleinere Teilaufgaben zerlegen (die Notation sei entsprechend Definition 10.9 gewählt):

Abschnitt 10.3

293

Einige spezielle Klassen von Matrizen

(i) man bestimmt zunächst die Unbekannten xj ; j 2 J , des linearen Gleichungssystems N X

kD1

ajk xk D

X

k2J

Š

ajk xk D bj ;

j 2 J:

(ii) Anschließend bestimmt man die Unbekannten xj ; j 2 K , des linearen Gleichungssystems X

k2K

Š

ajk xk D bj

X

ajk xk ;

k2J

j 2 K:

M

Beispiel 10.12. Eine Tridiagonalmatrix ist irreduzibel genau dann, wenn jeder ihrer Nebendiagonaleinträge von null verschieden ist. M Beweis. Die Tridiagonalmatrix sei mit B D .bjk / 2 CN N bezeichnet. “=)”: Für einen beliebigen Index j 2 ¹ 1; : : : ; N 1 º sind die Mengen J D ¹ 1; : : : ; j º und K D ¹j C 1; : : : ; N º nichtleer und disjunkt mit J [ K D ¹ 1; : : : ; N º. Da für beliebige Indizes j 2 J und k 2 K mit jj k j  2 ohnehin bjk D 0 gilt, ist aufgrund der Irreduzibilität der Matrix B notwendigerweise bj ;j C1 ¤ 0. Die Eigenschaft bj C1;j ¤ 0 erschließt man nach Vertauschen von J und K genauso. “(= ”: Für beliebige Mengen J; K  ¹ 1; 2; : : : ; N º von der Form (10.12) existieren notwendigerweise Indizes j 2 J; k 2 K , die benachbart sind, es gilt also k D j C 1 oder k D j 1. Für solche Indizes gilt aufgrund der Annahme bjk ¤ 0, und infolgedessen ist die Matrix B irreduzibel. Beispiel 10.13. Die zu dem vorgestellten Modellbeispiel aus Abschnitt 10.2.1 gehörende Matrix ist irreduzibel diagonaldominant (Aufgabe 10.5). M Die folgenden elementaren Eigenschaften werden ebenfalls noch benötigt. Lemma 10.14. Die Matrix B 2 CN N sei irreduzibel.

a) Für jede Diagonalmatrix D 2 CN N ist mit B auch die Matrix B C D irreduzibel.

b) Für Zahlen cjk 2 R mit cjk ¤ 0 für j ¤ k ist mit B D .bjk / auch die Matrix .cjk bjk / 2 CN N irreduzibel. Beweis. Ist eine Matrix irreduzibel, so ändert sich diese Eigenschaft aufgrund der Definition offenkundig nicht, wenn man die Diagonaleinträge beliebig abändert. Entsprechendes gilt, wenn die nichtverschwindenden Nichtdiagonaleinträge beliebig zu nichtverschwindenden Einträgen abgeändert werden.

Definition 10.15. Eine Matrix B D .bjk / 2 CN N heißt irreduzibel diagonaldominant, falls B irreduzibel ist und weiter Folgendes gilt, N X

kD1 k¤j

jbjk j  jbjj j; j D 1; 2; : : : ; N; .......


> > = > > > ;

(10.13)

294

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

Theorem 10.16. Eine irreduzibel diagonaldominante Matrix B D .bjk / 2 CN N ist regulär. Beweis. Angenommen, es gibt einen Vektor 0 ¤ x 2 CN mit Bx D 0. Für die Indexmengen

J WD ¹j W jxj j D jjx jj1 º;

K WD ¹j W jxj j < jjx jj1 º;

gilt dann offensichtlich J [ K D ¹ 1; 2; : : : ; N º sowie J \ K D ¿ und J ¤ ¿. Es gilt jedoch auch K ¤ ¿, denn andernfalls wäre jxj j D jjx jj1 .¤ 0 / für alle j , und zusammen mit der Abschätzung

jbjj jjxj j

N BxD0 X



kD1 k¤j

jbjk jjxk j;

j D 1; 2; : : : ; N;

ergäbe dies einen Widerspruch zur zweiten Annahme in (10.13). Nach Annahme existieren nun Indizes j 2 J; k 2 K mit bj k ¤ 0. Daraus folgt

jbj j j

N BxD0 X



jbj k j „ƒ‚…

kD1 k¤j ¤0 für kDk

jxk j jxj j „ƒ‚…

j D 1; 2; : : : ; N; n D 0; 1; : : :; > > =

;

b

D

1

.L C R/x .n/ ;

:

......

Die zugehörige Iterationsmatrix hat die Gestalt

0 HGes D

D

1

.L C R/ D

a12 =a11

0

B B B B B a21 =a22 ♣ ♣ ♣ B B B B B ♣♣ ♣♣♣ ♣ B B B @ aN 1 =aN N ♣ ♣ ♣ aN;N

♣♣♣

a1N =a11

♣♣



♣ ♣♣

♣♣



aN

1 =aN N

1;N =aN

0

(10.16)

> > > ;

1;N

1

1

C C C C C C C C: C C C C C A

Erste hinreichende Kriterien für die Konvergenz des Gesamtschrittverfahrens liefert das folgende Theorem. Theorem 10.18. Das Gesamtschrittverfahren ist durchführbar und konvergent, falls eine der beiden folgenden Bedingungen erfüllt ist, N X

kD1 k¤j

jajk j < jajj j;

j D 1; 2; : : : ; N





I

” ”

A ist strikt diagonaldominant jjHGes jj1 < 1



 A> ist strikt diagonaldominant :

oder N X

j D1 j ¤k

jajk j < jakk j;

k D 1; 2; : : : ; N

Beweis. Jede der genannten Bedingungen impliziert unmittelbar ajj ¤ 0 für j D 1; 2; : : : ; N und damit die Durchführbarkeit des Gesamtschrittverfahrens. Die erste Bedingung bedeutet jjHGes jj1 < 1, was r .HGes / < 1 und somit die Konvergenz des Gesamtschrittverfahrens nach sich zieht. Die zweite Bedingung ist gleichbedeutend

296

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

mit jj.L C R/D 1 jj1 < 1, wegen der Ähnlichkeit der Matrizen HGes und .L C R/D folgt daraus  .HGes / D  ..L C R/D 1 / beziehungsweise

r .HGes / D r ..L C R/D

1

/  jj.L C R/D

1

1

jj1 < 1;

was den Beweis des Theorems komplettiert. In wichtigen Anwendungen treten Matrizen auf4 , für die keine der beiden jeweils relativ starken Voraussetzungen von Theorem 10.18 erfüllt ist, wohl aber die schwächere Voraussetzung des folgenden Theorems, die ebenfalls die Konvergenz des Gesamtschrittverfahrens impliziert. Theorem 10.19. Für irreduzibel diagonaldominante Matrizen A 2 R N N ist das Gesamtschrittverfahren durchführbar und konvergent. Beweis. Würde ein Diagonaleintrag der Matrix A verschwinden, so wären aufgrund der vorausgesetzten Diagonaldominanz von A alle Einträge in der gleichen Zeile der Matrix A identisch null im Widerspruch zur vorausgesetzten Irreduzibilität von A. Für die Konvergenz des Verfahrens ist die Ungleichung r .HGes / < 1 beziehungsweise für jede Zahl  2 C mit jj  1 die Regularität der Matrix HGes I nachzuweisen, wofür nach Theorem 10.16 die irreduzible Diagonaldominanz der Matrix HGes I hinreichend ist. Letzteres wird in den folgenden Beweisteilen (i) und (ii) nachgewiesen. (i) Mit Lemma 10.14 erschließt man, dass mit der Matrix A auch die drei Matrizen D 1 .L C R/ und HGes I irreduzibel sind.

L C R; HGes D

(ii) Außerdem erfüllt die Matrix .bjk / WD HGes N X

kD1 k¤j

j ajk j ./  j ajj j

„ƒ‚…

1  jj D jbjj j;

I auch die Bedingungen (10.13),

j D 1; 2; : : : ; N;

j bjk j

und für zumindest einen Index j liegt in ./ Ungleichheit vor aufgrund der Voraussetzung an die Matrix A. Damit ist die Matrix HGes I in der Tat irreduzibel diagonaldominant, was den Beweis des Theorems komplettiert.

10.5 Das Einzelschrittverfahren Betrachtet man für das Gesamtschrittverfahren die komponentenweise Darstellung .nC1/ .n/ in (10.16), so ist es naheliegend, zur Berechnung von xj anstelle von x1 ; : : : ; .n/

xj

1

.nC1/

die bereits berechneten und vermeintlich besseren Approximationen x1

;

: : : ; xj.nC11/

zu verwenden. Die zugehörige Fixpunktiteration ist in der folgenden Definition festgehalten.

4

zum Beispiel die Matrix A aus (9.12), die man nach Anwendung des Differenzenschemas auf das spezielle in Abschnitt 9.2 betrachtete Randwertproblem 2. Ordnung erhält

Abschnitt 10.5

297

Das Einzelschrittverfahren

Definition 10.20. Für eine Matrix A D .ajk / 2 R N N mit ajj ¤ 0 für j D 1; : : : ; N ist das Einzelschrittverfahren, auch Gauß-Seidel-Verfahren genannt, zur Lösung der Gleichung Ax D b von der folgenden Form, .nC1/

xj

D

1 

ajj

bj

jX1

.nC1/

ajk xk

N X

.n/

ajk xk

kDj C1

kD1



; j D 1; 2; : : : ; N; n D 0; 1; : : :;

bzw. .D C L/x .nC1/ D b

Rx .n/ ;

......

:

Die zugehörige Iterationsmatrix hat die Gestalt

HEin D

.D C L/

1

R:

10.5.1 Der Betrag einer Matrix Für die Herleitung von Konvergenzergebnissen für das Einzelschrittverfahren werden einige weitere ordnungstheoretische Resultate für Matrizen benötigt, die im Folgenden vorgestellt werden. Definition 10.21. Der Betrag einer Matrix A D .ajk / 2 R N N ist durch jAj WD .jajk j/ 2 R N N definiert. Lemma 10.22. Für Matrizen A; B 2 R N N gelten die folgenden Aussagen:

jAj  0;

jA C B j  jAj C jB j;

jjA jj1 D jj jAj jj1 D jj jAje jj1 ;

jAB j  jAj jB j;

mit e D . 1; : : : ; 1 /> 2 R N ;

jAj  jB j =) jjA jj1  jjB jj1 :

Beweis. Es soll exemplarisch nur der Nachweis für die dritte Abschätzung in der ersten Zeile der Aussage geführt werden. Hierzu setzt man A D .ajk /; B D .bjk /; jAB j D .cjk /; jAjjB j D .djk / 2 R N N und erhält N N ˇ X ˇX jaj ` jjb`k j D djk : aj ` b`k ˇ  cjk D ˇ `D1

`D1

Die Beweise der anderen Aussagen sind ähnlich einfach und werden wie bereits angekündigt hier nicht geführt. Insbesondere ist die Abbildung j  j W R N N ! R N N stetig. Die folgende Eigenschaft stellt eine Variante von Lemma 9.10 auf Seite 259 dar und wird im Beweis des nächsten Theorems benötigt.

298

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

Lemma 10.23. Für Matrizen S; T 2 R N N und  2 R gilt die Implikation

jS j  T;

1 > r .T / =) I

S regulär ;

P1

Beweis. Es sind die Reihen D0 S  und dung von Lemma 10.22 erhält man n1 ˇˇ ˇˇ X ˇˇ S  ˇˇ Dn0

1

n1 ˇˇ ˇ X ˇ ˇˇ D ˇˇ ˇ S  ˇ ˇˇ Dn0

n1 ˇˇ ˇˇ X T  ˇˇ  ˇˇ Dn0

P1

1

1

j.I

 D0 jS j

S/

1

S/

1

j

1 X

D0

jS j 

n1 ˇˇ X ˇˇ  ˇˇ jS j ˇˇ Dn0

D0

1

: (10.17)

1

! 0 für n0  n1 ;

1 X

T/

konvergent, denn unter Anwen-

n0 ; n1 ! 1:

Daher ist die Matrix I S regulär und es gilt die Identität .I dass man schließlich die Aussage (10.17) erhält,

j.I

j  .I

T  D .I

T/

1

S/

1

D

P1

D0 S

,

so

:

Entsprechend der (partiellen) Ordnung für Matrizen wird noch eine Ordnung für Vektoren eingeführt. Für zwei Vektoren x D .xj /; y D .yj / 2 R N schreibt man

x  y W” xj  yj

für j D 1; 2; : : : ; N:

Synonym für x  y wird die Notation y  x verwendet. Ein Vektor x 2 R N heißt nichtnegativ, falls x  0 gilt.

10.5.2 Konvergenzergebnisse für das Einzelschrittverfahren Ein erstes hinreichendes Kriterium für die Konvergenz des Einzelschrittverfahrens liefert das folgende Theorem. Theorem 10.24. Für jede strikt diagonaldominante Matrix A 2 R N N gilt

jjHEin jj1  jjHGes jj1 < 1:

Beweis. Die strikte Diagonaldominanz der Matrix A ist offensichtlich äquivalent zu jjHGes jj1 < 1 (siehe Theorem 10.18). Im Folgenden wird die zweite Ungleichung in 0  jHEin je  jjHGes jj1 e

(10.18)

mit e D . 1; : : : ; 1 /> nachgewiesen (die erste Ungleichung in (10.18) ist offensichtlich richtig), woraus dann jjHEin jj1 D jjjHEin je jj1  jjHGes jj1 und somit die Aussage

Abschnitt 10.5

299

Das Einzelschrittverfahren

des Theorems folgt. Für den Nachweis der zweiten Ungleichung von (10.18) beobachtet man 1

HGes D

D

.L C R/

HEin D

.I C D

1

L/

Ý 1

1

D

und Lemma 10.23 angewandt mit S D schätzung .  //

jHEin j  j.I C D D .I

jD

D I C .I

1

L/

1

Lj/

jD

1

1

1

jjD

1

jHGes j D jD

1

Lj C jD

1

Rj;

R; D

1

L und T D jD

1

Lj liefert (in der Ab-

j HGes j j D

./

Rj  .I

jHGes j

Lj/

1

I C .I

.jHGes j

jD

1

Lj/

jD

1

1

Lj/

I/

und daher



1

‚ …„ ƒ jD 1 Rj

Lj

jj HGes jj1 e

jHEin je  e C .I

jD

1

Lj/

D e C .jjHGes jj1 ƒ‚ „  0  e C .jjHGes jj1

1

‚ …„ ƒ . jHGes je

1 / .I

…„

e/

1

jD Lj/ 1 e ƒ‚ … ./

I

1 /e D jjHGes jj1 e;

was (10.18) bedeutet und den Beweis komplettiert. Die Ungleichung ./ folgt dabei mit Lemma 10.23 angewandt mit S D D 1 L und T D jD 1 Lj. Bemerkung 10.25. Für strikt diagonaldominante Matrizen A 2 R N N kann man nach Theorem 10.24 bei der Anwendung des Einzelschrittverfahrens eine schnellere Konvergenz als bei der Anwendung des Gesamtschrittverfahrens erwarten. M Ein weiteres hinreichendes Kriterium für die Konvergenz des Einzelschrittverfahrens liefert das folgende Theorem5 . Theorem 10.26. Für irreduzibel diagonaldominante Matrizen A 2 R N N ist das Einzelschrittverfahren durchführbar und konvergent. Beweis. Das Nichtverschwinden der Diagonaleinträge von A (was die Durchführbarkeit des Einzelschrittverfahrens gewährleistet) ist bereits in Theorem 10.19 gezeigt worden. Für die Konvergenz des Einzelschrittverfahrens ist die Ungleichung r .HEin / < 1 beziehungsweise für jede Zahl  2 C mit jj  1 die Regularität der Matrix HEin I nachzuweisen. Hierzu sei in Erinnerung gerufen, dass HEin D .D C L/ 1 R gilt, und die Regularität der Matrix HEin I ist damit äquivalent zur Regularität von D C L C R. Für die letztgenannte Eigenschaft ist nach Theorem 10.16 die irreduzible Diagonaldominanz der Matrix D C L C R hinreichend, die im Folgenden nachgewiesen wird. (i) Mit Lemma 10.14 erschließt man, dass mit A auch die Matrix D C L C R irreduzibel ist. 5

siehe die Anmerkungen vor Theorem 10.19

300

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

(ii) Weiter erfüllt die Matrix .bjk / WD D C L C R auch die Bedingungen (10.13), jX1

kD1

jajk j C

N X

kDj C1

jajk j  jj

N X

kD1 k¤j

./

jajk j  jjjajj j;

j D 1; 2; : : : ; N;

und in ./ gilt nach Voraussetzung an die Matrix A für ein Index j die Ungleichheit. Damit ist die Matrix D C L C R in der Tat irreduzibel diagonaldominant, was den Beweis komplettiert.

10.6 Das Relaxationsverfahren und erste Konvergenzresultate Im Folgenden wird das Relaxationsverfahren vorgestellt. Hier ist im .n C 1 /-ten Iterationsschritt die Vorgehensweise so, dass – ausgehend von dem Vektor x .n/ – für die .nC1/ Indizes j D 1; 2; : : : ; N jeweils zunächst hilfsweise die Zahl b xj gemäß der Vorschrift des Einzelschrittverfahrens ermittelt wird aus den bereits berechneten Wer.nC1/ .nC1/ .n/ .n/ .nC1/ ten x1 ; : : : ; xj 1 ; xj C1 ; : : : ; xN , und anschließend berechnet sich xj als eine durch einen Parameter ! 2 R festgelegte Linearkombination der beiden Werte .nC1/ .n/ b xj und xj . Im Einzelnen sieht die Iterationsvorschrift folgendermaßen aus, .nC1/ b xj

.nC1/ xj

D

D

1 

ajj

jX1

bj

N X

.nC1/ ajk xk

kDj C1

kD1

.nC1/ !b xj

C .1

.n/ ajk xk

.n/ ! /xj

 9 > > = > > ;

;

j D 1; 2; : : : ; N .n D 0; 1; : : :/:

Die zugehörige Fixpunktiteration ist in der folgenden Definition angegeben. Definition 10.27. Für eine Matrix A D .ajk / 2 R N N mit nichtverschwindenden Diagonaleinträgen, ajj ¤ 0 für j D 1; 2; : : : ; N , ist das Relaxationsverfahren zur Lösung der Gleichung Ax D b von der folgenden Form, .nC1/

ajj xj

 D ! bj

jX1

N X

.nC1/

ajk xk

.n/

ajk xk

kDj C1

kD1



C .1

für j D 1; 2; : : : ; N

.n/

! /ajj xj ;

.n D 0; 1; : : :/;

beziehungsweise in Matrix-Vektor-Schreibweise

.D C !L/x .nC1/ D !b C .. 1

! /D

!R/x .n/

.n D 0; 1; : : :/:

Die zugehörige Iterationsmatrix hat die Gestalt

H .! / D .D C !L/

1

.. 1

! /D

!R/:

(10.19)

Abschnitt 10.6

301

Das Relaxationsverfahren und erste Konvergenzresultate

Für ! D 1 stimmt das Relaxationsverfahren mit dem Einzelschrittverfahren überein, H . 1 / D HEin . Für ! < 1 spricht man von Unter-, im Falle ! > 1 von Überrelaxation.

In dem vorliegenden Abschnitt werden für zwei Klassen von Matrizen allgemeine Konvergenzresultate zum Relaxationsverfahren hergeleitet. Eine optimale Wahl des Relaxationsparameters ! wird dabei nicht weiter diskutiert. Die erzielten Resultate sind aber bereits für den Fall ! D 1 (Einzelschrittverfahren) von Interesse.

Bemerkung 10.28. Eine besondere Bedeutung erlangt das Relaxationsverfahren für die spezielle Klasse der konsistent geordneten Matrizen A, die im nächsten Abschnitt 10.7 behandelt werden. Für solche Matrizen A lässt sich der Spektralradius der Iterationsmatrix H .! / als Funktion des Relaxationsparameters ! genau ermitteln beziehungsweise die Wahl von ! optimieren. M Für allgemeine Matrizen A 2 R N N mit nichtverschwindenden Diagonalelementen gilt das folgende Resultat, mit dem sich die Wahl vernünftiger Relaxationsparameter schnell einschränken lässt. Theorem 10.29 (Kahan). Für die Iterationsmatrix des Relaxationsverfahrens gilt

r .H .! //  j!

1 j;

! 2 R:

Beweis. Mit der Bezeichnung 1 ; : : : ; N 2 C für die entsprechend ihrer Vielfachheit gezählten Eigenwerte von H .! / gilt aufgrund der Darstellung (10.19) Folgendes, N Y

j D det H .! / D det .I „ j D1

!D ƒ‚ D 1

so dass notwendigerweise jj j  j 1

1

L/

1



det . 1

! /I

!D

1

 R D .1

! /N ;

! j für mindestens einen Index 1  j  N gilt.

Korollar 10.30. Das Relaxationsverfahren ist höchstens für 0 < ! < 2 konvergent. Beweis. Für ! 62 . 0; 2 / gilt nach Theorem 10.29 die Ungleichung r .H .! //  1, so dass nach Theorem 10.3 keine Konvergenz vorliegen kann. Ein erstes hinreichendes Kriterium für die Konvergenz des Relaxationsverfahrens liefert das folgende Theorem. Theorem 10.31 (Ostrowski, Reich). Für eine symmetrische, positiv definite Matrix A 2 R N N ist das zugehörige Relaxationsverfahren für jeden Wert 0 < ! < 2 durchführbar und konvergent,

r .H .! // < 1 für 0 < ! < 2:

302

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

Beweis. Aufgrund der Definitheit der Matrix A gilt ajj D e> j Aej > 0 für alle j , was insbesondere die Durchführbarkeit des Relaxationsverfahrens nach sich zieht. Für den Nachweis der Konvergenz berechnet man zunächst

H .! / D I DI

!.D C !L/ 2 2A

1

1

ADI  1 !D C L 1

mit Q WD 2A

1

!D 1 1

CL

DI

!D

1

A 1

2.Q C I /

CL

Im Folgenden wird





D .Q

1

I /.Q C I /

;

I:

 .Q/  ¹ 2 C W Re  > 0 º

(10.20)

nachgewiesen. Wegen

 .H .! // D und

®

1

C1

W  2  .Q/

¯

2 2 ˇ  1 ˇ2 ˇ ˇ D . Re  1 / C . Im / < 1 für Re  > 0 2 C1 . Re  C 1 / C . Im /2

erhält man dann die Aussage des Theorems. Für den Nachweis von (10.20) betrachtet man  2 C und 0 ¤ x 2 CN mit Qx D x und erhält zunächst

Ax D 2

1

!D

 CL x

Ax:

Skalare Multiplikation mit dem Vektor x liefert

> 0 ‚…„ƒ . Re / x H Ax D 2Re x H D xH

 > 0; da ajj >0 8 j C L x x H Ax …„ ƒ ‚   H H H 2 2 D C L C L x x .D C L C R/x D 1 x Dx ; ! ! „ƒ‚… 1

!D

DR

und daraus folgt Re  > 0.

10.6.1 M-Matrizen Im Folgenden wird eine weitere Klasse von Matrizen vorgestellt, bei denen das Relaxationsverfahren einsetzbar ist. Definition 10.32. Eine Matrix A D .ajk / 2 R N N heißt M-Matrix, falls Folgendes gilt: a) Die Matrix A ist regulär und besitzt eine Inverse mit ausschließlich nichtnegativen Einträgen, A 1  0.

b) Alle Einträge der Matrix A außer denen auf der Diagonalen sind nichtpositiv, ajk  0 für alle Indizes j; k mit j ¤ k .

Abschnitt 10.6

303

Das Relaxationsverfahren und erste Konvergenzresultate

M-Matrizen lassen sich folgendermaßen charakterisieren: Theorem 10.33. Für eine Matrix A D .ajk / 2 R N N gilt die folgende Äquivalenz,

8 ˆ ˆ < ajj > 0 für j D 1; 2; : : : ; N;

A ist M-Matrix ”

ˆ ˆ :

ajk  0 für alle j; k mit j ¤ k;

r .D

1

.L C R// < 1;

9 > > = > > ;

(10.21)

mit der Zerlegung A D D C L C R in Diagonal-, unteren und oberen Anteil entsprechend (10.15). Die Inverse jeder M-Matrix A besitzt die nichtnegative neumannsche Reihenentwicklung

A

1

D

1 X

D0 „

Beweis. “(= ” Mit der Identität I

D regulär;

D

1

 0;

D

 .L C R/ D 1  0: ƒ‚ … „ƒ‚…

1

0

D

1

AD

(10.22)

0

D

.L C R/  0;

1

.L C R/ und den Voraussetzungen

r . D

1

.L C R// < 1;

erhält man unter Anwendung von Theorem 9.14 auf Seite 261 die Regularität der Matrix A sowie die nichtnegative neumannsche Reihenentwicklung (10.22) für die Inverse A 1 , womit die Richtung “(= ” nachgewiesen ist. Für den Nachweis der anderen Implikation “=)” sei nun A eine M-Matrix. Wenn akk  0 für ein k 2 ¹ 1; 2; : : : ; N º gilt, so erhält man für den Vektor a.k/ D .ajk /j 2 R N die Ungleichung a.k/  0 und daraus den Widerspruch k -ter Einheitsvektor ek D A 1 a.k/  0. Für den Nachweis der Ungleichung r .B / < 1 mit B WD D 1 .L C R/ stellt man Folgendes fest,

B  0;

I

BDD

1

A regulär;

.I

B/

1

DA

1

D  0;

und Theorem 9.18 auf Seite 264 liefert die behauptete Ungleichung r .B / < 1. Beispiel 10.34. Die Matrix zu dem in Abschnitt 10.2.1 vorgestellten Modellbeispiel ist eine M-Matrix, denn als irreduzibel diagonaldominante Matrix gilt für sie nach Theorem 10.19 die Ungleichung r .D 1 .L C R// < 1. M Theorem 10.35. Für eine M-Matrix A 2 R N N ist das Relaxationsverfahren durchführbar und für jeden Parameter 0 < !  1 konvergent,

r .H .! // < 1 für 0 < !  1: Beweis. Die Durchführbarkeit ist aufgrund des Nichtverschwindens der Diagonaleinträge der Matrix A (siehe Theorem 10.33) gewährleistet. Im Folgenden wird

H .! /  0;

I

H .! / regulär;

.I

H .! //

1

 0;

(10.23)

304

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

nachgewiesen. Die Aussage des Theorems erhält man dann unmittelbar mit Theorem 9.18 auf Seite 264. Nach Voraussetzung gilt (mit der Zerlegung D C L C R D A aus (10.15))

D regulär;

D  0;

D

1

 0;

R  0;

L  0:

Damit ist insbesondere die Matrix D C !L regulär, und die Eigenschaft H .! /  0 resultiert dann aus .D C !L/ 1  0, was man wie folgt einsieht,

!D

1

./

 . !D 1L/ D ¹ 0 º;  1 . !D 1L/ D .I C !D

L  0;

Ý I

1

L/

1

 0;

wobei man die Schlussfolgerung ./ mit Theorem 9.18 erhält. Die beiden anderen Aussagen in (10.23) ergeben sich folgendermaßen, regulär

‚ …„ 1 I H .! / D .D C !L/ D C !L . 1 ! /D C !R D !.D C !L/  1 1 1 .I H .! // D ! A .D C !L/ D !1 A 1 A . 1 ! /L R  . 1 ! /L R  0: D !1 I C !1 A 1 ƒ‚ … „ƒ‚… „ 

1

ƒ A;

0

0

Dies komplettiert den Beweis von Theorem 10.35.

Bemerkung 10.36. Beim Relaxationsverfahren für M-Matrizen gelten spezieller die Abschätzungen r .H .!2 //  r .H .!1 // < 1 für 0 < !1  !2  1 (Aufgabe 10.10), so dass innerhalb des Parameterintervalls 0 < !  1 die Wahl ! D 1 optimal ist. M

10.7 Das Relaxationsverfahren für konsistent geordnete Matrizen Es soll nun noch eine Klasse von Matrizen behandelt werden, bei denen sich der Spektralradius der zugehörigen Iterationsmatrix H .! / als Funktion des Relaxationsparameters ! genau ermitteln beziehungsweise die Wahl von ! optimieren lässt. Definition 10.37. Eine Matrix A D .ajk / 2 R N N mit ajj ¤ 0 für alle j heißt konsistent geordnet, falls die Eigenwerte der Matrix

J.˛/ WD ˛D

1

LC˛

1

D

1

R 2 CN N ;

0 ¤ ˛ 2 C;

(10.24)

unabhängig von ˛ sind, wenn also die Identität  .J.˛// D  .J. 1 // gilt für 0 ¤ ˛ 2 C. Hierbei bezeichnet A D D CLCR die Zerlegung in Diagonal-, unteren und oberen Anteil entsprechend (10.15).

Abschnitt 10.7

305

Relaxationsverfahren für konsistent geordnete Matrizen

Beispiel 10.38. Eine Block-Tridiagonalmatrix

0

B D1 C1 B B B1 ♣ ♣ ♣ B ADB ♣♣ B ♣ B @

♣♣



♣♣



1 CM

BM

1

1

DM

C C C C C 2 R N N C C A PM

mit regulären Diagonalmatrizen Dk 2 R Nk Nk ; k D 1; 2; : : : ; M (mit kD1 Nk D N ) ist konsistent geordnet. (Die Nebendiagonalmatrizen seien hierbei von entsprechender Dimension, es gilt also Bk 2 R NkC1 Nk und Ck 2 R Nk NkC1 für k D 1; 2; : : : ; M 1.) M

Beweis. Hier gilt

0

1

0

B B B ♣ B D2 1 B 1 ♣ ♣ 1 B D LDB ♣♣ B ♣ B @

♣♣



DM1 BM

1

0

C C C C C; C C C A

0

B B B B 1 D RDB B B B @

1

0 D1 1 C1

♣♣



♣♣



♣♣

♣ DM1 1 CM 0

und somit

0

0 ˛ B B B B B ˛D2 1 B1 B J.˛/ D B B B B B @

1

1

1

D1 C1 ♣♣



♣♣



♣♣



♣♣



˛DM1 BM

1

˛ 1

DM1 1 CM 0

C C C C C C C 2 R N N : C C 1C C A

1

C C C C C; C C C A

306

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

Mit einer geeigneten Transformationsmatrix S˛ von Diagonalgestalt erhält man schließlich die Ähnlichkeit der Matrizen J. 1 / und J.˛/:

0

0 B ˛ IN 1 B B ˛ 1 IN 2 B S˛ WD B ♣♣ B ♣ B @ ˛M

1

C C C C C C C 0 A 1 B INM 0 ˛ 0 D1 1 C1 B B B B B ♣♣ ♣♣ ♣ ♣ B ˛D2 1 B1 B Ý S˛ J. 1 / D B B B ♣♣ ♣♣ B ♣ ♣ ˛M B B B @ ˛ M 1 DM1 BM 1

1

2

DM1 1 CM 0

1

C C C C C C C C C C C C C C C A

beziehungsweise S˛ J. 1 /S˛ 1 D J.˛/. Beispiel 10.39. Die Matrix aus dem Modellbeispiel in Abschnitt 10.2.1 ist konsistent geordnet (Aufgabe 10.14). M Das folgende Theorem 10.41 stellt eine Beziehung her zwischen den Eigenwerten von HGes D D 1 .L C R/ und denen von H .! /. Zuvor wird die folgende Eigenschaft konsistent geordneter Matrizen festgehalten: Lemma 10.40. Bei konsistent geordneten Matrizen A 2 R N N liegt die Menge der Eigenwerte  .HGes /  C der zum Gesamtschrittverfahren gehörenden Iterationsmatrix HGes symmetrisch zum Ursprung, es gilt also  .HGes / D  . HGes /. Beweis. Mit der Notation (10.24) gilt J. 1 / D Aussage unmittelbar folgt.

HGes und J. 1 / D HGes , woraus die

Theorem 10.41. Die Matrix A 2 R N N sei konsistent geordnet, und sei 0 ¤ ! 2 R. p Weiter sei 0 ¤  2 C eine beliebige Zahl und  2 C eine der beiden Wurzeln von . Dann gilt die folgende Äquivalenz:

 2  .H .! // ”

C! 1 2  .HGes /: p ! 

(10.25)

Abschnitt 10.7

307

Relaxationsverfahren für konsistent geordnete Matrizen

p  2 C eine der beiden Wurzeln von . Es gilt dann  I H .! / D .D C !L/ 1 .D C !L/ . 1 ! /D C !R  D .D C !L/ 1 . C ! 1 /D C !.L C R/   D .I C !D 1 L/ 1 . C ! 1 /I C !1=2 1=2 D 1 L C  1=2 D 1 R

Beweis. Sei 0 ¤  2 C und

D !1=2 .I C !D 1 L/ 1 ƒ‚ … „ regulär

 C !

1

!1=2

I C 1=2 D

1

LC

1=2

D

1

R



beziehungsweise

 2  .H .! // ” C! 1 2 1=2 D 1 L  1=2 D „ ƒ‚ !1=2 D J. 1=2 /

1

  R D D 1L D 1R ; … ƒ‚ … „ D J. 1 / D HGes

was mit der im Theorem angegebenen Äquivalenz übereinstimmt. Korollar 10.42 (Der Fall ! D 1). Für jede konsistent geordnete Matrix A 2 R N N gilt

r .HEin / D r .HGes /2 : Für eine konsistent geordnete Matrix A 2 R N N sind demnach Gesamt- und Einzelschrittverfahren entweder beide konvergent oder divergent, und im Fall der Konvergenz ist das Einzelschrittverfahren doppelt so schnell wie das Gesamtschrittverfahren. Mit dem folgenden Theorem wird das Verhalten von r .H .! // in Abhängigkeit von ! beschrieben. Eine entsprechende Veranschaulichung liefert Abb. 10.2 auf Seite 309. Theorem 10.43. Die Matrix A 2 R N N sei konsistent geordnet, und die Eigenwerte der Matrix HGes D D 1 .L C R/ seien allesamt reell und betragsmäßig kleiner als eins, es sei also  .D 1 .L C R//  . 1; 1 / erfüllt. Dann gilt

r .H .! // D mit %Ges WD r .D

8 < :

1

1 4



!%Ges C

q ! 2 %2Ges

.L C R// und ! WD

1C

4.!

! q

2

1

Beweis. Sei 0 < !  2 mit ! ¤ 1 fest gewählt.6 6

1/

Die Situation ! D 1 ist bereits mit Korollar 10.42 abgeklärt.

%2Ges

2

:

;

0 < !  ! ;

1;

!   !  2;

308

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

a) In einem ersten Schritt werden (vergleiche Theorem 10.41) für jede Zahl  2 R die Lösungen  2 C der Gleichung

p !  C !



1 D 0;

(10.26)

bestimmt. In der Tat besitzt die Gleichung (10.26) zwei Lösungen 1=2 D 1=2 ./ 2 C, für die entsprechend der Annahme ! ¤ 1 notwendigerweise 1=2 ¤ 0 gilt. Explizite Darstellungen sind

p

1=2 WD

1 4

1=2 WD

1 2

! ˙

p ! 2 2

1/ ;

 ;

......

und daraus erhält man

j1=2 j D

8
=

2

4.!

1/

!

2

;

1;

(10.27)

> ;

2 

4.!

2


das dazugehörige lineare Gleichungssystem näherungsweise mit dem Gesamtschrittverfahren gelöst werden. Als Startvektor verwende man jeweils x .0/ D . 1; 1; 1 />. Man gebe jeweils eine allgemeine Darstellung der n-ten Iterierten x .n/ 2 R 3 an und diskutiere die

Ergebnisse im Hinblick auf Konvergenz.

Aufgabe 10.3. Gegeben seien die Matrizen

0

0

1

B B0 0 ADB B1 0 @ 1

0

1

0

1

1

0C

C C; C 0 1A 1

0

0

0

B B1 B BDB B0 B @0 2

1

1

1

0

0

0

0

0

0

0

0

2

1C

2

0

0

1

C C 1 0C C: C 0 0A

Man zeige, dass A irreduzibel beziehungsweise B reduzibel ist. Aufgabe 10.4. Zu gegebener Matrix A D .ajk / 2 R N N und beliebigen Indizes j; k 2 ¹ 1; : : : ; N º mit j ¤ k heißt eine Familie von Indizes j0 ; j1 ; : : : ; jM 2 ¹ 1; 2; : : : ; N º mit j0 D j; jM D k eine j und k verbindende Kette, falls ajr 1 ;jr ¤ 0 gilt für r D 1; 2; : : : ; M . Man zeige Folgendes: Eine Matrix A 2 R N N ist irreduzibel genau dann, wenn für alle Indizes j; k 2 ¹ 1; : : : ; N º mit j ¤ k eine j und k verbindende Kette existiert.

Aufgabe 10.5. Man zeige, dass die zu dem vorgestellten Modellbeispiel aus Abschnitt 10.2.1 gehörende Matrix irreduzibel diagonaldominant ist. Aufgabe 10.6. Sei A D .ajk / 2 R N N eine irreduzibel diagonaldominante Matrix mit ajj > 0 für j D 1; 2; : : : ; N . Man zeige:

311

Übungsaufgaben a) Für alle Eigenwerte  2 C von A gilt Re  > 0:

b) Ist die Matrix A symmetrisch, so ist sie auch positiv definit. Aufgabe 10.7. Für zwei Matrizen A; b A 2 R N N betrachte man Zerlegungen A D D C L C R b Cb beziehungsweise b ADD LCb R jeweils in Diagonal- sowie unteren und oberen Anteil. Man b sowie L C R  b zeige: wenn A eine M-Matrix ist und die Ungleichungen 0  D  D LCb R0 1 1 b b erfüllt sind, so ist auch A eine M-Matrix und es gilt 0  A  A .

Aufgabe 10.8. Für eine Matrix A D .ajk / 2 R N N beweise man die Äquivalenz der folgenden vier Aussagen: (i) A ist M-Matrix; (ii) A C sI ist M-Matrix für alle s  0;

(iii) es gibt eine Matrix B 2 R N N mit B  0 und eine Zahl s > r .B /, so dass die Identität A D sI B gilt;

(iv) die Nichtdiagonaleinträge ajk ; j ¤ k; der Matrix A sind nichtpositiv, und alle Eigenwerte von A besitzen einen positiven Realteil, .A/  ¹ 2 C W Re  > 0 º:

Aufgabe 10.9. Gegeben sei das lineare Randwertproblem 1 u0 .x / D '.x /; u00 .x / C 1 C x

0 < x < 1;

u. 0 / D 0;

u. 1 / D 0:

(10.33)

Diskretisierung von (10.33) mit zentralen Differenzenquotienten zweiter beziehungsweise erster Ordnung bei konstanter Gitterweite h D N1 führt auf ein lineares Gleichungssystem Av D b . Man zeige Folgendes: a) Für h < 2 ist A 2 R .N

1/.N

1/

eine M-Matrix.

b) Für die Hilfsfunktion

.x / D

. 1 C x /2 2

ln. 1 C x / C 32 x.x C 2 / ln 2

und mit den Notationen vj D .xj /; xj D j h für j D 1; 2; : : : ; N 1 und e D . 1; : : : ; 1 /> 2 R N 1 gilt die Abschätzung jj Av e jj1  41 h2 (und damit .Av/j  1

h2 4

für j D 1; 2; : : : ; N

c) Für eine von h unabhängige Konstante M gilt jj A

1). 1

jj1  M .

d) Für die Lösung u von (10.33) und die Lösung v des Gleichungssystems Av D b gilt mit 1 der Notation z D .u.xj //N j D1 und einer von h unabhängigen Konstanten K die Abschätzung jj v

z jj1  Kh2 :

Aufgabe 10.10. Für eine gegebene M-Matrix A 2 R N N weise man die folgenden Abschätzungen nach: r .H .!2 //  r .H .!1 // < 1 für 0 < !1  !2  1: Aufgabe 10.11. Im Folgenden wird das Randwertproblem

u00 . x / C p . x /u0 . x / C r . x /u. x / D ' . x /;

x 2 Œa; b;

u. a / D u. b / D 0;

betrachtet mit Funktionen p; r; ' 2 C Œa; b mit r.x /  0 für x 2 Œa; b. Eine Diskretisierung der Ableitungen mittels zentraler Differenzenquotienten bei konstanter Schrittweite h D bN a

312

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

führt mit den Notationen xj D a C j h; pj D p.xj / und rj D r.xj /; 'j D '.xj / für j D 1; 2; : : : ; N 1 sowie

0

B B B B B 1 B B AD 2B h B B B B B @

1

h

.1

2

p / 2 1

. 1 C h2 p2 /

h

.1

2

2

. 1 C h2 p3 /

p2 /

♣♣



♣♣

♣♣



2



. 1 C h2 pN

und D D diag .r1 ; r2 ; : : : ; rN

1 /;

.1

h

1/

2

2

pN

C C C C C C C C C C C C / 2 C A

1 c D .'j /N j D1 , auf das Gleichungssystem .A C D /v D c:

a) Man zeige, dass A C D eine M-Matrix ist, falls Folgendes erfüllt ist,

®

h max jp.x/j  2; x 2 Œa;b 

b) Im Fall p.x /  0 und h 

b a 2

inf

x 2 Œa;b 

¯

inf Re  W  2 .A/ C

inf

x 2 Œa;b 

r.x / > 0:

ist A C D eine M-Matrix, wenn Folgendes erfüllt ist,



r.x / >

 b

a

2

h2 C 12



 b

a

4

:

Aufgabe 10.12. Ist die Matrix

0 2 1 B 1 AD 2@ h

1

♣♣ ♣♣ ♣ ♣ ♣♣ ♣♣ ♣ ♣

1 1 2

1

C .N A2R

1/.N

1/

mit h D N1 positiv definit beziehungsweise eine M-Matrix beziehungsweise konsistent geordnet? Man bestimme als Funktion von h die Eigenwerte von I D 1 A und den zugehörigen Spektralradius r .I D 1 A/, den optimalen Parameter ! für das Relaxationsverfahren sowie den Spektralradius r .H .! // der entsprechenden Iterationsmatrix H .! /. Aufgabe 10.13. Man zeige, dass reguläre Dreiecksmatrizen konsistent geordnet sind. Aufgabe 10.14. Gegeben sei eine Block-Tridiagonalmatrix von der speziellen Form

0

B B b1 D B ♣ B B a1 D ♣ ♣ ADB B ♣♣ B 0 ♣ B @

1

C C C ♣ C C 2 R N N C ♣♣ ♣ bM 1 D C C A aM 1 D B ♣♣

mit der Diagonalmatrix D D diag .b11 ; : : : ; bKK / wobei 0 ¤ bjj die Diagonaleinträge von B 2 R KK bezeichne. Mit der Zerlegung B D D C L C R entsprechend (10.15) und mit

J.˛/ D ˛D 1

1

LC˛

1

D

1

R;

0¤˛2C

gelte J.˛/ D S˛ J. 1 /S˛ für 0 ¤ ˛ 2 C mit einer geeigneten Transformationsmatrix S˛ 2 R N N . Man zeige, dass die Matrix A konsistent geordnet ist.

313

Übungsaufgaben Aufgabe 10.15. Es sei

0

A B 11 B ♣ ♣ ADB B ♣ @ AM 1

1

♣ ♣ ♣ A1M ♣♣ ♣♣♣ ♣ ♣ ♣ ♣ AMM

C C C C A

eine quadratische Matrix mit quadratischen Diagonalblöcken Ajj ; j D 1; 2; : : : ; M , und die Block-Diagonalmatrix D D diag .A11 ; : : : ; ANN / sei nichtsingulär. Weiter bezeichne

0

1

B A B 21 L D B ♣♣ ♣♣ @ ♣ ♣ ♣ AM 1 ♣ ♣ AM;M

und

1

0

A12 ♣ ♣ ♣ A1M ♣ ♣♣ B ♣ ♣♣ B RDB @ AM 1;M

C C C; A 1

H .! / D .D C !L/

.. 1

! /D

!R/

1

C C C; A

.! ¤ 0 /:

In den folgenden Teilaufgaben a) und b) seien für eine Zahl p > 1 die Eigenwerte von

J.˛/ D ˛D

1

LC˛

.p 1/

D

1

R;

0 ¤ ˛ 2 C;

(10.34)

unabhängig von ˛ , es gelte also .J.˛// D .J. 1 // für ˛ ¤ 0: Man weise Folgendes nach: a) Ist  2 .D

1

.L C R// erfüllt und die Zahl  2 C eine Lösung der Gleichung . C !

1 /p D  p

1

! p p ;

(10.35)

so gilt  2 .H .! //. Ist umgekehrt 0 ¤  2 .H .! // und erfüllt  die Gleichung (10.35), dann ist  2 .D 1 .L C R//. b) Für  ¤ 0 gilt  2 .D 1 .L C R// ” p 2 .H . 1 //; und r .D

1

.L C R//p D r .H . 1 //.

c) Sei nun A von der speziellen Gestalt

0

A11 0    0 B ♣♣ ♣♣ B B A21 ♣ ♣ B B ♣♣ A D B 0 ♣♣♣ ♣♣♣ ♣ B B ♣♣ ♣ ♣ ♣ ♣ ♣ ♣ B ♣ ♣ ♣ ♣ @ 0    0 AM;M

1

A1M 0

♣ ♣♣ 0 1

AMM

C C C C C C: C C C A

Man zeige, dass mit p D M  2 die Eigenwerte der Matrix J.˛/ aus (10.34) unabhängig von ˛ sind. Aufgabe 10.16 (Numerische Aufgabe). Zur numerischen Lösung des Randwertproblems

u00 .x / C u.x / D e x ;

x 2 Œ 0; 2 ;

u. 0 / D u. 2 / D 0;

betrachte man auf einem äquidistanten Gitter der Weite h D schema

vj C1

.2

h2 /vj C vj

1

D h2 e zj ;

 2N

das zugehörige Differenzen-

j D 1; 2; : : : ; N

1;

(10.36)

314

Kapitel 10 Gesamtschritt-, Einzelschritt- und Relaxationsverfahren

mit zj D j h. Für N D 30 beziehungsweise N D 200 bestimme man eine approximative Lösung von (10.36) mithilfe des Relaxationsverfahrens mit den folgenden Relaxationsparametern, ! D 0:1; 0:2; 0:3; : : : ; 2:0; 2:1, wobei die Iteration jeweils abgebrochen werden soll, wenn mehr als 1000 Iterationen (für N D 200 mehr als 2000 Iterationen) benötigt werden oder falls jj x .n/ x .n 1/ jj1  10 5 ausfällt. Als Startwert wähle man jeweils x .0/ D 0. Für jede Wahl von ! gebe man die Anzahl .n/ der benötigten Iterationsschritte n, jj x .n/ x .n 1/ jj1 und den Fehler maxj D1;:::;N 1 jxj u.zj /j tabellarisch an.

11

Verfahren der konjugierten Gradienten und GMRES-Verfahren

11.1 Vorbetrachtungen Ziel der nachfolgenden Betrachtungen ist erneut die approximative Lösung eines regulären linearen Gleichungssystems

Ax D b

.A 2 R N N regulär;

(mit der eindeutigen Lösung x D A

1

b 2 RN /

b 2 R N ), und hierzu seien

¹ 0 º  D1  D2      R N

(11.1)

zunächst nicht weiter spezifizierte (endlich oder unendlich viele) lineare Unterräume. Im Folgenden werden zwei Ansätze zur Bestimmung von (unterschiedlichen) Vektorfolgen xn 2 Dn ; n D 1; 2; : : : ; vorgestellt.1 Definition 11.1. a) Für gegebene Ansatzräume (11.1) hat der Ansatz des orthogonalen Residuums zur Bestimmung von Vektoren x1 ; x2 ; : : : 2 R N die folgende Form,

Axn

xn 2 D n ; b 2 Dn?

³

n D 1; 2; : : : :

(11.2)

b) Der Ansatz des minimalen Residuums zur Bestimmung von Vektoren x1 ; x2 ; : : : 2 R N hat für gegebene Ansatzräume (11.1) die folgende Form,

jjAxn

xn 2 D n ; b jj2 D min jjAx x2Dn

b jj2

µ

n D 1; 2; : : : :

M

(11.3)

Hierbei bezeichnet wie üblich

® ¯ M ? WD y 2 R N W y >x D 0 für jedes x 2 M ;

M  R N beliebig;

das orthogonale Komplement einer Menge M , und jj  jj2 bezeichnet wieder die euklidische Vektornorm. Schließlich bezeichnet im Folgenden zu jedem x 2 R N der Vektor Ax b das zugehörige Residuum2 , was die Bezeichnungen für die beiden in Definition 11.1 vorgestellten Ansätze erklärt. 1

Im Unterschied zum vorigen Kapitel 10 wird nun wieder die etwas knappere Tiefstellung für den Laufindex n gewählt. Dies ist hier ohne Weiteres möglich, da die einzelnen Einträge in den vektorwertigen Iterierten im Folgenden keine spezielle Rolle spielen. 2 In der Literatur findet man die Bezeichnung “Residuum” oft auch für den Vektor b Ax anstelle Ax b .

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_11

316

Kapitel 11

CG- und GMRES-Verfahren

Bemerkung 11.2. Natürliche Fragestellungen im Zusammenhang mit den beiden vorgestellten Ansätzen sind jeweils Existenz und Eindeutigkeit der Vektoren xn . Zudem gilt es, Algorithmen zur Bestimmung dieser Vektoren anzugeben sowie Abschätzungen für den Fehler jjxn x jj herzuleiten bezüglich gängiger Normen. Schließlich sind spezielle Ansatzräume für D1 ; D2 ; : : : auszuwählen. M Bei der Wahl spezieller Ansatzräume in (11.1) werden die im Folgenden definierten Krylovräume eine hervorgehobene Rolle spielen: Definition 11.3. Zu gegebener Matrix A 2 R N N und einem Vektor b 2 R N ist die Folge der Krylovräume wie folgt erklärt,

® K n .A; b / D span b; Ab; : : : ; An

1

¯ b  RN ;

n D 0; 1; : : : :

Offensichtlich sind die Krylovräume aufsteigend, es gilt ¹ 0 º D K 0 .A; b /  K 1 .A; b /  : : : . Weitere Eigenschaften von eher technischer Natur werden zu einem späteren Zeitpunkt vorgestellt3 .

11.1.1 Ausblick In dem vorliegenden Kapitel werden nun die beiden in Definition 11.1 angegebenen Ansätze mit den speziellen Räumen Dn D K n .A; b / behandelt.4

a) Der Ansatz des orthogonalen Residuums mit den Räumen Dn D K n .A; b / wird für symmetrische, positiv definite Matrizen A 2 R N N betrachtet. Dies führt auf das klassische Verfahren der konjugierten Gradienten. Einzelheiten hierzu werden in den Abschnitten 11.2–11.4 vorgestellt. Für allgemeine (also indefinite oder nichtsymmetrische) reguläre Matrizen A 2 R N N kann man zu den Normalgleichungen A>Ax D A>b übergehen und hierfür das angesprochene Verfahren der konjugierten Gradienten betrachten. Einige Details zu diesem Ansatz finden sich in Abschnitt 11.5.

b) Schließlich wird für die Räume Dn D K n .A; b / der Ansatz des minimalen Residuums betrachtet. Dies führt auf das (in Abschnitt 11.6 behandelte) GMRES-Verfahren, welches universell einsetzbar ist, weitere Voraussetzungen an die Matrix A wie etwa Symmetrie entfallen hier.

11.2 Der Ansatz des orthogonalen Residuums für positiv definite Matrizen In dem vorliegenden Abschnitt 11.2 wird der Ansatz des orthogonalen Residuums für allgemeine Ansatzräume der Form (11.1) betrachtet unter der zusätzlichen Annahme, dass A 2 R N N eine symmetrische, positiv definite Matrix ist. 3 4

siehe Lemma 11.31 auf Seite 337 Diese Verfahren werden allgemein als Krylovraummethoden bezeichnet.

Abschnitt 11.2

317

Der Ansatz des orthogonalen Residuums

11.2.1 Existenz, Eindeutigkeit und Minimaleigenschaft Im Folgenden wird für eine gegebene symmetrische, positiv definite Matrix A 2 R N N die Existenz und Eindeutigkeit der zum Ansatz des orthogonalen Residuums (11.2) gehörenden Vektoren xn diskutiert. Hierzu werden die folgenden Notationen eingeführt:

h x; y i 2 D x>y;

h x ; y iA D x>Ay;

x; y 2 R N ; ;

......

jjx jjA D .x>Ax /1=2 ;

x 2 RN :

Bemerkung 11.4. 1) Die neue Notation h ;  i 2 für das klassische skalare Produkt wird wegen der gelegentlich einfacheren Lesbarkeit eingeführt. 2) Wie man leicht nachrechnet, bildet im Falle einer symmetrischen, positiv definiten Matrix A 2 R N N die Abbildung h  ;  iA ein Skalarprodukt auf R N , und jj  jjA stellt offensichtlich die zugehörige Norm dar; diese bezeichnet man als A-Norm. 3) Aufgrund der Natur des Ansatzes des orthogonalen Residuums erhält man Fehlerabschätzungen zunächst nur bezüglich der A-Norm. Fehlerabschätzungen bezüglich der natürlicheren euklidischen Norm jj  jj2 werden dann noch über die Äquivalenz von Normen hergeleitet. M Das folgende Resultat liefert für den Ansatz des orthogonalen Residuums neben Existenz und Eindeutigkeit auch eine Minimaleigenschaft, mit der zu einem späteren Zeitpunkt5 noch konkrete Fehlerabschätzungen hergeleitet werden. Theorem 11.5. Zu gegebener symmetrischer, positiv definiter Matrix A 2 R N N sind für n D 1; 2; : : : die Vektoren xn aus dem Ansatz des orthogonalen Residuums (11.2) – mit allgemeinen Ansatzräumen Dn entsprechend (11.1) – eindeutig bestimmt, und es gilt

jjxn

x jjA D min jjx x2Dn

x jjA ;

n D 1; 2; : : : :

(11.4)

Beweis. Bei fest gewähltem Index n betrachtet man für den Nachweis der Eindeutigkeit zwei Vektoren xn ; b x n mit der Eigenschaft (11.2). Hier gilt

xn i2 D 0 h A.xn b x n / ; xn b „ ƒ‚ … „ ƒ‚ … 2Dn?

2Dn

Ý

xn D b xn:

Für den Nachweis der Existenz setzt man mit einer beliebigen Basis d0 ; d1 ; : : : ; dm von Dn (mit m WD dim Dn ) wie folgt an,

xn D 5

siehe Abschnitt 11.4

m X1 kD0

˛k dk

1

(11.5)

318

Kapitel 11

CG- und GMRES-Verfahren

und erhält damit

xn genügt .11:2/ ” Axn ” h Axn ”

m X1 kD0

b 2 Dn?

b; dj i 2 D 0

(11.6) für j D 0; 1; : : : ; m

h Adk ; dj i 2 ˛k D h b; dj i 2

......

1;

;

(11.7)

was ein lineares System von m Gleichungen für die m Koeffizienten ˛0 ; : : : ; ˛m 1 darstellt. Infolgedessen und aufgrund der Eindeutigkeit der Lösung – diese wurde im ersten Teil dieses Beweises bereits nachgewiesen – ist dieses Gleichungssystem also lösbar. Schließlich ist noch die Minimaleigenschaft (11.4) nachzuweisen. Hierzu berechnet man für einen beliebigen Vektor x 2 Dn Folgendes,

jjx

2 x jjA D jjxn

D jjxn  jjxn

x C x

2 xn jjA

D0

…„ ƒ ‚ x jjA C 2 h A.xn x /; x xn i 2 C jjx „ ƒ‚ … „ ƒ‚ … 2

2 x jjA :

2Dn?

2 xn jjA

2Dn

Dies komplettiert den Beweis des Theorems.

11.2.2 Der Ansatz des orthogonalen Residuums (11.2) für gegebene A konjugierte Basen Mit dem Beweis von Theorem 11.5 ist bereits eine Möglichkeit zur Durchführung des Ansatzes des orthogonalen Residuums vorgestellt worden; ausgehend von einer Basis d0 ; : : : ; dm 1 für Dn hat man nur das durch den Ansatz (11.5) entstehende Gleichungssystem (11.7) zu lösen. Im Folgenden soll ein Spezialfall behandelt werden, bei dem dieses Gleichungssystem (11.7) von Diagonalgestalt ist. Definition 11.6. Es sei A 2 R N N eine symmetrische, positiv definite Matrix. Gegebene Vektoren d0 ; d1 ; : : : ; dn 1 2 R N n¹ 0 º mit n  N heißen A-konjugiert, falls Folgendes gilt,

h Adk ; dj i 2 D 0 für k ¤ j: Bemerkung 11.7. A-Konjugiertheit ist also gleichbedeutend mit paarweiser Orthogonalität bezüglich des Skalarprodukts h  ;  iA . M Unter Fortführung des Ansatzes (11.5)–(11.7) lässt sich im Falle symmetrischer positiv definiter Matrizen A 2 R N N der Ansatz des orthogonalen Residuums (11.2) besonders einfach verwirklichen, falls eine A-konjugierte Basis von Dn gegeben ist. Genauer gilt Folgendes:

Abschnitt 11.2

319

Der Ansatz des orthogonalen Residuums

Theorem 11.8. Für eine gegebene symmetrische, positiv definite Matrix A 2 R N N und A-konjugierte Vektoren d0 ; d1 ; : : : ; dn 1 2 R N n¹ 0 º mit n  N gelte

® Dn D span d0 ; d1 ; : : : ; dn

1

¯ ;

n D 0 ; 1 ; : : : ; n :

Dann erhält man für den Ansatz des orthogonalen Residuums (11.2) die folgenden Darstellungen für n D 1; 2; : : : ; n :

xn D

nX1

˛k dk ;

kD0

mit ˛k D

h rk ; dk i 2 ; h Adk ; dk i 2

rk WD Axk

b;

k  1;

(11.8)

r0 WD

b:

(11.9)

Beweis. Aus der Vorgehensweise des Ansatzes (11.5)–(11.7) (mit m D n ) im Beweis von Theorem 11.5 erhält man im Fall der nun vorliegenden A-Konjugiertheit zunächst Folgendes,

xn D

nX1

kD0

˛k dk ;

mit ˛k WD

h b; dk i 2 h Adk ; dk i 2

.n D 1; 2; : : : ; n /;

(11.10)

und die Zahl ˛k in (11.10) stimmt mit der aus (11.8) überein, was für k D 0 klar ist und für k  1 so folgt:

h b Axn ; dn i 2 D h b; dn i 2 „ ƒ‚ … D rn

Dies komplettiert den Beweis.

nX1

kD0

˛k h Adk ; dn i 2 D h b; dn i 2 ; n D 0; 1; : : : ; n : „ ƒ‚ … D0

Bemerkung 11.9. a) Der Darstellung (11.8) entnimmt man, dass die Zahl ˛k unabhängig von n ist und somit Folgendes gilt,

xnC1 D xn C ˛n dn ; rnC1 D rn C ˛n Adn .n D 0; : : : ; n

1I x0 WD 0 /;

(11.11)

womit sich die Durchführung des Verfahrens (11.8) weiter vereinfacht. Man beachte, dass die Berechnung des Matrix-Vektor-Produkts Adn für die Bestimmung von ˛n sowieso erforderlich ist, und mittels (11.11) erhält man dann das Residuum rnC1 auf einfache Weise, also ohne Berechnung eines weiteren Matrix-Vektor-Produkts. (Die meisten Abbruchkriterien basieren auf den Werten des Residuums, weshalb dieses von Bedeutung ist.) b) Aufgrund der ersten Identität in (11.11) bezeichnet man den Vektor dn als Suchrichtung, und die Zahl ˛n wird als Schrittweite bezeichnet. Diese Bezeichnungsweise verwendet man im Übrigen auch bei anderen Verfahren der Form (11.11). c) Ebenfalls mit der ersten Identität in (11.11) wird klar, dass im Prinzip eine simultane Berechnung der Suchrichtungen und Approximationen in der Reihenfolge d0 ; x1 ; d1 ; x2 ; : : : möglich ist. In der Praxis wird im Fall Dn D K n .A; b / auch so vorgegangen. Einzelheiten werden im nachfolgenden Abschnitt 11.3 behandelt.

320

Kapitel 11

CG- und GMRES-Verfahren

d) Für vorgegebene Suchrichtungen in der Vorschrift (11.11) sind die Schrittweiten aus (11.8) optimal in dem folgenden Sinne,

jjxnC1

x jjA D min jjxn C tdn t 2R

x jjA :

Der Nachweis dafür ist elementar und wird hier nicht geführt.

M

11.3 Das CG-Verfahren für positiv definite Matrizen 11.3.1 Einleitende Bemerkungen Für den Ansatz des orthogonalen Residuums sollen im Folgenden nun speziell Krylovräume als Ansatzräume herangezogen werden. Definition 11.10. Zu gegebener symmetrischer, positiv definiter Matrix A 2 R N N ist das Verfahren der konjugierten Gradienten gegeben durch Ansatz (11.2) mit der speziellen Wahl

Dn D K n .A; b /;

n D 0; 1; : : : :

(11.12)

Dieses Verfahren bezeichnet man auch kurz als CG-Verfahren, wobei die Notation “CG” von der englischen Bezeichnung “method of conjugate gradients” herrührt. Der Grund für die Bezeichnungsweise “konjugierte Gradienten” wird später geliefert6 . Für die praktische Durchführung des CG-Verfahrens liefert Theorem 11.8 einen ersten Ansatz. Die noch ausstehende Konstruktion A-konjugierter Suchrichtungen in dem Raum K n .A; b / ist das Thema des folgenden Abschnitts 11.3.2.

11.3.2 Die Berechnung A -konjugierter Suchrichtungen in K n .A; b/ Das folgende Lemma behandelt die Berechnung A-konjugierter Suchrichtungen in K n .A; b / für n D 0; 1; : : : : Ausgehend von den Notationen aus Theorem 11.8 wird für jetzt fixierten Index n dabei so vorgegangen, dass – ausgehend von einer bereits konstruierten A-konjugierten Basis d0 ; : : : ; dn 1 für K n .A; b / – eine A-konjugierte Basis für K nC1 .A; b / gewonnen wird durch eine Gram-Schmidt-Orthogonalisierung der Vektoren d0 ; : : : ; dn 1 ; rn 2 R N bezüglich des Skalarprodukts h  ;  iA . Wie sich im Beweis von Lemma 11.11 herausstellt, genügt hierfür eine Gram-Schmidt-Orthogonalisierung der beiden Vektoren dn 1 ; rn 2 R N .

Lemma 11.11. Zu gegebener symmetrischer, positiv definiter Matrix A 2 R N N und mit den Notationen aus Theorem 11.8 seien die Suchrichtungen speziell wie folgt gewählt: d0 WD b sowie

dn WD 6

r n C ˇn

siehe Bemerkung 11.15

1 dn 1 ;

ˇn

1

WD

h Arn ; dn 1 i2 ; h Adn 1 ; dn 1 i2

n D 1 ; 2 ; : : : ; n

1;

(11.13)

Abschnitt 11.3

321

Das CG-Verfahren für positiv definite Matrizen

wobei n den ersten Index mit rn D 0 bezeichnet. Mit dieser Wahl sind die Vektoren d0 ; d1 ; : : : ; dn 1 2 R N A-konjugiert und es gilt

®

span d0 ; : : : ; dn

1

¯

® D span b; r1 ; r2 ; : : : ; rn

1

¯

D K n .A; b /;

n D 1 ; 2 ; : : : ; n :

µ

(11.14)

Beweis. Mittels vollständiger Induktion über n D 1; 2; : : : ; n werden sowohl die AKonjugiertheit der Vektoren d0 ; d1 ; : : : ; dn 1 2 R N als auch die beiden Identitäten in (11.14) nachgewiesen. Wegen span ¹d0 º D span ¹b º D K 1 .A; b / ist der Induktionsanfang klar, und im Folgenden sei angenommen, dass die Vorschrift (11.13) ein System d0 D b; d1 ; d2 ; : : : ; dn 1 von A-konjugierten Vektoren mit der Eigenschaft (11.14) liefert mit einem fixierten Index 1  n  n 1. Gemäß (11.2) gilt rn 2 K n .A; b /? , und im Fall rn ¤ 0 sind demnach die Vektoren d0 ; : : : ; dn 1 ; rn linear unabhängig. Eine Gram-Schmidt-Orthogonalisierung dieser Vektoren bezüglich des Skalarprodukts h  ;  iA liefert den Vektor

dn WD

rn C

nX1

kD0

./ h Arn ; dk i2 d D h Adk ; dk i2 k

r n C ˇn

wobei man die Identität ./ aus den Eigenschaften A.K n rn 2 K n .A; b /? erschließt:

h Arn ; dk i 2 D h rn ; Adk i 2 D 0;

1 dn 1 ;

(11.15)

1 .A; b //

k D 0; 1; : : : ; n

 K n .A; b / sowie

2:

Nach Konstruktion sind die Vektoren d0 ; : : : ; dn 1 ; dn A-konjugiert und es gilt span ¹d0 ; : : : ; dn 1 ; dn º D span ¹b; r1 ; r2 ; : : : ; rn º. Aufgrund der zweiten Identität in (11.11) gilt zudem span ¹b; r1 ; r2 ; : : : ; rn º  K nC1 .A; b /, so dass aus Dimensionsgründen auch hier notwendigerweise Gleichheit vorliegt. Dies komplettiert den Beweis des Lemmas. Bemerkung 11.12. Mit dem durch Lemma 11.11 beschriebenen Abbruch wird gleichzeitig die Lösung des Gleichungssystems Ax D b geliefert, es gilt also xn D x . Dabei gilt notwendigerweise

n  N; denn aufgrund der linearen Unabhängigkeit der beiden Vektorsysteme in (11.14) erhält man dim K n .A; b / D n für n D 0; 1; : : : ; n . M Als unmittelbare Konsequenz aus dem Beweis von Lemma 11.11 erhält man für die Schrittweiten noch die folgende Darstellung, wie man sie üblicherweise auch in numerischen Implementierungen verwendet:

322

Kapitel 11

CG- und GMRES-Verfahren

Lemma 11.13. In der Situation von Lemma 11.11 gelten die Darstellungen

˛n D ˇn

1

D

jjrn jj22 ; h Adn ; dn i 2 jjrn jj22 ; jjrn 1 jj22

n D 0 ; 1 ; : : : ; n n D 1 ; 2 ; : : : ; n

1;

1

(11.16)

.r0 WD

b /:

(11.17)

Beweis. Mit rn 2 K n .A; b /? sowie der Setzung (11.13) für die Suchrichtung dn erhält man h rn ; dn i 2 D jjrn jj22 , und zusammen mit (11.8) liefert dies (11.16). Diese Darstellung (11.16) für ˛n zusammen mit der Identität7 rn D rn 1 C ˛n 1 Adn 1 liefert schließlich Folgendes,

jjrn jj22 D h rn ; rn 1 i 2 C˛n „ ƒ‚ … D0

1 h rn ;

Adn

1 i2

D ˇn

2 1 jjrn 1 jj2 ;

und daher gilt auch die angegebene Darstellung (11.17) für ˇn den Beweis des Lemmas.

1.

Dies komplettiert

11.3.3 Der Algorithmus zum CG-Verfahren Trägt man die Resultate aus Theorem 11.8, Darstellung (11.11), Lemma 11.11 sowie Lemma 11.13 zusammen, so ergibt sich der folgende Algorithmus für das Verfahren der konjugierten Gradienten. Algorithmus 11.14. Schritt 0: Setze r0 D Für n D 0; 1; : : : W

b.

a) Wenn rn D 0, so Abbruch, n D n .

b) Wenn andererseits rn ¤ 0, so verfahre man in Schritt n C 1 wie folgt,

dn D

´

r n C ˇn

1 dn 1 ;

ˇn

r0 ;

xnC1 D xn C ˛n dn ; rnC1 D rn C ˛n Adn :

˛n D M

1

D

jj rn jj22

jj rn

2 1 jj2

jj rn jj22 ; h Adn ; dn i2

;

wenn n  1 wenn n D 0

Bemerkung 11.15. Die in Definition 11.10 eingeführte Bezeichnung “Verfahren der konjugierten Gradienten” hat ihre Ursache in den beiden folgenden Eigenschaften: 



Für jeden Index n ist das Residuum rn identisch mit dem Gradienten des Energiefunktionals J.x / D 12 h Ax; x i 2 h x; b i 2 an der Stelle xn , es gilt also rn D rJ.xn /; siehe hierzu Aufgabe 11.2.

Es gilt

h rn ; rk i 2 D 0 für n ¤ k:

Dies folgt unmittelbar aus den Eigenschaften (11.2) sowie (11.14). 7

vergleiche (11.11)

M

Abschnitt 11.4

323

Die Konvergenzgeschwindigkeit des CG-Verfahrens

11.4 Die Konvergenzgeschwindigkeit des CG-Verfahrens Mit Bemerkung 11.12 wird klar, dass das CG-Verfahren als direktes Verfahren interpretiert werden kann, das nach endlich vielen Schritten die exakte Lösung von Ax D b liefert, xn D x . Aufgrund der eingangs von Abschnitt 10 angestellten Bemerkungen sind jedoch auch die Approximationseigenschaften der Iterierten x1 ; x2 ; : : : von Interesse. Aus diesem Grund werden in dem vorliegenden Abschnitt ausgehend von der Optimalitätseigenschaft (11.4) konkrete Fehlerabschätzungen für das Verfahren der konjugierten Gradienten hergeleitet. Hierbei ist das folgende Lemma nützlich. Lemma 11.16. Zu einer gegebenen symmetrischen, positiv definiten Matrix A 2 R N N sei .k ; vk /kD1;:::;N ein vollständiges System von (positiven) Eigenwerten k > 0 und zugehörigen orthonormalen Eigenvektoren vk 2 R N , es liegt also folgende Situation vor:

Avk D k vk ; Mit der Entwicklung x D Darstellungen:

p.A/x D jjp.A/x jj2 D

N X

PN

vj>vk D ıjk ;

j; k D 1; 2; : : : ; N:

2 R N gelten für jedes Polynom p die folgenden

kD1 ck vk

ck p.k /vk ;

kD1

X N

ck2 p.k /2

kD1

1=2

;

jjp.A/x jjA D

X N

ck2 k p.k /2

kD1

1=2

:

Insbesondere gilt also

m1=2 jjx jj2  jjx jjA  M 1=2 jjx jj2 ;

x 2 RN

0 @

m WD

min

kD1;:::;N

M WD

max

k ;

kD1;:::;N

k

1 : A

(11.18)

Beweis. Mit der angegebenen Entwicklung für x 2 R N bezüglich der vorgegebenen Basis erhält man unmittelbar Folgendes,

A x D

N X

ck k vk ;

kD1

 D 0; 1; : : :;

und daraus folgt die erste Identität des Lemmas. Weiter berechnet man

jjp.A/x jj2 D D

N ˝ X

j D1

 X N

cj p.j /vj ;

N X

kD1

ck p.k /vk

˛ 1=2

cj ck p.j /p.k / h vj ; vk i 2 „ ƒ‚ … j;kD1 D ıjk

2

1=2

D

X N

kD1

ck2 p.k /2

1=2

;

324

Kapitel 11

CG- und GMRES-Verfahren

und analog erhält man

 X N N ˛ 1=2 ˝ X ck p.k /vk 2 cj p.j /vj ; jjp.A/x jjA D A j D1

D D

N ˝ X

kD1

cj j p.j /vj ;

j D1

 X N

j;kD1

N X

ck p.k /vk

kD1

˛ 1=2 2

cj ck j p.j /p.k / h vj ; vk i 2 „ ƒ‚ … Dıjk

1=2

D

X N

ck2 k p.k /2

kD1

1=2

:

Den ersten Schritt auf dem Weg zur Herleitung spezieller Abschätzungen für jjxn x jjA liefert das folgende Theorem. Theorem 11.17. Zu einer gegebenen symmetrischen, positiv definiten Matrix A 2 R N N gelten für das CG-Verfahren die folgenden Fehlerabschätzungen:

jjxn

x jjA 



inf

sup

p2…n ; p.0/D1 2.A/

 jp./j jjx jjA für n D 0; 1; : : : ; n : 1 p.t /

ein Polynom vom Beweis. Für jedes Polynom p 2 …n mit p. 0 / D 1 ist q.t / WD t Grad höchstens n 1, und somit gilt mit der Setzung x WD q.A/b Folgendes,

x 2 K n .A; b /;

x

x D

Mit Lemma 11.16 und der Entwicklung x D

jjxn

PN

p.A/x:

kD1 ck vk

2 R N erhält man

D jjp.A/x jjA ‚ …„ ƒ 1=2 X N x jjA  jjx x jjA D ck2 k p.k /2 kD1

 sup jp./j 2.A/

Dies komplettiert den Beweis.

X N



kD1

ck2 k

1=2

:

ƒ‚ … D jjx jjA

Zur Herleitung spezieller Abschätzungen des Fehlers xn x mittels Theorem 11.17 werden im Folgenden Tschebyscheff-Polynome der ersten Art herangezogen8 , die auf dem Intervall Œ 1; 1  die Darstellung Tn .t / D cos.n arccos t / besitzen. Das folgende Lemma wird für die Herleitung der genannten speziellen Fehlerabschätzungen benötigt: 8

vergleiche Definition 1.28

Abschnitt 11.4

325

Die Konvergenzgeschwindigkeit des CG-Verfahrens

Lemma 11.18. Für die Tschebyscheff-Polynome der ersten Art T0 ; T1 ; : : : gilt

Tn .t / D  Tn  C 11 

1 .t 2

C

p t2

1 /n C .t

p  C 1 n 1 p 2  1

p t2

für  2 R ;

1 /n

 > 1:



für t 2 R ;

jt j  1; (11.19)

Beweis. Auf dem Intervall Œ 1; 1  besitzt Tn die folgende Darstellung,

Tn .t /

t DWcos 

D

cos n D



e in C e

in



 C isin  /n C . cos  isin  /n p p  n  mit t 2 Œ 1; 1 : D 12 .t C i 1 t 2 /n C t i 1 t 2 ƒ‚ … „ DW p.t /

D

1 . cos  2

1 2

(11.20)

Die nachfolgende Darstellung zeigt, dass die in (11.20) definierte Funktion p.t / ein Polynom (vom Höchstgrad n ) darstellt,

p.t / D

n 1 X n n j j i j t 2 j D0

D 0 für j=2 62 N0

‚ …„ ƒ . 1 t 2 /j . 1 C . 1 /j / ; „ ƒ‚ … p

t 2 R:

2 …j für j=2 2 N0

Zusammenfassend lässt sich feststellen, dass Tn und p zwei Polynome darstellen, die auf dem Intervall Œ 1; 1  übereinstimmen, daher gilt notwendigerweise auch

Tn .t / D p.t / für t 2 R : Die im Lemma angegebene Darstellung von Tn .t / für jt j  1 folgt dann unmittelbar p p aus der Identität i 1 t 2 D t 2 1. Für den Nachweis der Ungleichung (11.19) berechnet man für   1

C1 ˙  1

r

 C 1 2  1

p p C1˙2  . C 1 /2 . 1 /2 1D D  1  1 p p .  ˙ 1 /2  ˙ 1 D ; Dp  1   1 C1˙

und daraus resultiert die Behauptung,

 Tn  C 11

h  p C 1 n  p 1 n i D C p  p  1 C1 1 2

1 2

 p  C 1 n : p  1

Es werden nun die Resultate für die Konvergenzgeschwindigkeit des Verfahrens der konjugierten Gradienten vorgestellt.

326

Kapitel 11

CG- und GMRES-Verfahren

Theorem 11.19. Zu einer gegebenen symmetrischen, positiv definiten Matrix A 2 R N N gelten für das CG-Verfahren die folgenden Fehlerabschätzungen:

jjxn jjxn

x jjA  2 n jjx jjA ;

p x jj2  2 A n jjx jj2 ;

n D 0; 1; : : : ; .......

p

 1 mit den Notationen A WD cond2 .A/ und WD pAC1 . A

Beweis. Für den Nachweis der ersten Abschätzung wird im Normalfall A > 1 Theorem 11.17 angewandt mit dem folgenden Polynom,

  Tn .M C m 2/=.M m/ p./ WD   ; Tn .M C m/=.M m/

 2 R;

wobei die Zahlen m und M wie schon in (11.18) den kleinsten beziehungsweise größten Eigenwert der Matrix A bezeichnen. Offensichtlich gilt p 2 …n und p. 0 / D 1, wegen  .A/  Œm; M  und max mM

Cm jp./j D jTn M j M m

1

 C1

D jTn A A

1

j

1 .11:19/



2 n

erhält man die erste Abschätzung des Theorems für die Situation A > 1. (Der degenerierte Fall A D 1 ist gleichbedeutend mit A D I für ein  > 0 und führt auf x1 D x .) Die zweite Abschätzung des Theorems ist eine unmittelbare Konsequenz aus der ersten Abschätzung und der Normäquivalenz (11.18).

11.5 Das CG-Verfahren für die Normalgleichungen Ist das reguläre lineare Gleichungssystem Ax D b symmetrisch indefinit oder aber nichtsymmetrisch, so kann man zu den Normalgleichungen

A>Ax D A>b übergehen und hierauf das klassische CG-Verfahren anwenden. Diesen Ansatz bezeichnet man als CGNR-Verfahren. Bemerkung 11.20. a) Als unmittelbare Konsequenz aus Theorem 11.5 ergibt sich für die Iterierten des CGNR-Verfahrens die Minimaleigenschaft

jjAxn

b jj2 D

min

x2K n .A>A;A>b/

jjAx

b jj2 :

(11.21)

Diese Eigenschaft (11.21) begründet den Buchstaben “R” in der Notation CGNR, da in dieser Variante das Residuum minimiert wird, und der Buchstabe “N” steht für “Normalgleichungen”. Aufgrund der Eigenschaft (11.21) ist auch unmittelbar klar, dass das CGNR-Verfahren für die spezielle Wahl Dn D K n .A>A; A>b /; n D 0; 1; : : :, mit dem Ansatz des minimalen Residuums (11.3) übereinstimmt.

Abschnitt 11.6

327

Arnoldi-Prozess

b) Einen Algorithmus zur Bestimmung der Iterierten des CGNR-Verfahrens erhält man durch Übertragung des Algorithmus 11.14 angewandt auf die Normalgleichungen A>Ax D A>b . Dabei sind in jedem Iterationsschritt zwei Matrix-Vektor-Multiplikationen erforderlich (zur Berechnung von Adn und A>Adn ). Man beachte, dass die numerisch kostspielige Berechnung der Matrix A>A dafür nicht erforderlich ist. c) Als Konsequenz aus Theorem 11.19 erhält man für das CGNR-Verfahren die folgenden Fehlerabschätzungen:

b jj2  2 n jjb jj2 ;

jjAxn jjxn

n D 0; 1; : : : ;

x jj2  2A n jjx jj;

.......

mit den Notationen A WD cond2 .A/ und WD AC11 . Man beachte, dass die in TheoA p rem 11.19 auftretenden Größen A hier durch A ersetzt werden mussten, was sich bei schlecht konditionierten Problemen ( A  1) als ungünstig erweist. M

11.6 Arnoldi-Prozess 11.6.1 Vorbetrachtungen zum GMRES-Verfahren Eine weitere Möglichkeit zur Lösung eines regulären linearen Gleichungssystems Ax D b mit symmetrisch indefiniter oder aber nichtsymmetrischer Matrix A 2 R N N liefert das GMRES-Verfahren: Definition 11.21. Das GMRES-Verfahren ist definiert durch den Ansatz des minimalen Residuums (11.3) mit der speziellen Wahl Dn D K n .A; b /, es gilt also

xn 2 K n .A; b /;

jjAxn

b jj2 D

min

x2K n .A;b/

jjAx

b jj2 ;

n D 1; 2; : : : :

(11.22)

Die Abkürzung “GMRES” hat ihren Ursprung in der englischen Bezeichnung “generalized minimal residual method”. Ursprünglich wurde dieses Verfahren für symmetrische Matrizen A betrachtet und dabei mit MINRES bezeichnet. Für n D 1; 2; : : : ist die grundsätzliche Vorgehensweise zur Realisierung des GMRES-Verfahrens folgendermaßen: a) Mittels des gleich zu beschreibenden Arnoldi-Prozesses wird bezüglich des euklidischen Skalarprodukts eine Orthogonalbasis von K n .A; b / erzeugt. b) Mittels dieser Orthogonalbasis lässt sich das Minimierungsproblem (11.22) als ein einfacheres Minimierungsproblem formulieren, das schnell gelöst werden kann. Details hierzu werden in Abschnitt 11.7 vorgestellt. Der vorliegende Abschnitt 11.6 befasst sich mit dem in a) angesprochenen ArnoldiProzess.

328

Kapitel 11

CG- und GMRES-Verfahren

11.6.2 Arnoldi-Prozess Die Vorgehensweise beim Arnoldi-Prozess ist schnell beschrieben: ausgehend von einem gegebenen normierten Vektor q1 2 R N wird bezüglich des klassischen Skalarprodukts h ;  i 2 eine Folge paarweise orthonormaler Vektoren q1 ; q2 ; : : : generiert durch Gram-Schmidt-Orthogonalisierung der Vektoren q1 ; Aq1 ; Aq2 ; : : :9 . Der folgende Algorithmus beschreibt die genaue Vorgehensweise. Algorithmus 11.22 (Arnoldi-Prozess). Ausgehend von einem gegebenem Vektor 0 ¤ b 2 R N setzt man q1 D b=jjb jj2 2 R N und geht folgendermaßen vor für n D 1; 2; : : : : a) (Orthogonalisierung) Man setzt

hj n WD .Aqn />qj 2 R ; b q nC1 WD Aqn

n X

j D1

j D 1; 2; : : : ; n;

(11.23)

hj n qj 2 R N :

(11.24)

b) (Normierung) Im Fall b q nC1 D 0 bricht der Prozess ab; der Abbruchindex wird mit n D n bezeichnet. Wenn andererseits b q nC1 ¤ 0 gilt, so setzt man

hnC1;n WD jjb q nC1 jj2 2 R ;

qnC1 WD

1

jjb q nC1 jj2

b q nC1 2 R N :

M

(11.25)

Bemerkung 11.23. a) Der Arnoldi-Prozess hat eine eigenständige Bedeutung und kann beispielsweise auch zur numerischen Behandlung von Eigenwertproblemen eingesetzt werden; mehr Details hierzu später10 . b) Den Setzungen (11.23)–(11.24) entnimmt man, dass der Arnoldi-Prozess genau dann abbricht, wenn erstmalig Aqn 2 span ¹q1 ; : : : ; qn º gilt. M Das folgende Lemma stellt die wichtigsten Eigenschaften im Zusammenhang mit dem Arnoldi-Prozess zusammen. Lemma 11.24. Die durch den Arnoldi-Prozess erzeugten Vektoren q1 ; q2 ; : : : ; qn 2 R N sind paarweise orthonormal, und es gilt

®

¯

®

span q1 ; q2 ; : : : ; qn D span q1 ; : : : ; qn

1;

Aqn

1

¯

D K n .A; b /

(11.26)

für n D 1; 2; : : : ; n . Ist die Matrix A regulär, so gilt für die eindeutige Lösung x 2 R N des Gleichungssystems Ax D b Folgendes,

x 2 K n .A; b /: 9

(11.27)

Die zu orthogonalisierenden Vektoren werden also erst im Verlauf des Prozesses generiert und sind nicht von vornherein gegeben. 10 siehe Bemerkung 11.27

Abschnitt 11.6

329

Arnoldi-Prozess

Beweis. Die paarweise Orthogonalität erhält man mittels vollständiger Induktion über n (unter Verwendung von (11.23)): > qnC 1 qj D

1

hnC1;n



 hj n D 0;

.Aqn />qj

j D 1; 2; : : : ; n; n D 1 ; 2 ; : : : ; n

1:

Schließlich gewährleistet die Setzung (11.25) die Eigenschaft jjqnC1 jj2 D 1. Die beiden Identitäten in (11.26) sollen nun mit vollständiger Induktion über n nachgewiesen werden. Wegen q1 D jj bbjj ist die Behauptung richtig für n D 1, und es wird nun 2 der Induktionsschritt 1  n 1 ! n  n geführt. Aufgrund von n  n sind die Vektoren q1 ; : : : ; qn 1 ; Aqn 1 2 R N linear unabhängig, so dass nach Konstruktion die erste Identität in (11.26) richtig ist. Die zweite Identität in (11.26) erhält man so: die Relation “” folgt aus Aqn 1 2 A.K n 1 .A; b //  K n .A; b /; die Identität “D” ergibt sich dann aus Dimensionsgründen:

n D dim span ¹q1 ; : : : ; qn

1;

Aqn



 dim K n .A; b /  n:

Die Aussage in (11.27) erhält man so: nach Definition von n in Algorithmus 11.22 gilt Aqn 2 span ¹q1 ; : : : ; qn º D K n .A; b /, und per Konstruktion gilt

Aqj 2 K j C1 .A; b /  K n .A; b /;

j D 1 ; 2 ; : : : ; n

1;

so dass insgesamt A.K n .A; b //  K n .A; b / gilt beziehungsweise aus Dimensionsgründen die Abbildung A W K n .A; b / ! K n .A; b / bijektiv ist, und wegen b 2 K n .A; b / gilt dann – wie in (11.27) angegeben – notwendigerweise auch x 2 K n .A; b /. Dies komplettiert den Beweis. Bemerkung 11.25. a) Mit der Aussage (11.26) wird klar, dass dim K n .A; b / D n für n D 1; 2; : : : ; n gilt. Einige weitere Eigenschaften von Krylovräumen werden zu einem späteren Zeitpunkt vorgestellt11 . Der Arnoldi-Prozess bricht also notwendigerweise nach höchstens N Schritten ab, n  N . b) In Schritt n des Arnoldi-Prozesses sind 2N.N 1 / arithmetische Operationen zur Berechnung von Aqn erforderlich. Zudem fallen noch . 3 C 2n/N arithmetische Operationen zur Bestimmung von hj n 2 R ; j D 1; 2; : : : ; n C 1 und qnC1 2 R N an. Im Fall n D N ergeben sich insgesamt 3N 3 C O.N 2 / arithmetische Operationen.

c) Ist die Matrix A symmetrisch, A D A>, so gilt für j  n 2 die Identität hj n D qn>Aqj D 0 aufgrund der Eigenschaften Aqj 2 K j C1 .A; b /  K n 1 .A; b / und qn 2 K n .A; b /? . Die Gram-Schmidt-Orthogonalisierung (11.23)–(11.24) geht hier also über in eine Drei-Term-Rekursion (das heißt, für die Berechnung von qnC1 werden nur qn und qn 1 benötigt):

b q nC1 WD Aqn

hnn qn

hn

1;n qn 1 ;

n D 1 ; 2 ; : : : ; n :

Diesen Spezialfall für den Arnoldi-Prozess bezeichnet man als Lanczos-Prozess. 11

siehe Lemma 11.31

M

330

Kapitel 11

CG- und GMRES-Verfahren

Matrixversion des Arnoldi-Prozesses Für die weiteren Anwendungen ist die folgende Matrixversion des Arnoldi-Prozesses von Bedeutung. Theorem 11.26. Für eine gegebene Matrix A 2 R N N und einen Vektor 0 ¤ b 2 R N gelten mit den Notationen aus dem Arnoldi-Prozess die folgenden Identitäten:

0

1

0

1

B C B C B C B C B C B C B C B C A B q1 : : : qn C D B q1 : : : qnC1 C B C B C B C B C @ A @ A ƒ‚ … „ DW Qn 2 R N n

0

h11 ♣ ♣ ♣

h1n

B B h21 ♣ ♣ ♣ B B ♣♣ ♣ @

♣♣ ♣

hnn

1

C C C; C A

n D 1 ; : : : ; n

1;

(11.28)

hnC1;n ƒ‚ … „ .nC1/n DW Hn 2 R

beziehungsweise im letzten Schritt

0

1

0

1

B C B C B C B C B C B C B C B C A B q1 : : : qn C D B q1 : : : qn C C C B B B C B C @ A @ A ƒ‚ … „ N n DW Qn 2 R

0

h11 ♣ ♣ ♣

B B h21 B B @

♣♣



♣♣



♣♣♣ ♣♣



h1n ♣ ♣♣ ♣ ♣♣

1

C C C: C A

(11.29)

hn ;n 1 hn n ƒ‚ … DW Hn 2 R n n



Beweis. Es genügt der Nachweis von (11.29), da die Matrixprodukte in (11.28) für 1 jeweils gerade die ersten n Spalten der beiden Matrixprodukte von (11.29) darstellen. Ein Vergleich der n Spalten der Matrixprodukte in (11.29) PnC1 führt auf Aqn D j D1 hj n qj beziehungsweise

n D 1 ; 2 ; : : : ; n

hnC1;n qnC1 D Aqn

n X

hj n qj ;

j D1

n D 1 ; 2 ; : : : ; n

1;

Pn

sowie auf Aqn D j D1 hj n qj . Dies entspricht exakt den Setzungen (11.23)–(11.25) des Arnoldi-Prozesses. Bemerkung 11.27. a) In Kurzform bedeuten die Darstellungen (11.28)–(11.29) Folgendes,

AQn D QnC1 Hn .n D 1; 2; : : : ; n

1 /;

AQn D Qn Hn :

(11.30)

Abschnitt 11.7

331

GMRES auf der Basis des Arnoldi-Prozesses

b) Bricht der Arnoldi-Prozess nicht vorzeitig ab, gilt also n D N , so erhält man eine Faktorisierung der Form

0

Q> N AQN

B h11 ♣ ♣ ♣ B B h21 ♣ ♣ ♣ B DB ♣♣ B ♣ B @

♣♣♣

♣♣



hN;N

1

1 h1N C C ♣♣♣ C C 2 R N N ; ♣♣ C C ♣ C A hN N

1 N N Q> ; N D QN 2 R

so dass die Matrix A durch orthogonale Ähnlichkeitstransformationen auf obere Hessenbergform gebracht worden ist, das heißt, die resultierende Matrix unterscheidet sich von einer oberen Dreiecksmatrix lediglich durch die nichtverschwindenden Einträge auf der unteren Nebendiagonalen; eine solche Matrix bezeichnet man als Hessenbergmatrix. Eine Hessenbergform ist bei der numerischen Behandlung von Eigenwertproblemen von Vorteil, siehe Kapitel 13; dort werden auch andere orthogonale Ähnlichkeitstransformationen (Householder-Transformationen, Givens-Rotationen) zur Gewinnung einer Hessenbergform vorgestellt. M

11.7 Realisierung von GMRES auf der Basis des Arnoldi-Prozesses 11.7.1 Einführende Bemerkungen Im Folgenden wird eine Methode zur Umsetzung des GMRES-Verfahrens vorgestellt, die die durch den Arnoldi-Prozess generierten Orthogonalbasen der Krylovräume K 1 .A; b /; K 2 .A; b /; : : : verwendet. Theorem 11.28. Mit den Notationen aus dem Arnoldi-Prozess gelten für die Vektoren x1 ; x2 ; : : : 2 R N aus dem GMRES-Verfahren genau dann die Darstellungen

xn D Qn zn ;

n D 1 ; 2 ; : : : ; n ;

(11.31)

wenn für n D 1; 2; : : : ; n der Vektor zn 2 R n das folgende Minimierungsproblem löst,

0 jjb jj 1 2

jjHn z

cn jj2 ! min

für z 2 R n ;

Beweis. Für jeden Index n  n

jjAQn z

0 mit cn WD @ ♣♣ A 2 R min¹nC1;n º : ♣ 0

(11.32)

1 und jeden Vektor z 2 R n gilt

b jj2 D jjQnC1 Hn z

QnC1 cn j 2 D jjHn z

cn jj2 ;

(11.33)

wobei die Norm jj  jj2 in (11.33) die ersten beiden Male auf R N und im dritten Fall auf R nC1 operiert; die letzte Identität in (11.33) resultiert aus der Isometrieeigenschaft jjQn y jj2 D jjy jj2 . Für den Index n D n verhält sich die Situation nicht viel anders; man hat nur in dem mittleren Ausdruck von (11.33) die beiden auftretenden Indizes n C 1 jeweils durch n zu ersetzen.

332

Kapitel 11

CG- und GMRES-Verfahren

11.7.2 Allgemeine Vorgehensweise zur Lösung des Minimierungsproblems (11.32) Im vorigen Abschnitt 11.7.1 ist auf der Basis des Arnoldi-Prozesses das Problem der Bestimmung der Approximationen x1 ; x2 ; : : : 2 R N des GMRES-Verfahrens reduziert worden auf die Lösung des linearen Ausgleichsproblems (11.32). Im Folgenden wird dargestellt, wie man die dabei auftretende Matrix Hn mit oberer Hessenbergstruktur schnell in eine orthogonale Matrix und eine verallgemeinerte obere Dreiecksmatrix von der folgenden Form faktorisiert: 

Für n D 1; 2; : : : ; n

0

B Hn D Tn B @

1 bestimmt man sukzessive Faktorisierungen der Form

1

C C ; Tn 2 R .nC1/.nC1/ ; A

Rn 0>

Tn

1

D Tn>;

0

B Rn D @

 ♣♣♣  ♣♣

1

♣C nn ; ♣ ♣♣ A 2 R



0 2 Rn: (11.34)

Nach der Bestimmung solcher Faktorisierungen kann das jeweilige Ausgleichsproblem (11.32) unmittelbar gelöst werden durch die Auflösung des folgenden gestaffelten Gleichungssystems:12

Rn z D y 2 R n ;

0 1

0

jjb jj2

1

B C By C >B 0 C nC1 C mit B @ A WD Tn @ ♣♣♣ A 2 R 0 

.n D 1; 2; : : : ; n

1 /:

Für den Index n D n verhält sich die Situation nur geringfügig anders. Hier bestimmt man eine Faktorisierung der Form



Hn D Tn Rn ;

0

B Rn D @

Tn 2 R n n ;

Tn1 D Tn> ;

 ♣♣♣  ♣♣



♣ ♣♣



1

C A 2 R n n ;

(11.35)

und die Lösung des linearen Ausgleichsproblems (11.32) (die in dieser Situation gleichzeitig die Lösung von Ax D b darstellt) kann dann leicht über das folgende gestaffelte Gleichungssystem bestimmt werden,

0

jjb jj2

1

B 0 C n C Rn z D Tn> B @ ♣♣♣ A 2 R : 0

Im folgenden Abschnitt 11.7.3 wird beschrieben, wie man auf effiziente Art Faktorisierungen der Form (11.34)–(11.35) gewinnt. 12

Eine einführende Behandlung dieser Vorgehensweise finden Sie in Abschnitt 4.8.5.

Abschnitt 11.7

333

GMRES auf der Basis des Arnoldi-Prozesses

11.7.3 Detaillierte Beschreibung der Vorgehensweise zur Lösung des Minimierungsproblems (11.32) Im Folgenden wird beschrieben, wie man für fixierten Index n  n ausgehend von einer Faktorisierung der Form

Hn

1

D Tn

1

0 B B @

Rn

1

C C 2 R n.n A

1

0>

1/

0 2 Rn

;

1

;

verfährt, um im Fall n  n 1 eine Faktorisierung der Form (11.34) und im Fall n D n eine Faktorisierung von der Gestalt (11.35) zu erhalten. Wie bisher auch soll zunächst die Situation n  n 1 behandelt werden. Da die Hessenbergmatrix Hn eine einfache Erweiterung von Hn 1 darstellt, ist die folgende orthogonale Transformation von Hn naheliegend, 

0 B B B B B @

10

h1n

CB

B 0C CB

Tn> 1 0>

1

Hn

CB CB A@

hnn 0>



0

B B Rn 1 B DB B B 0> @ 0>

r1n ♣♣ ♣

rn

♣♣ ♣

1

1;n

 

1

hnC1;n

ƒ‚ D Hn

C C C C; C C A

0

1

C B C B T> H C B n 1 n CDB C B A @ …

r1n

B B @ rn

mit B

0

Tn> 1

1

0>

1

0

1 h1n ! C ♣♣ C ♣ C hnn C C A

hnC1;n

h1n

1

C B ♣ C C ♣ C C WD Tn> 1 B @ ♣ A: 1;n A hnn  ♣♣ ♣

(11.36)

Die untere der beiden mit “” bezeichneten Zahlen stimmt mit hnC1;n überein, was im Folgenden aber keine Rolle mehr spielt. Man beachte, dass bei dieser Transformation tatsächlich nur eine Matrix-Vektor-Multiplikation (von der Gestalt Tn> 1 x ) zur Berechnung des letzten Spaltenvektors anfällt, da die Dreiecksmatrix Rn 1 als bekannt angenommen ist. Nun ist noch der Vektor . ;  /> 2 R 2 orthogonal in ein Vielfaches des ersten Einheitsvektors zu transformieren, ohne dabei den Rest der in (11.36) auftretenden Matrix zu verändern. Hierzu wird der Vektor w Œn 2 R 2 ; jjw Œn jj2 D 1, gemäß Lemma 4.64 auf Seite 97 so bestimmt, dass für die Householdermatrix W Œn D I2 2w Œn .w Œn /> 2 R 22 Folgendes gilt,

W Œn

   

D



rnn 0



0

B In B bzw. äquivalent B B @

1

1

W Œn

0

r1n

1

0

r1n

1

B ♣ C B ♣ C C B ♣♣ C B ♣♣ C C C B CB C B rn 1;n C D B rn 1;n C ; C C B CB C C B AB @  A @ rnn A 

0

334

Kapitel 11

CG- und GMRES-Verfahren

wobei wieder Is 2 R ss die Einheitsmatrix bezeichnet. So hat man bereits die gewünschte Faktorisierung gewonnen,

0 B B B B B B @



In

10 CB CB CB CB CB C@ A

0

1

0>

B B B C Hn D B B C @ A C

0C C

Tn> 1

W Œn ƒ‚ DW Tn>

0

1

0>

1





♣♣♣ ♣♣ ♣

♣♣ ♣



0



1

C C C C 2 R .nC1/n : C A

 Nun soll noch die Situation n D n  behandelt werden, die sich geringfügig von dem Fall n  n 1 unterscheidet. Hier führt man die folgende Transformation aus,

Tn>

0

h1n

B B 1 @ Hn

♣♣ ♣

1

hn n

ƒ‚ D Hn



0

1

C B Rn CDB A B @

r1n ♣♣ ♣

1

1

C C C DW Rn ; A

rn 1;n rn n 1 0 r1n B ♣ C mit @ ♣♣ A WD Tn> rn n

0>



1

0 B B @

h1n ♣♣♣

hn n

1

C C; A

bei der lediglich eine Matrix-Vektor-Multiplikation von der Art Tn> 1 x anfällt. Die gewünschte Faktorisierung liegt nun schon vor; eine anschließende Elimination ist hier nicht erforderlich, so dass die Wahl Tn D Tn 1 zum Ziel führt. Bemerkung 11.29. a) Eine unmittelbare Folgerung aus der vorgestellten Vorgehensweise sind die folgenden Darstellungen,

0

B Rn D B @

r11 ♣ ♣ ♣ r1n ♣♣

♣ ♣♣



rnn Œn

Tn> D SnŒn Sn

1

C C 2 R nn ; A Œn

1    S1 ;

n D 1 ; 2 ; : : : ; n ;

Œn

mit Sj

0

B B WD B @

Ij

1

1

W Œj 

j D 1; 2; : : : ; n;

In

j

C C C 2 R .nC1/.nC1/ ; A

n D 1 ; 2 ; : : : ; n

1;

beziehungsweise Tn D Tn 1 . Naheliegenderweise verwendet man diese Faktorisierungen von Tn> für die numerischen Berechnungen, die Berechnung eines MatrixVektor-Produkts von der Form Tn> 1 x wird also über n zweidimensionale MatrixVektor-Multiplikationen realisiert.

Abschnitt 11.7

GMRES auf der Basis des Arnoldi-Prozesses

335

b) Man beachte, dass bei der Lösung des Minimierungsproblems (11.32) in jedem Schritt n lediglich O.N / arithmetische Operationen erforderlich sind, so dass die numerische Hauptlast auf dem Arnoldi-Prozess ruht. Insgesamt lässt sich festhalten, dass für jeden Schritt des GMRES-Verfahrens lediglich eine Matrix-Vektor-Multiplikation sowie Operationen niedrigen Aufwands benötigt werden, es fallen also 2N 2 C O.N / arithmetische Operationen pro Iterationsschritt an. Dies ist ein Gewinn gegenüber dem CGNR-Verfahren, bei dem zwei Matrix-Vektor-Multiplikationen pro Iterationsschritt erforderlich sind. Auf der anderen Seite ist anzumerken, dass GMRES sich nicht wie das CGNR-Verfahren als einfache Zweitermrekursion realisieren lässt und der Speicherplatzbedarf wegen der benötigten Matrizen Rn und orthogonalen Vektoren qn ; n D 1; 2; : : : höher ausfällt. Schließlich gestaltet sich die Gewinnung von Fehlerabschätzungen für das GMRES-Verfahren schwieriger, wie sich im nachfolgenden Abschnitt herausstellen wird. M

11.7.4 Matlab-Programm für GMRES Im Folgenden wird ein Matlab-Programm (das auch unter Octave lauffähig ist) für das GMRES-Verfahren auf der Basis des Arnoldi-Prozesses angegeben. Die Matrix A 2 R N N sowie der Vektor b 2 R N sind dabei als gegeben angenommen. Der Algorithmus bricht in dieser Variante mit dem Schritt n D n ab, er fungiert hier also als direkter Löser. % ................... gmres.m ...................... x = zeros(N,1); d = zeros(2,1); w = zeros(2,N); h = zeros(N,1);

res = zeros(N,1); Q = zeros(N,N); y = zeros(N,1);

u = zeros(2,1); R = zeros(N,N); y(1) = norm(b);

goahead = 1; n = 1; %(*** Ende der Initialisierungen ***) Q(:,1) = b/norm(b); myeps = 0.000001; %(*** Start der Iteration; n D Iterationsschritt ***) while (goahead == 1) v = A*Q(:,n); z = v; for j= 1:n h(j) = Q(:,j)’*v; z = z - h(j)*Q(:,j); end qhat = z; normqhat = norm(qhat); if ( (normqhat = 2) R(1:n-1,n) = h(1:n-1); end %(*** Berechnung der neuen orthog. Transformation ***) if (goahead == 0) R(n,n) = h(n);

336

Kapitel 11

CG- und GMRES-Verfahren

else u = h(n:n+1); if (abs(u(1)) =

¤ K n .A; b / D K n C1 .A; b / D ♣ ♣ ; (11.38) > ; 6 K n .A; b / für n D 0; 1; : : : ; n 1; 2 1 .A; b /

wobei sich die in (11.38) angegebenen Eigenschaften unmittelbar aus dem nachfolgenden Lemma ergeben.

Lemma 11.31. Für eine reguläre Matrix A 2 R N N sowie einen Vektor b 2 R N sind für jede Zahl n  1 die folgenden Aussagen äquivalent: a) Die Vektoren b; Ab; : : : ; An b sind linear abhängig; b) K n .A; b / D K nC1 .A; b /;

c) A.K n .A; b //  K n .A; b /;

d) es existiert ein linearer Unterraum M  R N mit dim M  n, für den b 2 M gilt und der bezüglich der Matrix A invariant ist, A.M/  M ; e) für x D A

1

b gilt x 2 K n .A; b /.

Beweis. Die Äquivalenzen ergeben sich folgendermaßen: a/ ) b/ W Nach Voraussetzung existieren eine Zahl 0  m  n und Konstanten 0 ;

1 ; : : : ; m 1 2 R mit

Am b D

m X1 D0

 A b:

338

Kapitel 11

CG- und GMRES-Verfahren

Daraus resultiert dann

An b D

nX1

Dn m



.n m/ A



b 2 K n .A; b /:

b/ ) c/: Dies folgt sofort aus A.K n .A; b //  K nC1 .A; b / D K n .A; b /. c/ ) d / W Man wähle M D K n .A; b /. d / ) a/ W Nach Voraussetzung gilt A b 2 M für  D 0; 1; : : :, und daher gilt dim span ¹b; Ab; : : : ; An b º  n beziehungsweise a). c/ ) e/ W Aus Dimensionsgründen ist die Abbildung A W K n .A; b / ! K n .A; b / eine Bijektion, und wegen b 2 K n .A; b / besitzt somit die Gleichung Ax D b in dem Krylovraum K n .A; b / eine Lösung, die wegen der Injektivität von A notwendigerweise mit x übereinstimmt. e/ ) a/ W Nach Annahme gilt x 2 span ¹b; Ab; : : : ; An 1 b º beziehungsweise b D Ax 2 span ¹b 2; b 3 ; : : : ; An b º, woraus die behauptete lineare Abhängigkeit folgt.

11.10 Nachtrag 2: Interaktive Programmsysteme mit Multifunktionalität Bei dem auf Seite 335 angesprochenen Programmsystem Matlab handelt es sich um ein interaktives Programmsystem mit Multifunktionalität. Die interaktive Arbeitsweise von Programmsystemen im Allgemeinen erlaubt dabei jeweils eine komfortable und rasche Bearbeitung unterschiedlicher und schnell wechselnder Problemstellungen. Unter Multifunktionalität ist dabei vorrangig Numerik-, Computeralgebra- und Grafik-Funktionalität zu verstehen. Hierbei bedeutet Numerik-Funktionalität die Bereitstellung von fertigen Routinen beispielsweise zur Lösung linearer und nichtlinearer Gleichungssysteme, zur Durchführung der schnellen Fouriertransformation oder zur numerischen Lösung von Anfangswertproblemen bei gewöhnlichen Differenzialgleichungen. Unter dem Begriff Computeralgebra-Funktionalität versteht man die Fähigkeit eines Programmsystems, die aus der Analysis oder Algebra bekannten Vorgehensweisen vorzunehmen. Dazu gehört beispielsweise die Berechnung der Ableitung oder der Stammfunktion von Funktionen einer Veränderlichen ebenso wie die exakte Berechnung von Eigenwerten von Matrizen oder die exakte Bestimmung von Nullstellen von Polynomen. In allen Fällen sind Variablen als Koeffizienten zugelassen. Solche Berechnungen mittels Computeralgebra-Systemen bezeichnet man allgemein als symbolisches Rechnen. Naturgemäß können Programmsysteme mit Computeralgebra-Funktionalität auch nur solche Probleme lösen, für die überhaupt analytisch Lösungen angegeben werden können. Die Nullstellen von Polynomen vom Grad  5 etwa können im Allgemeinen auch mit solchen Programmsystemen nicht bestimmt werden. Grafik-Funktionalität ermöglicht beispielsweise die Darstellung von Funktionen f W R 2  D ! R als Niveauflächen in dreidimensionalen Abbildungen. Bei Matlab handelt es sich um das derzeit wohl bekannteste interaktive Programmsystem mit ausgeprägter Numerik- und Grafik-Funktionalität. Es bietet interaktiv Routinen zu allen in dem vorliegenden Buch vorgestellten und weiteren Problemstellungen an. Zusätzlich existieren Module beispielsweise für das symbolische

339

Weitere Themen und Literaturhinweise

Rechnen, wobei dieses auf dem Computeralgebra-System Maple basiert. Eingesetzt wird Matlab in Lehre und Forschung an Hochschulen und in Unternehmen beispielsweise aus der chemischen Industrie, der Automobil- oder der Stahlindustrie. Weitere interaktive Programmsysteme mit Multifunktionalität sind Octave und Scilab (vorwiegend Numerik- und Grafik-Funktionalität) sowie Sage, Maple, MuPad und Mathematica (vorrangig Computeralgebra- und Grafik-Funktionalität; NumerikFunktionalität ist ebenfalls vorhanden). Andere Computeralgebra-Systeme sind Macsyma und Reduce.

Weitere Themen und Literaturhinweise Das Verfahren der konjugierten Gradienten geht zurück auf Hestenes/Stiefel [53] und wird zum Beispiel in den Lehrbüchern Fischer [26], Hackbusch [46], Kelley [60], Meister [69], Schwarz/Köckler [97] und Freund/Hoppe [31] behandelt. Varianten des Verfahren vom Typ der konjugierten Gradienten werden beispielsweise in [69] sowie in Ashby/Manteuffel/Saylor [1], Freund/Golub/Nachtigal [29], Hanke-Bourgeois [52], Nachtigal/S. Reddy/L. Reddy [75], Saad/Schultz [93], Sonneveld [100], Stoer [101] und in Vuik/van der Vorst [109] diskutiert. Resultate zur Konvergenzgeschwindigkeit des GMRES-Verfahrens findet man beispielsweise in [52] sowie in Greenbaum /Pták/Strako˘ s [40], Liesen [65], Moret [73], Nevanlinna [78], Plato/Vainikko [84] und in van der Vorst/Vuik [108]. Eine Einführung zu Matlab findet man beispielsweise in Gramlich/Werner [39], und Anwendungen von Matlab in der Finanzmathematik werden in Günther/Jüngel [45] vorgestellt.

Übungsaufgaben Aufgabe 11.1. Zu gegebener symmetrischer, positiv definiter Matrix A 2 R N N und einem Vektor b 2 R N habe die Zahl n die Bedeutung aus (11.38). Man zeige: x D A 1 b ist Linearkombination von n Eigenvektoren der Matrix A. Aufgabe 11.2. Zu gegebener symmetrischer, positiv definiter Matrix A 2 R N N und einem Vektor b 2 R N zeige man: für jeden Index n ist das Residuum rn D Axn b identisch mit dem Gradienten des Energiefunktionals J.x / D 21 h Ax; x i2 h x; b i2 an der Stelle xn , es gilt also rn D rJ.xn /. Aufgabe 11.3. Zu gegebener symmetrischer, positiv definiter Matrix A 2 R N N zeige man: a) Für das CG-Verfahren für n D 1; 2; : : : ; n gelten die folgenden Darstellungen:

xn

D

rn

D

qn .A/b mit qn 2 …n

b) Der zur Entwicklung qn .t / D

1

geeignet;

pn .A/b mit pn .t / D 1 Pn

1

kD0 ck t

k

tqn .t /:

gehörende Koeffizientenvektor .c0 ; : : : ; cn

>

1/

340

Kapitel 11

CG- und GMRES-Verfahren

2 R n ist Lösung des linearen Gleichungssystems 0

> B b Ab B B > 2 Bb A b B B B ♣♣ B ♣ B @ b>An b

1 0 1 10 b>An b C B c0 C B b>b C C B C CB C B B C ♣ ♣ ♣ b>AnC1 b C C B c1 C B b>Ab C C B C CB CDB C: CB C C B ♣♣ C B ♣♣ ♣♣ ♣♣ C CB ♣ C B ♣ ♣ ♣ C B C CB A @ A A@ ♣ ♣ ♣ b>A2n 1 b cn 1 b>An 1 b

b>A2 b

♣♣♣

b>A3 b ♣♣ ♣ b>AnC1 b

Aufgabe 11.4. Zu gegebener symmetrischer, positiv definiter Matrix A 2 R N N weise man für das CG-Verfahren die folgenden Beziehungen nach (für n D 0; 1; : : : ; n , mit der Zahl n aus (11.38)):

rn>dn D jj rn jj22 ; jj dn jj22

D

jj rn jj42

n X

kD0

dn D 1

jj rk jj22

dn>dk

;

jj xnC1 jj2  jj xn jj2 .n  n

1 /;

D

jj rn jj22 jj rn jj22

jj rk jj22

n X

kD0

rk ; jj rk jj22

jj dk jj22 für k  n;

jj rn jj2  jj dn jj2 :

Aufgabe 11.5. Es bezeichne

0

0 B1 0 B

AD@

♣♣

1



♣♣



1 0

1

C C 2 R N N ; A

0 1 1 B0C B C

b D @ ♣♣ A 2 R N ; ♣ 0

0 1 0 ♣ B ♣♣ C N C x D B @0A 2 R ; 1

so dass x die eindeutige Lösung des linearen Gleichungssystems Ax D b darstellt; die Matrix A wird als zirkulant bezeichnet. Man zeige: a) Das GMRES-Verfahren liefert die Vektoren x1 D x2 D    D xN 1 D 0 und xN D x , das heißt, das GMRES-Verfahren liefert in den Schritten n D 1; 2; : : : ; N 1 keine Approximationen an die Lösung x , auch eine schrittweise Verbesserung tritt nicht auf. b) Dagegen liefert das CGNR-Verfahren nach nur einem Iterationsschritt die exakte Lösung,

x1 D x .

12

Eigenwertprobleme

12.1 Einleitung Die mathematische Formulierung des Schwingungsverhalten von mechanischen oder elektrischen Systemen führt auf das Problem der Bestimmung der Eigenwerte von Matrizen (kurz als Eigenwertproblem bezeichnet). Beispiel 12.1. Wir betrachten zwei Körper mit den Massen m1 und m2 , die sowohl miteinander als auch jeweils mit der benachbarten Wand über Federn verbunden sind. Die Situation ist in Abb. 12.1 dargestellt.

k

k

k

. ...... ....... 1 2 3 ... ..... ... .... ....... ....... ....... ........ ....... ....... ....... ....... ....... ....... 2 1 . . . . . . . . . . ....... .......... . . . . . . . . . . . .. . .. .. .. .. .. .. . .. .. .. .. .. .. .. .. .. .. ...... .... .... .... .... .... .... ......................... .... .... .... .... .... .... .... ........................... .... .... .... .... .... .... ...... .... ... ... ... ... ... ... ... ...... ... ... ... ... ... .. .......... ... ... ... ... ... ... ... .. ........ . ..... ... ... ... ... ... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... ... ..... ..... ..... .... ..... ..... ..... ..... ..... ..... ..... ......... .... ..... ...... . . . . . . ....... . . . ..... . ................................. ................................. ...... ....... ...... ...... 1 2 .. . ...... .... ..... ..... ..... . ...

m

m

x

x

Abb. 12.1: Gekoppelter Massenschwinger Eine Anwendung der newtonschen Bewegungsgesetze führt auf das folgende gekoppelte System von zwei gewöhnlichen Differenzialgleichungen zweiter Ordnung für die zeitabhängigen seitlichen Auslenkungen x1 .t/ und x2 .t/ der beiden Körper aus ihren jeweiligen Ruhelagen,

m1 x100 D

k1 x1 C k2 .x2

x1 /;

m2 x 2 D

k3 x2

x1 /;

00

k2 .x2

mit den positiven Federkonstanten k1 ; k2 ; k3 . Die Terme auf der rechten Seite repräsentieren die auf die beiden Massen jeweils wirkenden Rückstellkräfte, Reibungskräfte werden vernachlässigt. Der Lösungsansatz

x1 .t/ D c1 cos !t;

x2 .t/ D c2 cos !t;

mit zu bestimmenden Parametern c1 ; c2 und ! 2 R führt letztlich auf das folgende Eigenwertproblem: k1 C k2 k2 ! m1 m1 k2 k2 C k3 m2 m2

c1 c2

!

D!

c1

2

c2

!

:

Ein zweiter möglicher Lösungsansatz ist

x1 .t/ D c1 sin !t;

x2 .t/ D c2 sin !t:

Er führt auf das gleiche Eigenwertproblem (12.1).

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_12

M

(12.1)

342

Kapitel 12

Eigenwertprobleme

Für Eigenwertprobleme bei Matrizen, die sich im Übrigen auch noch bei zahlreichen anderen Anwendungen ergeben und die man in der Regel numerisch löst, werden in dem vorliegenden Kapitel Störungs-, Einschließungs- und Variationssätze vorgestellt. In dem darauf folgenden Kapitel 13 werden numerische Verfahren zur Lösung von Eigenwertproblemen behandelt.

12.2 Störungstheorie für Eigenwertprobleme In diesem Abschnitt wird diskutiert, inwieweit sich Änderungen der Einträge einer Matrix A 2 R N N auf die Menge ihrer Eigenwerte auswirken. Etwas genauer werden zu gegebener Matrix A 2 R N N Abschätzungen dafür angegeben, wie groß der Abstand der Eigenwerte der gestörten Matrix A C A 2 R N N zum jeweils nächstgelegenen Eigenwert von A höchstens sein kann. Umgekehrte Abschätzungen – wie groß also der Abstand der Eigenwerte von A zum jeweils nächstgelegenen Eigenwert von A C A höchstens sein kann – sind von geringerem praktischem Interesse und werden hier auch nicht behandelt. Das folgende Theorem liefert ein entsprechendes Resultat für diagonalisierbare Matrizen. Die allgemeine Situation wird in Theorem 12.6 betrachtet.

12.2.1 Diagonalisierbare Matrizen Theorem 12.2 (Bauer/Fike). Die Matrix A 2 R N N sei diagonalisierbar,

T

1

AT D diag .1 ; : : : ; N / 2 CN N ;

(12.2)

CN N

mit der regulären Matrix T 2 und den Eigenwerten 1 ; : : : ; N 2 C von A. Dann gelten für die Eigenwerte der Matrix A C A 2 R N N mit A 2 R N N beliebig die folgenden Abschätzungen,

8  2  .A C A/ W

min

kD1;:::;N

j

k j  condp .T /jjA jjp :

(12.3)

Hier ist 1  p  1, und jj  jjp bezeichnet die durch die gleichnamige Vektornorm induzierte Matrixnorm. Beweis. Sei  2 C ein Eigenwert der Matrix A C A. Falls  gleichzeitig ein Eigenwert der Matrix A ist, so folgt die Aussage unmittelbar, im Folgenden sei also  62  .A/ angenommen. Wegen

A D TDT

1

;

D WD diag .1 ; : : : ; N /;

gilt

.A

I /

1

D T .D

1

I /

T

1

;

und somit

jj.A

I /

1

jjp  condp .T /jj.D D condp .T /

I /

min

kD1;:::;N

j

1

./

jjp D condp .T / max j kD1;:::;N

k j



1

k j

1

Abschnitt 12.2

343

Störungstheorie für Eigenwertprobleme

beziehungsweise

j

min

kD1;:::;N

k j 

condp .T /

jj . A

I /

1

jjp

;

(12.4)

b D diag .d1 ; : : : ; dN / 2 CN N gültige Identiwobei in ./ die für Diagonalmatrizen D b jjp D maxkD1;:::;N jdk j eingeht. Zur weiteren Abschätzung von (12.4) betrachtät jj D tet man einen Eigenvektor x 2 CN von A C A zum Eigenwert  und erhält .A C A/x D x bzw. Ax

x D

Ax bzw. x D

.A

I /

1

Ax

und somit 1  jj.A

I /

1

A jjp  jj.A

I /

1

jjp jjA jjp ;

(12.5)

und dies in (12.4) verwendet liefert die Aussage des Theorems. Das Eigenwertproblem ist für symmetrische Matrizen also stabil in dem Sinne, dass für p D 2 die Konstante cond2 .T / in (12.3) minimal ausfällt: Korollar 12.3. Für eine symmetrische Matrix A 2 R N N und jede Matrix A 2 R N N gilt min j

2 . A /

j  jjA jj2 für  2  .A C A/:

Beweis. In der vorliegenden Situation darf in (12.2) die Matrix T 2 R N N orthogonal gewählt werden, T 1 D T > (vergleiche auch Abschnitt 12.6.2). Dann gilt insbesondere jjT jj2 D jjT 1 jj2 D 1, so dass die Behauptung unmittelbar aus Theorem 12.2 folgt. Bemerkung 12.4. Die Transformationsmatrix T in (12.2) besteht aus N linear unabhängigen Eigenvektoren von A. Die Konditionszahl von T wird dann größer ausfallen, wenn etwa zwei von diesen Eigenvektoren fast parallel sind. M Beispiel 12.5. Die diagonalisierbare Matrix

a 1

AD

!

; 0 <   1; (12.6)  a p D a ˙ , und als Transformationsmatrix und deren

besitzt die Eigenwerte 1=2 Inverse ergibt sich zum Beispiel

0

T D@

1

p



1

p 

1

A;

T

1

D

1 2

0 @

1 1

p1  p1 

1

A;

1

cond1 .T / D 1 C p ; 

so dass in diesem Beispiel die Abschätzung (12.3) für 0 <   1 eine große Schranke liefert. In einem solchen Fall ist die Anwendung des folgenden Theorems 12.6 vorzuziehen. In diesem Zusammenhang sei auch auf Beispiel 12.8 verwiesen, wo gerade der Grenzfall  D 0 aus (12.6) behandelt wird. M

344

Kapitel 12

Eigenwertprobleme

12.2.2 Der allgemeine Fall Mit der Schur-Faktorisierung1 einer gegebenen Matrix A lässt sich in der allgemeinsten Situation für A die Empfindlichkeit der Menge der Eigenwerte von A gegenüber Störungen in den Einträgen dieser Matrix messen. Theorem 12.6. Für die Eigenwerte von A C A 2 R N N mit beliebigen Matrizen A; A 2 R N N gelten die folgenden Abschätzungen,

8 2  .A C A/ W min j 2.A/

® ¯ j  c max jjA jj2 ; jjA jj12=N ; c WD max¹;  1=N º;  WD

NX1 sD0

jjR jjs2 :

CN N

der nichtdiagonale Anteil aus einer Schur-Faktorisierung Q 1 AQ D DCR 2 mit einer Diagonalmatrix D 2 CN N . Die Matrixnorm jj  jj2 ist induziert durch die euklidische Vektornorm.

Hier ist R 2

CN N

Beweis. Sei  2 C ein Eigenwert der Matrix ACA. Falls  auch Eigenwert der Matrix A ist, folgt die angegebene Abschätzung unmittelbar. Im Folgenden sei also  62  .A/. Aus der auch für nichtdiagonalisierbare Matrizen gültigen Abschätzung (12.5) erhält man mit A D Q.D C R/Q 1 1  jj.D

I C R/

1

jj2 jjA jj2 :

(12.7)

Weiter gilt

.D

I C R/

1

D .I C .D

I /

N 1 ./ X

D

. .D

1

I /

.D

I /

1

R/s .D

I /

1

R/ 1

1

sD0

9 > > =

> ; > ;

(12.8)

wobei in ./ eingeht, dass .D I / 1 R eine strikte obere Dreiecksmatrix darstellt (also verschwindende Diagonaleinträge besitzt) und somit ..D I / 1 R/N D 0 gilt, wobei man Letzteres leicht nachrechnet. Weiter ist noch zu beachten, dass für Pp 1 Matrizen B 2 CN N mit B p D 0 für ein p 2 N0 Folgendes gilt, .I B / 1 D sD0 B s , was man ebenfalls leicht nachrechnet. Für die abzuschätzende Größe

" WD min j 2.A/

j D

1

jj.D

I /

1 jj 2

erhält man somit aus (12.7)–(12.8) 1

1 NX1  jj R jj2 s

"

sD0

"

jjA jj2 

NX1 sD0

jjR jjs2

„ ƒ‚ … D

²

1="; 1="N ;

falls "  1 sonst

woraus sich unmittelbar die Aussage des Theorems ergibt. 1

Eine Definition wird in Abschnitt 12.6 ab Seite 351 nachgetragen.

³

jjA jj2 ;

Abschnitt 12.2

345

Störungstheorie für Eigenwertprobleme

Bemerkung 12.7. In der typischen Situation jjA jj2  1 geht die Abschätzung in Theorem 12.6 über in min j

2.A/

1=N

j  c jjA jj2

für  2  .A C A/:

(12.9)

Für diagonalisierbare Matrizen A ist diese Abschätzung (12.9) bezüglich des Terms A aufgrund von jjA jj2  jjA jj12=N für große N schwächer als die Abschätzung (12.3). M Beispiel 12.8. Für die Matrix

AD



 1 0 



D



    0 0 1 C 0  0 0 „ ƒ‚ … „ ƒ‚ … DW D DW R

mit einer beliebigen Zahl  2 C gilt mit der Notation aus Theorem 12.6 die Identität jjR jj2 D 1 und somit  D 2. Für

A C A D



  1 ; ı 

0 < ı  1;

ist dann jjA jj2 D ı erfüllt, so dass Theorem 12.6 die Abschätzung

8  2  .A C A/ W

min j

2.A/

p j  2 ı

liefert. Tatsächlich gilt

 .A/ D ¹º;

 .A C A/ D ¹ ˙

p ıº;

max .

2.AC.........A/

min j

2.A/

j D

p ı:

Sowohl Theorem 12.2 als auch Theorem 12.6 liefern Abschätzungen für die Empfindlichkeit der Menge  .A/ gegenüber Störungen in den Einträgen der Matrix A. Aussagen über die Änderung der entsprechend ihrer algebraischen Vielfachheit gezählten Eigenwerte werden jedoch erst durch das folgende Theorem möglich, das hier ohne Beweis angegeben wird. Theorem 12.9. Für eine Matrix A 2 R N N mit den Eigenwerten 1 ; : : : ; N 2 C existiert zu jedem " > 0 ein ı > 0 mit der folgenden Eigenschaft: Zu jeder Matrix A 2 R N N mit jjA jj  ı gibt es eine Nummerierung 1 ; : : : ; N 2 C der Eigenwerte von A C A mit max

kD1;:::;N

jk

k j  ":

Hierbei bezeichnet jj  jj W R N N ! R C eine Matrixnorm. Beweis. Siehe Mennicken/Wagenführer [71] oder Werner [112].

(12.10)

346

Kapitel 12

Eigenwertprobleme

12.3 Lokalisierung von Eigenwerten Im Folgenden wird ein wichtiges Einschließungsresultat für Eigenwerte vorgestellt. Theorem 12.10. a) Für eine Matrix A D .ajk / 2 R N N gilt

 .A/ 

N [

Gj ;

j D1

mit den Gerschgorin-Kreisen

® Gj WD z 2 C W jz

ajj j 

N X

¯ jajk j ;

kD1 k¤j

j D 1; 2; : : : ; N:

b) Wenn genauer die Vereinigung von q Gerschgorin-Kreisen

K .1/ WD Gj1 [ : : : [ Gjq

.j` ¤ jm für ` ¤ m/

disjunkt zu der Menge der Vereinigung K .2/ der restlichen N q Gerschgorin-Kreise ist, so enthält K .1/ genau q Eigenwerte von A, und K .2/ enthält genau N q Eigenwerte von A (jeweils entsprechend ihrer algebraischen Vielfachheit gezählt). Beweis. a) Für  2 C ist die Bedingung  62

j

ajj j >

N X

kD1 k¤j

jajk j;

SN

j D1

Gj gleichbedeutend mit

j D 1; 2; : : : ; N;

was wiederum gerade die strikte Diagonaldominanz der Matrix A I 2 CN N N N 2 impliziert. Daher ist A I 2 C nichtsingulär , die Zahl  also kein Eigenwert von A. Damit ist Teil a) nachgewiesen. Für den Nachweis der Aussage in b) zerlegt man die Matrix A D .ajk / in die Summe eines diagonalen und eines nichtdiagonalen Anteils, A D D C M mit

D D diag .a11 ; : : : ; aN N / 2 R N N ;

und betrachtet in R N N die Strecke von D nach A,

0

♣♣♣

♣♣♣

B a11 ta12 B B B ta ♣♣♣ B 21 a22 ta23 B B ♣ ♣♣ ♣♣ ♣♣ A.t / D D C tM D B ♣ ♣ ♣ B ♣♣ B B B ♣♣ ♣♣ ♣♣ ♣ ♣ B ♣ B @ ♣ ♣ ♣ taN;N taN 1 ♣ ♣ ♣

2

siehe Lemma 2.13 auf Seite 31

1

M DA

D;

1

ta1N C C C ta2N C C C C ♣♣ C 2 R N N ; ♣ C C C C taN 1;N C C A aN N

0  t  1;

Abschnitt 12.3

347

Lokalisierung von Eigenwerten

so dass A. 0 / D D und A. 1 / D A gilt. In den folgenden Punkten (i)–(iii) werden nun einige Vorbereitungen getroffen für den anschließend in Punkt (iv) beschriebenen entscheidenden Beweisschritt. (i) Als Erstes soll

 .A.t //  K .1/ [ K .2/ für 0  t  1

(12.11)

nachgewiesen werden. Hierzu bezeichne G1 .t /; : : : ; GN .t / die zu A.t / gehörenden Gerschgorin-Kreise,

® Gj .t / D z 2 C W jz

ajj j  t

N X

kD1 k¤j

¯ jajk j ;

j D 1; 2; : : : ; N:

Offensichtlich gilt

Gj .t /  Gj ;

j D 1; 2; : : : ; N

für 0  t  1;

und mit Teil a) dieses Theorems erhält man (12.11). (ii) Von den insgesamt N Eigenwerten von D D A. 0 / befinden sich die q Eigenwerte aj1 j1 ; : : : ; ajq jq in der Menge K .1/ , und die restlichen N q Eigenwerte liegen in K .2/ , was unmittelbar aus der Eigenschaft ajj 2 Gj für j D 1; 2; : : : ; N folgt. (iii) Weiter beobachtet man vorbereitend noch

" WD dist .K .1/ ; K .2/ / > 0; (12.12) was aus der Disjunktheitsvoraussetzung K .1/ \ K .2/ D ¿ und der Abgeschlossenheit der Mengen K .1/ und K .2/ folgt. (iv) Die Eigenschaften (12.11)–(12.12) und die Schlussfolgerung in (ii) zusammen mit der stetigen Abhängigkeit der Eigenwerte gegenüber Matrixstörungen ergeben nun Teil b) des Theorems, wie im Folgenden noch detailliert nachgewiesen wird. Hierzu bezeichne

® ¯ t0 WD sup t 2 Œ 0; 1  W genau q Eigenwerte von A.t / liegen in K .1/ :

(12.13)

Die Menge in (12.13) enthält t D 0 und ist somit nichtleer. Wenn 1 .t0 /; : : : ; N .t0 / 2 C die der algebraischen Vielfachheit nach gezählten Eigenwerte von A.t0 / bezeichnen, so existiert nach Theorem 12.9 zu " aus (12.12) eine Zahl ı > 0 und eine Nummerierung 1 .t /; : : : ; N .t / 2 C der Eigenwerte von A.t / mit max

kD1;:::;N

jk .t /

k .t0 /j < " für t 2 Œ 0; 1 ;

jt

t0 j < ı:

(12.14)

Aus der Eigenschaft (12.14) folgt zweierlei: zum einen wird das Maximum in (12.13) angenommen, denn gemäß der Definition von t0 gibt es ein t 2 Œ 0; 1  mit t0 ı < t  t0 , so dass die Menge K .1/ genau q Eigenwerte von A.t / enthält, und genau N q Eigenwerte von A.t / sind in K .2/ enthalten. (Die Situation ist in Abb. 12.2 veranschaulicht.) Wegen (12.14), (12.11) und (12.12) enthält die Menge K .1/ mithin auch genau q Eigenwerte von A.t0 /. Zum anderen ist noch t0 D 1 nachzuweisen; wegen A. 1 / D A ergibt sich daraus die Aussage des Theorems. Wäre t0 < 1, so enthielte für jedes t 2 Œ 0; 1  mit

348

Kapitel 12

Eigenwertprobleme

t0 < t  t0 C ı die Menge K .1/ genau q Eigenwerte von A.t / (wieder aufgrund der

Eigenschaften (12.14), (12.11) und (12.12)). Dies stellt einen Widerspruch zur Definition (12.13) dar und komplettiert den Beweis der Aussage des Theorems. . .... ......... .. ... .. ... ..

...................................................................................... ............... ........... ........... ......... ......... ........ ....... ........ . . . . . . ...... ...... . ...... . . . ..... .... . . .... . ... ...  . . ... 5 0 ... . ...  5  1 0 .. .... ... .... . ... ... ... .. . . ...   2 0 . . 1 . ... .. ... . . . ..... ..... ..... ...... ..... .......  2 ...... ........ ....... ......... ........ . . . . . . ........... . . ........ .............. .............. ......................... ....................................................

 .t /

 .t /

Im z

 .t/

 .t/

 .t/

 .t /

........................ ........ ...... ...... ..... ..... .... .... ... . . ... .. . . ... .. . ... . ... .. . . ... .. . ... . .. ... . . ... ... . ... . . . ... . .. .... ..  ... ... 4 0 .. ... ..  4 ... .. ... ... .. ... .. ... .... ... .. .... . .... .... ... ...  3 ... .. . ... ...  3 0 ... .. ... .. ... ... ... .... ... ... ... ... ... .. ... ... ... . . ... ... ... ... ... ... ... ... ... .. . . ... ... ... ... .... ... .... ...... ..... ....... ..... ...........................

"

 .t/

!

 .t/

 .t /

 .t /

.........................

Re z Abb. 12.2: Veranschaulichung zweier Situationen im Beweis von Theorem 12.10 am Beispiel N D 5. Dargestellt ist die Verteilung der Eigenwerte von A.t0 / und A.t/ für t mit jt t0 j  ı . Die Ellipsen sollen die Mengen K1 beziehungsweise K2 umfassen. Beispiel 12.11. Für die Matrix

0

5

B B B 1=2 B ADB B 1=2 B @ 1=2

1=2 3 0 0

0 1=2

1

C C 0 0 C C C 2 R 44 C 1 1=2 C A 0

6

ist die Lage der Gerschgorin-Kreise in Abb. 12.3 dargestellt. Aus Theorem 12.10 folgert man dann, dass es reelle Eigenwerte 0  3  2 und 2:5  2  3:5 gibt (komplexe Eigenwerte reeller Matrizen treten automatisch als konjugiert komplexe Paare auf). Die beiden anderen Eigenwerte liegen entweder im Intervall Œ 4; 6:5  oder sind durch ein komplex konjugiertes Paar in G3 [ G4 gegeben. M

12.4 Variationsformulierung für Eigenwerte von symmetrischen Matrizen Im Folgenden spielen orthogonale Komplemente von Mengen L  R N eine Rolle,

® ¯ L? WD y 2 R N W y >x D 0 für jedes x 2 L :

Abschnitt 12.4

349

Variationssätze für symmetrische Eigenwertprobleme

C

G3

G1 1 0

.............................. ...... ........ ..... .... .... ... ... ... . . ... .. . . ... . .. .... ... ... . ... ... ... .. . ... .. . . ... ... ... . .... .. ...... .... ........ ...... ...............................

1

1

G2

G

..................... ...... .... .. ... ... ... ..... ... ... .. ... . .. .... ........ ............ .......

3

.............................. ...... ........ 4 ..... ...... .... ... ... .. . . .. ........................... . . . . . . . .. ... . ... ... ... ... .. .. .. .... ..... .. ... ... ... .. ... .. ... . . . . .... ... ... .. . . . . . . . . . ... ................... . ... . .... ... ...... .... ........ ...... ...............................

5

7

Abb. 12.3: Gerschgorin-Kreise für Beispiel 12.11 Es ist L?  R N ein linearer Unterraum. Falls L  R N ein linearer Unterraum ist, so gilt L ˚ L? D R N . Theorem 12.12 (Courant/Fischer). Für eine symmetrische Matrix A 2 R N N mit Eigenwerten 1  2      N gilt Folgendes,

kC1 D

N

k

D

min

max

x>Ax D min x>x y1 ;:::;yk 2R N

max

x>Ax ; x>x

(12.15)

max

min

x>Ax D max x>x y1 ;:::;yk 2R N

min

x>Ax ; x>x

(12.16)

LR N linear 0¤x2L? dim Lk

LR N linear 0¤x2L? dim Lk

jeweils für k D 0; 1; : : : ; N

0 ¤ x2R N x>y` D0; `D1;:::;k

0 ¤ x2R N ` D0; `D1;:::;k

x>y

1.

Beweis. Es wird nur der Nachweis für (12.15) geführt, die Aussage (12.16) ergibt sich ganz entsprechend. Die zweite Identität in (12.15) ist unmittelbar einsichtig, und im Folgenden soll die erste Identität in (12.15) nachgewiesen werden. Dazu sei u1 ; : : : ; uN 2 R N ein vollständiges System von Eigenvektoren (zu den Eigenwerten 1 ; : : : ; N ), die aufgrund der Symmetrie der Matrix A zudem noch als paarweise orthonormal angenommen werden dürfen3 . Zum Beweis der Ungleichung “” in (12.15) sei L  R N ein beliebiger linearer Unterraum mit dim L  k . Dann gilt dim L?  N k , und wegen dim span ¹u1 ; : : : ; ukC1º D k C 1 existiert ein Vektor

x 2 span ¹u1 ; : : : ; ukC1 º \ L? ;

x>x D 1:

(12.17)

Für den Vektor x aus (12.17) gilt insbesondere die Darstellung

xD

kC X1

˛` u` ;

`D1

kC X1 `D1

j˛` j2 D 1;

mit gewissen Koeffizienten ˛1 ; : : : ; ˛kC1 2 R. Weiter gilt Ax D

x>Ax D 3

kC X1 `D1

` j˛` j2  kC1

siehe auch (12.19) im Nachtrag zu diesem Kapitel

kC X1 `D1

PkC1

j˛` j2 D kC1 ;

`D1

` ˛` u` sowie

350

Kapitel 12

Eigenwertprobleme

was wegen x 2 L? gerade die angegebene Abschätzung “” in (12.15) liefert. Für den Beweis der Abschätzung “” in (12.15) sei speziell L WD span ¹u1 ; : : : ; uk º gewählt. Für jeden Vektor x 2 L? mit x>x D 1 gibt es eine Darstellung

xD

N X

˛` u` ;

N X

`DkC1

`DkC1

j˛` j2 D 1;

mit gewissen Koeffizienten ˛kC1 ; : : : ; ˛N 2 R. Daraus erhält man die Identität Ax D PN `DkC1 ` ˛` u` , und weiter

x>Ax D

N X

`DkC1

` j˛` j2  kC1

N X

`DkC1

j˛` j2 D kC1 ;

was gerade die Abschätzung “” in (12.15) liefert. Als unmittelbare Folgerung aus Theorem 12.12 erhält man: Korollar 12.13 (Satz von Rayleigh/Ritz). Unter den Bedingungen von Theorem 12.12 gilt

1 D

max

0¤x2R N

x>Ax ; x>x

N D

min

0¤x2R N

x>Ax : x>x

Bemerkung 12.14. Den Ausdruck

R.x / D

x>Ax ; x>x

0 ¤ x 2 RN ;

bezeichnet man als Rayleigh-Quotienten.

12.5 Störungsresultate für Eigenwerte symmetrischer Matrizen Ein Störungsresultat für die Eigenwerte symmetrischer Matrizen ist bereits in Korollar 12.3 vorgestellt werden. Für den Spezialfall symmetrischer Störungen liefert das folgende Theorem eine Verschärfung des genannten Resultats. Theorem 12.15. Seien A; A 2 R N N symmetrische Matrizen, und für B 2 ¹A; A; ACAº bezeichne 1 .B /  2 .B /      N .B / die monoton fallend angeordneten Eigenwerte der Matrix B . Dann gilt

k .A/ C N .A/  k .A C A/  k .A/ C 1 .A/;

k D 1; 2; : : : ; N;

und damit insbesondere

jk .A C A/

k .A/j  jjA jj2 ;

k D 1; 2; : : : ; N:

(12.18)

Abschnitt 12.6

351

Nachtrag: Faktorisierungen von Matrizen

Beweis. Theorem 12.12 und Korollar 12.13 ergeben für k D 0; 1; : : : ; N

kC1 .A C A/ D

min

N R N linear dim N k

 N

k .A

C A/ D 

max

0¤x2N ?

N R N linear dim N k

x>x

C

® x>Ax ¯

......

max

® x>Ax

0¤x2N ?

® x>Ax x>x

C

® x>Ax ¯

......

x>x

x>Ax ¯ x>x

C 1 .A/ D kC1 .A/ C 1 .A/;

x>x

min

1

x>Ax ¯ x>x

C N .A/ D N

k .A/ C N .A/:

Die Abschätzung (12.18) folgt nun unmittelbar aus der Identität r .A/ D jjA jj2 , siehe (4.35) auf Seite 88.

12.6 Nachtrag: Faktorisierungen von Matrizen Im Folgenden werden einige aus der linearen Algebra bekannte Matrix-Faktorisierungen in Erinnerung gerufen. Detaillierte Erläuterungen hierzu findet man zum Beispiel in Fischer/Springborn [27] oder im Fall der Schur-Faktorisierung in Bunse/BunseGerstner [10] oder Opfer [80].

12.6.1 Symmetrische Matrizen Eine Matrix A 2 R N N heißt symmetrisch, falls A D A> gilt. Es existiert dann eine Orthonormalbasis u1 ; : : : ; uN 2 R N bestehend aus Eigenvektoren von A. Bezeichnet man die zugehörigen Eigenwerte mit 1 ; : : : ; N 2 R, so liegt folgende Situation vor:

Auk D k uk ;

u> u D ık` ; k `

k; ` D 1; 2; : : : ; N:

µ

(12.19)

Theorem 12.16. Die Matrix A 2 R N N sei symmetrisch mit Zerlegung (12.19). Dann gilt

A D UDU >

mit D WD diag .1 ; : : : ; N / 2 R N N ;

N X

`D1

˛` u`

1

U D @ u1 : : : uN A 2 R N N :

Beweis. Jeder Vektor x 2 R N besitzt die Darstellung

xD

0

352

Kapitel 12

Eigenwertprobleme

mit gewissen Koeffizienten ˛1 ; : : : ; ˛N 2 R, und dann gilt

UDU >x D

N X

`D1

˛` UDU >u` D

N X

`D1

12.6.2 Diagonalisierbare Matrizen

˛ ` U D e` D „ƒ‚… ` e`

N X

`D1

˛` ` u` D Ax:

Die Matrix A 2 R N N heißt diagonalisierbar, falls eine Faktorisierung der Form

T

1

AT D diag .1 ; : : : ; N / 2 CN N ;

(12.20)

existiert mit einer regulären Matrix T 2 CN N . Die Zahlen 1 ; : : : ; N 2 C stellen dann die Eigenwerte der Matrix A dar, und der k -te Spaltenvektor uk 2 R N von T D .u1 j : : : juN / 2 CN N ist ein Eigenvektor der Matrix A zum Eigenwert k .

12.6.3 Schur-Faktorisierung Jede Matrix A 2 R N N ist ähnlich zu einer Dreiecksmatrix, wobei die Transformationsmatrix Q 2 CN N unitär gewählt werden kann, das heißt, Q 1 D QH . Die entsprechende Faktorisierung

Q

1

Q 2 CN N unitär;

AQ D R

R 2 CN N untere Dreiecksmatrix

wird als Schur-Faktorisierung bezeichnet.



(12.21)

Weitere Themen und Literaturhinweise Eine Auswahl existierender Lehrbücher mit Abschnitten über Variationsformulierungen sowie Störungsresultate für die Eigenwerte symmetrischer und nichtsymmetrischer Matrizen bildet Deuflhard/Hohmann [21], Golub/Van Loan [35], Hämmerlin /Hoffmann [51], Hanke-Bourgeois [52], Horn/Johnson [58], Kress [63], Mennicken /Wagenführer [71], Oevel [79], Parlett [82], Schaback/Wendland [95], Freund/Hoppe [31] und Werner [112]. Variationsformulierungen und Störungsresultate für Singulärwertzerlegungen findet man in [58, 35] und in Baumeister [2].

Übungsaufgaben Aufgabe 12.1. a) Gegeben seien die (komplexen) Tridiagonalmatrizen

0

a1

B Bc B 2 ADB B @ 0

b2 a2 :: :

0

::

:

::

:

cN

1

C C C C; C bN A

aN

0

a1

B B B c2 B DB B B @ 0

b2 a2 ::

:

0

::

:

::

:

cN

bN aN

1

C C C C: C C A

Man zeige: Die komplexe Zahl  ist ein Eigenwert der Matrix A genau dann, wenn Eigenwert der Matrix B ist.

 ein

353

Übungsaufgaben b) Für die reelle symmetrische Tridiagonalmatrix

0

a1

B Bb B 2 ADB B @

b2

0

a2 :: :

::

:

::

:

bN

0

1

C C C C 2 R N N C bN A

aN

sei

ak D

aN C1

k

für k D 1; 2; : : : ; N;

bk D bN C2

k

für k D 2; 3; : : : ; N;

erfüllt. Man weise Folgendes nach: eine Zahl  2 C ist Eigenwert der Matrix A genau dann, wenn  ein Eigenwert von A ist. c) Man zeige, dass die Eigenwerte der Tridiagonalmatrix

0

0

B Bb B 2 ADB B @

b2

0

0

::

:

::

::

:

:

bN

0

1

C C C C 2 CN N C bN A 0

symmetrisch zur Zahl 0 liegen und Folgendes gilt, det .A/ D

°

. 1 /N=2 jb2 b4 : : : bN j2 ;

0

falls N gerade; sonst.

Aufgabe 12.2. Es sei A 2 R N N eine Matrix von der Form 2vv>/D .I

A D .I

2vv>/ mit

D D diag .1 ; : : : ; N / 2 R N N ; v 2 RN ; v>v D 1:

Man zeige: a) Die Matrix A ist symmetrisch, und für k D 1; 2; : : : ; N ist die Zahl k ein Eigenwert von A mit der k -ten Spalte aus der Matrix I 2vv T als zugehörigem Eigenvektor. b) Ist speziell v D

p1 N

. 1; 1; : : : ; 1 />, so erhält man mit der Notation A D .ajk / Folgendes,

ajk D 1 .N k ıjk N

2j

2k C 2r /;

mit r D

N 2 X

N

s :

sD1

Aufgabe 12.3. Für eine symmetrische Matrix A 2 R N N und einen Vektor x D .xk / 2 R N mit xk ¤ 0 für k D 1; 2; : : : ; N bezeichne

dk WD

.Ax/k xk

für k D 1; 2; : : : ; N:

Man zeige: für jede Zahl  2 R enthält das Intervall Œ mindestens einen Eigenwert  der Matrix A.

%; C% mit % WD max1kN jdk j

354

Kapitel 12

Eigenwertprobleme

Aufgabe 12.4. Zu gegebener Jordanmatrix

0

B B A WD B B @



1



0

::

:

::

:

1

C C C 2 CN N C 1A



0

und einer Störungsmatrix B 2 CN N bezeichne k . /; k D 1; 2; : : : ; N , die Eigenwerte der fehlerbehafteten Matrix A C B , mit  2 C. Man weise mit dem Satz von Gerschgorin (der auch für komplexe Matrizen richtig ist) Folgendes nach: a)

j  .jj B jj1 C 1 /j j1=N

max jk . /

1kN

für j j  1:

b) Die Abschätzung in a) ist in Bezug auf den Exponenten

1

N

von j j nicht zu verbessern.

SN

Aufgabe 12.5. Sei A D .ajk / 2 R N N eine irreduzible Matrix, und G D j D1 Gj bezeichne die Vereinigung der Gerschgorin-Kreise. Man zeige: für jeden Eigenwert  der Matrix A mit  2 @G gilt auch  2 @Gj für j D 1; 2; : : : ; N; und alle Komponenten eines zu  gehörenden Eigenvektors sind betragsmäßig gleich groß. Aufgabe 12.6. Man zeige Folgendes: Für eine symmetrische Matrix A 2 R N N enthält jedes Intervall der Form Œ jj Ax x jj2 ;  C jj Ax x jj2  mit einer Zahl  2 R und einem Vektor x 2 R N mit jj x jj2 D 1 mindestens einen Eigenwert der Matrix A. Aufgabe 12.7. Für eine symmetrische Matrix A 2 R N N mit den Eigenwerten 1  2      N weise man Folgendes nach:

k D N

kC1

D

max

min

x>Ax ; x>x

min

max

x>Ax ; x>x

M R N linear 0¤x2M dim M Dk

M R N linear 0¤x2M dim M Dk

k D 1; 2; : : : ; N;

......

:

Aufgabe 12.8. Seien A; A 2 R N N symmetrische Matrizen, und für B 2 ¹A; A; A C Aº bezeichne 1 .B /  2 .B /      N .B / die angeordneten Eigenwerte der Matrix B . a) Durch Angabe einer geeigneten Matrix A zeige man, dass die Abschätzungen4

k .A/ C N .A/  k .A C A/  k .A/ C 1 .A/ für k D 1; 2; : : : ; N; nicht zu verbessern sind. b) Falls die Matrix A positiv definit ist, so gilt

k .A/  k .A C A/ für k D 1; 2; : : : ; N: Aufgabe 12.9. Es besitze eine symmetrische Matrix A 2 R N N mit monoton fallend angeordneten Eigenwerten 1  2      N eine rechte untere Dreiecksform,

0

0

B ♣♣♣ B ADB @ 0

aN 1

4

siehe Theorem 12.15

1 ♣ ♣ ♣ 0 a1N ♣♣ C ♣♣ ♣♣ ♣ ♣ C ♣ ♣♣ C ; ♣ ♣ A ♣♣ aN 2 ♣ ♣ ♣ aNN

mit ajk D akj

für alle j; k:

Übungsaufgaben

355

Man zeige: es gilt k  0 für alle Indizes k  b N2 c, und außerdem gilt k  0 für alle Indizes

k  d N2 eC 1. Hierbei bezeichnet bxc die größte ganze Zahl  x , und dxe ist die kleinste ganze Zahl  x .

13

Numerische Verfahren für Eigenwertprobleme

13.1 Einführende Bemerkungen Im Folgenden werden verschiedene numerische Verfahren zur approximativen Bestimmung von Eigenwerten quadratischer Matrizen vorgestellt. Dabei basiert eine Klasse von Algorithmen auf der Anwendung von Ähnlichkeitstransformationen, eine zweite auf Vektoriterationen.

13.1.1 Ähnlichkeitstransformationen In dem vorliegenden Abschnitt werden Verfahren vorgestellt, von denen jedes auf der Hintereinanderausführung von Ähnlichkeitstransformationen beruht,

A D A.1/ ! A.2/ ! A.3/ ! : : :

A.mC1/ D Sm1 A.m/ Sm ;

m D 1; 2; : : : ;

mit Sm 2 R N N regulär

µ

(13.1)

mit der Zielsetzung, für hinreichend große Werte von m auf effiziente Weise gute Approximationen für die Eigenwerte von A.m/ zu gewinnen.1 Im weiteren Verlauf werden die folgenden speziellen Verfahren von der Form (13.1) behandelt. 

Mittels N 2 Householder-Ähnlichkeitstransformationen (siehe Abschnitt 13.2) lässt sich eine obere Hessenbergmatrix A.N 1/ erzeugen, wobei obere beziehungsweise untere Hessenbergmatrizen allgemein folgende Gestalt besitzen,

0



B B B B B0 B B ♣ B ♣♣ @ 0

♣♣♣

♣♣♣

♣♣♣



 



♣♣



♣♣



♣♣



♣♣♣

0



♣ ♣♣ ♣ ♣♣





♣♣

1 C C C C C C C C A

0 bzw.

B B B B B B B B @



♣♣ ♣ ♣♣ ♣ ♣♣ ♣





♣♣



♣♣♣

0 ♣♣♣ ♣♣ ♣♣ ♣ ♣ ♣♣ ♣♣ ♣ ♣ ♣♣ ♣

♣♣♣ ♣♣♣

1

0 ♣ C ♣♣ C C

C

N N : 0C C2R  

C C A

Eine Matrix B D .bjk / ist demnach genau dann eine obere Hessenbergmatrix, falls bjk D 0 gilt für j  k C 2. Entsprechend ist B D .bjk / genau dann eine untere Hessenbergmatrix, falls bjk D 0 für j  k 2 gilt.

Die Hessenbergstruktur ist insofern von Vorteil, als sich hier mit dem NewtonVerfahren beziehungsweise auch mit dem QR-Verfahren effizient die Nullstellen des zugehörigen charakteristischen Polynoms bestimmen lassen (siehe Abschnitt 13.3 beziehungsweise Abschnitt 13.5). 1

Diese Eigenwerte stimmen aufgrund der durchgeführten Ähnlichkeitstransformationen mit denen der Matrix A D A.1/ überein.

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_13

358 



Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Mit Givensrotationen (siehe Abschnitt 13.4 für Einzelheiten) lassen sich Matrizen A.m/ erzeugen, deren Nichtdiagonaleinträge für wachsendes m in einem zu spezifizierenden Sinn betragsmäßig immer kleiner werden, so dass dann die Diagonaleinträge von A.m/ gute Approximationen an die Eigenwerte von A darstellen.

QR-Verfahren (siehe Abschnitt 13.5) liefern Matrizen A.m/ , deren Einträge unterhalb der Diagonalen für hinreichend große Werte von m betragsmäßig klein ausfallen, und dann approximieren die Diagonaleinträge von A.m/ die Eigenwerte der Matrix A, wie sich herausstellen wird.

Mit der folgenden Bemerkung wird deutlich, warum man aus Stabilitätsgründen in (13.1) sinnvollerweise orthogonale Matrizen Sm wählt. Bemerkung 13.1. Im Folgenden sei die Matrix A 2 R N N als diagonalisierbar angenommen, T 1 AT D D mit der regulären Matrix T 2 R N N und der Diagonalmatrix D 2 R N N . Bekanntermaßen2 bildet dann bezüglich einer gegebenen Vektornorm jj  jjp die Zahl condp .T / eine Fehlerkonstante für den Fehler in den Eigenwerten von A gegenüber kleinen Störungen in der Matrix A, max

min j

2 . ACA / 2.A/

j  condp .T /jjA jjp :

Dementsprechend bildet also nach dem .m aufgrund von

1 /-ten Schritt des Verfahrens (13.1)

1 bm1 A.m/ T bm D D mit b T; T T m WD S1:::m

S1:::m WD Sm    S1 ;

bm / eine Fehlerkonstante für den Fehler der Eigenwerte die Konditionszahl condp . T  2  .A.m/ / D  .A/ gegenüber kleinen Störungen in der Matrix A.m/ . Wegen der bm /  condp .S1:::m / condp .T / ist demnach bezüglich der Norm Ungleichung condp . T jj  jj D jj  jj2 die Verwendung orthogonaler Transformationen empfehlenswert: Sk 1 D Sk> 8k

=)

bm / D cond2 .T /: cond2 . T

M

Für die einzelnen Verfahren gibt es noch weitere Gründe, die Transformationsmatrizen Sm orthogonal zu wählen. Details hierzu werden später vorgestellt.

13.1.2 Vektoriteration Bei der zweiten Klasse numerischer Verfahren zur Bestimmung der Eigenwerte von Matrizen handelt es sich um Vektoriterationen, die allgemein von der folgenden Form sind,

z .mC1/ D C z .m/ ;

m D 1; 2; : : :

.z .0/ 2 R N ;

C 2 R N N geeignet /;

mit der Zielsetzung, aus den Vektoren z .m/ 2 R N Informationen über einzelne Eigenwerte oder auch nur den Spektralradius r .A/ einer gegebenen Matrix A 2 R N N zu gewinnen. Details hierzu werden in Abschnitt 13.7 vorgestellt. 2

siehe Theorem 12.2

Abschnitt 13.2

359

Transformation auf Hessenbergform

13.2 Transformation auf Hessenbergform Es sollen zunächst Transformationen der Form A.mC1/ D Sm1 A.m/ Sm ; m D 1; 2; : : : ; N 2, vorgestellt werden, mit denen sukzessive Matrizen von der Form

0

A.m/

B B B B B B D B B B B B B @

 

0 ♣♣♣ ♣♣ ♣ ♣♣ ♣ 0

♣♣♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣

♣♣♣

♣♣♣ ♣♣

♣♣♣ ♣♣♣



♣ ♣♣ ♣♣♣









♣♣♣



0 ♣♣ ♣





♣♣♣



0



ƒ‚ m



♣♣♣

♣♣ ♣

♣♣ ♣



…„

♣♣♣

N

ƒ‚

♣♣ ♣



m

0 19 > > > B C> B C= .m/ B C m A1 B C> B C> > B C> C; D B B C B C9 B C> B C= C N m B a.m/ @ 0 A> ;



.m/

A2

.m/

A3

1

C C C C C C C (13.2) C C C C C A

.m/

2 R mm und den im Allgemeinen .m/ 2 R .N m/.N m/, sowie mit und A3 m . Die Matrix A.N 1/ schließlich besitzt Hessen-

erzeugt werden mit der Hessenbergmatrix A1 .m/

R m.N m/

2 vollbesetzten Matrizen A2 einem gewissen Vektor a.m/ 2 R N berggestalt. Das Vorgehen ist hier, in dem Schritt A.m/ ! A.mC1/ D Sm1 A.m/ Sm mit einer Householdertransformation (Abschnitt 13.2.1) den Vektor a.m/ aus (13.2) in ein Vielfaches des Einheitsvektors . 1; 0; : : : ; 0 /> 2 R N m zu transformieren und dabei das aus Nulleinträgen bestehende Trapez in der Matrix A.m/ zu erhalten. Die Transformationsmatrizen S1 ; : : : ; SN 1 sind hier orthogonal, was aus Stabilitätsgründen von Vorteil ist3 . Ein weiterer Vorteil besteht darin, dass für symmetrische Matrizen A 2 R N N die Matrix A.N 1/ 2 R N N ebenfalls symmetrisch und somit notwendigerweise (als Hessenbergmatrix) tridiagonal ist, das heißt, A.N 1/ ist dünn besetzt, was beispielsweise für die Anwendung des Newton-Verfahrens zur Bestimmung der Nullstellen des charakteristischen Polynoms der Matrix A.N 1/ von praktischem Vorteil ist. 13.2.1 Householder-Ähnlichkeitstransformationen zur Gewinnung von Hessenbergmatrizen Eine Möglichkeit zur Transformation auf Hessenbergform über ein Schema der Form A.mC1/ D Sm1 A.m/ Sm ; m D 1; 2; : : : ; N 2, besteht in der Anwendung von Householder-Transformationen,

0

B Im B Sm D B B @ 0

3

0

Hm

siehe hierzu Bemerkung 13.1

1

C C C; C A

Hm D IN

m

wm 2 R N

m;

> 2 R .N m/.N 2 wm wm > w D 1; wm m

9 > > > m/ ; > = (13.3) > > > > ;

360

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

wobei Is 2 R ss mit s  1 die Einheitsmatrix bezeichnet und der Vektor wm 2 R N m so gewählt wird, dass4

Hm a D m em

(13.4)

gilt mit einem Koeffizienten m 2 R. Nach Lemma 4.62 auf Seite 96 ist die Matrix Sm orthogonal und symmetrisch, und mit (13.2)–(13.4) erhält man hier Matrizen A.m/ der Gestalt (13.2) beziehungsweise

0

A.mC1/

B B B B B B B .m/ D Sm A Sm D B B B B B B @

.m/

.m/

A1

A2 Hm

.m/

Hm A3 Hm

 m em

0

1

C C C C C C C C: C C C C C A

(13.5)

Von Interesse ist der bei dieser Vorgehensweise anfallende Gesamtaufwand zur Berechnung der Matrix A.N 1/ : Theorem 13.2. Die Transformation auf obere Hessenberggestalt mittels HouseholderÄhnlichkeitstransformationen von der Form (13.5) lässt sich mit 10N 3 3

1CO

1

N

arithmetischen Operationen realisieren.



Beweis. Zu einem gegebenen Vektor wm 2 R N m lässt sich jede Matrix-Vektor> /x D x 2.w> x /w mit x 2 R N m Multiplikation von der Form Hm x D .I 2wm wm m m in 2.N m/ Additionen und ebenso vielen Multiplikationen realisieren, insgesamt also in 4.N m/ arithmetischen Operationen. Der gleiche Aufwand ist für jede Multiplikation x>Hm D .Hm x /> erforderlich. Dem Schema (13.5) entnimmt man, dass bei dem Schritt A.m/ ! A.mC1/ insgesamt 2.N m/Cm D N mCN solcher MatrixVektor-Multiplikationen erforderlich sind und dafür demnach 4.N m/2 C4.N m/N arithmetische Operationen anfallen. Bei Durchführung des gesamten Schemas von A D A.1/ bis hin zur Berechnung von A.N 1/ summiert sich dies zu 4

NX2 mD1

.N

m/2 C N.N

NX1 NX1  mD m/ D 4 m2 C 4 N mD2

mD2

„ ƒ‚ …

.N 1 /N. 2N 1 / 6

1

„ ƒ‚ …

.N 1 /N 2

10N 3 3

1CO

1

N



1

arithmetischen Operationen. Die Berechnung der Vektoren w1 ; : : : ; wN 2 erfordert nochmals die dagegen nicht weiter ins Gewicht fallenden O.N 2 / Additionen und ebenso viele Multiplikationen sowie O.N / Divisionen und genauso viele Quadratwurzeln. 4

Die genaue Form des Vektors wm 2 R N m ist in Lemma 4.64 auf Seite 97 angegeben.

Abschnitt 13.2

361

Transformation auf Hessenbergform

13.2.2 Der symmetrische Fall Falls die Matrix A 2 R N N symmetrisch ist, so erhält man aufgrund der Orthogonalität der Transformationsmatrizen für A.m/ die Form

2

A

.m/

6 6 6 6 6 6 6 D 6 6 6 6 6 6 6 4



0 ♣♣♣ ♣♣♣ ♣♣ ♣♣ ♣ ♣ ♣♣  ♣ 0

♣♣♣









♣♣♣

0 ♣♣ ♣





♣♣♣

0









♣♣



0 ♣♣ ♣ ♣♣ ♣ ♣♣ ♣

♣♣ ♣♣

0

♣♣♣

♣♣ ♣



A.mC1/

…„

♣♣♣

39

0

> 0 > > > ♣♣ 7 > 7 ♣ 7=

B B B 7 m B 7 B > 0 7> B > 7> B > ; 7 D B  7 B 79 B B  7> 7> B = B ♣♣ 7 7 B N m ♣ 5 @ > > ;

.m/

A1

0

a.m/

>

.m/

a.m/

0

1

A3



C C C C C C C C C C C C C C A

ƒ‚ … (13.6) N m .m/ mit der Tridiagonalmatrix A1 2 R mm und der im Allgemeinen vollbesetzten Ma.m/ trix A3 2 R .N m/.N m/ , sowie mit einem gewissen Vektor a.m/ 2 R N m . Die Matrix A.N 1/ schließlich besitzt Tridiagonalgestalt. Die entsprechende HouseholderÄhnlichkeitstransformation liefert eine Matrix A.mC1/ mit der folgenden Struktur, 0 1 „

ƒ‚ m

♣♣ ♣

♣♣♣

B B B B B B B B D Sm A.m/ Sm D B B B B B B B @

A.m/ 1

0

m e> m

0

 m em

.m/

Hm A3 Hm

C C C C C C C C C: C C C C C C A

(13.7)

Für zugrunde liegende symmetrische Matrizen A ist der bei dieser Vorgehensweise anfallende Gesamtaufwand zur Berechnung von A.N 1/ etwas geringer als für nichtsymmetrische Matrizen aus R N N : Theorem 13.3. Bei symmetrischen Matrizen A 2 R N N lässt sich durch HouseholderÄhnlichkeitstransformationen eine Tridiagonalmatrix gewinnen mit einem Aufwand von 8N 3 3

arithmetischen Operationen.

1CO

1

N



Beweis. Es sind die gleichen Überlegungen wie beim Beweis von Theorem 13.2 anzustellen, so dass hier nur die wenigen Modifikationen herausgestellt werden. So entnimmt man dem Schema (13.7), dass bei dem Schritt A.m/ ! A.mC1/ insgesamt

362

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

2.N m/ Matrix-Vektor-Multiplikationen mit Householdermatrizen 2 R .N m/.N m/ erforderlich sind und dafür demnach 8.N m/2 arithmetische Operationen anfallen. Bei Durchführung des gesamten Schemas von A D A.1/ bis hin zur Berechnung von A.N 1/ summiert sich dies zu 8

NX2

.N

mD1

m/2 D 8

NX1 mD2

m2 D 8



.N

1 /N . 2N 6

1/

1



3 1  D 8N 1CO 3 N

arithmetischen Operationen. Die Berechnung der Vektoren w1 ; : : : ; wN 2 erfordert nochmals die vergleichsweise nicht weiter ins Gewicht fallenden O.N 2 / arithmetischen Operationen.

13.3 Newton-Verfahren zur Berechnung der Eigenwerte von Hessenbergmatrizen Im vorangegangenen Abschnitt 13.2 sind Methoden vorgestellt worden, mit denen man zu einer gegebenen Matrix A 2 R N N eine obere Hessenbergmatrix B 2 R N N gewinnt, deren Eigenwerte mit denen von A übereinstimmen,  .B / D  .A/. In dem vorliegenden Abschnitt wird geschildert, wie sich die Eigenwerte von Hessenbergmatrizen effizient näherungsweise bestimmen lassen. p.m / ;m D Hierzu bedient man sich des Newton-Verfahrens mC1 D m p 0 .m / 0; 1; : : :; zur iterativen Bestimmung der Nullstellen des zugehörigen charakteristischen Polynoms5 p./ D det .B I /, dessen Nullstellen mit den Eigenwerten der Matrix B 2 R N N übereinstimmen. Bei vollbesetzten Matrizen ist diese Vorgehensweise mit cN 3 C O.N 2 / arithmetischen Operationen pro Iterationsschritt (mit einer gewissen Konstanten c > 0) recht aufwändig. Bei Hessenbergmatrizen B jedoch lässt sich für jedes  der Aufwand zur Berechnung der Werte p./ und p 0 ./ auf jeweils O.N 2 / arithmetische Operationen reduzieren, wie sich im Folgenden herausstellen wird.

13.3.1 Der nichtsymmetrische Fall. Die Methode von Hyman Das charakteristische Polynom p./ einer Hessenbergmatrix und die zugehörige Ableitung p 0 ./ lassen sich jeweils über die Auflösung spezieller gestaffelter linearer Gleichungssysteme berechnen, wie sich im Folgenden herausstellen wird. Theorem 13.4. Sei B D .bjk / 2 R N N eine obere Hessenbergmatrix mit bj;j C1 ¤ 0 für j D 1; 2; : : : ; N 1 und charakteristischem Polynom p./ D det .B I /;  2 R. Im Folgenden sei  2 R fest gewählt und kein Eigenwert von B , und es bezeichne x D x./ D .xk .// 2 R N den eindeutig bestimmten Vektor mit

.B 5

I /x D e1 ;

Entsprechende Konvergenzresultate finden Sie in Abschnitt 5.4.3.

(13.8)

Abschnitt 13.3

363

Newton-Verfahren zur Berechnung von Eigenwerten

mit e1 D . 1; 0; : : : ; 0 /> 2 R N . Dann gelten die folgenden Darstellungen,

p./ D

. 1 /N

1

b21 b32    bN;N xN ./

1

 p./ 1 ıd 1 D : 0 p ./ xN ./ d xN ./

;

(13.9)

Beweis. Anwendung der cramerschen Regel auf die Gleichung (13.8) liefert die erste Aussage in (13.9),

0

xN

B B B B B D det B B B B B @

b11

./

D . 1 /N



b21

b12 b22 b32



b1;N ♣♣ ♣

 ♣♣



♣♣



0 ♣♣ ♣ ♣♣ ♣

♣♣ ♣

bN

1;N

bN;N 0

1

1

1



0

1

b2;N B b21 b22  ♣ ♣ ♣ B B ♣♣ ♣♣ B b32 ♣ ♣ B 1 B det B B ♣♣ ♣ bN 1;N B B @ bN;N „ ƒ‚ D b21 b32    bN;N 1

1

1

1

1

C C C C Cı C p./ C C C C A 1

C C C C Cı C p./; C C C C A …

wobei man die Identität ./ durch Entwicklung der auftretenden Determinante nach der letzten Spalte erhält. Dies ergibt die erste Identität in (13.9), und eine anschließende Differenziation liefert die zweite Aussage in (13.9). Bemerkung 13.5. In Theorem 13.4 stellt die Bedingung an das Nichtverschwinden der unteren Nebendiagonaleinträge keine ernsthafte Restriktion dar: im Fall bj;j C1 D 0 für ein j 2 ¹ 1; 2; : : : ; N 1 º lässt sich das Problem auf die Bestimmung der Eigenwerte zweier Teilmatrizen von oberer Hessenbergstruktur reduzieren. M Die für (13.9) erforderliche N -te Komponente der Lösung des Gleichungssystems (13.8) und deren Ableitung erhält man jeweils über die Lösung gestaffelter linearer Gleichungssysteme: Theorem 13.6. Mit den Bezeichnungen aus Theorem 13.4 erhält man die beiden Werd . x 1./ / aus den folgenden (durch Umformung und Differenziation te 1=xN ./ und d N

364

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

von (13.8) entstandenen) gestaffelten linearen Gleichungssystemen

.b11

/v1 C

b12 v2

b21 v1 C.b22 ♣♣

C



C

b1;N

1 vN

/v2 C



C

b2;N

1 vN



♣♣

bN

1;N

1

C

b1N

1

C

b2N

♣♣ ♣

♣ 2 vN

2 C.bN

1;N

♣♣ ♣

/vN

1

bN;N

9 > > > xN ./ > > > > > > > D 0 > > > > =

D

1 vN

1C

bN

CbN N

1

1

D

0

D

0

1;N

> > > > > > > > > > > > > > ;

(13.10) beziehungsweise

.b11

/z1 C

b12 z2

b21 z1 C.b22 ♣♣

 1 d D d xN ./

C



C

b1;N

1 zN

1

v1

/z2 C



C

b2;N

1 zN

1

v2 D

♣♣



bN

1;N

♣♣♣

♣ 2 zN

2 C.bN

1;N

bN;N

1

0

♣♣♣

/zN

1 zN

1

1

vN 1

1D

0

D

0

9 > > > > > > > > > > > > > > = > > > > > > > > > > > > > > ;

(13.11) die man rekursiv nach den Unbekannten vN d . x 1./ / auflöst. weise zN 1 ; zN 2 ; : : : ; z1 ; d

1 ; vN

2 ; : : : ; v1 ;

1=xN ./ beziehungs-

N

x ./

Beweis. Die Aussage (13.10) erhält man (für vk D x k ./ ), indem die einzelnen ZeiN len des Gleichungssystems (13.8) durch xN ./ dividiert werden. Differenziation der dv Gleichungen in (13.10) nach  liefert für zk D . dk /./ unmittelbar (13.11).

13.3.2 Das Newton-Verfahren zur Berechnung der Eigenwerte tridiagonaler Matrizen Ist die in Abschnitt 13.3.1 behandelte Matrix B 2 R N N symmetrisch, so ist sie notwendigerweise tridiagonal. In diesem Fall lassen sich die Werte p./ D det .B I / und p 0 ./ auf einfache Weise rekursiv berechnen:

Abschnitt 13.3

365

Newton-Verfahren zur Berechnung von Eigenwerten

Lemma 13.7. Zu gegebenen Zahlen a1 ; : : : ; aN 2 R und b2 ; : : : ; bN 2 R gelten für die charakteristischen Polynome

pn ./ D det .Jn

0

a1 b2

B Bb B 2 Jn D B B @

I /;

♣♣



♣♣



♣♣



♣♣



bn

1

C C C C; bn C A an

n D 1; 2; : : : ; N;

die folgenden Rekursionsformeln

p1 ./ D a1

;

pn ./ D .an

/pn

1 ./

bn2 pn

2 ./;

n D 2; 3; : : : ; N;

µ

(13.12)

mit der Notation p0 ./ WD 1. Für die Ableitungen gelten die Rekursionsformeln

p10 ./ D

1;

D

pn

pn0 ./

1 ./

C .an

/pn0

1 ./

bn2 pn0

2 ./;

n D 2; 3; : : : ; N:

Beweis. Die angegebene Darstellung für p1 ergibt sich unmittelbar, und weiter gilt

p2 ./ D det

a1

 b2

b2 a2



!

D .a1 / .a2 „ ƒ‚ … D p1 .  /

/

was die angegebene Darstellung für p2 ist. Für n  3 erhält man

0

B a1  b2 B B ♣♣ ♣♣ B b2 ♣ ♣ B B B ♣♣ pn ./ D det B ♣ an 2  bn 1 B B B B bn 1 an 1  bn B @ bn an 

1 C C C C C C C C C C C C C A

b22 ;

366

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

0

./

D .an

/pn

1 ./

B a1  b2 B B ♣♣ ♣♣ B b2 ♣ ♣ B B B ♣♣ bn det B ♣ an 3  bn B B B B bn 2 an 2 B @

1

2

 bn

0



./

ƒ‚

D b n pn

2 ./

bn

1

C C C C C C C C; C C C C C A …

wobei sich die Identitäten ./ beziehungsweise ./ durch Determinantenentwicklung nach der letzten Spalte beziehungsweise der letzten Zeile ergeben. Dies komplettiert den Beweis der Identität (13.12). Die angegebenen Rekursionsformeln für die Ableitungen der Polynome pn erhält man unmittelbar durch Differenziation der Terme in (13.12).

13.4 Jacobi-Verfahren zur Nichtdiagonaleinträge-Reduktion bei symmetrischen Matrizen In dem folgenden Abschnitt 13.4.1 wird spezifiziert, inwieweit bei quadratischen Matrizen B die Diagonaleinträge Approximationen an die Eigenwerte von B darstellen (für den Fall, dass die Nichtdiagonaleinträge von B betragsmäßig klein ausfallen). Anschließend werden in Abschnitt 13.4.2 zu einer gegebenen symmetrischen Matrix A 2 R N N spezielle Verfahren von der Form A.mC1/ D Sm1 A.m/ Sm ; m D 1; 2; : : : behandelt, mit denen man sukzessive solche zu A ähnlichen Matrizen B mit betragsmäßig kleinen Nichtdiagonaleinträgen erzeugt.

13.4.1 Approximation der Eigenwerte durch Diagonaleinträge Vor der Einführung des Jacobi-Verfahrens und den zugehörigen Konvergenzbetrachtungen sind ein paar Ergänzungen zu den in Kapitel 12 vorgestellten allgemeinen Störungsresultaten für Eigenwerte erforderlich. Definition 13.8. Für eine symmetrische Matrix B D .bjk / 2 R N N ist die Zahl S .B / 2 R C folgendermaßen erklärt,

S .B / WD

N X

2 bjk :

(13.13)

j; kD1 j ¤k

Offensichtlich gilt

S .B / D jjB jj2F

N X

kD1

2 bkk D jjB

D jj2F ;

mit D WD diag .b11 ; : : : ; bN N /; (13.14)

Abschnitt 13.4

367

Das Jacobi-Verfahren für symmetrische Matrizen

wobei jj  jjF die Frobeniusnorm bezeichnet. Der Wert S .B / wird im Folgenden als Maß dafür verwendet, wie weit die Matrix B von einer Diagonalgestalt entfernt ist. Bei Matrizen mit (gegenüber der Diagonalen) betragsmäßig kleinen Nichtdiagonaleinträgen stellen die Diagonaleinträge Approximationen für die Eigenwerte dar. Genauer gilt Folgendes: Theorem 13.9. Seien 1  2      N die Eigenwerte der symmetrischen Matrix B D .bjk / 2 R N N , und seien bj1 j1  bj2 j2      bjN jN die der Größe nach angeordneten Diagonaleinträge von B . Dann gilt

jbjr jr

r j 

p S .B /;

r D 1; 2; : : : ; N:

Beweis. Mit der Notation D WD diag .b11 ; : : : ; bN N / erhält man max

rD1;:::;N

jbjr jr

./

./

r j  jjB

D jj2  jjB

D jjF D

p S .B /;

wobei die Ungleichung ./ aus Theorem 12.15 angewandt mit A D B; A D D B folgt. Die Abschätzung ./ resultiert aus der allgemeinen Ungleichung jj  jj2  jj  jjF (siehe Theorem 4.47), und die letzte Identität ist eine unmittelbare Konsequenz aus den Definitionen für jj  jjF und S ./, vergleiche die Darstellung (13.14).

13.4.2 Givensrotationen zur Reduktion der Nichtdiagonaleinträge Im Folgenden wird das Verfahren von Jacobi zur approximativen Bestimmung der Eigenwerte symmetrischer Matrizen A 2 R N N über die Reduktion der Nichtdiagonaleinträge vorgestellt, S .A/ > S .A.2/ / > : : : . Dieses Verfahren ist von der Form A.mC1/ D Sm1 A.m/ Sm ; m D 1; 2; : : : mit A.1/ D A, wobei die einzelnen Ähnlichkeitstransformationen von der allgemeinen Form

0

b WD pq B pq ; B 1

pq

B B B B B B DB B B B B @

1♣ ♣



1

c

s 1♣

s

1

♣♣

1

c 1♣

" p

" q

♣♣

1

C C C C C C C C C C C A

p

q

2 R N N

(13.15)

sind mit einer symmetrischen Matrix B 2 R N N und mit speziell zu wählenden Indizes p ¤ q und reellen Zahlen

c; s 2 R ;

c 2 C s 2 D 1:

(13.16)

368

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Im Folgenden soll zunächst ein allgemeiner Zusammenhang zwischen den Zahlen b / und S .B / hergestellt werden. Hierzu beobachtet man, dass wegen der besonS .B deren Struktur der Matrix pq Folgendes gilt,

0

0

B B B B b DB CB 0 B B B B @

0

0

0

0

0

" p

1

C C C C 0 C C C C A

p q

2 R N N ;

0

" q

b D .b wobei in der Matrix B b jk / die Einträge mit den Indizes .p; p/; .q; q/ und .p; q/ von besonderer Bedeutung sind: b bpp D c 2 bpp C 2csbpq C s 2 bqq ; b b qq D s 2 bpp

2csbpq C c 2 bqq ;

b b jk D bjk ;

j; k 62 ¹p; qº;

b bpq D b b qp D cs.bqq

bpp / C .c 2

s 2 /bpq ;

(13.17) (13.18)

(13.19) (13.20)

wobei B D .bjk /. Weiter gilt noch

b b jp D b bpj D cbjp C sbjq ;

b b jq D b b qj D

sbjp C cbjq für j 62 ¹p; qº:

b/ Im folgenden Theorem 13.11 wird ein Zusammenhang zwischen den Zahlen S . B und S .B / hergestellt, für dessen Beweis das folgende Resultat über die Invarianz der Frobeniusnorm gegenüber orthogonalen Transformationen benötigt wird. Lemma 13.10. Für jede Matrix B 2 R N N und jede orthogonale Matrix Q 2 R N N gilt die Identität jjQ 1 BQ jjF D jjB jjF : Beweis. Zunächst sei an die aus der linearen Algebra bekannte Spur einer Matrix A D P .ajk / 2 R N N erinnert, spur .A/ D N kD1 akk . Die Aussage folgt nun unmittelbar aus den beiden folgenden Identitäten,

jjA jj2F D spur .A>A/;

spur .S T / D spur .T S / für alle A; S; T 2 R N N ;

deren elementaren Nachweise hier nicht geliefert werden.

b / und Das folgende Theorem stellt einen Zusammenhang zwischen den Zahlen S . B S .B / her.

Theorem 13.11. Für eine symmetrische Matrix B D .bjk / 2 R N N gilt mit den Bezeichnungen aus (13.15) Folgendes,

b / D S .B / S .B

2 2.bpq

2 b bpq /:

Abschnitt 13.4

369

Das Jacobi-Verfahren für symmetrische Matrizen

Beweis. Eine Anwendung von Lemma 13.10 und den Identitäten (13.14) und (13.20) liefert N X

b / D jj B b jj2F S .B 

kD1

N X

D jjB jj2F „

b b 2kk

kD1

ƒ‚ S .B /

 2 2 2 bkk C bqq C bpp …

2 b bpp

b b 2qq :

(13.21)

Zur Verarbeitung der letzten vier Summanden in (13.21) verwendet man die Identitäten (13.17)–(13.19) in der folgenden Matrixschreibweise,

! b bpp b bpq D b bpq b b qq ƒ‚ … „ DW b b

c

s

s c

!

bpp bpq

!

c

bpq bqq s „ ƒ‚ … DW b

s c

!

:

Die entstehenden Matrizen b und b b 2 R 22 sind also orthogonal ähnlich zueinander, und daher erhält man unter Anwendung von Lemma 13.10 2 2 2 2 2 b bpp Cb b 2qq C 2b bpq D bpp C bqq C 2bpq ; „ ƒ‚ … „ ƒ‚ … D jjb jj2F D jjb b jj2F

(13.22)

und die Identitäten (13.21)–(13.22) ergeben dann die Aussage des Theorems. Mit Lemma 13.11 wird offensichtlich, dass (bei festem Index .p; q/ ) im Fall b bpq D 0

b / die größtmögliche Verringerung gegenüber S .B / zu verzeichnen hat. die Zahl S . B

Korollar 13.12. Wählt man in (13.15) die Zahlen c und s so, dass b bpq D 0 erfüllt ist, dann gilt

b / D S .B / S .B

2 : 2bpq

Das folgende Theorem stellt eine Wahl der Zahlen c und s vor, mit der man b bpq D 0 erhält.

Theorem 13.13. In (13.15) erhält man den Eintrag b bpq D 0 durch folgende Wahl der Zahlen c und s (o.B.d.A. sei bpq ¤ 0)

cD

r

1CC 2

; s D sgn.bpq /

r

C

1 2

mit C D

bpp .bpp

bqq

bqq /2

2 C 4bpq

1=2 :

(13.23)

370

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Beweis. Mit (13.19) folgt

b bpq D sgn.bpq / ./

D

r

C2

1

4

.bqq

sgn.bpq /jbpq j.bqq 2 bqq /2 C 4bpq

.bpp

bpp / C C bpq bpp / 1=2 C

wobei sich die Identität ./ so ergibt:

r

1

C2 4

 .bpp

D

1 2

D

..bpp

bpp

bqq

2 bqq /2 C 4bpq

.bpp

2 bqq /2 C 4bpq

bqq /2 1=2

.bpp

2 bqq /2 C 4bpq

.bpp

1=2 bpq D 0;

jbpq j : 2 /1=2 bqq /2 C 4bpq

Bemerkung 13.14. 1. Offensichtlich gilt in (13.23) jC j < 1, so dass dort die Zahl s wohldefiniert ist. Ebenso offensichtlich gilt dann c 2 C s 2 D 1, womit die Matrix pq in (13.15) orthogonal ist. 2. Bei einer Wahl von c und s entsprechend (13.23) tritt für gewisse Indizes .j; k/ 62 ¹.p; q/; .q; p/º üblicherweise auch der Fall ein, dass b b jk ¤ 0 gilt, obwohl eventuell bjk D 0 erfüllt ist. M

Im Folgenden soll noch die spezielle Wahl des Indexes .p; q/ diskutiert werden. Korollar 13.12 legt nahe, .p; q/ so zu wählen, dass jbpq j maximal wird. In diesem Fall erhält man die folgende Abschätzung: Theorem 13.15. Für Indizes .p; q/ mit p ¤ q sei

jbpq j  jbjk j für j; k D 1; 2; : : : ; N;

j ¤ k;

(13.24)

erfüllt. Mit den Bezeichnungen aus (13.15) und Einträgen c und s entsprechend Theorem 13.13 gilt dann die Abschätzung

b/  .1 S .B

"N /S .B /;

mit "N WD

2

N .N

1/

:

Beweis. Wegen (13.24) gilt die Abschätzung

S .B / D

N X

j; kD1 j ¤k

2 bjk  N.N

da die Anzahl der Nichtdiagonaleinträge N.N mit Korollar 13.12.

2 1 /bpq ;

1 / beträgt. Die Aussage folgt nun

13.4.3 Zwei spezielle Jacobi-Verfahren Im Folgenden werden für das zu Beginn von Abschnitt 13.4 bereits vorgestellte Jacobi-Verfahren zwei unterschiedliche Möglichkeiten der Wahl der Indizes .p1 ; q1 /; .p2 ; q2 /; : : : behandelt.

Abschnitt 13.4

371

Das Jacobi-Verfahren für symmetrische Matrizen

Das klassische Jacobi-Verfahren Algorithmus 13.16 (Klassisches Jacobi-Verfahren). Für eine gegebene symmetrische Matrix A 2 R N N setze man A.1/ WD A. for m D 1; 2; : : ::

.m/

.m/

bestimme Indizes p; q mit japq j  jajk j für j; k D 1; : : : ; N; j ¤ k ; A.mC1/ WD pq1 A.m/ pq ; ( * für pq aus (13.15) mit c und s wie in (13.23) * )

end

M

Bemerkung 13.17. 1. Nach Theorem 13.15 konvergiert für die Matrizen A.m/ des klassischen Jacobi-Verfahrens die Messgröße S .A.m/ / ! 0 linear. Genauer gilt

S .A.m/ /  . 1

"N /m S .A/ für m D 1; 2; : : :



"N D

2

N .N

1

; /

 A D A.1/ :

Ist eine absolute Genauigkeit  > 0 vorgegeben, mit der die Eigenwerte der vorgegebenen Matrix A bestimmt werden sollen, so ist gemäß Theorem 13.9 nach

m2

p p  S .A/=/  N 2 ln S .A/= ln. 1=. 1 "N // ln.

p

Schritten die gewünschte Genauigkeit erreicht, S .A.m/ /  . Für das Erreichen 2 einer vorgegebenen Genauigkeit sind somit cN Iterationsschritte durchzuführen. 2. In jedem Schritt des klassischen Jacobi-Verfahrens fallen etwa 4N Multiplikationen und 2N Additionen sowie O. 1 / Divisionen und Quadratwurzelberechnungen 1 // arithmetische Operationen. Hinzu kommt in jean, insgesamt also 6N. 1 C O. N dem Schritt der weitaus höher ins Gewicht fallende Aufwand zur Bestimmung des N.N 1 / betragsmäßig größten Elements, wofür Vergleichsoperationen erforderlich 2 sind. M

Das zyklische Jacobi-Verfahren Mit Bemerkung 13.17 wird klar, dass beim klassischen Jacobi-Verfahren cN 4 CO.N 3 / Operationen für das Erreichen einer vorgegebenen Genauigkeit durchzuführen sind (mit einer Konstanten c > 0), was die Anwendung dieses Verfahrens nur für kleine Matrizen zulässt. Daher ist die folgende Variante des Jacobi-Verfahrens in Betracht zu ziehen, die auf die Bestimmung des jeweils betragsmäßig größten Eintrags verzichtet: Algorithmus 13.18 (Zyklisches Jacobi-Verfahren). Für eine gegebene symmetrische Matrix A 2 R N N setze man A.1/ WD A.

372

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

for m D 0; 1; : : :: for p D 1 W N

1

B WD A.m/ ; B WD pq1 Bpq ; end aus (13.15) mit c und s wie in (13.23) *)

for q D p C 1 W N

(* für pq

end

A.mC1/ WD B ;

end

Bemerkung 13.19. 1. Das zyklische Jacobi-Verfahren ist von der allgemeinen Form A.mC1/ D Sm1 A.m/ Sm ; m D 1; 2; : : : mit

Sm D 12 13    1N D

NY1  pD1

N Y

qDpC1



 23 24    2N    N

2;N

1 N

2;N

 pq ;



N

1;N

wobei die Einträge c D c.p; q; j / und s D s.p; q; j / von pq entsprechend Theorem 13.13 gewählt sind. N.N 1 / 2. In einem Schritt A.m/ ! A.mC1/ des zyklischen Jacobi-Verfahrens werden 2 3 Jacobi-Transformationen (13.15) mit insgesamt 3N . 1 C O. 1=N // arithmetischen Operationen durchgeführt. Typischerweise ist nach m D O. 1 / Schritten die Zahl S .A.m/ / hinreichend klein (man beachte hierzu das nachfolgende Theorem 13.20), so dass man mit einem Gesamtaufwand von O.N 3 / arithmetischen Operationen auskommt. M Das zyklische Jacobi-Verfahren konvergiert im Falle einfacher Eigenwerte quadratisch im Sinne des folgenden Theorems. Eine Beweisidee dazu und Hinweise auf die entsprechende Originalliteratur findet man in Parlett [82]. Theorem 13.20. Falls alle Eigenwerte der symmetrischen Matrix A 2 R N N einfach auftreten, so gilt für die Matrizen A.m/ des zyklischen Jacobi-Verfahrens

S .A.mC1/ / 

S .A.m/ /2 ı

für m D 1; 2; : : :;

mit ı WD

min

;2.A/; ¤

j

j:

13.5 Das QR -Verfahren 13.5.1 Eindeutigkeit und Stetigkeit der QR -Faktorisierung einer Matrix Für das in den folgenden Abschnitten 13.5.2–13.5.3 behandelte QR-Verfahren zur approximativen Bestimmung der Eigenwerte einer Matrix werden die folgenden Aussagen über Eindeutigkeit und Stetigkeit der QR-Faktorisierung einer Matrix benötigt.

Abschnitt 13.5

373

Das QR-Verfahren

Lemma 13.21 (Eindeutigkeit der QR-Faktorisierung). Für Orthogonalmatrizen Q1 ; Q2 2 R N N und reguläre obere Dreiecksmatrizen R1 ; R2 2 R N N sei

Q1 R1 D Q2 R2 erfüllt. Dann existiert eine Vorzeichenmatrix S D diag .1 ; : : : ; N / 2 R N N mit k 2 ¹ 1; 1 º, so dass Folgendes gilt,

Q2 D Q1 S;

R2 D SR1 :

Beweis. Nach Voraussetzung gilt

Q1 1 Q2 D R1 R2 1 DW S: Es sind Produkte und Inverse von orthogonalen Matrizen wieder orthogonal, und entsprechendes gilt für obere Dreiecksmatrizen. Folglich ist S sowohl obere Dreiecksmatrix als auch orthogonal,

S

1

>

DS ;

0 ................................. 1

B S D@

.............................................. ......................................... ..................................... ................................ ............................ ....................... ................... .............. .......... ..... .

C N N : A2R

(13.25)

Damit kann S nur eine Diagonalmatrix sein, S D diag .1 ; : : : ; N / 2 R N N , und wieder wegen S 1 D S > erhält man k D 1 für k D 1; 2; : : : ; N , woraus die Aussage k des Lemmas folgt. .m/

Definition 13.22. Für Matrizen Am D .ajk / und A D .ajk / 2 R N N schreibt man .m/

Am ! A für m ! 1 W” ajk ! ajk für m ! 1 .j; k D 1; 2; : : : ; N /: Bekanntermaßen gilt Am ! A für m ! 1 genau dann, wenn jjAm A jj ! 0 für m ! 1 für irgendeine Matrixnorm jj  jj W R N N ! R erfüllt ist. Für die Konvergenzbetrachtungen des noch vorzustellenden QR-Verfahrens wird das folgende Resultat über die lokale Lipschitzstetigkeit der QR-Faktorisierung benötigt. Im Folgenden ist O.m / eine Kurzschreibweise für O.jjm jj2 /. Lemma 13.23 (Stetigkeit der QR-Faktorisierung). Für Orthogonalmatrizen Qm ; Q 2 R N N und obere Dreiecksmatrizen Rm ; R 2 R N N sei

DW m …„ ƒ ‚ Qm Rm QR ! 0 für m ! 1

(13.26)

erfüllt, und die Matrix QR 2 R N N sei regulär. Dann existieren Vorzeichenmatrizen .m/ Sm D diag .1.m/ ; : : : ; N / 2 R N N

.m/

mit k

2 ¹ 1; 1 º;

(13.27)

374

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

mit

Qm Sm D Q C O.m /;

Sm Rm D R C O.m / für m ! 1:

(13.28)

Beweis. Es ist die Matrix R regulär, da Q und QR reguläre Matrizen sind, und somit können wir

bm WD Rm R R

1

betrachten. Als Erstes beobachtet man

b> b R m R m D I C O.m / für m ! 1;

(13.29)

was sich wie folgt ergibt,

b> b R m R m D .R

1 >

/ R> m Rm R

./

D .R>/

1

D .R>/

.QR/> C O.m /

1



1

.Qm Rm />.Qm Rm /R

 QR C O.m / R

1

1

D .R>/ 1 R>RR 1 C O.m / für m ! 1; „ ƒ‚ … D I

wobei in ./ noch zu beachten ist, dass jjB jj2 D jjB >jj2 gilt für beliebige Matrizen B 2 R N N . Im Folgenden wird mithilfe von (13.29) nachgewiesen, dass für gewisse Vorzeichenmatrizen Sm 2 R N N von der Form (13.27) Folgendes gilt,

bm D I C O.m / für m ! 1: Sm R

(13.30)

Aus (13.30) folgert man dann nämlich die Darstellung (13.28),

bm R D R C O.m /; Sm Rm D Sm R ./

Qm Sm D .Qm Rm /.Sm Rm /

1 ./

D .QR C O.m //.R

1

C O.m //

D Q C O.m / für m ! 1:

2 Hierbei ist in .  / zu beachten, dass nach Voraussetzung Sm D I gilt, und für hinreichend große m ist die Matrix Rm regulär, was sich beispielsweise aus (13.26), der Regularität von QR und der Eigenschaft jjQm1 jj2 D 1 ergibt. Die Identität .  / ist eine Folgerung aus Korollar 4.52. Im Folgenden wird nun die Konvergenzaussage (13.30) nachgewiesen. Inverse und Produkte von oberen Dreiecksmatrizen bilden wieder obere Dreiecksmatrizen, somit bm eine obere Dreiecksmatrix. Man erhält dann folgende Zerlegung, ist insbesondere R

0

B B bm D B R B @

.m/

b r 11



.m/

b r 22

♣♣♣ ♣♣ ♣ ♣♣ ♣



♣ ♣♣



b r .m/ NN

1

C C .m/ .m/ C DW diag .b r 11 ; : : : ;b rNN / C C „ ƒ‚ … A DW Dm

0 B B B B @



0 ♣♣ ♣ ♣♣ ♣



0

♣♣♣

♣♣





♣♣♣ ♣♣ ♣ ♣♣ ♣



♣♣♣

0

ƒ‚ DW Um

1

♣♣ C ♣ C

C: C A …

(13.31)

Abschnitt 13.5

375

Das QR-Verfahren

Mit den Bezeichnungen aus (13.31) wird nun 2 Dm D I C O.m /;

Um D O.m / für m ! 1

(13.32) .m/

nachgewiesen, woraus dann mit den Vorzeichenmatrizen Sm D diag . sgn.b r 11 /; : : : ; .m/ sgn.b r N N //

unmittelbar (13.30) folgt. Zum Nachweis von (13.32) beobachtet man als

Erstes

bm D . R b> R m/

Mit (13.29) folgt

1

b> C Bm mit Bm WD . R m/

1

b> b .R m Rm

I /:

Bm D O.m /;

b 1; wobei noch zu beachten ist, dass (13.29) die Beschränktheit der Matrixfolge R 0

1 1=2 b 1 ; : : : nach sich zieht, jj R bm1 jj2 D jj. R b> b R jj2 ! 1 für m ! 1. m Rm / 1 b> Zum Zweiten ist offensichtlich R eine untere Dreiecksmatrix, und Inverse von m 1 b> unteren Dreiecksmatrizen sind wieder untere Dreiecksmatrizen, so dass . R eine m/

untere Dreiecksmatrix ist. Daher stimmt notwendigerweise das strikte obere Dreieck von Bm mit dem strikten oberen Dreieck von Um überein. Insgesamt erhält man damit folgende Darstellung,

0

B Bm D B @

.... ............ .................... ............................ .................................... ............................................ .................................................... ............................................................ .................................................................... .....................................

1

C C C Um D O.m /: A

Es ist nun klar, dass sich daraus die zweite Identität in (13.32) ergibt, und abschließend wird die erste Identität in (13.32) nachgewiesen, 2 > b> Dm D Dm Dm D . R m

D

b> b R m Rm „ ƒ‚ …

DI CO.m /

> b Um /. Rm

b> R m Um „ ƒ‚ …

DO.m /

Um /

>b > Um Rm C Um Um D I C O.m / für m ! 1: „ ƒ‚ … „ ƒ‚ …

DO.m /

O.m /

Damit ist (13.32) und somit auch (13.30) nachgewiesen, und man erhält die Stetigkeitsaussage (13.28).

13.5.2 Definition des QR -Verfahrens Der folgende Algorithmus beschreibt in Form eines Pseudocodes das QR-Verfahren zur approximativen Bestimmung der Eigenwerte einer Matrix A.

376

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Algorithmus 13.24 (QR-Verfahren). Sei A 2 R N N eine beliebige reguläre Matrix.

A.1/ WD A; for m D 1; 2; : : ::

bestimme Faktorisierung A.m/ D Qm Rm

mit Qm 2 R N N orthogonal und Rm 2 R N N von oberer Dreiecksgestalt; end

A.mC1/ WD Rm Qm 2 R N N ; M

Wie sich gleich herausstellen wird, approximieren die Diagonaleinträge von A.m/ unter geeigneten Bedingungen für m ! 1 die Eigenwerte der Matrix A. Hierbei werden die folgenden Darstellungen für die Iterationsmatrizen A.m/ und die Potenzen Am benötigt. Lemma 13.25. Mit den Bezeichnungen aus Algorithmus 13.24 sowie der Notation

Q1:::m WD Q1 Q2    Qm ;

Rm:::1 WD Rm Rm

1

   R1 ;

(13.33)

gilt

A.mC1/ D Qm1 A.m/ Qm ;

1 D Q1:::m AQ1:::m ;

........

m D 1; 2; : : :;

Am D Q1:::m Rm:::1 ;

........

;

......

:

Beweis. Die erste Identität ist unmittelbar einsichtig, und daraus resultiert dann die zweite Identität,

A.mC1/ D Qm1 A.m/ Qm D Qm1 Qm1 1 A.m 1

1/

Qm

1 Qm

1

D    D Qm    Q1 AQ1    Qm : Die dritte Identität erhält man mittels vollständiger Induktion unter Verwendung des folgenden Arguments,

Q1:::m Rm:::1 D Q1:::m ./

1 Qm Rm Rm 1:::1

D AQ1:::m

1 Rm 1:::1

D Q1:::m

1A

.m/

Rm

1:::1

für m  1;

wobei in ./ die gerade bewiesene zweite Identität eingeht. Damit ist Lemma 13.25 vollständig bewiesen. Wie sich im Verlauf des Beweises für den folgenden zentralen Konvergenzsatz herausstellen wird, hat die QR-Faktorisierung Am D Q1:::m Rm:::1 für die m-te Potenz der Matrix A insofern eine besondere Bedeutung, als dass sich die Matrix Rm:::1 bis

Abschnitt 13.5

377

Das QR-Verfahren

auf die Vorzeichenwahl als ein Produkt von drei Matrizen darstellen lässt, bei der die m Diagonalmatrix diag .m 1 ; : : : ; N ) den dominanten Faktor darstellt. Weiter zeigt sich

1 m 1 schließlich, dass die Matrix A.m/ D Q1:::m 1 A Rm 1:::1 dann eine Normierung von m A darstellt, bei der sich auf der Diagonalen die Werte 1 ; : : : ; N herauskristallisieren.

13.5.3 Konvergenz des QR -Verfahrens für betragsmäßig einfache Eigenwerte Unter gewissen Bedingungen konvergieren für m ! 1 die Diagonaleinträge von A.m/ gegen die betragsmäßig fallend sortierten Eigenwerte von A, wobei die Konvergenzgeschwindigkeit von der betragsmäßig betrachteten Trennung der Eigenwerte abhängt: Theorem 13.26. Die Matrix A 2 R N N sei regulär und diagonalisierbar mit betragsmäßig einfachen Eigenwerten 1 ; : : : ; N 2 R, die o.B.d.A. betragsmäßig fallend angeordnet seien,

j1 j > j2 j >    > jN j > 0;

(13.34)

und die Inverse der Matrix T D .v1 j : : : j vN / 2 R N N mit Eigenvektoren vk 2 R N zu k besitze ohne Zeilenvertauschung eine LR-Faktorisierung.6 Dann gilt für das in Algorithmus 13.24 beschriebene QR-Verfahren

A.m/ D Sm USm C O.q m / für m ! 1;

mit q WD

max kD1;:::;N

mit geeigneten Matrizen von der Form

0

B .m/ .m/ B Sm D diag .1 ; : : : ; N / 2 R N N ; B U DB  B .m/ @  k 2 ¹ 1; 1 º ;

1



♣♣





♣♣♣ ♣♣ ♣ ♣♣ ♣

♣ ♣♣



N

Insbesondere approximieren also die Diagonaleinträge von A.m/ D mäßig fallend sortierten Eigenwerte von A, max

kD1;:::;N

.m/

jakk

ˇ kC1 ˇ ˇ; ˇ k 1 1

C C C C 2 R N N : C A

(13.35)

.m/ .ajk /

die betrags-

k j D O.q m / für m ! 1:

Beweis. Für die Eigenvektormatrix T 2 R N N aus der Voraussetzung des Theorems betrachte man eine QR-Faktorisierung,

b T D QR; 6

Q2R

N N

orthogonal;

0 ................................. 1

bDB R @

.............................................. ......................................... ..................................... ................................ ............................ ....................... ................... .............. .......... ..... .

C N N : A2R

(13.36)

Eine detaillierte Formulierung finden Sie in (13.38) im Beweis. Eine Erläuterung dazu liefert die anschließende Bemerkung 13.27.

378

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Es wird nun Folgendes nachgewiesen,

b R b A.m/ D Sm . RD

1

/Sm C O.q m / für m ! 1

(13.37-a)

mit Matrizen Sm 2 R N N von der Form (13.27) und der Diagonalmatrix

D WD diag .1 ; : : : ; N / 2 R N N :

(13.37-b)

b R b 1 . Für den Die Aussage des Theorems erhält man danach mit der Matrix U WD RD Nachweis von (13.37) benötigt man die vorausgesetzte Faktorisierung der Form T

1

D LR;

0

1

1

B  B L D B ♣♣ @ ♣ 

♣♣



♣♣



♣♣

♣♣♣



♣ 1

C C C 2 R N N ; A

0 ................................. 1

B RD@

.............................................. ......................................... ..................................... ................................ ............................ ....................... ................... .............. .......... ..... .

C N N ; A2R

(13.38)

und beobachtet als Erstes, dass

Lm WD D m LD

m

D I C O.q m / für m ! 1

(13.39)

gilt, denn mit der Notation L D .Ljk / gilt Lm D ..j =k /m Ljk /, und dann folgt (13.39) aus der Ungleichung jj =k j  q für j  k C 1. Im Weiteren wird eine

b m 2 R N N benötigt, QR-Faktorisierung von RL b m DW Q b mR bm ; RL

b m 2 R N N orthogonal; Q

0 ................................. 1

bm D B R @

.............................................. ......................................... ..................................... ................................ ............................ ....................... ................... .............. .......... ..... .

C N N : A2R

b mR bm D R b C O.q m / D I R b C O.q m / für Man erhält aus (13.39) die Konvergenz Q m ! 1, und Lemma 13.23 über die Stetigkeit der QR-Faktorisierung liefert dann b m beziehungsmit einer entsprechenden Vorzeichenwahl in den Spalten der Matrix Q bm Folgendes, weise den Zeilen der Matrix R b m D I C O.q m /; Q

bm D R b C O.q m / für m ! 1: R

(13.40)

Diese Konvergenzaussage ist der erste Schritt beim Nachweis von (13.37). Im zweiten Schritt ergeben sich für die Potenzen Am ; m  1, die beiden folgenden QR-Faktorisierungen,

Am D TD m T

1 ./

b m LR D QRD

Am D Q1:::m Rm:::1 ;

.13:39/

D

bm D m R ; (13.41) b m D m R D QQ bm R Q RL „ƒ‚… „ƒ‚… „ ƒ‚ … orthog. Dreieck b Qmb Rm

(13.42)

wobei in der ersten Identität von (13.41) die Faktorisierung A D TDT 1 eingeht, und die Identität ./ resultiert aus (13.36) und (13.38). Die Identität (13.42) erhält man aus

Abschnitt 13.5

379

Das QR-Verfahren

Lemma 13.25. Die Eindeutigkeit der QR-Faktorisierung (vergleiche Lemma 13.21) liefert dann

b m SmC1 ; Q1:::m D QQ

bm D m R; Rm:::1 D SmC1 R

mit

.mC1/

SmC1 D diag .1

.mC1/

.mC1/

k

Daraus erhält man

/ 2 R N N ;  2 ¹ 1; 1 º geeignet :

; : : : ; N

D I

1 Qm D Q1:::m

1 Q1:::m

‚ …„ ƒ b m1 1 Q 1 Q Q b m SmC1 ; D Sm Q

bm D m RR 1 .D Rm D Rm:::1 Rm1 1:::1 D SmC1 R ƒ‚ „ D D

und daraus wiederum

1 m 1

/



bm1 1 Sm ; R

2 b 1 b m1 1 Q b m SmC b A.m/ D Qm Rm D Sm Q 1 RmC1 D R m Sm ; „ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… !I !I DI !b R !b R 1

wobei die angegebenen Konvergenzeigenschaften mit der Rate O.q m / gelten, wie man der Darstellung (13.40) entnimmt. Daraus erhält man schließlich die Identität b R b 1 C O.q m / für m ! 1. Dies komplettiert den Beweis (13.37), Sm A.m/ Sm D RD des Theorems. Bemerkung 13.27. a) Die Bedingung der Existenz einer LR-Faktorisierung für die Inverse der in Theorem 13.26 beschriebenen Eigenvektormatrix T ist äquivalent zu der Eigenschaft span ¹ e1 ; : : : ; en º \ span ¹vnC1 ; : : : ; vN º D ¹ 0 º für n D 1; 2; : : : ; N

1;

siehe Aufgabe 13.2. Hier bezeichnet ek 2 R N den k -ten Einheitsvektor. Wegen der fehlenden Kenntnis der Eigenvektoren v1 ; : : : ; vN ist diese Bedingung praktisch nicht nachprüfbar. b) Im Falle komplexer Eigenwerte,  .A/ 6 R, ist die Bedingung (13.34) des Satzes nicht erfüllt und auch die Aussage des zugehörigen Theorems verliert ihre Gültigkeit. Einzelheiten über die erforderlichen Modifikationen finden Sie beispielsweise in Oevel [79] und in Freund/Hoppe [31]. c) Bei vollbesetzten Matrizen erfordert jeder Schritt des QR-Verfahrens wegen der notwendigen Berechnung einer QR-Faktorisierung cN 3 C O.N 2 / arithmetische Operationen. Daher ist es zweckmäßiger, zunächst eine Ähnlichkeitstransformation auf Hessenberggestalt gemäß Abschnitt 13.2 durchzuführen und die entstehende Matrix mit dem QR-Verfahren zu bearbeiten. Weitere Einzelheiten hierzu werden im folgenden Abschnitt 13.5.4 vorgestellt. d) Eine alternative Präsentation des QR-Verfahrens findet man in Kress [63] (siehe auch Watkins [110]). M

380

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

13.5.4 Praktische Durchführung des QR -Verfahrens für Hessenbergmatrizen Ausgehend von dem letzten Aspekt der Bemerkung 13.27 wird im Folgenden für den Spezialfall einer Hessenbergmatrix A 2 R N N eine effiziente Vorgehensweise zur Berechnung der Iterierten7 A.2/ ; A.3/ ; : : : des QR-Verfahrens beschrieben.

Prinzipielles Vorgehen bei der Durchführung des Schritts A.m/ ! A.mC1/ Zur Durchführung des Schritts A.m/ ! A.mC1/ hat man nach Definition zunächst .m/ eine QR-Faktorisierung A.m/ D Qm Rm für die Hessenbergmatrix A.m/ D .ajk / zu bestimmen, was sukzessive in der folgenden Form geschieht,

A.m/ D A.m;1/ ! A.m;2/ !    ! A.m;N / DW Rm ;

> A.m;k/ ; A.m;kC1/ D Smk

k D 1; 2; : : : ; N

1;

µ

(13.43)

mit dem Ziel der schrittweisen Elimination der unteren Nebendiagonaleinträge,

0

A

.m;k/

B B B B B B B B B B B D B B B B B B B B B B @

.m;k/

a11

0 ♣♣ ♣ ♣♣ ♣

♣♣♣

♣♣♣

♣♣♣



♣♣

♣ ak

.m;k/ 1;k 1

0 0

♣♣♣

♣♣♣

♣♣♣

♣♣♣

♣♣♣

.m;k/

♣♣♣

♣♣♣

♣♣♣

♣♣♣

♣♣♣

akk

.m/ akC a.m/ 1;k kC1;kC1

0

.m/

♣♣♣

♣♣♣

.m/

akC2;kC1 akC2;kC2 ♣♣

♣♣♣

♣♣♣

.m;k/

a1N



♣♣♣

♣♣



0

" Spalte k

♣♣



.m/ aN;N 1

1

C C C C C .m;k/ C ak 1;N C C .m;k/ C akN C Zeile k C (13.44) C C .m/ C akC1;N C Zeile kC1 C .m/ akC2;N C C C ♣♣ C ♣ C A .m/ aN N ♣♣ ♣

♣♣

♣♣ ♣ ♣♣ ♣ ♣♣ ♣ 0

♣♣♣

wobei die verwendete Notation für die Einträge der Matrix A.m;k/ dadurch gerechtfertigt ist, dass die Matrizen A.m;k/ und A.m/ in den Zeilen k C 1; k C 2; : : : ; N übereinstimmen. Das angesprochene Ziel wird erreicht, wenn man im Zuge der Transfor-

7

die allesamt von Hessenbergform sind, siehe Übungsaufgabe 13.3

381

Das QR-Verfahren

Abschnitt 13.5

mation (13.43) spezielle Givensrotationen Smk 2 R N N von der Form

0

Smk

1

1

♣♣

B B B B B DB B B B B @

♣ 1

c s s c 1

♣♣

♣ 1

"

C C C C C C C C C C A

- Zeile k - Zeile k C 1

Spalte k verwendet mit den folgenden Setzungen für die Zahlen c; s 2 R,

ca C sb D p

1

a2

sa C cb D 0

C

b2

bzw.

c D p 2a sD

a C b2 b p a2 C b 2

.m;k/

mit

a WD akk

;

.m/

b WD akC1;k ;

wobei noch b ¤ 0 angenommen wird. Gilt andernfalls b D 0, so ist keine Transformation erforderlich und man kann c D 1; s D 0 setzen. In jedem Fall gilt c 2 C s 2 D 1 und Smk ist somit eine Orthogonalmatrix. Mit diesen Notationen ändert sich bei einer Transformation von der Form A.m;k/ ♣♣ ♣♣ ♣♣ > ! Smk A.m;k/ lediglich die in (13.44) gekennzeichnete Teilmatrix  ♣ ♣ ♣ ♣ ♣ ♣  2

R 2.N kC1/ zu

c s s c

!

 

♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣

 

D

 ♣♣♣ ♣♣♣  2.N kC1/ : 0  ♣♣♣  2R

Nach der Gewinnung einer QR-Faktorisierung A.m/ D Qm Rm für die Hessenbergmatrix A.m/ besteht der zweite Teil bei der Durchführung des Schritts A.m/ ! A.mC1/ des QR-Verfahrens in der Berechnung des Matrixprodukts A.mC1/ D Rm Qm mit Qm WD Sm1 Sm2    Sm;N 1 . Die Durchführung des Schritts A .m/ ! A .mC1/ in der Praxis Zur Speicherplatzersparnis führt man in der Praxis die beiden genannten Teile des Schritts A.m/ ! A.mC1/ simultan in der folgenden Form durch,

A.m/ D B .m;1/ ! B .m;2/ !    ! B .m;N / DW A.mC1/ ;

> B .m;k/ S B .m;kC1/ D Smk mk ;

wobei im Detail so vorgegangen wird:

k D 1; 2; : : : ; N

1;

µ

(13.45)

382

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Algorithmus 13.28 (QR-Verfahren für Hessenbergmatrizen). Man berechnet .k;1/

.k;2/

> > B .m;k/ ! Smk B .m;k/ ! Smk B .m;k/ Smk DW B .m;kC1/ ;

k D 1; 2; : : : ; N

1; (13.46)

> wobei nach dem Schritt .k; 1 / in der Matrix Smk B .m;k/ die Einträge mit den Indizes .m;kC1/

k C 1; k C 1 beziehungsweise k C 2; k C 1 mit den Werten akC1;kC1 beziehungsweise .m/

akC2;kC1 übereinstimmen und diese für die Berechnung der Givensrotation Sm;kC1 M

zwischenzuspeichern sind.

Die in dem Algorithmus 13.28 gewählte Reihenfolge bei der Durchführung der Matrizenmultiplikationen führt aufgrund der Assoziativität des Matrixprodukts dennoch tatsächlich auf die Matrix > B .m;N / D Sm;N

>

1 Sm;N

2

> .m/    Sm Sm1 Sm2    Sm;N 1A

1

D A.mC1/ :

.m;kC1/

.m/

Mit dem folgenden Lemma wird klar, dass die Werte akC1;kC1 und akC2;kC1 nach dem Schritt .k; 1 / tatsächlich an den genannten Positionen stehen. (Bei dem darauf folgenden Schritt .k; 2 / aus (13.46) werden diese überschrieben.)

> B .m;k/ Lemma 13.29. Die in (13.46) nach dem Schritt .k; 1 / entstehende Matrix Smk ist von Hessenbergform. Deren Einträge stimmen in den Spalten k C 1; k C 2; : : : ; N mit denen der Matrix A.m;kC1/ aus (13.43) überein,

0

> Smk B .m;k/

♣ ♣ ♣  a.m;kC1/ ♣ ♣ ♣ ♣♣♣ 1;kC1 ♣♣ B ♣ ♣ ♣♣ B ♣ ♣ ♣ B ♣ ♣♣♣ B0 ♣ ♣  B B ♣♣ ♣ ♣ .m;kC1/ B♣ ♣  akC1;kC1 B DB♣ ♣♣ .m/ .m/ B ♣♣ ♣ akC2;kC1 akC2;kC2 B 

B B ♣♣ B♣ B @

♣♣

0 ♣♣♣ ♣♣♣



♣♣

♣♣♣

0

> S> Beweis. Es gilt offensichtlich Smk m;k > B .m;k/ D A.m;kC1/ S Smk m;1    Sm;k

1.

1



1/ a1.m;kC N

1

C C C C C .m;kC1/ C akC1;N C C C: .m/ akC2;N C C C C ♣♣ ♣♣ C ♣ ♣ C A .m/ .m/ aN;N 1 aN N ♣♣ ♣ ♣♣♣

> A.m/ D A.m;kC1/ und somit auch    Sm 1

Im Folgenden wird mittels vollständiger In-

Abschnitt 13.5

383

Das QR-Verfahren

duktion über ` D 1; 2; : : : ; k die Darstellung

A.m;kC1/ Sm1    Sm;` 0



B B B B0 B♣ B ♣♣ B♣ B♣ B♣ B ♣♣ B♣ B♣ ♣ D B B ♣♣ B ♣♣ B B ♣♣ B♣ B B ♣♣ B♣ B B ♣♣ B♣ @

♣♣♣  ♣ ♣ ♣♣ ♣ ♣ ♣♣ ♣  ♣♣ ♣  ♣♣ ♣



♣♣ ♣ ♣♣ ♣







♣♣ ♣ ♣♣ ♣ ♣♣ ♣

0  ♣♣ ♣ 0 ♣♣

1

♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣





♣♣ ♣ ♣♣ ♣

♣♣♣

.m;kC1/

a1;kC1



♣♣♣

♣♣♣

♣♣ ♣♣ ♣ ♣ ♣♣ ♣♣♣ ♣ ♣♣ ♣♣ ♣ ♣ ♣♣ ♣♣ ♣ ♣ ♣♣ ♣♣ ♣ ♣ ♣♣ ♣ ♣ ♣♣ ♣ ♣ ♣ ♣♣ ♣♣ ♣  ♣ ♣♣ .m;kC1/ ♣ 0 akC1;kC1 ♣ ♣ .m/ .m/ ♣ akC2;kC1 akC2;kC2 ♣♣ ♣♣ ♣♣ ♣ ♣ ♣

0 ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣

"

♣♣♣

.m/ aN;N

0

"

Spalte `

.m;kC1/

a1;N

1

C C C C C C C C C C C C C C C C .m;kC1/ C akC1;N C C C .m/ akC2;N C C C ♣♣ C ♣ A .m/ a 1 NN ♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣

Zeile ` Zeile ` C 1

(13.47) Zeile k

C1

Spalte k C 1

nachgewiesen, so dass die Einträge in den Spalten k C 1; k C 2; : : : ; N mit denen der Matrix A.m;kC1/ übereinstimmen. Die Aussage des Lemmas folgt dann aus (13.47) mit ` D k . Die Identität (13.47) ist offensichtlich richtig für ` D 1. Ausgehend von der Darstellung (13.47) mit einem `  k 1 bedeutet die Multiplikation .A.m;kC1/ Sm;1    Sm;` 1 /Sm;` eine Transformation der in (13.47) gekennzeichneten Teilmatrix,

 

 

♣♣ ♣♣ ♣♣ ♣ ♣ ♣ ♣ !  ♣♣  0 0

♣♣ ♣ ♣♣ ♣





c s s c



 

D

♣♣ ♣ ♣♣ ♣

♣♣ ♣ ♣♣ ♣

2 R .`C1/2 ;

 

so dass auch der Induktionsschritt abgeschlossen ist.

Bemerkung 13.30. Mit dem Beweis wird auch deutlich, dass für k D 1; 2; : : : ; N 1 > B .m;k/ von nach dem ersten Teilschritt .k; 1 / aus (13.46) die entstehende Matrix Smk Hessenberggestalt ist. Für die Matrizen B .m;2/ ; : : : ; B .m;N

1/

gelten die folgenden

384

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Darstellungen,

0

B .m;k/



B B B B0 B ♣♣ B♣ B♣ ♣ DB B ♣♣ B ♣♣ B B ♣♣ B♣ B ♣♣ @♣

♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣

♣♣♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣

♣♣ ♣ ♣♣ ♣ 0

♣♣ ♣ ♣♣ ♣

♣♣ ♣ ♣♣ ♣♣ ♣ ♣  ♣ ♣ 0 ♣♣ ♣♣ ♣♣ ♣♣ ♣ ♣ 0 ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣ ♣♣♣ 0



♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣♣ ♣ ♣ ♣♣ ♣ ♣ ♣♣ ♣ ♣

 

" "

1 C C C C C C C C C C C C C C A

- Zeile k - Zeile k C 1

.k D 2; 3; : : : ; N

1 /;

Spalte k Spalte k C 1

so dass die Matrizen B .m;2/ ; : : : ; B .m;N 1/ jeweils an der Position .k C 1; k 1 / von einer Hessenberggestalt abweichen. Beim Übergang B .m;k/ ! B .m;kC1/ wird zunächst ♣ ♣ ♣♣♣ ♣ 2.N kC2/ der durch  gekennzeichnete Block durch die Transformation  ♣ ♣ ♣♣♣ ♣ 2 R  

c s  s c

♣ ♣ ♣♣♣ ♣ ♣ ♣ ♣♣♣ ♣ !

 

♣ ♣♣♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣ ♣  2 R 2.N

kC2/

(13.48)

> B .m;k/ wird anschließend überschrieben, und in der daraus entstehenden Matrix Smk

mit der gekennzeichneten Teilmatrix 2 R .kC2/2 die Transformation ♣ ♣

♣

 

 

♣♣ ♣♣ ♣

durchgeführt.

♣ ♣♣ ♣ ♣♣ ! ♣♣♣ ♣ ♣

♣♣  c ♣♣ ♣ s

s c



(13.49)

M

Mit der vorangegangenen Bemerkung lässt sich leicht der bei der Durchführung des Schritts A.m/ ! A.mC1/ anfallende Gesamtaufwand ermitteln. Theorem 13.31. Für Hessenbergmatrizen A lässt sich das Schema (13.45) zur Durchführung des Schritts A.m/ ! A.mC1/ des QR-Verfahrens mit 6N 2 1 C O arithmetischen Operationen realisieren.

1

N



Beweis. Eine Transformation der Form (13.48) erfordert .N k C 2 /  2  2 D 4.N k C 2 / Multiplikationen und 2.N k C 2 / Additionen, insgesamt fallen dabei also 6.N k C 2 / arithmetische Operationen an. Entsprechend erfordert eine Transformation der Form (13.49) 6.k C 2 / arithmetische Operationen, und der Schritt k aus

(13.46) – bestehend aus den beiden Transformationen (13.48)–(13.49) – benötigt also 6.N C 2 / arithmetische Operationen. Für die N 1 Schritte aus (13.46) sind dem1 // arithmetische Operationen durchzuführen. Die Berechnung der nach 6N 2 . 1 CO. N Givensrotationen erfordert nochmals die dagegen nicht weiter ins Gewicht fallende Berechnung von N Quadratwurzeln und 2N Quotienten.

Abschnitt 13.6

385

Das LR-Verfahren

13.6 Das LR -Verfahren Alternativ zum QR-Verfahren kann man auch folgendermaßen vorgehen: Algorithmus 13.32 (LR-Verfahren). Sei A 2 R N N eine reguläre Matrix.

A.1/ WD A; for m D 1; 2; : : ::

bestimme Faktorisierung A.m/ D Lm Rm

mit Lm bzw. Rm 2 R N N von unterer bzw. oberer Dreiecksgestalt;

end

A.mC1/ WD Rm Lm 2 R N N ; M

Für das LR-Verfahren lassen sich dem QR-Verfahren vergleichbare Resultate erzielen. Einzelheiten finden Sie beispielsweise in Freund/Hoppe [31].

13.7 Die Vektoriteration 13.7.1 Definition und Eigenschaften der Vektoriteration Definition 13.33. Für eine gegebene Matrix B 2 R N N lautet die Vektoriteration folgendermaßen:

z .mC1/ D Bz .m/ ;

m D 0; 1; : : :

.z .0/ 2 R N /:

(13.50)

Die Vektoriteration ermöglicht unter günstigen Umständen die Bestimmung des betragsmäßig größten Eigenwerts der Matrix B . Das nachfolgende Theorem liefert hierzu ein Konvergenzresultat für diagonalisierbare Matrizen B 2 R N N mit Eigenwerten 1 ; 2 ; : : : ; N 2 C. Hierzu sei noch folgende Sprechweise eingeführt: für einen Index 1  k  N besitzt ein gegebener Vektor x 2 CN einen Anteil in N .B k I /,

falls in der eindeutigen Zerlegung8 x D xk nicht verschwindet, xk ¤ 0.

PN

kD1

xk mit xk 2 N .B

k I / der Vektor

Theorem 13.34. Für die diagonalisierbare Matrix B 2 R N N mit Eigenwerten 1 ; : : : ; N 2 C gelte 1 D 2 D    D r ; jr j > jrC1 j      jN j mit r  N 1.9 Falls der Startvektor z .0/ 2 R N einen Anteil in N .B 1 I / besitzt, gilt für die Vektoriteration (13.50) mit einer beliebigen Vektornorm jj  jj W CN ! R Folgendes,

jjz .mC1/ jj D j1 j C O.q m / für m ! 1; jjz .m/ jj 8 9

ˇ

ˇ

rC1 ˇ mit q WD ˇ < 1:

bekanntlich gilt in der vorliegenden Situation R N D ˚N N .B kD1 Im Fall r D N liegt die triviale Situation B D 1 I vor.

k I )

1

386

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

PN Beweis. Es gibt eine Darstellung der Form z .0/ D x1 C kDrC1 xk mit xk 2 N .B k I /, und dann gilt allgemein z .m/ D m 1 x1 C

N X

kDrC1

 N X m x1 C m k xk D  1

kDrC1

k m xk 1



;

m D 0; 1; : : : : (13.51)

Daraus erhält man nacheinander

1 m z .m/ D x1 C j1 j j1 j

m

jjz

1 jj z

.m/

kDrC1

k m xk 1

D x1 C O.q m / für m ! 1;

jj D jjx1 jj C O.q m / für m ! 1;

.mC1/ jj

jj z .m/ jj

N X

D

jj x1 jj C O . q mC1 / ./ D 1 C O.q m / jj x1 jj C O . q m /

für m ! 1;

(13.52)

wobei die Identität ./ wegen x1 ¤ 0 gilt. Die Identität (13.52) liefert dann unmittelbar die Aussage des Theorems. Bemerkung 13.35. In Theorem 13.34 stellt die Bedingung “z .0/ 2 R N besitzt einen Anteil in N .B 1 I /” keine wesentliche Einschränkung dar. Selbst falls z .0/ doch keinen Anteil in N .B 1 I / besitzt, so wird sich im Verlauf der Iteration aufgrund von Rundungsfehlern die in dem Beweis von Theorem 13.34 benötigte Eigenschaft einstellen, dass die Vektoren z .m/ Anteile in N .B 1 I / besitzen. M Das folgende Theorem liefert eine Folge reeller Zahlen, die im Falle symmetrischer Matrizen gegen den betragsmäßig größten Eigenwert konvergiert (und nicht gegen den Betrag davon). Theorem 13.36. Die Matrix B 2 R N N sei symmetrisch, und für ihre Eigenwerte 1 ; : : : ; N 2 R sei 1 D 2 D    D r ; jr j > jrC1 j      jN j mit r  N 1 erfüllt10 . Falls der Startvektor z .0/ 2 R N einen Anteil in N .B 1 I / besitzt, so konvergiert die zur Vektoriteration gehörende Folge der Rayleigh-Quotienten

rm D

.z .m/ />z .mC1/ ; jjz .m/ jj22

m D 1; 2; : : :

gegen den Eigenwert 1 ,

rm D 1 C O.q 2m / für m ! 1;

ˇ rC1 ˇ ˇ < 1: mit q WD ˇ 1

Beweis. Wie im Beweis von Theorem 13.34 erhält man (vergleiche (13.51)) N  X z .m/ D m x C 1 1

kDrC1

10

der Fall r D N ist trivial, B D 1 I

k m xk 1



;

m D 0; 1; : : :;

Abschnitt 13.7

387

Die Vektoriteration

wobei hier o.B.d.A. angenommen werden darf, dass die Eigenvektoren x1 ; xrC1 ; xrC2 ;

: : : ; xN 2 R N paarweise orthogonal sind. Daraus erhält man .z

.m/ > .mC1/

/ z

D

21mC1



jjx1 jj22



jjz .m/ jj22 D 21m jjx1 jj22 C

C

N X

kDrC1

N X

k 1

kDrC1

und Quotientenbildung ergibt

rm D  1

jjx1 jj22 C

PN

jjx1 jj22 C

kDrC1

PN



kDrC1

k 1

2mC1

. k /

2m

1

jjxk jj22 ;

k 1

2mC1

2m

D 1

jjxk jj22

 jjxk jj22 ;

 jjxk jj22 ;

jjx1 jj22 C O.q 2mC1 / jjx1 jj22 C O.q 2m /

D 1 C O.q 2m / für m ! 1; was die Aussage des Theorems liefert.

13.7.2 Spezielle Vektoriterationen Im Folgenden werden zwei spezielle Vektoriterationen vorgestellt. Definition 13.37. Für eine gegebene Matrix A 2 R N N ist die von Mises-Iteration folgendermaßen definiert,

z .mC1/ D Az .m/ ;

m D 0; 1; : : :

.z .0/ 2 R N /:

Die von Mises-Iteration erhält man mit der speziellen Wahl B D A aus der Vektoriteration (13.50), und die Eigenschaften der von Mises-Iteration entnimmt man daher unmittelbar Abschnitt 13.7.1. Definition 13.38. Für eine gegebene Matrix A 2 R N N und eine Zahl  2 R n .A/ ist die inverse Iteration von Wielandt folgendermaßen erklärt,

.A

I /z .mC1/ D z .m/ ;

m D 0; 1; : : :

.z .0/ 2 R N /:

Bemerkung 13.39. Die inverse Iteration von Wielandt erhält man mit der speziellen Wahl B D .A I / 1 aus der Vektoriteration (13.50). Abschnitt 13.7.1 liefert daher für eine symmetrische Matrix A 2 R N N mit Eigenwerten 1 ; : : : ; N 2 R unmittelbar das Folgende: Ist k ein Index, für den für k D 1; 2; : : : ; N entweder k D k

oder

jk

j < jk

j

erfüllt ist, so gilt für die dazugehörende Folge der Rayleigh-Quotienten rm ! .k / 1 beziehungsweise

rm1 C  ! k für m ! 1:

M

388

Kapitel 13 Numerische Verfahren für Eigenwertprobleme

Weitere Themen und Literaturhinweise Die in diesem Kapitel vorgestellten und andere Algorithmen zur numerischen Bestimmung der Eigenwerte von Matrizen finden Sie beispielsweise in den in Kapitel 12 genannten Lehrbüchern und in Bunse/Bunse-Gerstner [10] und Trefethen/Bau [106]. Verfahren zur numerischen Berechnung der Singulärwertzerlegung einer Matrix werden in [10], Deuflhard/Hohmann [21], Golub/Van Loan [35], Freund/Hoppe [31] und in Werner [112] vorgestellt.

Übungsaufgaben Aufgabe 13.1. Man weise nach, dass eine obere Hessenbergmatrix durch eine Ähnlichkeitstransformation mit einer Diagonalmatrix so umgeformt werden kann, dass die unteren Nebendiagonaleinträge nur die Werte 0 oder 1 annehmen. Aufgabe 13.2. Man zeige unter Verwendung von Aufgabe 4.9 auf Seite 104 Folgendes: für eine gegebene reguläre Matrix T D .v1 j : : : jvN / 2 R N N besitzt die Inverse T 1 genau dann eine LR-Faktorisierung, wenn Folgendes gilt, span ¹ e1 ; : : : ; en º \ span ¹vnC1 ; : : : ; vN º D ¹ 0 º für n D 1; 2; : : : ; N

1;

wobei ek 2 R N den k -ten Einheitsvektor bezeichnet. Aufgabe 13.3. Das QR-Verfahren erhält eine Hessenberg- oder Tridiagonalform: ist die reguläre Matrix A von Hessenberg- beziehungsweise Tridiagonalform, so besitzen auch die zu dem QR-Verfahren gehörenden Matrizen A.2/ ; A.3/ ; : : : eine Hessenberg- beziehungsweise Tridiagonalform. Aufgabe 13.4. Es sei A 2 R N N eine symmetrische Matrix mit Eigenwerten 1 D 2 D    D r ; jr j > jrC1 j      jN j. Mit der Vektorfolge z .mC1/ D Az .m/ ; m D 0; 1; : : :, werde die Folge der Rayleigh-Quotienten

rm D

.z .m/ />z .mC1/ ; jj z .m/ jj22

m D 0; 1; : : :;

gebildet mit einem Startvektor z .0/ , der einen Anteil im Eigenraum der Matrix A zum Eigenwert 1 besitze. Man weise Folgendes nach: für einen Eigenvektor x zum Eigenwert 1 gilt sgn.rm /m

ˇ  ˇm  z .m/ D x C O ˇ rC1 ˇ .m/ 1 jj z jj2

für m ! 1:

Aufgabe 13.5. Es sei A 2 R N N eine diagonalisierbare Matrix mit Eigenwerten 1 ; 2 ; : : : ; N ; für die 2 D 1 < 0 und j2 j > j3 j      jN j gelte. Für die Vektoriteration z .mC1/ D Az .m/ ; m D 0; 1; : : : weise man Folgendes nach ( jj  jj bezeichne irgendeine Vektornorm): a) Falls z .0/ einen Anteil im Eigenraum der Matrix A zum Eigenwert 1 besitzt, so gilt für einen Eigenvektor x1 zum Eigenwert 1 Folgendes:

 ˇ ˇ2 m  1 z .2m/ C z .2mC1/ ˇ 3 ˇ D x C O 1 1 jj 1 z .2m/ C z .2mC1/ jj

für m ! 1:

389

Übungsaufgaben

b) Falls z .0/ einen Anteil im Eigenraum der Matrix A zum Eigenwert 2 besitzt, so gilt für einen Eigenvektor x2 zum Eigenwert 2 Folgendes:

1 z .2m/ jj 1 z .2m/

 ˇ ˇ2 m  z .2mC1/  D x2 C O ˇ 3 ˇ . 2 mC 1 / 1 z jj

für m ! 1:

Aufgabe 13.6. Es sei 1 eine einfache dominante Nullstelle des Polynoms

p.x / D

n X

kD0

ak x k mit an D 1:

Zu vorgegebenen hinreichend allgemeinen Startwerten x1 man die Folge n X1

xmCn D

ak xmCk ;

kD0

n;

x2

n; : : : ;

x0 2 R n¹ 0 º betrachte

m D 1; 2; : : : :

Durch Anwendung der Vektoriteration auf die Transponierte der frobeniusschen Begleitmatrix zu p.x / weise man Folgendes nach,

 ˇ ˇm  xmC1 ˇ 2 ˇ xm D 1 C O 1

für m ! 1;

wobei 2 2 C eine nach 1 betragsmäßig größte Nullstelle des Polynoms p sei.

Aufgabe 13.7 (Numerische Aufgabe). Für die Matrix A D .ajk / 2 R N N mit

ajk D

° N N

j C 1; k C 1;

falls k  j; sonst,

bestimme man für N D 50 und N D 100 mit dem LR-Algorithmus numerisch jeweils sowohl den betragsmäßig kleinsten als auch den betragsmäßig größten Eigenwert. Sei Am D .m/ .ajk /; m D 0; 1; : : :; die hierbei erzeugte Matrixfolge. Man breche das Verfahren ab, falls m D 100 oder .m 1/ .m/ jakk akk j "m WD max  0:05 .m 1/ kD1;:::;N jakk j erfüllt ist. Man gebe außer den gewonnenen Approximationen für die gesuchten Eigenwerte auch die Werte "1 ; "2 ; : : : an.

14

Restglieddarstellung nach Peano

14.1 Einführende Bemerkungen Für ganz unterschiedliche Verfahren (zur Lösung auch ganz unterschiedlicher Problemstellungen wie etwa Interpolation sowie numerische Integration und Differenziation) existiert ein eleganter und einheitlicher Zugang zur Herleitung von Fehlerdarstellungen. Dieser Zugang, der zudem Verallgemeinerungen schon bekannter Fehlerdarstellungen für Funktionen f mit geringeren Differenzierbarkeitseigenschaften ermöglicht, soll in dem vorliegenden Kapitel 14 in Grundzügen vorgestellt werden. Im Folgenden wird das lineare Funktional R W C 1 Œa; b  ! R definiert durch

Rf D

n X

kD0

˛k f .xk / C ˇ

Z b a

f .x / dx;

1

f 2C

Œa; b ;

(14.1)

betrachtet. Dabei sind x0 ; x1 ; : : : ; xn 2 Œa; b  paarweise verschiedene Stützstellen, und ˛k und ˇ 2 R sind gegebene Koeffizienten. Weiter bezeichnet C 1 Œa; b  den Raum der stückweise stetigen Funktionen auf Œa; b . Es sei angenommen, dass das Funktional R für ein r  0 auf dem Raum der Polynome vom Höchstgrad r verschwindet,

Rp D 0 8p 2 …r : Beispiel 14.1. Zu gegebenen Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b  hat das Restglied bei der Polynominterpolation für einen ausgewählten Punkt x 2 Œa; b  die folgende Gestalt,

Rf D

n X

f .xk /Lk .x/

f .x/;

kD0

mit den lagrangeschen Basispolynomen Lk .x / D

f 2C

1

Œa; b ;

(14.2)

x xj j D0;j ¤k xk xj

. Bekanntermaßen

Qn

gilt hier Rj…n D 0, und für hinreichend glatte Funktionen f gilt die folgende Fehlerdarstellung1 :

Rf D mit !.x / WD .x

! . x / f .nC1/ .  / ; . n C 1 /Š

x0 /    .x

x n /.

f 2 C nC1 Œa; b ;

M

Beispiel 14.2. Für eine gegebene interpolatorische Quadraturformel und für hinreichend glatte Funktionen f hat das Restglied die folgende Gestalt,

Rf D .b 1

a/

n X

kD0

k f .xk /

Z b a

f .x / dx;

siehe (1.14)

© Der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2021 R. Plato, Numerische Mathematik kompakt, https://doi.org/10.1007/978-3-662-64110-1_14

f 2C

1

Œa; b :

392

Kapitel 14

Restglieddarstellung nach Peano

Per Definition ist für Quadraturformeln ein Genauigkeitsgrad von mindestens r gleichbedeutend mit der Eigenschaft Rj…r D 0, und für Funktionen f 2 C mC1 Œa; b  mit n  m  r sind bereits Fehlerabschätzungen bekannt2 . Auch hier stellt sich die Frage nach Fehlerdarstellungen für weniger glatte Funktionen f . M

14.2 Peano-Kerne Im weiteren Verlauf werden die folgenden Notationen verwendet: a)

.x

t /m C WD

° .x

t /m ; x  t; 0; x < t;

für m  1;

.x

t /0C WD

b) für eine Funktion W Œa; b   Œc; d  ! R mit der Eigenschaft für jedes t 2 Œc; d  bezeichnet

Rx . .x; t // D R. .; t //;

° 1; x  t; 0; x < tI .; t / 2 C

1

Œa; b 

t 2 Œc; d :

Das Argument von Rx ist also jeweils als Funktion von x aufzufassen. Definition 14.3. Gegeben sei ein Funktional R W C 1 Œa; b  ! R der Gestalt (14.1), welches auf dem Raum …r verschwindet. Dann bezeichnet man die Funktionen 1 Rx ..x Km .t / WD mŠ

t /m C /;

t 2 Œa; b 

.m D 0; 1; : : : ; r /

als Peano-Kerne. Das folgende Theorem liefert die zentrale Aussage des vorliegenden Abschnitts. Der zugehörige Beweis beruht auf einer Approximation der Funktion f durch Polynome vom Grad  r , die mittels Taylorentwicklungen gewonnen werden. Theorem 14.4. Gegeben sei ein Funktional R W C 1 Œa; b  ! R der Gestalt (14.1), welches auf dem Raum …r verschwindet. Für jedes 0  m  r gilt

Rf D

Z b a

f .mC1/ .t /Km .t / dt;

f 2 C mC1 Œa; b :

Falls weiterhin R.x rC1 / ¤ 0 erfüllt ist und der Peano-Kern Kr sein Vorzeichen nicht wechselt, so gilt die Darstellung

Rf D ~f .rC1/ . /;

f 2 C rC1 Œa; b ;

(14.3)

mit einer geeigneten Zwischenstelle  D  .f / 2 Œa; b  und der Konstanten ~ D R.x rC1 / : . rC1 /Š

2

siehe Theorem 6.13

Abschnitt 14.2

393

Peano-Kerne

Beweis. Eine Taylorentwicklung der Funktion f in dem linken Randpunkt a mit Integraldarstellung des Restglieds liefert

DW pm .x / 2 …m …„



f .x / D f .a/ C f 0 .a/.x Z x

1

mit rm .x / WD

mŠ a

a/ C    C

f

.m/ .a/



a/m C rm .x /;

.x

1 t /m dt D mŠ

f .mC1/ .t /.x

ƒ

Z b a

f .mC1/ .t /.x

x 2 Œa; b ; t /m C dt; x 2 Œa; b :

Somit erschließt man D0

‚…„ƒ Z b 1 Rf D R.pm C rm / D Rpm CRrm D mŠ f .mC1/ .t /.x Rx a Z b

./ 1

D mŠ

a

f .mC1/ .t /Rx ..x

t /m C / dt D

Z b a

t /m C dt

f .mC1/ .t /Km .t / dt;



f 2 C mC1 Œa; b ; wobei sich die Identität ./ wie folgt berechnet,

Rx

Z D D

b

f .mC1/ .t /.x

a n X

kD0 Z b a

˛k

Z b a

t /m C dt



f .mC1/ .t /.xk

f .mC1/ .t /

X n



kD0

˛k .xk

Z bZ b

t /m C dt C ˇ t /m C C ˇ

a

a

Z b

.x

a

ƒ‚ Rx ..x t /m C/

f .mC1/ .t /.x t /m C dx



t /m C dt dx

dt:



Damit ist der erste Teil der Aussage des Theorems bewiesen. Wechselt nun der PeanoKern Kr sein Vorzeichen nicht, so liefert eine Anwendung des Mittelwertsatzes der Integralrechnung

Rf D

Z b



a

 Kr .t / dt f .rC1/ . /; ƒ‚ … DW ~

f 2 C rC1 Œa; b ;

(14.4)

mit einer geeigneten Zwischenstelle  D  .f / 2 Œa; b . Eine Anwendung der Identität (14.4) auf das Monom x rC1 liefert schließlich die behauptete Darstellung für die Konstante ~ ,

R.x rC1 / D ~.r C 1 /Š; womit auch die Darstellung (14.3) bewiesen ist.

394

Kapitel 14

Restglieddarstellung nach Peano

Bemerkung 14.5. Auch für allgemeine Fehlerfunktionale der Form

Rf D

n0 X

n1 X

˛0k f .x0k / C

kD0

˛1k f 0 .x1k / C    C

kD0

ns X

˛sk f .s/ .xsk / C ˇ

kD0

Z b a

f .x / dx (14.5)

für f 2 C mC1 Œa; b 

gelten für m D s; sC1; : : : ; r die Darstellungen aus Theorem 14.4 mit dem Peano-Kern aus Definition 14.3 (noch allgemeiner dürften auch Terme mit gewichteten Integralen von Ableitungen der Funktion f auftreten). Man hat sich nur zu überlegen, dass die Identität ./ im Beweis von Theorem 14.4 auch in dieser allgemeinen Situation ihre Gültigkeit behält. M

14.3 Anwendungen 14.3.1 Interpolation Theorem 14.6. Zu gegebenen Stützstellen x0 ; x1 ; : : : ; xn 2 Œa; b  besitzt bei der Polynominterpolation das Restglied für eine ausgewählte Stelle x 2 Œa; b  die folgende Darstellung3 1 Rf D mŠ

n X

Lk .x /

kD0

Z x k x

f .mC1/ .t /.xk

t /m dt;

mit den lagrangeschen Basispolynomen Lk .x / D

f 2 C mC1 Œa; b  Qn

j D0 j ¤k

. 0  m  n/;

x xj . xk xj

Beweis. Nach Definition gilt für den Peano-Kern Km die folgende Darstellung, 1 Km .t / D mŠ

n  X

.xk

kD0

t /m C Lk .x /

.x

 t /m C ;

und daher

Rf D

D

n  1 X

mŠ kD0

Lk .x/

Z x k

Z x 1 f .mC1/ .t / mŠ a

1 C mŠ

n X

kD0



a

f .mC1/ .t /.xk

‚ n  X

D0 …„

Lk .x /.xk

kD0

Lk .x /

t /m dt

Z x k x

t /m

f .mC1/ .t /.xk

was in der behaupteten Darstellung resultiert. 3

vergleiche (14.2)



.x

Z x a

t/

f .mC1/ .t /.x

ƒ  m

 t /m dt ;

dt

t / dt

395

Weitere Themen und Literaturhinweise

14.3.2 Numerische Integration Beispiel 14.7 (Numerische Integration, Simpson-Regel). Das Restglied der SimpsonRegel zur numerischen Integration auf dem Intervall Œ 1; 1  hat die folgende Gestalt,

Rf D 13 f . 1 / C 43 f . 0 / C 13 f . 1 /

Z 1

1

f .x / dx;

f 2C

1

Œ 1; 1 ;

und bekanntermaßen4 ist r D 3 der Genauigkeitsgrad der Simpson-Regel. Daher gilt für t  0 (und m D 3)

t /3C /

K3 .t / D 16 Rx ..x h D 16 31 . 1 D D

1 6

h

1 3

t /3C C 43 . 0 4 3

 0 C 13 . 1

t /3

1 .1 4

0

1 1 .1 6 3

t /3C C 13 . 1 Z 1

t /3  t /4 D

t /3C t /3 dx

.x

t

1 .1 72

Z 1

.x

1

i

t /3C dx

i

t /3 . 1 C 3t /  0 für t 2 Œ 0; 1 :

Weiter gilt nach Aufgabe 14.2 die folgende Identität,

K3 . t / D K3 .t /;

t 2 Œ 0; 1 ;

so dass der Peano-Kern K3 auf dem Intervall Œ 1; 1  von einem Vorzeichen ist, K3 .t /  0 für t 2 Œ 1; 1 . Also ist (14.3) anwendbar, und wegen R.x 4 / 4Š

D

1 24



1 3

C

4 3

0C

Z 1

1 3

1

 x 4 dx D

1 90

erhält man so die schon bekannte Fehlerdarstellung 1 f. 3

4 3

1 3

1/